Apple 還能不能趕上 AI 這波浪潮?

  • 2019 年 12 月 1 日
  • 筆記

現在開大會,不說點兒 AI 就 out 了,曾有網友開玩笑說,今年 Google I/O 的發布會就是:Google 系列產品+ AI。

Apple 也是一樣,這幾年在硬體上沒有什麼重大創新,也是慢慢在講講自己跟 AI 的故事。

在果粉翹首以待的蘋果 演唱會 發布會上,蘋果一口氣推出了三款新的 iPhone 和 Apple watch 系列 4 。

雖說硬體上的改觀乏善可陳,但最起碼實現了很多人夢寐以求的雙卡雙待,弱弱的問上一句,你還有腎可以賣嗎?

相比之下,這次發布會最大的看點,要數 Apple 在 AI 上的進展。

屠龍榜首的 AI 加持晶片

發布會用了很長一段時間去介紹 A12 仿生晶片。這款被稱為史上最強大的晶片,為 AI 應用提供了足夠的算力。

A12 仿生晶片的效果圖

A12 是蘋果發布的第二款仿生晶片, 上一代晶片 A11可以說開啟了一個潮流。可怕的是,A12 在性能上又有了巨大提升,性能比前代 A11 高了一半左右。

這塊晶片主要部分是 6核的 CPU、4核的 GPU 和一個八核的神經網路引擎 Neural Engine。

神經網路引擎的強大在於處理矩陣乘法和浮點處理的能力。據稱它每秒能夠進行 5 萬億次運算,遠超過 A11。此外神經網路引擎將開放給 Core ML ,使用 A12 晶片的機器學習能力相比起之前能夠提升 9 倍,同時能耗則降低到原來的十分之一。

應用了 A12 晶片的新 iPhone,展示了很多黑科技的操作,比如拍照 AI 應用、運動測量、投籃計分、運動員姿態估計、運動軌跡記錄,從這些場景中能窺見它強大性能的一些端倪。

基於這款晶片,iPhone 可以處理更多炫酷的任務。那 iPhone 是如何實現那些 AI 功能的呢?

這就要說到蘋果在 2017 年推出的機器學習框架 Core ML 。

打通任督二脈的 Core ML

Core ML 是一款機器學習的框架,建立在 Accelerate、BNNS 和 Metal Performance Shaders 等語言之上。它支援諸多 AI 技術,比如基於計算視覺的影像分析、自然語言處理(如 NSLinguisticTagger 類)和用於評估學習決策樹的 GameplayKit 框架。

Core ML 的作用結構圖

Apple 是去年 5 月份在 iOS 11 的發布會上首次推出 Core ML,它可以將機器學習模型集成到手機 App 上,在提高 App 運行穩定性的同時,通過降低 RAM 和電池消耗,讓手機更好的運行 AI 應用。

Core ML 的作用是將 AI 模型應用到手機端

將逐漸興起的 AI 技術應用在手機端,是個難以克服的問題。但目前,Core ML 已經被廣泛應用於影像識別、語言翻譯、對象檢測等 App 開發領域。可以說它是 Apple 公司將機器學習技術融入到手機中的關鍵之處。

Core ML 投入應用後,Apple 公司又陸續推出了 Core ML 2 和 GPU 加速工具 Create ML(用於在蘋果電腦上訓練 AI 模型)。

Core ML 2 發布現場

Core ML 2 是 Core ML 的升級版,運行速度提升了 30%,支援 16 位浮點數,且附帶模型轉換器。這個神奇的轉換器,可以將 Core ML 與其他機器學習框架等配合使用。目前支援的有 Keras、scikit-learn、XGBoost、LibSVM、Google 的 TensorFlow、Facebook 的 Caffe 等。這大大發揮了它們的威力。

說了這麼多,你是不是也不太懂。我們從 BeCasso 這款影像處理軟體,看看 Core ML 是怎麼讓 AI 應用在 iPhone 上運行。

給 AI 畫家提供加成 Buff

在今年的 WWDC 大會上,Digital Masterpieces 公司展示了一款可實現影像風格遷移的 App—— BeCasso(畢加索),它可以將實景圖轉化為一張仿古風格的油畫。而它在 IPhone 上的運行就要歸功於仿生晶片和 Core ML。

+

BeCasso 影像風格遷移示意圖

BeCasso 通過深度神經網路實現風格遷移,但在遷移過程需要消耗大量的 RAM 和算力,這對存儲器和處理器要求很高。在條件不成熟時, BeCasso 只能對低像素圖片的做風格遷移。

而 Core ML 框架給了它在手機端運行的機會。Core 讓 BeCasso 在運行的同時,進行記憶體優化,釋放大量可用空間,而仿生晶片則可以為其提供充足的算力。BeCasso 能在一秒種內對一張超清大圖完成風格遷移。不難推測,在新款的 iPhone 估計表現更加優異。

Apple 劍指 AI

除了 AI 晶片和機器學習框架 Core ML , Apple 公司近年來在 AI 發展上,下了不少的功夫。

Siri 語音助手從被詬病到如今被稱為進步最大的語音助手, 尤其是 Apple 在 17 年收購 Workflow 後,又和 Siri 進行了整合,推出了強大的的 Siri Shortcuts 應用。實現了語音打開第三方 APP,智慧化程度和可操作性都讓人驚嘆。

在今年 2 月份,姍姍來遲的智慧音響 HomePod,搭載了空間監測技術和 Siri 助理,它的「空間意識」( Spatial Awareness ),可以智慧檢測空間,從而調整音頻品質。

HomePod 這類智慧音響已經成為大廠布局 AI 的標配

面部識別( Face ID )已不是什麼新鮮事物, 它安全性好,快捷易用。Apple 憑藉的強大攝像系統、安全隔區以及神經網路引擎等精密技術,為解鎖、登錄和支付帶來了新的方式。

此外,還有這次發布會上秀了一把的增強現實開發平台 ARkit。 它適用於 iPhone 和 iPad 平台,利用設備中的相機、CPU、GPU和運動感測器,藉助iOS龐大的用戶群,組建了世界上最大的 AR 平台。

ARkit

當然,Apple 近幾年來最大的動作還是在 AI 人才方面的儲備。

比如在 4月份,就把Google AI 的前負責人 John Giannandrea 招募了過來。

隨著 Apple 公司不斷推出的 AI 技術, AI 模型在手機端的發展已顯現了可喜的進展。接下來限制 AI 應用開發的將不再是算力和 RAM,而是缺乏更多的 AI 模型。在這方面,Apple 的雲服務倒是大有可為,它可以幫助開發人員構建 AI 模型,並提供訓練這些模型所需要的數據。

至於 Apple 還會帶給我們什麼,就只能等下次的發布會了。(接著吐槽?)

說回 Apple 這次的發布會,不管人們怎麼吐槽,它依舊還是華麗麗的一場秀。即便華為的大佬在蘋果的發布會後,發了一條意味深長的微博,說「 穩了」。

華為大佬在 Apple 發布會後發的微博

但這也阻止不了廣大群眾的熱情,畢竟還是要熱熱鬧鬧的看春晚,啊呸,看蘋果發布會啊。