日前蘋果的資料科學家於一場會議曾首次指出,他們將會公佈自家的 AI 研究成果,同時允許旗下學者自由參與學術活動。不過,蘋果目前苦心投入的 AI 技術,究竟會拿來做什麼?
會議中,蘋果大概透露了他們製作的機器學習有幾個方向:圖像與人臉辨識,預測使用者的行為,智慧型助理的語言能力,同時設法強化演算法的可靠性。
其中,稍微引人注意的,是蘋果也再次「證實」他們已經在開發自駕技術,指出自家機器學習技術將會用在光學雷達(LiDAR)與量體建模── 一項當前業界用於讓自駕車「理解」現實障礙物的主流技術。不過據外媒表示,與會的蘋果學者僅願意就「AI」的部份提出說明,不打算透露產品的內容。
另一項則是類神經網絡的研發。據蘋果所述,他們的技術可以在維持同樣精準度的前提下,增加兩倍的演算速度,卻同時比原型小了 4.5 倍。一般來說,類神經網絡主要是用來模擬生物神經元的反應,在不需要主動輸入資料的前提下,讓一個「學生」類神經網絡,獲得另一個「教師」類神經網絡的技能。目前,蘋果主要希望把這種技術用到 iOS,讓裝置不需要伺服器就能自主運算,處理像是圖片與臉孔辨識之類的事。這種技術也能幫助蘋果不需要另外費工加密資料,再上傳到自己的雲端。
為了因應圖像處理,蘋果也強化了 GPU 的運算效能。蘋果自稱,假如都在亞馬遜的雲端平台跑的話,他們的機器學習在掃描圖像的效能,比 Google 快了兩倍──確切來說,是每秒能掃 3,000 張,而 Google 只能跑 1,500 張。實際上也有消息指出,蘋果目前也已經大幅接手了 iOS 裝置的 GPU 設計,距離完全自主僅有一步之遙。不過,蘋果並沒有公開如何訓練類神經網絡來辨識圖片的技術,而且還申請了專利。
目前,蘋果儘管宣誓會開放自家的 AI 與機器學習團隊,同時讓合作學者能繼續與學術機構互動,但並沒有透露詳細的規定與界線。至於下一代 iOS 的重大變化,依目前的資訊除了底層的檔案格式將置換成統一的 Apple File System,也可能會首次加入 AR,推出與 Google Daydream 類似的平台。
(首圖來源:蘋果)