蘋果更新 ARKit 4.0,讓光達相機更精準識別景深資訊、透過 AI 判定正確人臉位置

管理員 | Ios
【此文章來自:Mashdigi】
 

大量導入機器學習應用

公佈 iOS 14 版本更新內容之餘,蘋果其實也默默地透露 ARKit 更新至 4.0 版本,其中強化景深識別 API、位置錨定功能,同時也讓支援蘋果類神經網路引擎運算的機種,都能透過視訊鏡頭進行臉部識別追蹤,藉此對應更精準的擴增實境應用。

mashdigi_capture-2020-06-24-下午5.01.33.jpg



在去年公佈的 ARKit 3.0 版本裡,蘋果其實就已經加入景深識別與位置錨定功能,而此次在 4.0 版本更新分別針對這兩項功能應用升級,讓搭載 LiDAR 光達的裝置 (例如近期更新的 iPad Pro,或是未來預期也會加入光達設計的新款 iPhone) 都能識別更精準景深資訊,另外也透過更新位置錨定功能與真實地理座標整合,讓虛擬物件可更緊密與鏡頭拍攝物件貼和,並且減少虛擬物件貼和後出現不穩定,或是在不同角度觀看可能發生影像碎裂等情況。

不過,由於新版景深識別使用 LiDAR 光達元件功能,因此目前僅對應新款 iPad Pro 使用,但一般 iPhone、iPad 在內裝置,依然可藉由 ARKit 3.5 版本的景深識別功能達到近似效果。而新版位置錨定功能則可對應 iPhone XS、iPhone XS Max、iPhone XR,以及之後推出機種,同時暫時也僅在美國特定城市提供使用,未來應該會持續開放更多地區使用。

mashdigi_capture-2020-06-24-下午5.02.24.jpg


而新版臉部識別功能,則必須使用類神經網路引擎運算效能,因此僅支援 A12 Bionic 處理器,以及之後推出處理器使用,即便像是未搭載 TrueDepth 相機的新款 iPhone SE,由於本身搭載 A13 Bionic 處理器,即可透過人工智慧運算效能實現精準人臉識別追蹤效果。

另外,即便像 iPhone X 搭載的是 A11 Bionic 處理器,但由於搭載 TrueDepth 相機設計,因此也能對應精準人臉識別效果。

mashdigi_capture-2020-06-24-下午5.02.14.jpg


其他更新功能部分,ARKit 4.0 更強化動作捕捉功能,讓系統能更清楚識別人體關節及骨骼運動模式,並且支援同時開啟前後鏡頭,藉此實現更多元的擴增實境互動模式。至於在影像識別部分,新版 ARKit 4.0 可對應單次偵測多達 100 張圖像,並且自動判斷圖像中的物件大小,同時也讓 3D 立體物件識別能力提昇,進而讓整體擴增實境應用表現更好,甚至可透過機器學習正確判斷環境中的平面所在,不會像過往必須多次偵測才能判斷正確平面位置。

 

Mashdigi

Mashdigi

出生自台灣高雄的楊又肇,以前聯合新聞網 (udn.com)數位頻道主編,以及在各網站頻道以本名或Mash Yang名稱維持提供撰寫、授權內容等身分,持續在網路、科技相關活動、展覽出沒。撰寫內容涵蓋個人感興趣內容,包含手機、網路、軟體、零組件,以及科技市場動態,另外也包含各類惡趣味內容,並且持續關注蘋果、微軟、Google、Intel、AMD、Nvidia等經常在你我生活中出現的科技廠商動態。