此前我們很認真的關注過當時市面上的眼動追蹤技術,不記得或感興趣的可以回看《眼動追蹤主流技術的發展與對比》,這次我們來填下之前挖的坑,主要就我們關心的眼動追蹤追蹤技術看下Apple Vision Pro采用的眼動追蹤系統為什麼能達到實用消費級精確度的。
我們肯定不是專家,所以就我們的自己的看到做分享如有錯誤歡迎專業人士賜教。
先看下Apple Vision Pro 眼動追蹤系統的主要構成部分:
LED:LED 將不可見光圖案投射到每隻眼睛上。
這些圖案用於跟蹤眼睛的位置和運動,而且是每個眼鏡內部都有一圈的LED,具體數量未拿到準確參數,應該是不少的。
紅外攝像頭:紅外攝像頭捕捉 LED 投射的光模式。
然後,相機使用此信息來跟蹤眼睛的位置和運動。
系統軟件:系統軟件使用來自紅外攝像機的數據來跟蹤眼睛的位置和運動。
該軟件然後使用此信息來控制 Apple Vision Pro 的用戶界面。
根據構造的工作原理可以看出其實現的基本步驟:
LED 燈環將不可見的光圖案投射到用戶的眼睛上。
高速攝像機捕捉 LED 投射的光模式。
然後相機使用此信息來跟蹤眼睛的位置和運動。
將來自相機的數據來跟蹤眼睛的位置和運動的數據即時傳輸到系統。
再由系統軟件使用其數據處理後來控制 Apple Vision Pro 的用戶界面。
然後通過系統提供超精確的輸入,無需您握住任何控制器,因此您隻需看一下就可以準確地選擇元素。
Apple Vision Pro 中的眼動追蹤系統是空間計算領域的重大進步。
它允許用戶以更自然和直觀的方式與耳機進行交互。
這可能會徹底改變我們使用虛擬現實和增強現實的方式。
顯而易見的Apple Vision Pro中使用眼動追蹤技術已經足夠成熟,後續會帶來的直接好處:
更自然和直觀的交互:眼動追蹤讓用戶能夠以更自然和直觀的方式與耳機進行交互。
這是因為用戶可以簡單地查看他們想要與之交互的內容,而不必使用控制器或手勢。
提高準確性:眼動追蹤可以提高用戶輸入的準確性。
這是因為耳機可以跟蹤用戶眼睛的確切位置,可以用來更精確地選擇屏幕上的元素。
交互的新可能性:眼動追蹤可以為與耳機的交互開辟新的可能性。
例如,用戶可以使用他們的眼睛來控制虛擬對象的移動,或者選擇屏幕上的文本。
我們從目前眾多的公開測評內容判斷,這次的技術的完成度已經是目前市面上消費級產品使用的最高數碼產品,眼動追蹤可以精確到單個字符的光標選擇。
這一整套系統整合了『光學+紅外『的兩項市面算比較成熟眼動追蹤技術,而且加上蘋果的專屬傳感器芯片和系統補強就有了蘋果眼神控制的黑科技。
足以可見一個關鍵技術的走向成熟和商業化還是需要超強的整合和研發實力的。