EyeSight是 Apple Vision Pro 最突出的功能,在頭顯表面形成人工透明結構,允許用戶眼神交流。
那麼,該功能的工作原理是如何運行的呢?
如果第一次看到Vision Pro並且不熟悉VR技術,可能會認為Vision Pro正面是由一塊透明玻璃制成的。
實際上,就像任何其他 VR 頭顯一樣,用戶的眼睛隱藏在一層不透明的技術後面,包括顯示器、鏡頭、傳感器和芯片。
在 WWDC 2023 小組討論中,Vision Pro 首席開發人員Mike Rockwell談到了 Eyesight 背後的技術。
根據 Alex Heath 的說法,這個想法可以追溯到蘋果前首席設計師 Jony Ive。
這並不是全新的:Meta 在 2021 年展示了帶有假視覺的原型,但沒有在產品中實施該技術。
Eyesight 背後的秘密是外部顯示屏,可以實時呈現頭顯用戶的眼睛。
視力顯示器是彎曲的,並使用透鏡原理,這意味著用戶從不同角度觀察時會呈現不同的圖像。
傳統的 2D 顯示器會使眼睛看起來不自然,尤其是從側面觀察時。
Mick Rockwell 表示:『我們必須為每個人創建一個獨立的視角。
所以我們想出了一個透鏡顯示器,這是有史以來第一個彎曲的透鏡顯示器。
我們實際上為每個觀察 Vision Pro 外部顯示屏的人呈現了獨特視圖』
這些視圖的數據從何而來?從Rockwell的陳述中,可以得出結論,有兩個數據源:一方面,頭顯內部有四個眼動追蹤攝像頭拍攝的畫面。
另一方面,蘋果使用數字角色,它是在佩戴者的 3D 面部掃描的幫助下預先生成的。
從這些數據源中,以最小的延遲創建眼睛區域的數字圖像,然後以不同的視角呈現。
由於此功能的技術復雜性《以及技術故障可能導致的怪異效果》,媒體尚未能夠在Apple Vision Pro 的第一次動手實踐中親自試用 Eyesight。
蘋果可能仍在微調。
然而,一些專家表示,Eyesight將有許多局限性,並且由於技術原因,預計眼部區域的圖像會暗淡且分辨率相當低。
盡管如此,蘋果堅信巨大的技術努力是值得的。
因為蘋果想要突破雙方對 VR 頭顯的孤立,使得頭顯用戶既能看到外部環境,又能讓外界看到頭顯用戶。
Eyesight還包括自動淡入和淡出眼部區域的功能,具體取決於用戶是沉浸在沉浸式內容中還是與附近的人互動。
當有人靠近時,此人會自動出現在視野中。