Google I/O 2025: Experience with Android XR Glasses
藉由多模態語言模型重啟的 Google Glasses 專案,請先默念: prototype stage
此篇感謝 #GDE program 的邀請,而能有參與現場體驗機會。
在 Google I/O Day1 Keynote 時讓大家驚喜的 Glass ,在經過 2012 Google I/O Google Project Glass 之後,藉著 VLM 能力的大幅進步之後重啟的專案。
官方文字 "work in tandem with your phone, giving you access to your apps without ever having to reach in your pocket" 已經說明了在做什麼。簡單說就是本來用手機版 Gemini Live 做辨識,延伸到釋放雙手,透過眼鏡鏡頭做 Gemini Live 情境展示。
開放現場體驗,當然排隊人潮也是相當可怕,
體驗流程
1) 進入體驗區之前,先說明怎麼解決帶近視眼鏡 -> 用有度數矯正片夾上去 (會有專門人員拿眼鏡過去驗光 -> 加上矯正片)
2) 進場前再次聲明幾件事: 因為有更多技術機密,所以裡面不能拿出手機拍照,最後結束前有一小區可以自拍,無法回答量產時程,詳細規格,有什麼限制 (例如電池續航,是否防水,預覽畫面調整等等)
3) 操作方式: 鏡架側邊是觸碰感應區, 長按兩秒(開機) -> 輕觸一下(啟動/暫停)
4) 展示有兩個到三個:
- 看書本內容,Gemini 總結,然後繼續提問
- 辨識桌上的物品看到什麼 (有點忘了有沒有包括這個,因為我後來自己情境就是現場隨機看個東西請 Gemini 辨識,哈哈)
- 辨識牆上一張畫作,敘述內容,接著提問畫作是誰畫的 (我在操作時直接說他不知道誰畫的,工作人員有點緊張,說出一點問題應該可以回答 XD)
心得
終於沒有像之前賽亞人造型版本,換個低調簡約看看市場接受度會不會好一些。
直連 Gemini,所以中文語音辨識沒問題
合作廠商除了三星,另外就是美國眼鏡公司 Warby Parker (股價當然也順勢...)
開發者需要知道的技術細節,開發方式當然還沒有任何消息
相關討論
- 官方介紹: https://blog.google/products/android/android-xr-gemini-glasses-headsets/
- https://9to5google.com/2025/05/20/android-xr-io-2025/
- https://www.cnbc.com/2025/05/21/sergey-brin-google-glass-android-xr.html