![]() |
| <▲画像:搭載したカメラで様々な物の認識ができるのでGeminiとの連携で調べものも手軽> |
Googleはすでに米メガネブランド「Warby Parker(ワービー・パーカー)」らと提携し、第一弾の製品を2026年に発売する予定を明らかにしている。ただし、具体的な発売日や価格、製品名はまだ分からない。
Warby Parker以外のパートナーには韓国のサムスン電子、Gentle Monsterが名を連ねている。
さて、その開発中のAIグラスだが、Googleが手掛けるXRプラットフォーム「Android XR」とGoogleのAIモデル「Gemini」が組み合わせられたもので、レンズ内に搭載されたディスプレイ、フレームに搭載されたスピーカーとマイク、カメラを活用し、様々な用途に利用できる。
ただし、レンズ内ディスプレイについては全ての製品で搭載される訳ではなく、ディスプレイ無しモデルも用意されるなど、複数パターンがあるようだ。例えば完全にディスプレイの無いモデル、片側のレンズのみにディスプレイを搭載するモデル、両側に搭載するモデルといった具合だ。
操作系は音声入力かフレームに搭載されるタッチ操作のいずれかとなるようで、基本的には音声が多くなりそうだ。
AIグラスにはカメラが搭載されているため、装着ユーザーが目にしている物や風景・構造物などをカメラで認識し、Geiminiに尋ねることができる。もちろん様々な情報をディスプレイに表示できる。下に掲載した画像のように、ナビゲーションも便利だろう。
![]() |
| <▲画像:ナビゲーションもレンズ内ディスプレイ表示によって便利そうだ> |
さらに搭載したカメラを使って手軽に写真を撮ることもできるし、その場でGeiminiに頼んでAI加工までできてしまう。
また、翻訳についてもスマートフォンよりも利便性が高そうだ。
![]() |
| <▲画像:リアルタイム翻訳ではディスプレイに翻訳テキストの表示ができるのでかなり便利だろう> |
相手が喋っている外国語の翻訳テキストをディスプレイにリアルタイムで表示できるため、精度にもよるがかなり便利かもしれない。スピーカーを使って音楽を楽しむこともできる。
なお、Warby Parkerの共同CEOを務めるNeil Blumenthal氏はAIグラスについて、将来的には一般的なものになるだろうとコメントしている。同氏は、いずれAIグラスが特別なものではなく普通のメガネと呼ばれるようになると予想している。
情報元、参考リンク




