Meta Corporation は、Ray-Ban スマート グラスに、リアルタイム AI、リアルタイム翻訳、Shazam という 3 つのエキサイティングな新機能をリリースしました。これらの機能の追加により、ユーザーエクスペリエンスがさらに向上し、ウェアラブルデバイス分野におけるAI技術の大きな可能性が実証されます。このうち、リアルタイム AI 機能とリアルタイム翻訳機能は現在早期アクセス段階にあり、Shazam 機能は米国とカナダのすべてのユーザーに公開されています。新機能の導入は、スマートグラスがよりインテリジェントで便利な方向に発展することを示すものであり、ウェアラブルデバイスが将来的に私たちの日常生活により深く組み込まれることを示しています。
Meta Company は最近、Ray-Ban スマート グラスにリアルタイム AI、リアルタイム翻訳、Shazam という 3 つの新機能を搭載すると発表しました。このうち、リアルタイムAIとリアルタイム翻訳機能は現時点ではメタ早期アクセスプログラムの会員に限定されているが、Shazam機能は米国とカナダのすべてのユーザーが利用できる。
リアルタイム AI およびリアルタイム翻訳機能は、今年初めに開催された Meta Connect 2024 カンファレンスで初めてプレビューされました。リアルタイム AI により、ユーザーはメガネが周囲を監視し続けている間、Meta の AI アシスタントと自然な会話を行うことができます。たとえば、食料品店の青果コーナーを閲覧しているとき、理論的には、見ている食材に基づいていくつかのレシピを推奨するように Meta の AI に依頼できます。メタ氏によると、フル充電すると、ユーザーは一度に約 30 分間リアルタイム AI 機能を使用できるという。
一方、リアルタイム翻訳機能により、メガネは英語とスペイン語、フランス語またはイタリア語の間でリアルタイム音声翻訳を実行できます。メガネ自体を通して翻訳を聞くか、携帯電話で翻訳されたテキストを表示するかを選択できます。事前に言語ペアをダウンロードし、あなたと会話相手が使用する言語を指定する必要があります。
Shazam 機能はより簡単です。曲が聞こえたら、Meta AI に指示するだけで、どの曲が再生されているかを教えてくれるはずです。 Meta CEO の Mark Zuckerberg 氏は、Instagram ビデオでこの機能をデモンストレーションしました。
メガネにこれらの新機能がまだ表示されていない場合は、メガネが v11 ソフトウェアを実行しており、Meta View アプリがバージョン v196 を実行していることを確認してください。まだ早期アクセス プログラムに参加していない場合は、この Web サイトから申請できます。
このアップデートは、テクノロジー大手がスマートグラスの中核セールスポイントとしてAIアシスタントに注目している時期に行われた。つい先週、Googleはスマートグラス専用に設計された新しいオペレーティングシステムであるAndroid XRをリリースし、そのGemini AIアシスタントをキラーアプリとして強調した。同時にメタの最高技術責任者アンドリュー・ボズワース氏もブログで「2024年はAIメガネが大きく進歩する年だ」と述べた。ボズワース氏はまた、スマートグラスは「真にAIネイティブ」なデバイスの最良の形態であり、最初からAIによって完全に定義された最初のハードウェアカテゴリである可能性があると主張した。
全体として、このメタ スマート グラスの機能アップグレードは、ウェアラブル デバイスの分野における AI の大きな可能性をさらに証明しており、テクノロジー大手間の競争により、スマート グラス技術の急速な発展がさらに促進されることになります。
この機能アップデートは、レイバン スマート グラスのユーザー エクスペリエンスを向上させるだけでなく、スマート グラスが将来的によりインテリジェントになり、人々の日常生活にさらに統合されることを示しています。 Meta の取り組みはスマートグラス業界全体の技術開発も促進しており、今後のさらなる革新的な機能に期待する価値があります。