今日、Brain-Computer Interface(BCI)テクノロジーの開発が増えているため、Meta AIの最新のBrain2QWertyモデルは、この分野に新しい希望をもたらしました。 BCIは、言語障害または動きの障害を持つ人々にコミュニケーションを提供するように設計されていますが、従来の方法では、医学的リスクをもたらすだけでなく、長期的な維持も必要とする電極を埋め込むなどの侵入手術が必要です。したがって、研究者は、特に脳波(EEG)に基づく非侵襲的代替案を探求し始めました。ただし、EEGテクノロジーは、信号分解能の低い問題に直面しており、その精度に影響します。
画像ソースノート:画像はAIによって生成され、画像認定サービスプロバイダーMidjourney
Brain2QWertyは、この問題を解決するために開始されました。このディープラーニングモデルは、EEGまたは脳磁気共鳴画像診断(MEG)によって捉えられた脳活動から参加者の入力文をデコードできます。この研究では、参加者はQwertyキーボードに簡単に記憶された文を入力しましたが、脳の活動はリアルタイムで記録されました。 Brain2Qwertyは、外部刺激や想像上の動きに焦点を合わせる以前の努力とは異なり、自然なタイピングの動きを使用して、より直感的な脳波を解釈する方法を提供します。
Brain2Qwertyのアーキテクチャは、3つの主要なモジュールに分割されています。 1つ目は、EEGまたはMEG信号の時間的および空間的特性を抽出する原因となる畳み込みモジュールです。次は、入力のシーケンスを処理するトランスモジュールで、理解と式を最適化します。最後に、言語モデルモジュールがあります。これは、デコード結果の精度を修正および改善するために使用される事前に訓練された文字レベルの言語モデルです。
Brain2QWertyのパフォーマンスを評価するとき、研究者は測定値として文字エラー率(CER)を使用しました。結果は、EEGに基づくデコードCERが67%であることを示していますが、これは比較的高くなっていますが、MEGを使用しています。実験では、最高のパフォーマンスがCERの19%に到達し、理想的な条件下でモデルの可能性を示しています。
Brain2Qwertyは、非侵襲的BCI分野で前向きな見通しを示していますが、いくつかの課題に直面しています。まず、現在のモデルでは、キーを1つずつデコードする代わりに、完全な文を処理する必要があります。第二に、MEGはEEGよりも優れたパフォーマンスを持っていますが、そのデバイスはポータブルではなく、人気が不十分です。最後に、この研究は主に健康な参加者を対象としており、将来の運動障害や言語障害のある人への適用性を調査する必要があります。
論文:https://ai.meta.com/research/publications/brain-textext-decoding-a-non invasive-approach-via-typing/
キーポイント:
Meta AIによって開始されたBrain2QWertyモデルは、EEGとMEGを介してタイピングコンテンツをデコードでき、BCIテクノロジーに新しい希望をもたらすことができます。
この研究の結果は、MEGを使用したデコードに使用されるキャラクターエラー率がEEGのそれよりも有意に低く、最適な参加者がCERの19%に達することを示しました。
将来の課題には、リアルタイムのデコード、MEGデバイスのアクセシビリティ、障害のある人のアプリケーション効果が含まれます。
これらの結果は、非侵襲的BCI技術が徐々に実装されており、将来より多くの人々に効果的なコミュニケーションツールを提供することが期待されていることを示しています。