Hoy, con el creciente desarrollo de la tecnología de la interfaz de computadora cerebral (BCI), el último modelo Brain2Qwerty de Meta AI ha traído una nueva esperanza a este campo. BCI está diseñado para proporcionar comunicación a las personas con trastornos del habla o del movimiento, pero los métodos tradicionales a menudo requieren cirugía invasiva, como implantar electrodos, que no solo plantean riesgos médicos, sino que también requiere un mantenimiento a largo plazo. Por lo tanto, los investigadores han comenzado a explorar alternativas no invasivas, especialmente aquellas basadas en electroencefalografía (EEG). Sin embargo, la tecnología EEG enfrenta el problema de la baja resolución de la señal, que afecta su precisión.
Notas de fuente de imagen: La imagen es generada por AI y el proveedor de servicios autorizado de imagen MidJourney
Brain2qwerty se lanzó para resolver este problema. Este modelo de aprendizaje profundo puede decodificar las oraciones de entrada de los participantes de las actividades cerebrales capturadas por EEG o resonancia magnética cerebral (MEG). En el estudio, los participantes ingresaron oraciones memoradas brevemente en el teclado Qwerty, mientras que su actividad cerebral se registró en tiempo real. A diferencia de los esfuerzos anteriores para centrarse en la estimulación externa o los movimientos imaginados, Brain2qwerty utiliza movimientos de tipificación natural para proporcionar una forma más intuitiva de interpretar las ondas cerebrales.
La arquitectura de Brain2qwerty se divide en tres módulos principales. Primero es el módulo de convolución, que es responsable de extraer las características temporales y espaciales en la señal EEG o MEG. El siguiente es el módulo de transformador, que procesa la secuencia de entradas, optimiza la comprensión y la expresión. Finalmente, existe el Módulo del Modelo de Lenguaje, que es un modelo de lenguaje de nivel de carácter previamente entrenado utilizado para corregir y mejorar la precisión de los resultados de decodificación.
Al evaluar el rendimiento de Brain2Qwerty, los investigadores utilizaron la tasa de error de carácter (CER) como medida. Los resultados muestran que el CER de decodificación basado en EEG es del 67%, lo que es relativamente alto; En el experimento, los mejores artistas alcanzaron el 19% de los CER, mostrando el potencial del modelo en condiciones ideales.
Aunque Brain2qwerty ha mostrado perspectivas positivas en el campo BCI no invasivo, enfrenta varios desafíos. Primero, el modelo actual necesita procesar las oraciones completas en lugar de decodificar las claves una por una. En segundo lugar, aunque MEG tiene un mejor rendimiento que EEG, sus dispositivos no son portátiles y no tienen suficiente popularidad. Finalmente, este estudio se realizó principalmente en participantes sanos y es necesario explorar su aplicabilidad a aquellos con trastornos del ejercicio o del habla en el futuro.
Documento: https://ai.meta.com/research/publications/brain-to-text-decoding-a-non-invasive-parroach-via-typing/
Puntos clave:
El modelo Brain2Qwerty lanzado por Meta AI puede decodificar el contenido de escritura a través de EEG y MEG, trayendo una nueva esperanza a la tecnología BCI.
Los resultados del estudio mostraron que la tasa de error del carácter utilizada para la decodificación del uso de MEG fue significativamente menor que la del EEG, y los participantes óptimos alcanzaron el 19% de CER.
Los desafíos futuros incluyen decodificación en tiempo real, accesibilidad de dispositivos MEG y efectos de aplicación entre las personas con discapacidades.
Estos resultados muestran que la tecnología BCI no invasiva se está implementando gradualmente y se espera que proporcione herramientas de comunicación efectivas para más personas en el futuro.