Hoje, com o crescente desenvolvimento da tecnologia de interface do Brain-Computer (BCI), o mais recente modelo Brain2qwerty da Meta AI trouxe uma nova esperança a esse campo. O BCI foi projetado para fornecer comunicação para pessoas com distúrbios de fala ou movimento, mas os métodos tradicionais geralmente requerem cirurgia invasiva, como implantar eletrodos, o que não apenas representa riscos médicos, mas também requer manutenção a longo prazo. Portanto, os pesquisadores começaram a explorar alternativas não invasivas, especialmente as baseadas na eletroencefalografia (EEG). No entanto, a tecnologia EEG enfrenta o problema da baixa resolução do sinal, o que afeta sua precisão.
Notas da fonte da imagem: A imagem é gerada pela IA e a imagem autorizada provedor de serviços Midjourney
O Brain2qwerty foi lançado para resolver esse problema. Esse modelo de aprendizado profundo pode decodificar frases de entrada dos participantes das atividades cerebrais capturadas por EEG ou ressonância magnética cerebral (MEG). No estudo, os participantes entraram em que memorizaram brevemente sentenças no teclado Qwerty, enquanto sua atividade cerebral foi registrada em tempo real. Diferentemente dos esforços anteriores para se concentrar em estimulação externa ou movimentos imaginados, o Brain2qwerty usa movimentos naturais de digitação para fornecer uma maneira mais intuitiva de interpretar as ondas cerebrais.
A arquitetura da Brain2Qwerty é dividida em três módulos principais. Primeiro, o módulo de convolução, responsável por extrair as características temporais e espaciais no sinal EEG ou MEG. Em seguida, é o módulo do transformador, que processa a sequência de entradas, otimiza a compreensão e a expressão. Finalmente, existe o módulo do modelo de idioma, que é um modelo de linguagem de nível de caractere pré-treinado usado para corrigir e melhorar a precisão dos resultados de decodificação.
Ao avaliar o desempenho do Brain2qwerty, os pesquisadores usaram a taxa de erro de caracteres (CER) como medida. Os resultados mostram que o CER de decodificação com base no EEG é de 67%, o que é relativamente alto; No experimento, os melhores desempenhos atingiram 19% dos CERs, mostrando o potencial do modelo em condições ideais.
Embora o Brain2qwerty tenha mostrado perspectivas positivas no campo BCI não invasivo, ela enfrenta vários desafios. Primeiro, o modelo atual precisa processar as frases completas em vez de decodificar as teclas uma a uma. Em segundo lugar, embora o MEG tenha melhor desempenho que o EEG, seus dispositivos não são portáteis e têm popularidade insuficiente. Finalmente, este estudo foi realizado principalmente em participantes saudáveis e é necessário explorar sua aplicabilidade àqueles com distúrbios de exercício ou fala no futuro.
Papel: https://ai.meta.com/research/publications/brain-to-text-decoding-a-non-invasive-approach-vi-typing/
Pontos -chave:
O modelo Brain2qwerty lançado pela Meta AI pode decodificar o conteúdo de digitação através do EEG e MEG, trazendo uma nova esperança à tecnologia BCI.
Os resultados do estudo mostraram que a taxa de erro do caractere usada para decodificar usando MEG foi significativamente menor que a do EEG, com os participantes ideais atingindo 19% de CER.
Os desafios futuros incluem decodificação em tempo real, acessibilidade dos dispositivos MEG e efeitos de aplicação entre pessoas com deficiência.
Esses resultados mostram que a tecnologia BCI não invasiva está sendo implementada gradualmente e deve fornecer ferramentas de comunicação eficazes para mais pessoas no futuro.