A Meta Corporation lançou três novos recursos interessantes para seus óculos inteligentes Ray-Ban: IA em tempo real, tradução em tempo real e Shazam. A adição destas funções irá melhorar ainda mais a experiência do utilizador e demonstrar o enorme potencial da tecnologia de IA no campo dos dispositivos vestíveis. Entre eles, as funções de IA e tradução em tempo real estão atualmente em fase de acesso inicial, enquanto a função Shazam está aberta a todos os usuários nos Estados Unidos e Canadá. O lançamento de novas funções marca o desenvolvimento dos óculos inteligentes numa direção mais inteligente e conveniente, e também indica que os dispositivos vestíveis serão mais profundamente integrados nas nossas vidas quotidianas no futuro.
A Meta Company anunciou recentemente que seus óculos inteligentes Ray-Ban lançarão três novos recursos: IA em tempo real, tradução em tempo real e Shazam. Entre eles, as funções de IA e tradução em tempo real estão atualmente limitadas aos membros do programa de acesso antecipado Meta, enquanto a função Shazam está aberta a todos os usuários nos Estados Unidos e Canadá.
A IA em tempo real e os recursos de tradução em tempo real foram apresentados pela primeira vez na conferência Meta Connect 2024 no início deste ano. A IA em tempo real permite que os usuários tenham conversas naturais com o assistente de IA do Meta enquanto os óculos continuam a observar o que está ao seu redor. Por exemplo, quando você está navegando na seção de produtos de um supermercado, você poderia, teoricamente, pedir à IA da Meta que recomendasse algumas receitas com base nos ingredientes que você está procurando. Meta diz que quando totalmente carregado, os usuários podem usar o recurso de IA em tempo real por cerca de 30 minutos por vez.
Enquanto isso, um recurso de tradução em tempo real permite que os óculos realizem tradução de voz em tempo real entre inglês e espanhol, francês ou italiano. Você pode optar por ouvir a tradução através dos próprios óculos ou visualizar o texto traduzido em seu telefone. Você precisa baixar os pares de idiomas com antecedência e especificar os idiomas que você e seu interlocutor usam.
A função Shazam é mais direta. Ao ouvir uma música, basta solicitar o Meta AI e ele poderá dizer qual música está tocando. O CEO da Meta, Mark Zuckerberg, demonstrou o recurso em um vídeo do Instagram.
Se seus óculos ainda não apresentam esses novos recursos, certifique-se de que seus óculos estejam executando o software v11 e que seu aplicativo Meta View esteja executando a versão v196. Se você ainda não está no programa de acesso antecipado, pode se inscrever através deste site.
A atualização chega em um momento em que os gigantes da tecnologia estão se concentrando nos assistentes de IA como o principal ponto de venda de óculos inteligentes. Na semana passada, o Google lançou o Android XR, um novo sistema operacional projetado especificamente para óculos inteligentes, e destacou seu assistente Gemini AI como um aplicativo matador. Ao mesmo tempo, o diretor de tecnologia da Meta, Andrew Bosworth, também escreveu em um blog que “2024 é o ano em que os óculos de IA farão grandes progressos”. Bosworth também afirmou que os óculos inteligentes podem ser a melhor forma de dispositivo “verdadeiramente nativo da IA” e a primeira categoria de hardware a ser totalmente definida pela IA desde o início.
Em suma, esta atualização funcional dos óculos inteligentes Meta prova ainda mais o enorme potencial da IA no campo dos dispositivos vestíveis, e a competição entre os gigantes da tecnologia promoverá ainda mais o rápido desenvolvimento da tecnologia de óculos inteligentes.
Esta atualização funcional não apenas melhora a experiência do usuário dos óculos inteligentes Ray-Ban, mas também indica que os óculos inteligentes se tornarão mais inteligentes no futuro e se integrarão ainda mais à vida diária das pessoas. Os esforços da Meta também promoveram o desenvolvimento tecnológico de toda a indústria de óculos inteligentes, e vale a pena esperar recursos mais inovadores no futuro.