Meta Corporation hat drei aufregende neue Funktionen für seine Ray-Ban-Datenbrillen eingeführt: Echtzeit-KI, Echtzeit-Übersetzung und Shazam. Die Hinzufügung dieser Funktionen wird das Benutzererlebnis weiter verbessern und das enorme Potenzial der KI-Technologie im Bereich tragbarer Geräte demonstrieren. Darunter befinden sich die Echtzeit-KI- und Echtzeit-Übersetzungsfunktionen derzeit im Early-Access-Stadium, während die Shazam-Funktion allen Benutzern in den USA und Kanada offen steht. Die Einführung neuer Funktionen markiert die Entwicklung von Datenbrillen in eine intelligentere und komfortablere Richtung und deutet auch darauf hin, dass tragbare Geräte in Zukunft stärker in unser tägliches Leben integriert werden.
Meta hat kürzlich bekannt gegeben, dass seine Ray-Ban-Datenbrille drei neue Funktionen einführen wird: Echtzeit-KI, Echtzeit-Übersetzung und Shazam. Darunter sind die Echtzeit-KI- und Echtzeit-Übersetzungsfunktionen derzeit auf Mitglieder des Meta-Early-Access-Programms beschränkt, während die Shazam-Funktion allen Benutzern in den Vereinigten Staaten und Kanada offen steht.
Echtzeit-KI und Echtzeit-Übersetzungsfunktionen wurden erstmals Anfang des Jahres auf der Meta Connect 2024-Konferenz vorgestellt. Echtzeit-KI ermöglicht es Benutzern, natürliche Gespräche mit dem KI-Assistenten von Meta zu führen, während die Brille weiterhin ihre Umgebung beobachtet. Wenn Sie beispielsweise in der Lebensmittelabteilung eines Lebensmittelladens stöbern, könnten Sie Metas KI theoretisch bitten, einige Rezepte basierend auf den Zutaten zu empfehlen, die Sie sich ansehen. Laut Meta können Benutzer die Echtzeit-KI-Funktion bei voller Aufladung etwa 30 Minuten lang nutzen.
Mittlerweile ermöglicht eine Echtzeit-Übersetzungsfunktion der Brille, eine Echtzeit-Sprachübersetzung zwischen Englisch und Spanisch, Französisch oder Italienisch durchzuführen. Sie können wählen, ob Sie die Übersetzung über die Brille selbst hören oder den übersetzten Text auf Ihrem Telefon ansehen möchten. Sie müssen zuvor die Sprachpaare herunterladen und angeben, welche Sprachen Sie und Ihr Gesprächspartner verwenden.
Die Shazam-Funktion ist einfacher. Wenn Sie ein Lied hören, rufen Sie einfach Meta AI auf und es sollte Ihnen sagen können, welches Lied gerade abgespielt wird. Mark Zuckerberg, CEO von Meta, demonstrierte die Funktion in einem Instagram-Video.
Wenn Ihre Brille diese neuen Funktionen noch nicht anzeigt, stellen Sie sicher, dass auf Ihrer Brille die Software v11 und in Ihrer Meta View-App Version v196 ausgeführt wird. Wenn Sie noch nicht am Early-Access-Programm teilnehmen, können Sie sich über diese Website bewerben.
Das Update kommt zu einer Zeit, in der sich Technologiegiganten auf KI-Assistenten als zentrales Verkaufsargument für Datenbrillen konzentrieren. Erst letzte Woche veröffentlichte Google Android XR, ein neues Betriebssystem, das speziell für Datenbrillen entwickelt wurde, und bezeichnete seinen Gemini AI-Assistenten als Killer-App. Gleichzeitig schrieb Andrew Bosworth, Chief Technology Officer von Meta, in einem Blog: „2024 ist das Jahr, in dem KI-Brillen große Fortschritte machen werden.“ Bosworth behauptete auch, dass intelligente Brillen möglicherweise die beste Geräteform seien, die „wirklich KI-nativ“ sei, und die erste Hardwarekategorie, die von Anfang an vollständig durch KI definiert sei.
Alles in allem beweist diese Funktionserweiterung der Meta-Datenbrillen erneut das enorme Potenzial von KI im Bereich tragbarer Geräte, und der Wettbewerb zwischen Technologiegiganten wird die rasante Entwicklung der Datenbrillentechnologie weiter vorantreiben.
Dieses Funktionsupdate verbessert nicht nur das Benutzererlebnis der Ray-Ban-Datenbrillen, sondern deutet auch darauf hin, dass Datenbrillen in Zukunft intelligenter werden und sich stärker in das tägliche Leben der Menschen integrieren werden. Die Bemühungen von Meta haben auch die technologische Entwicklung der gesamten Datenbrillenbranche vorangetrieben, und es lohnt sich, in der Zukunft auf weitere innovative Funktionen gespannt zu sein.