Apple hat beim iPhone 16-Start die mit Spannung erwartete Visual Intelligence-Funktion mit KI gestartet, die die Kamerafunktionen des iPhone auf ein neues Niveau bringt. Es gibt iPhones eine visuelle Suchfunktion, die Google Lens ähnelt, bei der Benutzer relevante Informationen erhalten können, indem sie einfach Fotos aufnehmen, z. B. die Identifizierung von Restaurants Schildern und das Finden ihrer Standorte und Bewertungen. Diese innovative Funktion vereinfacht den Informationsakquisitionsprozess erheblich und bringt Benutzern ein bequemeres und intelligentere mobilere Erlebnis.
Auf der gerade abgehaltenen iPhone 16-Startkonferenz zeigte Apple nicht nur das neue iPhone-, AirPods- und Apple Watch Series 10, sondern startete auch zum ersten Mal die Visual Intelligence-Funktion mit KI. Diese neue Funktion bietet iPhone -Kameras ähnlich wie Google Lens und ermöglicht ein klügeres Fotoerlebnis.
Mit der visuellen Intelligenzfunktion von Apple können Benutzer Objekte um sie herum erfassen, indem sie Fotos wie Singles oder Restaurantschilder aufnehmen und dann die KI -Technologie des iPhone verwenden, um relevantere Informationen zu suchen und zu liefern. Der Benutzer muss lediglich die Kamera einschalten und Fotos von den Elementen aufnehmen, die er erkennen möchte, und das iPhone verarbeitet und feedback die Informationen schnell.
Darüber hinaus betonte Apple insbesondere die Datenschutzdatenschutz. Benutzeraufnahmen Daten werden in Apples Private Cloud Computing von Apple gespeichert, um die Sicherheit zu gewährleisten. Wenn der Benutzer jedoch möchte, kann er sich auch in die Dienste der Partei integrieren. Zum Beispiel können Benutzer nach den erfassten Inhalten in Google suchen.
Interessanter ist, dass Apple auch die Integration von ChatGPT eingeführt hat. Benutzer können es ChatGPT ermöglichen, Bilddaten zu verarbeiten, die von der Kamera erfasst werden, wodurch detaillierte Informationen und Vorschläge weiter erhalten werden. All dies erfordert, dass Benutzer auswählen, ob die entsprechenden Berechtigungen entsprechend ihren eigenen Bedürfnissen aktiviert werden sollen.
Es ist erwähnenswert, dass das iPhone 16 und das iPhone 16Plus, obwohl sie begonnen haben, Vorbestellungen mit Preisen von 799 USD bzw. 899 US-Dollar zu akzeptieren, die visuelle Intelligenzfunktion nicht sofort verfügbar sein wird. Apple sagte, dass diese KI -Funktionen im nächsten Monat schrittweise in Beta -Versionen gestartet werden und in den nächsten Monaten weitere Funktionen hinzugefügt werden.
Schlüsselpunkte:
Die visuellen Intelligenzfunktionen von Apple ermöglichen es iPhone -Kameras, visuelle Suche wie Google Lens durchzuführen.
Benutzerdaten werden im privaten Cloud -Computing von Apple gespeichert, um die Privatsphäre und Sicherheit zu gewährleisten.
In Zukunft kann es auch in Anwendungen von Drittanbietern wie ChatGPT integriert werden, um weitere Informationen zu erhalten.
Insgesamt sind die visuellen Intelligenzfunktionen von Apple ein großes Upgrade der iPhone -Kamera, die die Art und Weise verändert, wie Benutzer mit der Welt um sie herum interagieren. Obwohl sich die Funktionen noch in der Testphase befinden, ist ihr Potenzial unbegrenzt und es lohnt sich, sich auf die zukünftige Entwicklung und den Start mehr Funktionen zu freuen.