Apple a lancé la fonctionnalité Visual Intelligence très attendue à AI lors du lancement de l'iPhone 16, qui amène les capacités de l'appareil photo de l'iPhone à un nouveau niveau. Il donne à iPhones une capacité de recherche visuelle similaire à Google Lens, où les utilisateurs peuvent obtenir des informations pertinentes en prenant simplement des photos, telles que l'identification des panneaux de restauration et la recherche de leur emplacement et de leurs avis. Cette fonctionnalité innovante simplifie considérablement le processus d'acquisition d'informations et apporte aux utilisateurs une expérience mobile plus pratique et plus intelligente.
Lors de la conférence de lancement de l'iPhone 16 qui vient d'être tenu, Apple a non seulement montré le nouveau iPhone, AirPods et Apple Watch Series 10, mais a également lancé la fonction d'intelligence visuelle alimentée par l'IA pour la première fois. Cette nouvelle fonctionnalité donne des caméras iPhone similaires à Google Lens, permettant une expérience photo plus intelligente.
La fonctionnalité Visual Intelligence d'Apple permet aux utilisateurs de capturer des objets autour d'eux en prenant des photos, telles que des célibataires ou des panneaux de restauration, puis d'utiliser la technologie d'IAT de l'iPhone pour rechercher et fournir des informations plus pertinentes. L'utilisateur a simplement besoin d'allumer l'appareil photo et de prendre des photos des éléments qu'il souhaite reconnaître, et l'iPhone traitera rapidement et commenta les informations.
De plus, Apple a également mis l'accent sur la confidentialité des données en particulier. Les données de prise de vue des utilisateurs seront enregistrées dans le cloud computing d'Apple pour assurer la sécurité. Cependant, si l'utilisateur veut, il peut également choisir de s'intégrer aux services de la fête. Par exemple, les utilisateurs peuvent choisir de rechercher le contenu capturé directement sur Google.
Ce qui est plus intéressant, c'est qu'Apple a également introduit l'intégration de Chatgpt. Les utilisateurs peuvent permettre à Chatgpt de traiter les données d'image capturées par la caméra, en obtenant davantage des informations et des suggestions détaillées. Tout cela nécessite que les utilisateurs choisissent d'activer les autorisations correspondantes en fonction de leurs propres besoins.
Il convient de mentionner que bien que l'iPhone 16 et l'iPhone 16Plus aient commencé à accepter les précommandes, avec des prix de 799 $ et 899 $ respectivement, la fonctionnalité d'intelligence visuelle ne sera pas disponible immédiatement. Apple a déclaré que ces fonctionnalités d'IA seront lancées progressivement dans les versions bêta le mois prochain, et que davantage de fonctionnalités seront ajoutées au cours des prochains mois.
Points clés:
Les fonctionnalités d'intelligence visuelle d'Apple permettent aux caméras d'iPhone d'effectuer des recherches visuelles comme Google Lens.
Les données de l'utilisateur seront enregistrées dans le cloud computing d'Apple pour garantir la confidentialité et la sécurité.
À l'avenir, il peut également être intégré à des applications tierces telles que ChatGpt pour obtenir plus d'informations.
Dans l'ensemble, les fonctionnalités de l'intelligence visuelle d'Apple sont une mise à niveau majeure de la caméra iPhone, ce qui changera la façon dont les utilisateurs interagissent avec le monde qui les entoure. Bien que les fonctions soient toujours au stade de test, leur potentiel est illimité et il vaut la peine d'attendre son développement futur et le lancement de plus de fonctions.