Le chatbot Google Gemini AI a récemment reçu une mise à jour majeure, ajoutant une nouvelle fonction de mémoire, visant à offrir une expérience de service plus personnalisée et intelligente. Cette fonctionnalité peut mémoriser les informations personnelles, le contenu professionnel et les préférences de l'utilisateur pour mieux répondre aux besoins de l'utilisateur. L'éditeur de Downcodes vous expliquera en détail les caractéristiques, les scénarios d'application et les risques potentiels de sécurité de cette fonction.
Le chatbot IA de Google, Gemini, a récemment lancé une mise à jour importante : la fonction de mémoire, qui permet à l'assistant IA de mémoriser les informations de vie, le contenu professionnel et les préférences personnelles de l'utilisateur, offrant ainsi une expérience de service plus personnalisée.
Cette nouvelle fonctionnalité n'est actuellement disponible que pour les utilisateurs qui souscrivent au forfait Google One AI Premium à 20 $ par mois, et n'est actuellement prise en charge que sur la page Web et n'a pas encore été lancée sur les applications iOS et Android. Il convient de noter qu’actuellement, seule la saisie en anglais est prise en charge.
Plus précisément, la fonction mémoire de Gemini peut aider les utilisateurs à réaliser une variété de scénarios pratiques. Par exemple, après qu'un utilisateur ait indiqué à Gemini quel aliment il aime, la prochaine fois qu'il demandera des recommandations de restaurants, l'IA pourra fournir des suggestions plus ciblées en fonction des préférences gustatives de l'utilisateur. Google a également montré d'autres exemples pratiques dans l'interface, comme utiliser un langage simple et éviter le jargon, je ne connais que la programmation JavaScript, et inclure les dépenses quotidiennes lors de la planification de voyages.
Google souligne que les utilisateurs peuvent désactiver la fonction de mémoire à tout moment, mais que le contenu de la mémoire stocké doit être supprimé manuellement avant de disparaître. Plus important encore, un porte-parole de Google a clairement indiqué que ces informations de mémoire ne seront pas utilisées pour la formation de modèles et ne seront pas partagées avec d'autres.
Cependant, la sécurité de ce type de fonction mémoire mérite des inquiétudes. Plus tôt cette année, un chercheur en sécurité a découvert que les pirates pouvaient implanter de faux souvenirs dans ChatGPT pour continuer à voler les données des utilisateurs. Cette découverte nous rappelle que la fonction mémoire des systèmes d’IA nécessite des mesures de protection de sécurité plus strictes.
Le lancement de cette fonctionnalité reflète la tendance des assistants IA à devenir plus personnalisés et intelligents, mais il déclenche également une réflexion sur la protection de la vie privée des utilisateurs et la sécurité des données. Comment garantir la sécurité des données des utilisateurs tout en offrant de la commodité sera une question importante à laquelle les fournisseurs de services d’IA devront continuer à prêter attention.
Le lancement de la fonction de mémoire Gemini démontre la tendance au développement de la personnalisation de l'IA, mais il pose également des défis en matière de confidentialité et de sécurité. Google promet que les données ne seront pas utilisées pour la formation ou le partage de modèles, mais les mesures de sécurité devront encore être renforcées à l'avenir pour mieux équilibrer commodité et sécurité.