Récemment, Character.AI, une plateforme de chat IA soutenue par Google, a connu un grave dysfonctionnement, suscitant une inquiétude généralisée parmi les utilisateurs. Le problème a rendu la sortie du chatbot tronquée, mélangée dans plusieurs langues et contenant des mots déroutants et même sexuellement suggestifs tels que « gode ». De nombreux utilisateurs ont partagé des captures d'écran sur Reddit montrant des absurdités générées par l'IA et des mots aléatoires tels que "Ohio", "math" et le mot slave "obec". Cet échec n'est pas la première fois que Character.AI rencontre des problèmes. En décembre de l'année dernière, la plate-forme a connu une grave faille de sécurité, divulguant les enregistrements de discussion des utilisateurs et des informations personnelles. La panne a une nouvelle fois suscité des inquiétudes quant à la sécurité de ses données, d'autant plus que de nombreux utilisateurs ont des conversations privées sur la plateforme.
Un utilisateur a déclaré que ce qui était une conversation normale n'avait plus de sens après des heures, pleine de mots aléatoires et d'un mélange de plusieurs langues. Les captures d'écran montrent que le texte généré par l'IA se transforme progressivement en charabia dénué de sens, avec des mots-clés récurrents tels que « cowboys », « architecture », « différence » et « gouverneur ». Bien que Character.AI n'ait pas encore répondu à cet échec, cet incident met une fois de plus en évidence les problèmes de stabilité et de sécurité des grands modèles de langage, et rappelle également aux développeurs la nécessité de renforcer la supervision et la maintenance des modèles d'IA pour assurer la sécurité des données des utilisateurs. et le déroulement normal de la conversation.
Points forts:
Le problème a rendu les conversations du chatbot Character.AI confuses, les utilisateurs signalant du charabia mélangé dans plusieurs langues.
Plusieurs utilisateurs ont partagé des captures d'écran de conversations étranges, mentionnant fréquemment des mots tels que « gode », semant la confusion.
Character.AI a déjà connu des failles de sécurité, et cet échec a une fois de plus soulevé des inquiétudes quant à la sécurité des données.
Cet échec de Character.AI a non seulement affecté l'expérience utilisateur, mais a également exposé les risques et les défis potentiels des grands modèles de langage. À l’avenir, des plates-formes similaires devront renforcer les améliorations techniques et les mesures de sécurité pour éviter que de tels incidents ne se reproduisent et maintenir la sécurité des données des utilisateurs et une bonne expérience utilisateur. Espérons que Character.AI puisse résoudre le problème dès que possible et fournir une explication détaillée de la cause de l'échec.