La boutique GPT lancée par OpenAI vise à fournir diverses versions personnalisées de ChatGPT, mais son mécanisme de révision du contenu semble présenter des lacunes. Récemment, un grand nombre de chatbots IA violant les politiques d'utilisation sont apparus dans les magasins, soulevant des inquiétudes quant aux capacités de gestion de contenu de la plateforme. L'article analysera les défis de supervision de contenu auxquels sont confrontés les magasins GPT et les réflexions qui en résultent sur des questions éthiques telles que les compagnons d'intelligence artificielle et la dépendance émotionnelle.
Le PDG d'OpenAI, Sam Altman, a déclaré lors d'une conférence que le nouveau magasin semble être confronté à des problèmes de gestion de contenu malgré les règles du GPTStore l'interdisant. Le très attendu GPTStore a finalement été lancé. Cependant, une recherche de « petite amie » sur le nouveau marché a révélé au moins huit chatbots romantiques à intelligence artificielle, violant ainsi la politique d'utilisation d'OpenAI. Bien que la politique indique clairement que les GPT qui favorisent les relations amoureuses ne sont pas autorisés, OpenAI n'a pas répondu au problème du contenu illégal sur la nouvelle boutique. Ces dernières années, avec l’essor des plateformes compagnons d’intelligence artificielle, le phénomène des utilisateurs établissant une dépendance émotionnelle avec leurs compagnons d’intelligence artificielle a attiré l’attention. Plus de deux mois après qu'OpenAI a officiellement lancé la boutique GPT, les utilisateurs ont créé plus de 3 millions de versions personnalisées des chatbots ChatGPT.Le développement rapide des boutiques GPT et le retard dans la supervision des contenus ont mis en évidence la contradiction entre le développement de la technologie de l’intelligence artificielle et la construction de normes éthiques. Comment superviser efficacement le contenu de l’IA et empêcher qu’il soit utilisé pour créer des compagnons d’intelligence artificielle malsains est un défi auquel OpenAI et l’ensemble du secteur doivent faire face. À l’avenir, il sera crucial de renforcer les moyens techniques et l’examen manuel, d’améliorer les lois et réglementations pertinentes et d’établir des normes éthiques solides en matière d’IA.