OpenAI a récemment annoncé une mise à jour de politique majeure visant à modifier la façon dont ses modèles d'intelligence artificielle sont formés, en mettant particulièrement l'accent sur l'importance des «loisirs de la connaissance». Cette politique signifie que peu importe à quel point le sujet est difficile ou controversé, Chatgpt sera en mesure de répondre aux questions de manière plus exhaustive, de fournir plus de perspectives et de réduire le refus de discuter de certains sujets. Ce changement marque d'autres efforts d'OpenAI pour promouvoir la transparence et l'ouverture de l'intelligence artificielle.
Dans la nouvelle spécification du modèle de 187 pages, OpenAI propose un principe directeur de base: ne mentez pas, ne faites pas de déclarations fausses et n'omettez pas de contexte important. En outre, Openai a ajouté une nouvelle section appelée "Recherche de la vérité ensemble", qui indique clairement que le chatppt devrait rester neutre lorsqu'il est confronté à des sujets controversés et ne pas être biaisé vers chaque côté. Par exemple, lors de la discussion sur «Black Lives Matter» et «Chacun’s Lives Matter», Chatgpt essaiera de présenter les opinions des deux parties plutôt que de refuser de répondre ou de choisir un poste.
Bien que OpenAI insiste sur le fait qu'il ne mène pas de «censure», certains conservateurs pensent qu'OpenAI a des problèmes avec la censure du contenu au cours des derniers mois, en particulier lorsqu'ils croient que les biais de l'IA sont clairement enclins à vers le centre-gauche. Le PDG d'OpenAI, Sam Altman, a également reconnu publiquement que le biais de Chatgpt est un "défaut" qui doit être abordé. Cette déclaration reflète les défis d'Openai dans l'équilibre de la liberté d'expression avec la neutralité technologique.
Cependant, la nouvelle politique d'Openai n'est pas sans résultat net, et Chatgpt refusera toujours de répondre à certaines questions erronées ou inappropriées évidentes. Avec l'ajustement de la politique, OpenAI espère que les utilisateurs peuvent gagner plus de liberté d'expression et supprime même les avertissements pour les utilisateurs qui violent la politique. Cette décision est considérée comme une tentative de réduire la pression de la «censure» ressentie par les utilisateurs, et a également déclenché des discussions sur la façon de trouver un équilibre entre la liberté et la sécurité.
Dans un contexte plus important, les valeurs de la Silicon Valley subissent un changement significatif. De nombreuses entreprises commencent à réduire les politiques passées qui se concentrent sur la diversité, l'équité et l'inclusion, et OpenAI semble abandonner progressivement ces postes. Comme d'autres grandes entreprises technologiques, Openai est confronté à l'influence de sa relation avec la nouvelle administration Trump et à une concurrence féroce avec des concurrents comme Google dans le domaine de l'information. Cette tendance reflète l'adaptation de l'industrie technologique sous pression politique et sociale.
Dans cet environnement controversé et difficile, comment équilibrer la sécurité de la liberté d'expression et du contenu est devenu un problème important pour OpenAI et d'autres sociétés technologiques. Avec le développement continu de la technologie de l'intelligence artificielle, les mises à jour politiques d'OpenAI affecteront non seulement sa propre direction de développement, mais pourraient également avoir un impact profond sur l'avenir de toute l'industrie technologique. Comment trouver un équilibre entre le progrès technologique et la responsabilité sociale sera un sujet que OpenAI et d'autres entreprises technologiques doivent continuer à explorer.