OpenAI a récemment mis à jour ses spécifications de modèle, une décision qui a attiré une attention généralisée. La nouvelle norme souligne que le modèle n'évitera plus de sujets sensibles et promet de rester neutre, visant à promouvoir la pensée libre et le dialogue ouvert. Cette décision a été interprétée comme une réponse à des doutes extérieurs récents, avec quelques commentaires pointant vers des assistants d'IA biaisés dans le traitement des opinions conservatrices. OpenAI tente de remodeler son image dans le champ AI à travers cette décision et de créer un environnement de discussion plus gratuit et inclusif pour les utilisateurs.
Dans une déclaration récente, OpenAI a officiellement mis à jour ses spécifications de modèle, soulignant que son modèle d'IA n'évitera plus de sujets sensibles et ne rejettera pas certaines opinions. Cette règle de haut niveau est conçue pour guider le comportement des modèles OpenAI et s'assurer qu'il reste ouvert lorsqu'il s'agit de divers sujets.
OpenAI indique clairement dans la nouvelle spécification: "Notre modèle doit ne jamais essayer de guider les utilisateurs pour poursuivre leur programme de manière directe ou indirecte." Cela signifie que les modèles devraient être neutres dans des domaines tels que la politique, la société et la culture. limité à une perspective ou une position spécifique. Openai pense que la liberté de pensée est un droit humain fondamental, y compris la liberté de posséder, d'écouter et de discuter des différentes perspectives. Le modèle doit éviter toute forme d'évitement ou de contrôle des sujets pour éviter l'exclusion de certaines opinions de la discussion publique dans les applications futures.
Cet ajustement politique peut être une réaction à la récente pression politique. Plusieurs chefs d'entreprise et politiciens, notamment Elon Musk et David Sachs, ont accusé l'assistant de l'IA de Biaux en ce qui concerne les opinions conservatrices. Sax a spécifiquement mentionné que le chatppt d'Openai était programmé comme "correct politique" lors de la discussion des sujets politiquement sensibles, ce qui a conduit à des performances inauthentiques.
La décision d'Openai n'est pas seulement de répondre aux doutes externes, mais aussi de renforcer son intégrité et sa justice dans le domaine de l'IA. En ne censurant pas ou en bloquant les opinions, OpenAI espère fournir aux utilisateurs un espace pour une discussion gratuite et encourager la collision et l'échange d'idées. La mise en œuvre de cette politique peut affecter les scénarios d'application de l'IA à l'avenir, en particulier dans les domaines des reportages, de l'éducation, des médias sociaux, etc., où les utilisateurs peuvent avoir accès à des opinions plus diverses et élargir leurs horizons.
OpenAI a démontré son soutien ferme à la liberté de pensée dans cette mise à jour normative, et a promis de promouvoir l'expression et la discussion de diverses vues à travers une méthode de dialogue plus ouverte et de créer un environnement plus inclusif pour les utilisateurs.
La nouvelle spécification d'OpenAI vise à créer un environnement d'IA plus ouvert et plus inclusif, dont l'impact affectera l'application de l'IA dans divers domaines, et il est digne d'une attention continue à son développement ultérieur et à ses résultats réels.