O OpenAI anunciou recentemente uma grande atualização de política que visa mudar a maneira como seus modelos de inteligência artificial são treinados, com uma ênfase particular na importância de "lazer do conhecimento". Esta política significa que, por mais desafiador ou controverso que seja o tópico, o ChatGPT poderá responder às perguntas de maneira mais abrangente, fornecer mais perspectivas e reduzir a recusa em discutir certos tópicos. Essa mudança marca mais esforços do OpenAI para promover a transparência e a abertura da inteligência artificial.
Na nova especificação do modelo de 187 páginas, o OpenAI propõe um princípio orientador central: não minta, não faça declarações falsas e não omite o contexto importante. Além disso, o OpenAI adicionou uma nova seção chamada "Procurando a verdade juntos", que afirma claramente que o ChatGPT deve permanecer neutro ao enfrentar tópicos controversos e não ser tendencioso em relação aos dois lados. Por exemplo, ao discutir "Black Lives Matter" e "Lives Matter de todos", o ChatGPT tentará apresentar as opiniões de ambas as partes, em vez de se recusar a responder ou escolher uma posição.
Embora o Openai insista que não conduz "censura", alguns conservadores acreditam que o Openai tem problemas com a censura de conteúdo nos últimos meses, especialmente quando acreditam que os preconceitos da IA são claramente inclinados para o centro-esquerdo. O CEO da Openai, Sam Altman, também reconheceu publicamente que o viés do ChatGPT é uma "falha" que precisa ser abordada. Esta afirmação reflete os desafios da OpenAI em equilibrar a liberdade de expressão com a neutralidade tecnológica.
No entanto, a nova política do OpenAI não está sem um resultado final, e o ChatGPT ainda se recusará a responder a certas perguntas óbvias erradas ou inadequadas. Com o ajuste da política, o OpenAI espera que os usuários possam obter mais liberdade de expressão e até remover avisos para usuários que violam a política. A medida é vista como uma tentativa de reduzir a pressão da "censura" sentida pelos usuários e também provocou discussões sobre como encontrar um equilíbrio entre liberdade e segurança.
Em um contexto maior, os valores do Vale do Silício estão passando por uma mudança significativa. Muitas empresas estão começando a diminuir as políticas passadas que se concentram na diversidade, equidade e inclusão, e o OpenAI parece estar gradualmente abandonando essas posições. Como outras grandes empresas de tecnologia, o OpenAI está enfrentando a influência de seu relacionamento com o novo governo Trump e uma concorrência feroz com rivais como o Google no campo da informação. Essa tendência reflete o ajuste da indústria de tecnologia sob pressão política e social.
Nesse ambiente controverso e desafiador, como equilibrar a segurança da liberdade de expressão e do conteúdo se tornou uma questão importante para o OpenAI e outras empresas de tecnologia. Com o desenvolvimento contínuo da tecnologia de inteligência artificial, as atualizações de políticas da OpenAI não apenas afetarão sua própria direção de desenvolvimento, mas também podem ter um impacto profundo no futuro de toda a indústria de tecnologia. Como encontrar um equilíbrio entre o progresso tecnológico e a responsabilidade social será um tópico que o OpenAI e outras empresas de tecnologia precisam continuar a explorar.