A loja GPT lançada pela OpenAI visa fornecer diversas versões customizadas do ChatGPT, mas seu mecanismo de revisão de conteúdo parece ter lacunas. Recentemente, um grande número de chatbots de IA que violam as políticas de uso apareceram nas lojas, levantando preocupações sobre as capacidades de gerenciamento de conteúdo da plataforma. O artigo analisará os desafios de supervisão de conteúdo enfrentados pelas lojas GPT e as reflexões resultantes sobre questões éticas, como companheiros de inteligência artificial e dependência emocional.
O CEO da OpenAI, Sam Altman, disse em uma conferência que a nova loja parece estar enfrentando problemas de gerenciamento de conteúdo, apesar das regras da GPTStore proibirem isso. O tão aguardado GPTStore foi finalmente lançado. No entanto, uma busca por “namorada” no novo mercado revelou pelo menos oito chatbots românticos de inteligência artificial, violando a política de uso da OpenAI. Embora a política estabeleça claramente que GPTs que promovem relacionamentos românticos não são permitidos, a OpenAI não respondeu à questão do conteúdo ilegal na nova loja. Nos últimos anos, com o surgimento das plataformas complementares de inteligência artificial, o fenômeno de usuários que estabelecem dependência emocional com seus companheiros de inteligência artificial tem atraído a atenção. Mais de dois meses após o lançamento oficial da loja GPT da OpenAI, os usuários criaram mais de 3 milhões de versões personalizadas de chatbots ChatGPT.O rápido desenvolvimento das lojas GPT e o atraso na supervisão de conteúdos expuseram a contradição entre o desenvolvimento da tecnologia de inteligência artificial e a construção de normas éticas. Como supervisionar efetivamente o conteúdo de IA e evitar que ele seja usado para construir companheiros de inteligência artificial prejudiciais é um desafio que a OpenAI e toda a indústria devem enfrentar. No futuro, será crucial reforçar os meios técnicos e a revisão manual, melhorar as leis e regulamentos relevantes e estabelecer padrões éticos sólidos em matéria de IA.