La tienda GPT lanzada por OpenAI tiene como objetivo proporcionar diversas versiones personalizadas de ChatGPT, pero su mecanismo de revisión de contenido parece tener lagunas. Recientemente, ha aparecido en las tiendas una gran cantidad de chatbots de IA que violan las políticas de uso, lo que genera preocupación sobre las capacidades de gestión de contenido de la plataforma. El artículo analizará los desafíos de supervisión de contenido que enfrentan las tiendas GPT y las reflexiones resultantes sobre cuestiones éticas como los compañeros de inteligencia artificial y la dependencia emocional.
El director ejecutivo de OpenAI, Sam Altman, dijo en una conferencia que la nueva tienda parece estar enfrentando problemas de administración de contenido a pesar de que las reglas de GPTStore lo prohíben. Finalmente se lanzó el tan esperado GPTStore. Sin embargo, una búsqueda de "novia" en el nuevo mercado arrojó al menos ocho románticos chatbots de inteligencia artificial, violando la política de uso de OpenAI. Aunque la política establece claramente que los GPT que promueven relaciones románticas no están permitidos, OpenAI no ha respondido al problema del contenido ilegal en la nueva tienda. En los últimos años, con el auge de las plataformas complementarias de inteligencia artificial, ha llamado la atención el fenómeno de que los usuarios establezcan dependencia emocional con sus compañeros de inteligencia artificial. Más de dos meses después de que OpenAI lanzara oficialmente la tienda GPT, los usuarios han creado más de 3 millones de versiones personalizadas de los chatbots ChatGPT.El rápido desarrollo de las tiendas GPT y el retraso en la supervisión de contenidos han expuesto la contradicción entre el desarrollo de la tecnología de inteligencia artificial y la construcción de normas éticas. Cómo supervisar eficazmente el contenido de IA y evitar que se utilice para crear compañeros de inteligencia artificial poco saludables es un desafío que OpenAI y toda la industria deben enfrentar. En el futuro, será crucial fortalecer los medios técnicos y la revisión manual, mejorar las leyes y regulaciones relevantes y establecer estándares éticos sólidos en IA.