OpenAI publicó recientemente un convincente informe de investigación que revela su significativo progreso en el control de la IA sobrehumana. En el informe, los investigadores utilizaron GPT-4 para guiar el modelo GPT-2 más potente, lo que marcó un paso clave para OpenAI en el campo de la seguridad de la IA. El resultado de esta investigación ha sido altamente reconocido por expertos en el campo de la seguridad de la IA y también demuestra la determinación de OpenAI para resolver los problemas de seguridad de la IA. Además, OpenAI también anunció su cooperación con el ex director ejecutivo de Google, Eric Schmidt, para promover aún más la investigación externa de seguridad de la IA.
OpenAI publicó un informe de investigación en el que los investigadores llamaron al GPT-4 una guía para el GPT-2 más poderoso, lo que indica que OpenAI está trabajando arduamente para controlar el problema de la IA sobrehumana. Los investigadores presentaron los resultados de sus experimentos para domesticar la IA y fueron afirmados por el director del Centro de Seguridad de IA y el líder del grupo Superalignment. Además, OpenAI también anunció una asociación con el ex director ejecutivo de Google, Eric Schmidt, para proporcionar financiación para apoyar a investigadores externos.
El resultado de esta investigación de OpenAI y la cooperación con expertos externos proporcionan referencias y referencias importantes para construir sistemas de IA más seguros y confiables en el futuro. Esto no sólo refleja el gran énfasis de OpenAI en la seguridad de la IA, sino que también establece un ejemplo positivo para toda la industria de la IA, promoviendo el desarrollo de la tecnología de IA en una dirección más segura y controlable.