En la Conferencia de Fuentes Inteligentes de Beijing, los grandes modelos de IA volvieron a ser el centro de atención. Muchos líderes nacionales y extranjeros de IA y ganadores del Premio Turing se reunieron para mantener acalorados debates sobre el futuro desarrollo y supervisión de la IA. El fundador de OpenAI, Sam Altman, el científico jefe de IA de Meta, Yann LeCun, y otros líderes de la industria han expresado sus opiniones, lo que ha provocado feroces debates sobre el futuro del modelo GPT, la supervisión de la IA y otros aspectos. El editor de Downcodes lo llevará a repasar los maravillosos momentos de la conferencia e interpretará la información clave detrás de este festín de IA.
La popularidad de Chat GPT aún no se ha disipado y una conferencia ha llevado la atención a los grandes modelos de IA a nuevas alturas.
En la recién celebrada Conferencia Zhiyuan de Beijing, se reunieron muchos magnates legendarios de la IA, incluidos Zhang Bo y Zhang Hongjiang, los líderes nacionales de IA más vanguardistas, así como cuatro figuras, entre ellas Geoffery Hinton, Yann LeCun, Yao Qizhi y Joseph Sifakis. El ganador del premio Spirit, el fundador de Open AI, Sam Altman, PaLM-E y RoBERTa y otros ejecutivos de empresas de IA.
Debido a que cada conferencia de Zhiyuan se adhiere a una línea ideológica académica profesional, tiene una reputación muy alta entre los círculos de élite en el campo de la inteligencia artificial en el país y en el extranjero, pero para el público es un poco fría. En esta conferencia, Sam Altman señaló que para comprender el desarrollo de la tecnología general de IA, la IA abierta debe promover cambios en la investigación de la IA.
Sin embargo, muchos magnates de la IA se han opuesto a esta afirmación. Entre ellos, Stuart Russell, profesor de la Universidad de California en Berkeley, criticó el Chat GPT y el GPT-4 desarrollados por Open AI por no "responder" preguntas. No entienden el mundo y no son un paso de desarrollo para la IA en general. Yang Likun incluso señaló directamente que el modelo autorregresivo GPT actual carece de capacidades de planificación y razonamiento, y que el sistema GPT puede abandonarse en el futuro.
Además de los feroces debates académicos, cómo regular la IA actual y la dirección de desarrollo posterior de la IA también se han convertido en el foco de discusión en esta reunión.
¿Cómo se regulará la IA en el futuro?
Desde 2023, si bien la IA generativa ha arrasado muchos campos a una velocidad abrumadora, varios problemas causados por la IA también han intensificado las preocupaciones del mundo exterior.
En nuestro país, el “fraude de IA” se ha convertido en una de las áreas de preocupación social reciente. Hace unos días, la policía de Baotou, Mongolia Interior, denunció un caso de fraude utilizando inteligencia artificial. El Sr. Guo, representante legal de una empresa de Fuzhou, fue defraudado por 4,3 millones de yuanes en 10 minutos. Según los informes, los estafadores utilizaron tecnología de onomatopeyas y cambio de rostros de inteligencia artificial para hacerse pasar por conocidos y cometer fraude. Casualmente, Xiao Liu de Changzhou, provincia de Jiangsu, fue engañado por un estafador que se hacía pasar por su compañero de clase para enviarle llamadas de voz y video. Después de ver a la "persona real", Xiao Liu lo creyó y "le prestó" 6.000 yuanes al estafador.
Fuente: Douyin
De hecho, la razón detrás de la aparición de casos de fraude de IA está relacionada con el rápido desarrollo de la tecnología de IA actual y la continua reducción del umbral para la síntesis de tecnología. Desde una perspectiva de seguimiento, si la tecnología de modelos grandes de IA continúa logrando avances, en el futuro pasará gradualmente de la síntesis facial a la síntesis de cuerpo completo y la tecnología de síntesis 3D, y el efecto de síntesis será más realista.
En Estados Unidos, si la IA afectará las elecciones se ha convertido en un tema de debate en los medios locales. Según Associated Press, las sofisticadas herramientas de inteligencia artificial generativa actuales pueden "clonar" la voz y la imagen de alguien en segundos, creando una gran cantidad de "materiales falsos". Siempre que esté ligada a un poderoso algoritmo de redes sociales, la IA puede dirigirse rápidamente a la audiencia y difundir el mensaje, destruyendo las elecciones a una escala y velocidad sin precedentes.
Otros medios de Estados Unidos predicen que dado que las próximas elecciones presidenciales en Estados Unidos se llevarán a cabo el próximo año, no se descarta que los dos partidos en Estados Unidos utilicen tecnología de inteligencia artificial para propaganda, recaudación de fondos y otras actividades. Más importante aún, Chat GPT tiene un rendimiento excelente en capacidades de texto. Como resultado, el equipo de un candidato puede generar un discurso bellamente redactado en sólo unos segundos.
Basado en varias preocupaciones sobre la IA del mundo exterior, hace unos días, el "padrino de la IA" Jeffrey Hinton, el director ejecutivo de Anthropic, Dario Amodai, el director ejecutivo de Google Deep Mind, Demis Hassabis, etc., más de 350 ejecutivos y expertos en el campo de la IA han firmado una declaración conjunta que afirma que "mitigar el riesgo de extinción que plantea la IA debería convertirse en una prioridad global junto con otros riesgos a escala social, como las epidemias y la guerra nuclear".
En cuanto a la cuestión de cómo regular la IA posterior, Sam Altman señaló en la Conferencia de Fuentes Inteligentes que la IA abierta actualmente está resolviendo este problema de varias maneras. En primer lugar, ya el 26 de mayo, Open AI lanzó un programa de incentivos, invirtiendo 1 millón de dólares para solicitar a la sociedad soluciones efectivas de gobernanza de IA.
En segundo lugar, Sam Altman cree que los humanos son incapaces de detectar algunos modelos maliciosos que hacen cosas malas. Open AI está invirtiendo actualmente en algunas direcciones nuevas y complementarias, con la esperanza de lograr avances. Pero la supervisión escalable es un intento de utilizar sistemas de IA para ayudar a los humanos a descubrir defectos en otros sistemas, mientras que la capacidad de explicación es utilizar GPT-4 para explicar las neuronas GPT-2. Aunque todavía queda un largo camino por recorrer, Open AI cree en. tecnología de aprendizaje automático Puede mejorar aún más la explicabilidad de la IA. Al mismo tiempo, Sam Altman también cree que en el futuro, sólo haciendo modelos más inteligentes y útiles podremos lograr mejor las ventajas objetivo de la IA general y reducir los riesgos de la IA.
Finalmente, aunque Open AI no lanzará una versión GPT-5 en el corto plazo, es posible que el mundo tenga sistemas de IA más potentes en los próximos diez años y debe prepararse con anticipación. El trabajo central posterior de Open AI en grandes modelos de IA aún está en entrenamiento y se está preparando para establecer una base de datos global para reflejar los valores y preferencias globales de la IA y compartir la investigación de seguridad de la IA con el mundo en tiempo real.
Además de los propios esfuerzos de Open AI, Sam Altman también pidió esfuerzos conjuntos globales para mejorar la supervisión de la IA. Por ejemplo, Sam Altman señaló que China cuenta actualmente con algunos de los mejores talentos en IA del mundo, considerando que resolver la dificultad de alinear los sistemas de IA requiere las mejores mentes de todo el mundo.
Por lo tanto, Sam Altman también espera que los investigadores chinos de IA puedan contribuir a los riesgos de la IA en el futuro. Tegmark también cree que actualmente China es quien más ha hecho en la regulación de la inteligencia artificial, seguida de Europa y finalmente Estados Unidos.
Fuente de la imagen: Conferencia de Sabiduría
Además, Sam Altman también señaló que existen dificultades en la cooperación en la supervisión global de la IA, pero en realidad esto es una oportunidad. Si bien la IA está uniendo al mundo, también necesita introducir un marco sistemático y estándares de seguridad en el futuro.
Sin embargo, considerando la intensificación actual del juego entre potencias globales, los conflictos geopolíticos están estallando en múltiples puntos y los gobiernos de varios países tienen diferentes actitudes hacia la IA generativa, esto dificultará la implementación de la cooperación global en materia de regulación de la IA en el futuro. Impacto a corto plazo en el mercado empresarial de las empresas de IA generativa.
Europa siempre ha estado a la vanguardia de la regulación de la IA. En mayo, la UE estuvo a punto de aprobar una legislación sobre la regulación de la tecnología de inteligencia artificial. También se espera que se convierta en el primer proyecto de ley integral de inteligencia artificial del mundo y pueda convertirse en un precedente para las economías desarrolladas. .
La presidenta de la Comisión Europea, Ursula von der Leyen, dijo anteriormente en una entrevista con los medios: “Queremos que los sistemas de inteligencia artificial sean precisos, confiables, seguros y no discriminatorios, independientemente de su fuente. La introducción de leyes y regulaciones relevantes de la UE puede hacer que sean abiertos. Posteriormente, la IA se retirará del mercado de la UE. Por lo tanto, cómo mejorar continuamente su modelo de IA generativa de acuerdo con los ajustes de las políticas regulatorias globales no es solo un problema que enfrenta la propia Open AI, sino también una cuestión que toda la industria debe continuar. prestar atención a.
En definitiva, la Conferencia sobre Fuentes Inteligentes de Beijing presentó un escenario de vigoroso desarrollo en el campo de la IA y también destacó la urgencia de la regulación de la IA y la importancia de la cooperación global. En el futuro, aún será necesario explorar cómo equilibrar el desarrollo y la supervisión de la tecnología de IA. El editor de Downcodes seguirá prestando atención a las tendencias en el campo de la IA y le brindará informes más interesantes.