Meta anunció recientemente que abrirá su serie de modelos de inteligencia artificial a las agencias del gobierno de EE. UU. Y sus contratistas para apoyar las aplicaciones de seguridad nacional. La medida tiene la intención de responder a las preocupaciones sobre su IA abierta potencialmente explotada por oponentes extranjeros y demostrar su contribución tecnológica en el campo de la seguridad nacional. Meta subrayó que la aplicación del modelo LLAMA estará sujeta a normas y restricciones estrictas para garantizar que no se use para fines ilegales o dañinos. Este artículo explorará en profundidad los antecedentes del movimiento de Meta, los socios y las discusiones sobre la seguridad de la inteligencia artificial abierta que se han activado.
Meta anunció recientemente que abrirá su serie de modelos de inteligencia artificial a las agencias gubernamentales y contratistas relacionados para apoyar las aplicaciones de seguridad nacional.
El movimiento tiene como objetivo eliminar la percepción de que el mundo exterior está "abierto" a su IA puede alimentar a los rivales extranjeros. "Nos complace confirmar que LLAMA proporcionará a las agencias gubernamentales de los Estados Unidos, incluidas las centradas en la defensa y la seguridad nacional, así como los socios del sector privado que apoyan estos esfuerzos", dijo Meta en una publicación de blog.
Para promover este proyecto, Meta ha alcanzado la cooperación con varias compañías conocidas, incluidas Accenture, Amazon Web Services, Andyr, Boss Allen, Databricks, Deloitte, IBM, Ledos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI y Snowflake. Estas compañías ayudarán a aplicar el modelo de LLAMA a varias tareas de seguridad nacional.
Por ejemplo, Oracle está utilizando LLAMA para procesar documentos de mantenimiento de aeronaves, mientras que la IA de escala está afinando la llama para tareas específicas de seguridad nacional. Lockheed Martin planea proporcionar una llama a sus clientes de defensa para ayudarlos a generar código de computadora, etc.
Por lo general, las políticas de Meta prohíben a los desarrolladores aplicar la llama a proyectos militares, de guerra o espías relacionados con el espía. Sin embargo, en este caso, Meta decidió hacer una excepción al permitir que las agencias y contratistas sean utilizados por el gobierno de los EE. UU., Y también aplicable a agencias similares en países como el Reino Unido, Canadá, Australia y Nueva Zelanda.
Vale la pena señalar que se ha informado que algunos investigadores relacionados con el Ejército de Liberación del Pueblo Chino utilizaron la versión anterior del Modelo de Llama (LLAMA2) para desarrollar un chatbot centrado en el ejército diseñado para recopilar y procesar inteligencia y proporcionar la toma de decisiones de combate. información. Meta respondió que el uso del modelo estaba "no autorizado" y violó la política de uso aceptable de la compañía. Sin embargo, este incidente desencadenó además una discusión generalizada sobre las ventajas y desventajas de la IA abierta.
Con la aplicación de inteligencia artificial en inteligencia militar, vigilancia y reconocimiento, los riesgos de seguridad relacionados han surgido gradualmente. Un estudio del Instituto AI Now muestra que los sistemas de IA existentes se basan en datos personales que pueden ser extraídos y armados por adversarios. Al mismo tiempo, los sistemas de inteligencia artificial también tienen problemas como el sesgo y la alucinación, y actualmente no hay una solución efectiva. Los investigadores recomiendan desarrollar sistemas de IA dedicados aislados del modelo de "negocio".
Aunque Meta afirma que la apertura de IA puede acelerar la investigación de defensa y promover los intereses económicos y de seguridad de los Estados Unidos, el ejército de los EE. UU. Todavía es cauteloso sobre la adopción de esta tecnología, y solo el Ejército ha desplegado una inteligencia artificial generativa hasta ahora.
Puntos clave:
Meta abre el modelo de llama al gobierno de los EE. UU. Y los contratistas de defensa para apoyar las aplicaciones de seguridad nacional.
Muchas compañías conocidas han cooperado con Meta para promover conjuntamente la aplicación del modelo de llama en el campo de la defensa.
Los riesgos de seguridad de la inteligencia artificial abierta en aplicaciones militares han provocado discusiones, y los investigadores han pedido el desarrollo de modelos especializados.
El movimiento de Meta ha logrado un delicado equilibrio entre la promoción del desarrollo tecnológico y la seguridad nacional, pero también destaca los desafíos éticos y de seguridad en la aplicación de la tecnología de inteligencia artificial, que deben prestarse continuamente la atención y responder con cautela. El desarrollo futuro de la IA abierta requiere encontrar el mejor camino entre la innovación tecnológica y la garantía de seguridad.