A Meta divulgou uma nova estrutura de política de risco de IA de ponta, com o objetivo de reduzir o risco de modelos de IA de ponta e tomar medidas de controle correspondentes com base no nível de risco. A estrutura divide modelos de IA em duas categorias: de alto risco e de risco-chave e formula estratégias correspondentes para diferentes níveis, como interromper o desenvolvimento, restringir os direitos de acesso etc. Esse movimento visa melhorar a segurança e a transparência do desenvolvimento da IA e impedir ameaças em potencial, como a proliferação de armas biológicas e fraude econômica.
A Meta divulgou recentemente uma nova estrutura de política de risco destinada a avaliar e reduzir os riscos representados pelos modelos de IA de ponta e parar de desenvolver ou limitar a liberação desses sistemas, se necessário. A estrutura, chamada Frontier AI Framework, elabora como a Meta dividirá modelos de IA em duas categorias: riscos de alto risco e críticos e tomam medidas correspondentes de acordo para reduzir os riscos a "níveis toleráveis".
Nesta estrutura, os riscos críticos são definidos como capaz de facilitar exclusivamente a execução de cenários de ameaças específicos. Alto risco significa que o modelo pode aumentar significativamente a possibilidade de alcançar cenários de ameaças, mas não facilita diretamente a execução. Os cenários de ameaças incluem a proliferação de armas biológicas, cujas capacidades são comparáveis aos agentes biológicos conhecidos, e os danos econômicos generalizados a um indivíduo ou empresa causados por fraude e fraude de longo prazo em larga escala.
Para modelos que atendem aos limiares críticos de risco, a Meta interromperá o desenvolvimento e o acesso aberto ao modelo a apenas alguns especialistas, implementando proteções de segurança para impedir que hackers ou violações de dados sejam viáveis tecnicamente e comercialmente. Para modelos de alto risco, a meta restringe o acesso e toma medidas de mitigação de riscos para reduzir os riscos a níveis moderados, garantindo que o modelo não melhore significativamente as capacidades de execução dos cenários de ameaça.
A Meta disse que seu processo de avaliação de risco envolverá especialistas multidisciplinares e líderes internos da empresa para garantir que as opiniões sobre todos os aspectos sejam totalmente consideradas. Essa nova estrutura se aplica apenas aos modelos e sistemas de ponta da empresa, cujos recursos correspondem ou excedem os níveis técnicos atuais.
A Meta espera que, ao compartilhar seus métodos avançados de desenvolvimento do sistema de IA, possa melhorar a transparência e promover a discussão e a pesquisa externa sobre avaliação da IA e ciência quantitativa de risco. Ao mesmo tempo, a empresa enfatizou que o processo de tomada de decisão para avaliação de IA continuará evoluindo e melhorando com o desenvolvimento da tecnologia, incluindo a garantia de que os resultados de seu ambiente de teste possam realmente refletir o desempenho do modelo em operação real.
Pontos -chave:
A Meta lança uma nova estrutura de política de risco para avaliar e reduzir os riscos dos modelos de IA de ponta.
Os principais modelos de risco serão descontinuados e o acesso de especialistas será restrito;
O processo de avaliação de risco envolverá especialistas multidisciplinares, esforçando -se para melhorar a transparência e a cientificidade.
A nova estrutura da Meta define padrões de segurança mais altos para o desenvolvimento e implantação de futuros modelos de IA, refletindo seu compromisso com o desenvolvimento responsável da IA. Isso não apenas ajuda a reduzir os riscos potenciais da tecnologia de IA, mas também fornece experiência e referência valiosas para o setor.