Com o rápido desenvolvimento da tecnologia de inteligência artificial, especialmente dos grandes modelos de linguagem (LLMs), as suas questões de segurança tornaram-se cada vez mais proeminentes. No entanto, as leis e regulamentos existentes, especialmente a Lei de Fraude e Abuso de Computadores (CFAA) nos Estados Unidos, são insuficientes para lidar com os riscos legais na investigação de segurança da IA. Acadêmicos da Universidade de Harvard apontaram recentemente na Conferência Black Hat que a CFAA não conseguiu proteger eficazmente os investigadores de segurança de IA e pode, em vez disso, expô-los a riscos legais, despertando atenção e discussão generalizadas na indústria sobre o quadro jurídico para a investigação de segurança de IA. Este artigo fornecerá uma análise aprofundada disso.
Hoje, com o rápido desenvolvimento da tecnologia moderna, a inteligência artificial, especialmente os grandes modelos de linguagem (LLMs), está gradualmente se tornando o foco. No entanto, as leis de segurança cibernética dos EUA parecem não conseguir acompanhar este campo em rápida mudança. Recentemente, um grupo de académicos da Universidade de Harvard salientou na Black Hat Conference que a actual Lei de Fraude e Abuso de Computadores (CFAA) não protege eficazmente aqueles envolvidos na investigação de segurança da IA e pode, em vez disso, expô-los a riscos legais.
Nota sobre a fonte da imagem: a imagem é gerada pela IA e pelo provedor de serviços de autorização de imagem Midjourney
Esses estudiosos incluem Kendra Albert, Ram Shankar Siva Kumar e Jonathon Penney, da Harvard Law School. Albert mencionou em uma entrevista que as leis existentes não definem claramente comportamentos como “ataques de injeção de dicas”, o que torna difícil para os pesquisadores julgarem se suas ações violam a lei. Ela disse que embora algumas ações, como o acesso a modelos sem permissão, sejam claramente ilegais, a questão também se torna confusa se os pesquisadores que obtiveram acesso aos sistemas de IA estão usando esses modelos de maneiras que não pretendiam.
Em 2021, o caso Van Buren v. Estados Unidos da Suprema Corte dos EUA mudou a interpretação da CFAA, estipulando que a lei só se aplica àqueles que têm acesso não autorizado a informações dentro de um computador. Este veredicto faz sentido em sistemas de computadores tradicionais, mas é insuficiente quando se trata de grandes modelos de linguagem. Albert destacou que o uso da linguagem natural para interagir com a IA torna esta definição legal mais complicada e, muitas vezes, a resposta da IA não equivale à recuperação de informações do banco de dados.
Ao mesmo tempo, Sivakumar também mencionou que as discussões jurídicas sobre pesquisas de segurança de IA têm recebido muito menos atenção do que questões como direitos autorais, e ele próprio não tem certeza se estará protegido ao realizar determinados testes de ataque. Albert disse que dada a incerteza da lei existente, esta questão pode ser esclarecida através de litígios judiciais no futuro, mas no momento, muitos pesquisadores "bem-intencionados" se sentem perdidos.
Neste ambiente jurídico, Albert aconselha os investigadores de segurança a procurarem apoio jurídico para garantir que as suas ações não violam a lei. Ela também teme que disposições legais vagas possam assustar potenciais pesquisadores e permitir que invasores mal-intencionados escapem impunes, criando maiores riscos de segurança.
Destaque:
A Lei de Fraude e Abuso de Computadores dos EUA oferece proteção insuficiente para pesquisadores de segurança de IA e pode enfrentar riscos legais.
As leis atuais carecem de definições claras para ações como ataques de injeção de pontas, tornando difícil para os pesquisadores determinar a legalidade.
Os académicos acreditam que poderão ser necessários procedimentos judiciais no futuro para clarificar as disposições legais relevantes e proteger os investigadores de boa-fé.
Em suma, os dilemas jurídicos no domínio da investigação em segurança da IA requerem atenção. Tendo em conta as características dos grandes modelos linguísticos, é necessário formular leis e regulamentos mais claros e mais direcionados para proteger os direitos e interesses dos investigadores legítimos, promover o desenvolvimento saudável da investigação em segurança da IA e combater eficazmente os ataques maliciosos. Só assim poderemos garantir o desenvolvimento saudável da tecnologia de inteligência artificial e beneficiar toda a humanidade.