Recentemente, as questões de segurança do modelo de IA têm recebido cada vez mais atenção. Pesquisadores da Universidade Estadual da Carolina do Norte fizeram um grande avanço ao desenvolver um método para extrair modelos de IA capturando sinais eletromagnéticos de computadores com uma precisão de mais de 99%. Esta descoberta levantou preocupações na indústria sobre a protecção dos direitos de propriedade intelectual em modelos de IA, especialmente no contexto em que empresas como OpenAI, Anthropic e Google têm investido fortemente no desenvolvimento de modelos proprietários. O artigo explora o impacto potencial desta nova tecnologia e como as empresas podem responder ao risco crescente de roubo de modelos de IA, bem como analisa medidas de segurança relacionadas e tendências futuras de desenvolvimento.
Recentemente, pesquisadores da Universidade Estadual da Carolina do Norte propuseram um novo método para extrair modelos de inteligência artificial (IA) por meio da captura de sinais eletromagnéticos emitidos por computadores, com precisão superior a 99%. A descoberta pode representar um desafio para o desenvolvimento comercial de IA, especialmente porque empresas como OpenAI, Anthropic e Google investiram pesadamente em modelos proprietários. No entanto, os especialistas observam que o impacto real desta tecnologia no mundo real, bem como as medidas de defesa, permanecem obscuros.
Lars Nyman, diretor de marketing da CUDO Compute, disse que o roubo de IA não é apenas a perda do modelo em si, mas também pode desencadear uma série de reações em cadeia, como concorrentes que usam anos de resultados de pesquisa e desenvolvimento e agências reguladoras investigando atividades intelectuais direitos de propriedade, má gestão e até processos judiciais de clientes que descobriram que a sua “singularidade” de IA não era única. Esta situação pode levar a um impulso dentro da indústria para auditorias padronizadas, como SOC2 ou certificação ISO, para distinguir empresas seguras de empresas irresponsáveis.
Nos últimos anos, a ameaça de ataques de hackers contra modelos de IA tornou-se cada vez mais séria. A dependência do mundo empresarial da IA torna este problema ainda mais grave. Relatórios recentes mostram que milhares de ficheiros maliciosos foram carregados no Hugging Face, um repositório importante de ferramentas de IA, comprometendo gravemente os modelos utilizados em indústrias como o retalho, a logística e as finanças. Especialistas em segurança nacional alertaram que medidas de segurança fracas podem deixar sistemas proprietários em risco de roubo, como mostra a falha de segurança da OpenAI. Os modelos de IA roubados podem sofrer engenharia reversa ou ser vendidos, o que prejudicará o investimento de uma empresa e minará a confiança, permitindo que os concorrentes os alcancem rapidamente.
A equipe de pesquisa da Universidade Estadual da Carolina do Norte revelou informações importantes sobre a estrutura do modelo, colocando uma sonda perto da unidade de processamento de tensor de borda (TPU) do Google e analisando seu sinal. Este método de ataque não requer acesso direto ao sistema, o que expõe a propriedade intelectual da IA a sérios riscos de segurança. O coautor do estudo, Aydin Aysu, professor associado de engenharia elétrica e de computação, enfatizou que construir um modelo de IA é caro e requer muitos recursos computacionais, por isso é crucial evitar que o modelo seja roubado.
À medida que a tecnologia de IA se torna mais amplamente utilizada, as empresas precisam reexaminar alguns dos equipamentos utilizados para o processamento de IA. O consultor de tecnologia Suriel Arellano acredita que as empresas podem migrar para uma computação mais centralizada e segura ou considerar tecnologias alternativas que sejam menos suscetíveis a roubo. Embora exista o risco de roubo, a IA também está a melhorar a segurança cibernética, melhorando a eficiência da resposta através da deteção automatizada de ameaças e da análise de dados, ajudando a identificar ameaças potenciais e a aprender a responder a novos ataques.
Destaque:
Os pesquisadores demonstraram um método de extração de modelos de IA capturando sinais eletromagnéticos com uma precisão superior a 99%.
O roubo do modelo de IA pode levar os concorrentes a explorar os resultados de anos de pesquisa e desenvolvimento da empresa, afetando a segurança dos negócios.
As empresas precisam de reforçar a proteção da segurança dos modelos de IA para lidar com a ameaça crescente de ataques de hackers.
Em suma, a segurança do modelo de IA tornou-se um foco para as empresas. Enfrentando ameaças cada vez mais complexas à cibersegurança, as empresas precisam de tomar ativamente medidas para reforçar a proteção dos modelos de IA e explorar tecnologias de IA mais seguras para proteger os seus direitos de propriedade intelectual e interesses comerciais.