Recentemente, a Comissão Federal de Comércio dos EUA (FTC) lançou uma investigação sobre a Anthropic, uma startup de IA avaliada em US$ 18 bilhões, devido a uma violação de dados na empresa. O vazamento envolveu informações não sigilosas de alguns clientes, incluindo nomes e saldos credores, até 2023. Este incidente desencadeou preocupações generalizadas na indústria sobre a segurança dos dados de modelos linguísticos de grande escala, e mais uma vez destacou os enormes desafios enfrentados pelas empresas de IA na protecção de dados. A investigação da FTC examinará mais detalhadamente as medidas de segurança de dados da Anthropic e poderá ter um impacto significativo no desenvolvimento futuro da empresa.
A FTC lançou uma investigação sobre a empresa Anthropic, de US$ 18 bilhões, e descobriu uma violação de dados em sua startup de IA. A violação envolveu um subconjunto de informações não confidenciais sobre nomes de clientes e saldos de crédito até 2023. O incidente levantou preocupações sobre a segurança de grandes modelos de linguagem.
Esta violação de dados não só teve um impacto negativo na própria Anthropic, mas também soou o alarme para toda a indústria de IA, lembrando a todas as empresas de IA que devem atribuir grande importância à segurança dos dados e tomar medidas mais rigorosas para proteger os dados dos utilizadores e evitar incidentes semelhantes. aconteça novamente. No futuro, o fortalecimento da segurança dos dados e da proteção da privacidade se tornará um fator chave para o desenvolvimento saudável da indústria de IA.