A agência italiana de proteção de dados impôs uma multa enorme de 15 milhões de euros ao ChatGPT da OpenAI. Este incidente desencadeou uma preocupação global generalizada sobre a privacidade dos dados de inteligência artificial. A multa decorre das múltiplas violações da OpenAI no processo de processamento de dados, incluindo a falha em relatar vazamentos de dados em tempo hábil, a falta de base legal para o processamento de dados e a falha em proteger totalmente a transparência dos dados dos usuários e a proteção de menores. Esta medida destaca a posição rigorosa da UE na protecção dos dados dos utilizadores e também serve como um alerta para outras empresas de inteligência artificial, alertando-as de que devem colocar a privacidade dos dados e a segurança dos utilizadores em primeiro lugar ao desenvolverem tecnologia de inteligência artificial.
Recentemente, a agência italiana de proteção de dados anunciou uma multa de 15 milhões de euros ao chatbot de inteligência artificial ChatGPT da OpenAI. A decisão segue uma investigação lançada em março de 2023, que concluiu que a OpenAI violou os regulamentos de proteção da privacidade em vários aspectos.
A investigação apontou que a OpenAI cometeu erros graves no tratamento de dados pessoais. Em primeiro lugar, a empresa não comunicou a violação de dados em tempo útil, o que afetou seriamente a privacidade e a segurança dos seus utilizadores. Além disso, a OpenAI carece de base legal para o tratamento de dados pessoais, o que significa que as informações pessoais dos utilizadores são utilizadas ilegalmente sem a devida autorização.
Ao mesmo tempo, a OpenAI também violou o princípio da transparência e não informou claramente aos utilizadores como os seus dados são recolhidos e utilizados, o que fez com que os utilizadores tivessem dúvidas sobre o tratamento das suas informações durante a utilização. Além disso, a investigação descobriu que a OpenAI não conseguiu implementar medidas eficazes de verificação de idade, o que significa que menores também podem ter uso desprotegido da ferramenta de IA.
Para este fim, os reguladores italianos exigem que a OpenAI lance uma campanha de informação de seis meses destinada a melhorar a compreensão pública do ChatGPT. Este evento irá explicar como funciona o sistema de IA, incluindo como os dados são recolhidos e os direitos de privacidade dos utilizadores, garantindo que os utilizadores possam compreender e utilizar melhor esta tecnologia.
Durante a investigação, a OpenAI também mudou a sua sede europeia para a Irlanda. Esta mudança transferiu responsabilidades regulamentares de privacidade relevantes para os reguladores irlandeses, o que pode levar a diferentes regulamentações e medidas sobre proteção da privacidade no futuro.
Através desta investigação, o governo italiano espera reforçar ainda mais a protecção da privacidade pessoal, melhorar a transparência e a responsabilidade das empresas no processamento de dados dos utilizadores e garantir que o público possa utilizar tecnologia avançada de inteligência artificial num ambiente seguro e transparente.
Destaques:
A Itália multou o ChatGPT da OpenAI em € 15 milhões por múltiplas violações de privacidade.
A investigação descobriu que a OpenAI não relatou a violação de dados e não tinha base legal para processamento e transparência de dados.
A OpenAI precisa realizar uma campanha de educação pública de seis meses para melhorar a compreensão dos usuários sobre o ChatGPT e a conscientização sobre a privacidade dos dados.
Este incidente soou o alarme para o desenvolvimento da indústria de inteligência artificial, enfatizando a importância da segurança dos dados e da proteção da privacidade. Também indica que a supervisão no domínio da inteligência artificial será mais rigorosa no futuro e que as empresas precisam de prestar mais atenção. à proteção dos dados dos usuários, a fim de alcançar o desenvolvimento sustentável.