O regulador de proteção de dados da Itália lançou acusações formais contra o ChatGPT da OpenAI, acusando-o de violar os regulamentos do GDPR, o que terá um grande impacto na indústria de inteligência artificial. Se for descoberto que a OpenAI violou as regras, ela enfrentará pesadas multas. O cerne da acusação é que a OpenAI pode ter coletado dados pessoais da Internet pública para treinar o ChatGPT sem o consentimento do usuário, o que viola diretamente os princípios básicos do GDPR sobre privacidade de dados e consentimento do usuário. Esta medida desencadeou discussões generalizadas sobre a fonte e a segurança dos dados de treinamento de modelos de linguagem em grande escala e também soou o alarme para outras empresas de inteligência artificial, lembrando-as de que precisam ser mais cautelosas na coleta e uso de dados e cumprir rigorosamente as regulamentos relevantes de proteção de dados.
O regulador de proteção de dados da Itália acusou formalmente o desenvolvedor OpenAI ChatGPT de violar os regulamentos do GDPR. Se for verdade, a OpenAI poderá enfrentar multas pesadas. A chave da acusação é que a empresa pode ter violado as regras do GDPR e obtido dados pessoais da Internet pública para treinar os robôs, o que poderia causar problemas sem obter o consentimento dos cidadãos.
Este incidente destaca a importância da privacidade e da ética dos dados no desenvolvimento da inteligência artificial. No futuro, as empresas de IA terão de prestar mais atenção à conformidade dos dados e explorar ativamente métodos de processamento de dados mais seguros e responsáveis. Só desta forma poderemos garantir o desenvolvimento saudável da tecnologia de inteligência artificial e fornecer aos utilizadores serviços mais seguros e fiáveis.