Le régulateur italien de la protection des données a lancé des accusations formelles contre ChatGPT d’OpenAI, l’accusant de violer la réglementation GDPR, ce qui aura un impact majeur sur le secteur de l’intelligence artificielle. S’il s’avère qu’OpenAI a enfreint les règles, il s’exposera à de lourdes amendes. Le cœur de l'accusation est qu'OpenAI pourrait avoir collecté des données personnelles sur l'Internet public pour entraîner ChatGPT sans le consentement de l'utilisateur, ce qui viole directement les principes fondamentaux du RGPD sur la confidentialité des données et le consentement de l'utilisateur. Cette décision a déclenché de nombreuses discussions sur la source et la sécurité des données de formation de modèles de langage à grande échelle, et a également sonné l'alarme auprès d'autres sociétés d'intelligence artificielle, leur rappelant qu'elles doivent être plus prudentes dans la collecte et l'utilisation des données et se conformer strictement aux réglementations pertinentes en matière de protection des données.
Le régulateur italien de la protection des données a officiellement accusé le développeur OpenAI ChatGPT d’avoir violé la réglementation GDPR. Si cela est vrai, OpenAI pourrait être confronté à de lourdes amendes. La clé de l’accusation est que l’entreprise pourrait avoir enfreint les règles du RGPD et obtenu des données personnelles sur l’Internet public pour entraîner les robots, ce qui pourrait causer des problèmes sans obtenir le consentement des citoyens.
Cet incident met en évidence l’importance de la confidentialité des données et de l’éthique dans le développement de l’intelligence artificielle. À l’avenir, les entreprises d’IA devront accorder davantage d’attention à la conformité des données et explorer activement des méthodes de traitement des données plus sûres et plus responsables. Ce n'est qu'ainsi que nous pourrons assurer le développement sain de la technologie de l'intelligence artificielle et fournir aux utilisateurs des services plus sûrs et plus fiables.