Badan perlindungan data Italia mengenakan denda besar sebesar 15 juta euro pada ChatGPT OpenAI. Insiden ini memicu kekhawatiran global yang luas mengenai privasi data kecerdasan buatan. Denda tersebut berasal dari berbagai pelanggaran OpenAI dalam proses pemrosesan data, termasuk kegagalan melaporkan kebocoran data secara tepat waktu, kurangnya dasar hukum untuk pemrosesan data, dan kegagalan untuk sepenuhnya melindungi transparansi data pengguna dan perlindungan anak di bawah umur. Langkah ini menyoroti sikap ketat UE dalam melindungi data pengguna, dan juga menjadi peringatan bagi perusahaan kecerdasan buatan lainnya, memperingatkan mereka bahwa mereka harus mengutamakan privasi data dan keamanan pengguna saat mengembangkan teknologi kecerdasan buatan.
Baru-baru ini, badan perlindungan data Italia mengumumkan denda sebesar 15 juta euro pada chatbot kecerdasan buatan OpenAI, ChatGPT. Keputusan tersebut menyusul penyelidikan yang diluncurkan pada Maret 2023, yang menemukan bahwa OpenAI melanggar peraturan perlindungan privasi dalam berbagai aspek.
Investigasi menunjukkan bahwa OpenAI membuat kesalahan serius dalam menangani data pribadi. Pertama, perusahaan gagal melaporkan pelanggaran data secara tepat waktu, yang berdampak serius pada privasi dan keamanan penggunanya. Selain itu, OpenAI tidak memiliki dasar hukum untuk memproses data pribadi, yang berarti informasi pribadi pengguna digunakan secara ilegal tanpa izin yang sesuai.
Pada saat yang sama, OpenAI juga melanggar prinsip transparansi dan gagal memberi tahu pengguna secara jelas bagaimana data mereka dikumpulkan dan digunakan, sehingga menyebabkan pengguna memiliki keraguan tentang pemrosesan informasi mereka selama penggunaan. Selain itu, penyelidikan menemukan bahwa OpenAI gagal menerapkan langkah-langkah verifikasi usia yang efektif, yang berarti bahwa anak di bawah umur mungkin juga menggunakan alat AI tanpa perlindungan.
Untuk mencapai tujuan ini, regulator Italia mewajibkan OpenAI untuk meluncurkan kampanye informasi selama enam bulan yang bertujuan untuk meningkatkan pemahaman masyarakat tentang ChatGPT. Acara ini akan menjelaskan cara kerja sistem AI, termasuk cara pengumpulan data dan hak privasi pengguna, sehingga memastikan pengguna dapat lebih memahami dan menggunakan teknologi ini.
Selama penyelidikan, OpenAI juga memindahkan kantor pusatnya di Eropa ke Irlandia. Langkah ini mengalihkan tanggung jawab peraturan privasi yang relevan kepada regulator Irlandia, yang mungkin mengarah pada peraturan dan tindakan yang berbeda mengenai perlindungan privasi di masa depan.
Melalui penyelidikan ini, pemerintah Italia berharap dapat lebih memperkuat perlindungan privasi pribadi, meningkatkan transparansi dan tanggung jawab perusahaan saat memproses data pengguna, dan memastikan bahwa masyarakat dapat menggunakan teknologi kecerdasan buatan yang canggih dalam lingkungan yang aman dan transparan.
Highlight:
Italia mendenda ChatGPT OpenAI sebesar €15 juta karena beberapa pelanggaran privasi.
Investigasi menemukan bahwa OpenAI gagal melaporkan pelanggaran data dan tidak memiliki dasar hukum untuk pemrosesan data dan transparansi.
OpenAI perlu melakukan kampanye pendidikan publik selama enam bulan untuk meningkatkan pemahaman pengguna tentang ChatGPT dan kesadaran akan privasi data.
Kejadian ini telah memberikan peringatan bagi perkembangan industri kecerdasan buatan, menekankan pentingnya keamanan data dan perlindungan privasi. Hal ini juga menunjukkan bahwa pengawasan di bidang kecerdasan buatan akan lebih ketat di masa depan, dan perusahaan perlu memberikan perhatian lebih untuk perlindungan data pengguna untuk mencapai pembangunan berkelanjutan.