Baru -baru ini, Google telah membuat penyesuaian besar pada prinsip -prinsip AI dan membatalkan komitmen sebelumnya untuk tidak mengembangkan AI untuk senjata atau pengawasan, yang telah menyebabkan kontroversi yang meluas. Langkah ini berasal dari halaman prinsip AI publik Google yang diperbarui, yang menghapus bagian "aplikasi yang tidak akan kami kejar", menyebabkan media dan publik mempertanyakan arah aplikasi AI -nya. Setelah langkah tersebut menandatangani kontrak layanan cloud dengan militer AS dan Israel, langkah ini memperburuk kekhawatiran orang tentang peran perusahaan teknologi di bidang militer dan pemantauan.
Baru -baru ini, Google diam -diam menghapus janji dari situs web resminya untuk tidak mengembangkan kecerdasan buatan (AI) untuk senjata atau pengawasan. Perubahan ini pertama kali dilaporkan oleh Bloomberg, dan langkah ini telah membangkitkan perhatian luas dan diskusi dari dunia luar. Google baru -baru ini memperbarui halaman prinsip AI publik dan bagian -bagian yang dihapus yang disebut "kami tidak akan mengejar", dan bagian ini masih terlihat minggu lalu.
Dihadapkan dengan pertanyaan media, Google menyediakan posting blog yang baru dirilis tentang "AI yang bertanggung jawab" untuk "Tech Crunch". Dalam artikel ini, Google mengatakan: "Kami percaya bahwa perusahaan, pemerintah dan organisasi harus bekerja sama untuk menciptakan AI yang dapat melindungi manusia, mempromosikan pembangunan global dan mendukung keamanan nasional."
Prinsip AI yang diperbarui Google menekankan bahwa perusahaan akan berkomitmen untuk "mengurangi kecelakaan atau hasil yang berbahaya, menghindari prasangka yang tidak adil", dan memastikan bahwa pengembangan perusahaan konsisten dengan "prinsip -prinsip penerimaan umum hukum internasional dan hak asasi manusia". Ini menunjukkan bahwa posisi Google pada aplikasi AI mungkin berubah.
Dalam beberapa tahun terakhir, kontrak layanan cloud Google ditandatangani dengan AS dan militer Israel telah memicu protes dari karyawan internal. Meskipun Google telah berulang kali menekankan bahwa teknologi AI -nya tidak digunakan untuk membahayakan manusia, kepala AI Departemen Pertahanan AS baru -baru ini mengatakan dalam sebuah wawancara dengan "Technology Crunch" bahwa model AI beberapa perusahaan benar -benar mempercepat pengambilan keputusan tempur tempur proses militer AS. Pernyataan ini penuh dengan keraguan tentang aplikasi Google AI di masa depan.
Perubahan di Google ini telah memicu pemikiran tentang peran perusahaan teknologi di bidang militer dan pemantauan. Dalam konteks meningkatnya perhatian dari isu -isu etis teknologi kecerdasan buatan, ukuran baru Google ini tampaknya sangat terlihat. Publik dan karyawan memperhatikan bagaimana perusahaan mempertahankan citra yang bertanggung jawab dalam bidang sensitif ini, dan bagaimana menyeimbangkan hubungan antara kepentingan bisnis dan tanggung jawab moral.
Dengan kemajuan berkelanjutan dan penerapan teknologi AI, perubahan posisi Google mungkin memiliki dampak mendalam pada seluruh industri, dan itu juga akan memeriksa kembali etika ilmiah dan teknologi di masa depan dan rasa tanggung jawab.
Langkah Google telah membangkitkan diskusi luas tentang tanggung jawab sosial perusahaan teknologi dan etika AI. Perumusan dan pengawasan norma etika pengembangan dan aplikasi teknologi AI juga lebih mendesak.