Bagaimana mengaktifkan kecerdasan buatan untuk mencapai keadilan kognitif
Penulis:Eve Cole
Waktu Pembaruan:2024-11-22 17:54:01
Dalam beberapa tahun terakhir, kecerdasan buatan telah diterapkan di banyak industri dan telah menjadi “penolong yang baik” bagi umat manusia. Namun dalam proses ini, berbagai permasalahan juga muncul. Diantaranya, sistem kecerdasan buatan menghasilkan "pengetahuan" yang salah berdasarkan sumber data yang buruk dan desain algoritma yang cacat, dan tidak memiliki kemampuan untuk membuat penilaian nilai pada konten keluaran dan tidak dapat memikul tanggung jawab kognitif yang sesuai, sehingga menyebabkan bias kognitif sistemik adalah masalah yang cukup menonjol. Dari sudut pandang etika ilmu pengetahuan dan teknologi, hal ini melanggar prinsip keadilan kognitif. Apa yang disebut keadilan kognitif mengacu pada memastikan bahwa suara semua individu dan kelompok dapat didengar dan dipahami secara adil dalam proses perolehan, penyebaran dan perolehan pengetahuan, dan memiliki kesempatan yang sama untuk diubah menjadi pengetahuan publik umat manusia. Di masa lalu, pembangkitan pengetahuan terutama bergantung pada persepsi, ingatan, penalaran dan kesaksian individu manusia. Namun, dengan pesatnya pengulangan kecerdasan buatan, terutama penerapan kecerdasan buatan percakapan secara luas, pembangkitan pengetahuan tradisional dan metode penyebarannya sedang mengalami perubahan besar. Kecerdasan buatan saat ini tidak hanya pandai mengumpulkan informasi dan melakukan tugas, tetapi juga merupakan "teknologi kognitif" yang dapat menghasilkan dan menyebarkan pengetahuan. Kecerdasan ini digunakan untuk memproses konten kognitif (seperti proposisi, model, data) dan melakukan operasi kognitif (seperti seperti analisis statistik, pengenalan pola, prediksi, inferensi dan simulasi). “Pengetahuan mesin” berdasarkan data dan algoritme menantang pengetahuan manusia di masa lalu berdasarkan pengalaman dan penilaian profesional, yang mengarah pada “fragmentasi” kognitif dan melemahkan keadilan kognitif sistem pengetahuan manusia tradisional. Saat ini, kecerdasan buatan generatif telah mulai tertanam sepenuhnya dalam semua skenario dan proses sosial yang dapat memberikan pengganti teknis untuk kognisi dan pengambilan keputusan. Menghadapi tantangan keadilan kognitif yang disebabkan oleh kecerdasan buatan dalam menghasilkan pengetahuan, bagaimana membuat kecerdasan buatan menjadi lebih pintar? Bagaimana menjadikannya sebagai penolong dalam meningkatkan kognisi dan memastikan bahwa ilmu pengetahuan dan teknologi itu baik? Penulis berpendapat perlu dimulai dari dimensi peningkatan kualitas data, perbaikan desain algoritma, optimalisasi kolaborasi manusia-mesin, dan penguatan tata kelola etis. Desain algoritme yang bertanggung jawab adalah arsitektur inti untuk mencapai keadilan epistemik. Sebagai teknologi kognitif yang kuat, kecerdasan buatan mengidentifikasi pola dan tren informasi melalui penambangan data dan analisis statistik, serta berpartisipasi dalam pembentukan pengetahuan publik manusia. Karena algoritme berfokus pada pola informasi yang sering muncul dalam data pelatihan, data yang tidak cukup umum atau tidak cukup kuat secara statistik sering kali diabaikan dan dikecualikan, sehingga menghalangi algoritme untuk sepenuhnya memahami dan merespons dengan tepat. Desain algoritma yang mengandalkan frekuensi statistik merupakan jenis "ketaatan buta kognitif" yang spesifik, yang pada gilirannya mengarah pada marginalisasi sistematis terhadap suara beberapa kelompok. Cacat desain ini tidak hanya membatasi kemampuan kognitif algoritme, namun juga memperburuk kesenjangan dan penindasan kognitif dalam masyarakat, sehingga melemahkan keadilan kognitif. Akar penyebab di balik perilaku "ketaatan buta" adalah kurangnya pemahaman tentang latar belakang budaya berbagai kelompok dalam desain algoritma dan proses pelatihan. Oleh karena itu, selain transparansi dan penjelasan algoritma yang sering kita bicarakan, desain algoritma yang memenuhi persyaratan keadilan kognitif juga harus mempertimbangkan keragaman kognitif yang melibatkan komunitas berbeda. Pasokan data yang berkualitas merupakan infrastruktur untuk mewujudkan keadilan epistemik. Faktor penting lainnya yang menyebabkan AI melemahkan keadilan epistemik adalah kualitas data. Big data adalah basis kognitif dan basis pengambilan keputusan dalam teknologi cerdas. Big data dapat menyajikan karakteristik dan tren seluruh aspek kehidupan sosial manusia dengan lebih jelas dan intuitif. Namun, tidak seperti pengetahuan masyarakat tradisional, data tidak dibagikan secara universal oleh manusia. Secara khusus, data apa yang dapat dikumpulkan dan digunakan untuk analisis, bagaimana data tersebut akan diklasifikasikan dan diekstraksi, dan siapa yang pada akhirnya dilayani, semuanya tidak jelas, sehingga kualitas data menjadi tidak merata. Data pelatihan untuk algoritme sering kali berasal dari database dan komunitas besar di Internet, dan data ini kemungkinan besar mengandung bias dan diskriminasi. Generasi pengetahuan dari kecerdasan buatan memerlukan jaminan bahwa sumber data dapat diandalkan dan kontennya beragam, data harus tidak bias, dan data harus terus dipantau dan diperbarui untuk mengatasi masalah baru yang disebabkan oleh perubahan sosial dan budaya. Hanya dengan pasokan data berkualitas tinggi, sistem kecerdasan buatan dapat memberikan pengetahuan yang lebih akurat dan dukungan pengambilan keputusan dalam struktur sosial yang multikultural dan kompleks. Kolaborasi manusia-mesin berskala besar merupakan cara efektif untuk mencapai keadilan kognitif. Dari penerjemahan sinyal pada antarmuka otak-komputer hingga tindakan bersama manusia-mesin seperti pengambilan keputusan medis yang cerdas dan AI untuk Sains, kolaborasi manusia-mesin di berbagai tingkatan melibatkan proses kognitif seperti transmisi, interpretasi, dan integrasi pengetahuan manusia dan mesin. pengetahuan. Mengingat karakteristik kognitif khas manusia dan mesin, "pembagian kerja kognitif manusia-mesin" yang berskala besar dan rasional akan secara efektif menghindari lebih banyak bias kognitif manusia-mesin. Misalnya, dalam penelitian ilmiah, terdapat pembagian kerja seperti ini: manusia menetapkan tujuan, mengajukan hipotesis, dan menafsirkan hasil, serta bertanggung jawab untuk menyediakan pemikiran kreatif, pengambilan keputusan di tempat, penilaian etis, dan pemahaman intuitif. masalah tidak terstruktur; sementara kecerdasan buatan memproses data terstruktur dalam jumlah besar, melakukan pengenalan pola dan analisis prediktif untuk memberikan pola dan korelasi yang tidak diketahui. Dalam kolaborasi semacam ini, AI lebih menjadi “mitra” yang menginspirasi ide-ide baru dibandingkan “mesin” yang menghasilkan pengetahuan yang salah. Tata kelola etis tingkat tinggi merupakan dukungan kelembagaan untuk mewujudkan keadilan kognitif. Keadilan kognitif memerlukan generasi pengetahuan yang beragam, perolehan pengetahuan yang setara, penyebaran pengetahuan yang tidak memihak, dan penggunaan pengetahuan yang bertanggung jawab, yang semuanya memerlukan tata kelola etika kecerdasan buatan tingkat tinggi. Bagi perusahaan, kebutuhan dan perspektif kelompok sosial yang berbeda harus dipertimbangkan dalam desain algoritme, dan pemantauan risiko berkelanjutan serta penilaian nilai algoritme harus dilakukan; model crowdsourcing etis kecerdasan buatan juga harus dieksplorasi untuk mendorong peneliti dan pengguna dari berbagai latar belakang untuk berpartisipasi dalam kecerdasan buatan Dalam penelitian dan penilaian risiko etika yang cerdas, risiko etika dapat diselesaikan pada waktu yang tepat. Bagi pemerintah, pemerintah harus secara aktif mendorong transformasi data pribadi menjadi data publik, mempercepat pembukaan dan pembagian data publik ke seluruh masyarakat, memperluas keragaman data, dan memperkuat keandalan data; risiko etika kecerdasan buatan dan membangun sistem yang mencakup mekanisme tata kelola yang tangkas dengan pandangan ke depan, penilaian waktu nyata, dan penyesuaian sistematis.