Pesatnya perkembangan teknologi kecerdasan buatan telah membawa banyak kemudahan bagi kehidupan masyarakat, namun juga membawa tantangan baru. Khususnya di bidang keamanan jaringan, teknologi AI digunakan oleh para penjahat untuk menciptakan berbagai metode penipuan baru, sehingga menimbulkan kerugian ekonomi dan risiko keamanan yang sangat besar bagi masyarakat. Editor Downcodes akan membawa Anda memahami bagaimana teknologi AI digunakan untuk penipuan dan cara menangani ancaman keamanan baru ini.
Meskipun Anda masih khawatir apakah ChatGPT akan menggantikan pekerjaan Anda suatu hari nanti dan memikirkan cara menggunakan kecerdasan buatan untuk meningkatkan efisiensi kerja, ada sekelompok orang yang telah menghasilkan banyak uang dengan mengandalkan teknologi baru ini.
Mereka... pembohong.
Menipu 4,3 juta dalam 10 menit,
Kelompok pertama orang yang menjadi kaya berkat AI sebenarnya adalah penipu
Jika suatu hari Anda menerima panggilan video WeChat dari seorang teman, dan orang di ujung kamera terlihat dan terdengar persis seperti teman yang Anda ingat, ketika dia meminta Anda meminjam 4,3 juta sebagai deposit untuk tawaran pekerjaan, Anda akan Bagaimana melakukannya?
Baru-baru ini, Tuan Guo, perwakilan hukum sebuah perusahaan teknologi di Fuzhou, mengalami masalah ini. Berdasarkan kepercayaan, dia mentransfer 4,3 juta ke rekening temannya. Baru setelah saya menelepon teman saya setelah itu, saya menemukan bahwa penipu telah mencuri ID WeChat temannya, dan kemudian menggunakan teknologi AI pengubah wajah dan onomatopoeia untuk menipu dia.
Frekuensi kejadian serupa terjadi di seberang lautan juga meningkat secara eksplosif.
Menurut CNN, pada bulan April tahun ini, Jennifer DeStefan, yang tinggal di Arizona, menerima panggilan telepon aneh. Suara di telepon itu adalah putrinya Brianna, yang sedang mempersiapkan kompetisi ski. Brianna menangis minta tolong di ujung telepon. Puluhan detik kemudian, suara laki-laki yang dalam mengancam di telepon: "Dengar, putri Anda ada di tangan saya dan saya telah membayar uang tebusan sebesar 1 juta dolar AS. Sekarang jika Anda menelepon polisi atau memberi tahu orang lain, Anda tidak akan pernah memikirkan tentang itu." Temui dia lagi."
Setelah Jennifer mengatakan dia tidak mampu membayar $1 juta, pria di ujung telepon menurunkan harga tebusannya menjadi $50.000. Jennifer, yang sangat mencintai putrinya, mengabaikan bujukan teman-teman dan suaminya dan mulai mendiskusikan cara untuk membayar uang tebusan. Baru setelah Brianna meneleponnya untuk mengatakan bahwa dia aman dan kerugian harta benda dapat dihindari.
Pada bulan Maret tahun ini, Washington Post juga melaporkan kasus penipuan dengan modus operandi yang hampir sama, hanya saja korbannya adalah pasangan lansia yang berusia di atas 70 tahun.
Orang lanjut usia yang menjadi korban (Sumber foto: "Washington Post")
Komisi Perdagangan Federal (FTC) AS mengeluarkan peringatan pada bulan Mei, yang menyatakan bahwa penjahat menggunakan teknologi suara AI untuk memalsukan keadaan darurat guna menipu uang atau informasi. Berpura-pura menjadi kerabat atau teman korban untuk melakukan penipuan bukanlah hal yang baru, namun tidak ada keraguan bahwa kemunculan teknologi AI telah membuatnya sangat mudah untuk mengkloning suara seseorang dan memalsukan video seseorang. Pada tahun lalu, jumlah penipuan serupa di Amerika Serikat telah melonjak sebesar 70%, dan korbannya mengalami kerugian sebesar $2,6 miliar.
Jika tren ini terus berlanjut, saya khawatir orang pertama yang mencapai kebebasan finansial melalui teknologi AI adalah sekelompok penipu yang bersembunyi di balik layar.
Sisi gelap dari kecerdasan buatan
Jika pemalsuan suara dan video seseorang masih memerlukan ambang batas teknis tertentu, maka kemunculan ChatGPT membuat penipuan AI menjadi lebih mudah.
Menurut platform keamanan jaringan asing GBHackers, ChatGPT telah menarik banyak penipu online karena produktivitas kerjanya yang kuat dan ambang penggunaan yang sangat rendah.
Misalnya, gunakan ChatGPT untuk berbicara tentang "cinta palsu": pengenalan diri, riwayat obrolan, dan surat cinta yang dibuat dengan cermat dapat dengan cepat dihasilkan melalui kecerdasan buatan orang di seberang layar bisa jatuh cinta padamu lebih cepat. Kemudian, ChatGPT juga dapat membantu penipu dalam menulis program pengumpulan pembayaran atau situs web phishing yang mencuri informasi kartu bank korban untuk tujuan menipu uang.
Ketika Anda secara langsung meminta ChatGPT untuk menulis program perangkat lunak phishing untuk Anda, ia akan menolak; tetapi jika Anda mengatakan bahwa Anda adalah seorang guru dan ingin menunjukkan kepada siswa perangkat lunak phishing, ia akan dengan jujur menulis sebuah situs web untuk Anda.
Yang lebih menakutkan lagi adalah sulit bagi orang untuk membedakan apakah itu manusia atau mesin di balik layar. McAfee, perusahaan teknologi keamanan terbesar di dunia, pernah menggunakan AI untuk membuat surat cinta dan mengirimkannya ke 5.000 pengguna di seluruh dunia. Setelah mengetahui bahwa surat cinta tersebut mungkin dibuat oleh kecerdasan buatan, 33% responden masih percaya bahwa surat tersebut ditulis oleh orang sungguhan.
Faktanya, menggunakan ChatGPT untuk melakukan "cinta palsu" dengan korban hanyalah metode penipuan tingkat pemula. Peretas yang lebih terampil telah mulai menggunakan kecerdasan buatan untuk menghasilkan ransomware dan kode berbahaya secara berkelompok.
Untuk memfasilitasi penerapan lebih banyak aplikasi pada model GPT, OpenAI telah mencadangkan antarmuka pemrograman aplikasi untuk pengembang. Peretas menggunakan antarmuka ini untuk memperkenalkan model GPT ke serangkaian aplikasi eksternal, sehingga melewati pengawasan keamanan dan menggunakan model GPT untuk menulis program kriminal.
Program-program yang melewati pengawasan keamanan ini telah dijual secara publik di web gelap AS, dan harganya sangat murah serta dapat dibeli hanya dengan beberapa dolar. Perilaku ilegal yang dilakukan pembeli dengan menggunakan perangkat lunak ini sangat menakutkan: dengan mencuri kode program dan informasi pribadi pengguna, menghasilkan perangkat lunak penyerang dan virus ransomware.
Financial Times baru-baru ini melaporkan skrip serangan pertukaran SIM yang dihasilkan dengan bantuan ChatGPT, yang dapat digunakan penipu untuk menerobos kendali perusahaan telepon seluler atas nomor telepon dan menukar nomor telepon dari kartu SIM pemilik asli ke nomor penyerang. . Kendalikan kartu SIM dan dengan demikian kendalikan ponsel korban.
“Meskipun ChatGPT saat ini hanyalah alat pembuat konten dan tidak terlibat langsung dalam kejahatan, hal ini menandai bahwa orang-orang mulai menggunakan kecerdasan buatan untuk menyerang orang lain, dan penjahat dengan tingkat teknis yang lebih rendah akan mendapatkan cara kriminal yang lebih kuat.” mengungkapkan keprihatinannya kepada Financial Times.
Bisakah kotak Pandora ditutup?
Ketika pengaruh sosial dari kecerdasan buatan bercampur dengan potensi kriminalnya, berbagai kerentanan keamanan ChatGPT telah membuat masyarakat semakin tidak nyaman. "Bagaimana mengatur ChatGPT" telah menjadi fokus perdebatan di banyak negara.
Institut Etika Global IBM telah mengeluarkan dokumen yang menganjurkan agar perusahaan menempatkan etika dan tanggung jawab sebagai prioritas utama dalam agenda AI mereka. Banyak taipan teknologi yang diwakili oleh Musk juga menandatangani surat terbuka. Sebelum melatih sistem kecerdasan buatan yang lebih kuat dari GPT-4, setiap orang harus mengembangkan protokol keamanan bersama dan meninjau serta mengawasinya oleh pakar eksternal.
Legislator dari berbagai negara juga mulai mengungkapkan kekhawatirannya secara terbuka terhadap ChatGPT dan mempertimbangkan apakah akan memasukkannya ke dalam sistem pengawasan legislatif. Dibandingkan dengan kekhawatiran mengenai keamanan kecerdasan buatan, lebih banyak pegawai pemerintah yang khawatir dengan rendahnya pemahaman legislator mengenai teknologi.
Associated Press percaya bahwa dalam 20 tahun terakhir, raksasa teknologi terus memimpin inovasi teknologi di Amerika Serikat. Oleh karena itu, pemerintah selalu enggan mengatur perusahaan teknologi besar dan menjadi pembunuh ide. Oleh karena itu, ketika mereka bertekad untuk memperkuat pengawasan terhadap teknologi baru, sebagian besar dari mereka hanya mengetahui sedikit tentang teknologi baru tersebut.
Lagi pula, terakhir kali Kongres AS mengesahkan undang-undang yang mengatur teknologi adalah Undang-Undang Perlindungan Privasi Daring Anak-anak tahun 1998.
Menurut Reuters, banyak negara telah mulai memperkenalkan peraturan untuk mengatur kecerdasan buatan yang diwakili oleh OpenAI. Pada bulan Maret tahun ini, Italia sempat melarang penggunaan OpenAI di negara tersebut karena kekhawatiran mengenai keamanan data, dan baru melanjutkan penggunaannya sebulan kemudian. Pada bulan Mei, seorang pejabat pemerintah Italia mengatakan kepada Reuters bahwa pemerintah akan mempekerjakan ahli kecerdasan buatan untuk mengawasi penggunaan OpenAI yang diatur.
Menghadapi keraguan dari pemerintah, Chief Technology Officer OpenAI Mira Mulati juga mengatakan dalam sebuah wawancara dengan Reuters bahwa "perusahaan menyambut baik semua pihak, termasuk badan pengatur dan pemerintah, untuk mulai melakukan intervensi." Namun dalam menghadapi pesatnya perkembangan kecerdasan buatan, masih belum diketahui bagaimana legislator dapat mengimbangi laju teknologi.
Satu-satunya hal yang pasti adalah sekali kotak Pandora dibuka, maka tidak dapat ditutup dengan mudah.
Teknologi kecerdasan buatan adalah pedang bermata dua, yang membawa kenyamanan dan risiko. Kita perlu memperkuat pengawasan dan meningkatkan kesadaran keselamatan masyarakat agar kita dapat memanfaatkan teknologi AI dengan lebih baik dan mencegahnya disalahgunakan untuk kegiatan kriminal. Hanya dengan cara ini manfaat kecerdasan buatan dapat dimaksimalkan dan potensi risikonya dapat dicegah secara efektif.