Penjahat dunia maya semakin banyak menggunakan teknologi kecerdasan buatan untuk meningkatkan kemampuan serangan mereka. Baru-baru ini, perusahaan keamanan menemukan bahwa geng penjahat dunia maya menggunakan model kecerdasan buatan Llama2 Meta untuk menghasilkan skrip serangan yang menargetkan perusahaan jasa keuangan, yang menimbulkan kekhawatiran di industri tentang penerapan kecerdasan buatan yang berbahaya. Meskipun kemampuan pendeteksian serangan AI saat ini terbatas, pakar keamanan memperkirakan bahwa kemampuan tersebut akan ditingkatkan di masa depan. Kejadian ini menyoroti karakteristik pedang bermata dua dari teknologi kecerdasan buatan, yang tidak hanya dapat mendorong kemajuan teknologi, tetapi juga digunakan untuk aktivitas ilegal.
Geng penjahat dunia maya menggunakan kecerdasan buatan Llama2 Meta untuk melancarkan serangan dan membuat skrip serangan untuk menargetkan perusahaan jasa keuangan. Perusahaan keamanan mengatakan kemampuan deteksi serangan AI terbatas tetapi diperkirakan akan meningkat. Upaya di masa depan untuk menggunakan AI secara jahat mungkin ada, namun hasilnya mungkin tidak valid.
Meskipun teknologi kecerdasan buatan membawa banyak kemudahan, namun juga perlu mewaspadai risiko penyalahgunaannya. Memperkuat perlindungan keamanan kecerdasan buatan, meningkatkan kemampuan deteksi serangan, dan meningkatkan undang-undang dan peraturan yang relevan sangat penting untuk menangani kemungkinan kejahatan AI di masa depan. Hanya dengan cara ini kita dapat meminimalkan risiko penggunaan teknologi kecerdasan buatan yang berbahaya dan memastikan keamanan jaringan dan stabilitas sosial.