Sisi Negatif AI

Hacker/Intelijen siber.
Sumber :
  • Dok. Kaspersky

Jakarta, VIVA – Perkembangan pesat sistem kecerdasan buatan (AI) di ranah publik telah mengakibatkan penggunaan yang meluas oleh individu dan bisnis.

Sistem ini sangat mudah beradaptasi dengan berbagai tugas, termasuk pembuatan konten dan pembuatan kode melalui perintah bahasa alami.

Namun, aksesibilitas ini telah membuka peluang bagi pelaku ancaman siber dalam menggunakan AI untuk serangan canggih.

Pelaku ancaman siber dapat memanfaatkan AI untuk mengotomatiskan serangan, mempercepat rutinitas, dan menjalankan operasi yang lebih kompleks untuk mencapai tujuan mereka.

AI sebagai alat yang ampuh

Kaspersky telah mengamati beberapa cara penjahat siber menggunakan AI:

1.    ChatGPT dapat digunakan untuk menulis perangkat lunak berbahaya dan mengotomatiskan serangan terhadap banyak pengguna.
2.    Program AI dapat mencatat masukan ponsel pintar pengguna (log users' smartphone) dengan menganalisis data sensor akselerasi, yang berpotensi menangkap pesan, kata sandi, dan kode perbankan.
3.    Kecerdasan kelompok (Swarm intelligence) dapat mengoperasikan botnet otonom yang berkomunikasi satu sama lain untuk memulihkan jaringan berbahaya setelah kerusakan.

Kaspersky juga baru-baru ini melakukan penelitian komprehensif lainnya tentang penggunaan AI untuk memecahkan kata sandi.

Sebagian besar kata sandi disimpan dalam bentuk terenkripsi dengan fungsi hash kriptografi seperti MD5 dan SHA.

Meskipun mudah untuk mengubah kata sandi teks menjadi baris terenkripsi, membalikkan proses tersebut merupakan tantangan.

Sayangnya, kebocoran basis data kata sandi terjadi secara berkala, yang memengaruhi perusahaan kecil dan pemimpin teknologi.

Pada Juli 2024, kompilasi kata sandi yang bocor terbesar hingga saat ini telah dipublikasikan secara daring, yang berisi sekitar 10 miliar baris dengan 8,2 miliar kata sandi unik.

"Kami menganalisis kebocoran data besar-besaran ini dan menemukan bahwa 32 persen kata sandi pengguna tidak cukup kuat dan dapat dikembalikan dari bentuk hash terenkripsi menggunakan algoritma brute-force sederhana dan GPU 4090 modern dalam waktu kurang dari 60 menit," kata Alexey Antonov, Kepala Ilmuwan Data Kaspersky.

Ia mengaku melatih model bahasa pada basis data kata sandi dan mencoba memeriksa kata sandi dengan metode AI yang diperoleh.

Karena itu, Kaspersky menemukan bahwa 78 persen kata sandi dapat dipecahkan dengan cara ini, yang sekitar tiga kali lebih cepat daripada menggunakan algoritma brute-force.

"Hanya 7 persen dari kata sandi tersebut yang cukup kuat untuk menahan serangan jangka panjang," jelasnya.

Rekayasa sosial dengan AI

AI juga dapat digunakan untuk rekayasa sosial guna menghasilkan konten yang tampak masuk akal, termasuk teks, gambar, audio, dan video.

Pelaku ancaman siber dapat menggunakan model bahasa besar seperti ChatGPT-4o untuk menghasilkan teks penipuan, seperti pesan phishing yang canggih.

Phishing yang dihasilkan AI dapat mengatasi kendala bahasa dan membuat email yang dipersonalisasi berdasarkan informasi media sosial pengguna.

Bahkan dapat meniru gaya penulisan individu tertentu, sehingga serangan phishing berpotensi lebih sulit dideteksi.

Deepfake menghadirkan tantangan keamanan siber lainnya. Apa yang dulunya hanya penelitian ilmiah kini telah menjadi masalah yang meluas. Penjahat siber telah menipu banyak orang dengan penipuan peniruan identitas selebriti, yang menyebabkan kerugian finansial yang signifikan.

Deepfake juga digunakan untuk mencuri akun pengguna dan mengirim audio permintaan uang menggunakan suara pemilik akun kepada teman dan kerabat.

Penipuan asmara yang canggih melibatkan penjahat siber yang membuat persona palsu dan berkomunikasi dengan korban di situs kencan.

Salah satu serangan paling rumit terjadi pada bulan Februari di Hong Kong, di mana penipu mensimulasikan panggilan konferensi video menggunakan deepfake untuk menyamar sebagai eksekutif perusahaan, meyakinkan seorang pekerja keuangan untuk mentransfer sekitar US$25 juta.

Kerentanan AI

Selain menggunakan AI untuk tujuan yang merugikan, penyerang juga dapat menyerang algoritma AI itu sendiri.

Serangan siber ini meliputi:

1.    Serangan injeksi cepat pada model bahasa besar, di mana penyerang membuat permintaan yang melewati batasan perintah sebelumnya.
2.    Serangan adversarial pada algoritme pembelajaran mesin, di mana informasi tersembunyi dalam gambar atau audio dapat membingungkan AI dan menghasilkan keputusan yang salah.