LONDON. Laporan terbaru menunjukkan bahwa kecerdasan buatan generatif digunakan untuk meluncurkan serangan phishing, mengembangkan malware, dan aktivitas jahat lainnya.
Salah satu serangan yang terdeteksi terjadi pada November 2024, menurut Cisco Talos. Serangan ini dilakukan oleh aktor ancaman Tiongkok yang menargetkan pemerintah di Asia.
Seperti yang dilaporkan CNET, metode phishing yang digunakan dikenal sebagai “SweetSpecter”, yang melibatkan pengiriman file ZIP yang berisi file berbahaya.
Jika file ini diunduh dan dibuka, maka dapat menciptakan rantai infeksi pada sistem pengguna. OpenAI menemukan bahwa SweetSpecter dikembangkan menggunakan banyak akun yang menggunakan ChatGPT untuk membuat skrip dan menemukan kerentanan menggunakan alat LLM.
Serangan berbasis AI kedua dilakukan oleh kelompok Iran yang dikenal sebagai CyberAv3ngers. Mereka menggunakan ChatGPT untuk mengeksploitasi kerentanan dan mencuri kata sandi pengguna dari komputer berbasis macOS.
Serangan ketiga, dipimpin oleh kelompok Iran lainnya bernama Storm-0817, menggunakan ChatGPT untuk mengembangkan malware untuk perangkat Android.
Malware ini mampu mencuri daftar kontak, mendapatkan log panggilan dan riwayat penelusuran web, mendapatkan lokasi pasti perangkat, dan mengakses file di perangkat yang terinfeksi.
Meskipun semua serangan ini menggunakan teknik yang ada untuk mengembangkan malware, laporan tersebut mengatakan tidak ada indikasi bahwa ChatGPT telah menciptakan malware baru yang signifikan.
Namun, hal ini menunjukkan betapa mudahnya bagi pelaku ancaman untuk menggunakan layanan AI generatif untuk membuat alat serangan berbahaya. Situasi ini membuka diskusi penting tentang keterbatasan penerapan AI generatif.
OpenAI telah mengonfirmasi bahwa mereka akan terus meningkatkan keamanan AI untuk mencegah penggunaan teknik serupa di masa mendatang.
Selain itu, mereka akan bekerja sama dengan Homeland Security dan terus berbagi temuan dengan rekan industri dan komunitas riset untuk mencegah situasi serupa terulang kembali.