JAKARTA (RIAUPOS.CO) - Di era di mana kecerdasan buatan atau Artificial Intelligence (AI) dan machine learning semakin terintegrasi ke dalam kehidupan kita sehari-hari, potensi penyalahgunaan juga meningkat. Contoh baru-baru ini menunjukkan betapa cepat dan efisien seseorang dengan keterampilan teknis terbatas dapat membuat malware yang kuat dan tidak terdeteksi menggunakan AI, khususnya chatbot generatif OpenAI, ChatGPT.
Aaron Mulgrew, seorang peneliti pemula dan keamanan yang memproklamasikan diri di Forcepoint, menguji batas kemampuan ChatGPT. Dia menemukan celah yang memungkinkannya membuat malware canggih, zero day hanya dalam beberapa jam saja. Temuan ini sangat penting mengingat fakta bahwa Mulgrew tidak memiliki pengalaman sebelumnya dalam bidang coding.
OpenAI telah menerapkan perlindungan untuk mencegah pengguna meminta ChatGPT untuk menulis kode berbahaya. Namun, Mulgrew dapat melewati perlindungan ini dengan meminta chatbot untuk menghasilkan setiap baris kode berbahaya, dengan fokus pada fungsi terpisah.
Setelah mengompilasi berbagai fungsi, Mulgrew berakhir dengan eksekusi pencurian data yang sangat canggih yang hampir tidak mungkin dideteksi. Mulgrew menciptakan malware-nya sendiri, tidak seperti malware tradisional yang membutuhkan tim peretas dan sumber daya yang besar, dan dalam waktu singkat.
Situasi ini menekankan potensi risiko terkait alat bertenaga AI seperti ChatGPT. Ini juga menimbulkan pertanyaan tentang keamanan mereka dan betapa mudahnya mereka dapat dieksploitasi.
Lebih jauh lagi, dilansir via DigitalTrends, Senin (1/5), malware Mulgrew yang dia buat denyan ChatGPT kemudian menyamar sebagai aplikasi screensaver dengan ekstensi SCR. Saat diluncurkan pada sistem Windows, malware menyaring file, seperti gambar, dokumen Word, dan PDF, untuk menemukan data berharga untuk dicuri.
Salah satu aspek yang paling mengesankan dari malware ini adalah penggunaan steganografi, sebuah teknik yang memungkinkannya memecah data yang dicuri menjadi fragmen yang lebih kecil dan menyembunyikannya di dalam gambar di komputer yang terinfeksi. Pengguna mengunggah gambar ini ke folder Google Drive, dan proses ini secara efektif menghindari deteksi oleh perangkat lunak keamanan.
Mulgrew menunjukkan betapa mudahnya menyempurnakan dan memperkuat kode terhadap deteksi menggunakan petunjuk sederhana di ChatGPT. Dalam pengujian awal menggunakan VirusTotal, malware awalnya terdeteksi oleh hanya lima dari 69 produk pendeteksi. Namun, versi kode yang lebih baru sama sekali tidak terdeteksi.
Penting untuk dicatat bahwa malware Mulgrew dibuat untuk tujuan penelitian dan tidak tersedia untuk umum. Namun demikian, ekspedisi nya adalah untuk menyoroti kemudahan pengguna yang tidak memiliki keterampilan coding tingkat lanjut dapat mengeksploitasi perlindungan lemah ChatGPT untuk membuat malware berbahaya tanpa menulis satu baris kode pun sendiri.
Malware yang kompleks membutuhkan waktu berminggu-minggu bagi peretas yang terampil untuk berkembang. Alat bertenaga AI seperti ChatGPT membuat proses lebih mudah, lebih cepat, dan lebih mudah diakses. Bahkan orang yang tidak memiliki pengalaman coding dapat membuat malware.
Sumber: Jawapos.com
Editor: Edwar Yaman