Bahaya Tersembunyi di Balik Prompt AI: Dari Deepfake hingga Eksploitasi Data Pribadi
BORNAOBARU.ID – Membuat prompt foto menggunakan generator AI terlihat sangat sepele. Beberapa waktu belakangan ini, banyak orang membuat prompt gambar diri mereka menggunakan AI. Mereka tidak memperhitungkan bahaya mengirim sebuah gambar yang dapat dengan mudah disalahgunakan.
Hal ini dapat menimbulkan beberapa masalah seperti pelanggaran hukum atau merugikan orang lain, pornografi, identitas palsu, dan gambar eksploitasi anak. Temuan terbaru mengungkapkan ada lonjakan tajam konten berbahaya yang dihasilkan AI.
Beberapa kasus konkret memperlihatkan kelompok peretas dilaporkan berhasil menggunakan (LLM) untuk menghasilkan dokumen palsu. Kelompok tersebut berhasil membuat kartu identitas militer berkualitas tinggi yang terlihat otentik.
Baca Juga: Lomba Berbalas Pantun Menjadi Penutup Festival Budaya Melayu Senentang
Teknik ini memanfaatkan kemampuan AI dalam meniru format resmi dan birokratis sehingga dokumen sulit dibedakan dari yang asli. Di sisi lain, muncul pula tren penggunaan generator gambar untuk membuat konten eksplisit dari figur publik seperti selebritas, politikus, atau influencer.
Gambar-gambar tersebut biasanya dihasilkan dengan cara memanipulasi deskripsi (prompt) atau melakukan “jailbreak”. Cara ini digunakan agar sistem mengabaikan filter keamanan yang seharusnya mencegah konten berbahaya.
Akibatnya, gambar yang seharusnya bernilai kreatif justru dipelintir menjadi sarana pelecehan, merusak reputasi individu, sekaligus melanggar privasi personal dalam skala besar.
Sejumlah survei internasional menunjukkan peningkatan signifikan masyarakat terkena paparan deepfake.
Riset terbaru dari VMware dan DeepMedia melaporkan bahwa lebih dari 70% profesional keamanan sibermenyatakan telah menemukan deepfake di lingkungan kerja mereka.
Terdapat juga studi lain yang mengungkapkan bahwa 25-30% responden mengaku pernah melihat atau menjadi korban deepfake.
Laporan dari Sumsub (2024) menyebutkan bahwa serangan berbasis deepfake melonjak hingga 1.500% secara global dalam kurun waktu hanya satu tahun. Jenis serangan yang paling banyak ditemukan adalah penipuan identitas, verifikasi wajah palsu, serta manipulasi dokumen digital untuk tujuan kriminal.
Penelitian Human Rights Watch menemukan bahwa foto-anak-anak (identitas bisa dikenali: nama, sekolah, lokasi) dimasukkan tanpa izin ke dalam dataset besar. Data mereka dimasukan ke dalam LAION-5B yang dipakai dalam pelatihan model gambar AI seperti Midjourney dan Stable Diffusion.
Ini tidak hanya melanggar privasi, tapi juga memungkinkan penyalahgunaan. Data ini dapat disalahgunakan untuk membuat konten yang mengeksploitasi identitas anak.
Ada juga studi baru dari HolmesEye yang menujukan model visi Bahasa (vision language models) dapat menerangkan sifat pribadi hanya dengan melihat beberapa foto pribadi. Sistem ini dapat menerangkan usia, kondisi kesehatan, kepribadian, bahkan latar belakang sosial ekonomi.
Ini berarti ketika seeorang mengunggah foto mereka ke sistem AI, pihak yang tidak bertanggung jawab dapat menganalisis identitas pribadi secara sepihak.
Baca Juga: Negativity Bias: Saat Satu Hinaan Menutup Seribu Pujian
Penelitian “Raising Awareness of Location Information Vulnerabilities in Social Media Photos using LLMs” menemukan bahwa gambar/gambar latar dapat menyimpan petunjuk visual yang cukup untuk dideteksi oleh LLM sebagai indikasi lokasi. Jika dikombinasikan dengan data lainnya, ini memungkinkan stalking, doxxing, pencurian identitas atau serangan fisik terhadap penyedia foto.
Tidak hanya itu, ditemukan juga aplikasi nudify atau undress apps yang berbasis AI. Aplikasi ini dapat mengubah foto anak-anak atau remaja yang berpakaian menjadi gambar telanjang.
Stanford HAI menegaskan bahwa ini termasuk bentuk eksploitasi anak yang mudah dibuat karena tidak perlu keahlian tinggi.
Oleh sebab itu, penting bagi kita untuk dapat mengontrol diri dalam menggunakan AI. Jangan membuat atau membagikan prompt yang menargetkan individu tanpa izin. Kita harus bisa menghindari mengunggah foto orang lain yang dapat mengakibatkan citra palsu.
Setiap lapisan masyarakat perlu saling bekerja sama demi meletakkan teknologi AI pada ranah yang etis dan ramah. Sehingga, inovasi kreatif tidak berhaluan menjadi alat pelanggaran hak dan keamanan.


