Waspada! Modus Penipuan Baru Gunakan Deepfake AI untuk Video Call, Bagaimana Mencegahnya?
Kecanggihan Artificial Intelligence (AI) tidak hanya membawa manfaat, tapi juga ancaman baru yang lebih sofistikated. Belakangan, Kepolisian mengungkap modus penipuan yang menggunakan teknologi deepfake AI untuk melakukan video call palsu, menyamar sebagai keluarga atau atasan korban.
Cara Kerja Modus Deepfake:
Pengumpalan Data: Pelaku mengumpulkan data target, termasuk video dan suara dari media sosial korban atau keluarganya.
Pembuatan Replika: Dengan software AI, pelaku membuat replika wajah dan suara yang mirip dengan orang yang akan ditiru.
Aksi Penipuan: Pelaku melakukan video call ke korban. Di layar, korban melihat wajah dan mendengar suara "anaknya" atau "bosnya" yang meminta transfer uang mendesak dengan alasan tertentu (kecelakaan, kebutuhan bisnis, dll).
Tekanan Psikologis: Situasi yang dibuat mendesak dan visual yang meyakinkan membuat korban panik dan tidak sempat memverifikasi.
Mengapa Sulit Terdeteksi? Teknologi deepfake generasi terbaru sudah sangat halus, sulit dibedakan dengan mata telanjang. Gerakan bibir, ekspresi wajah, dan intonasi suara bisa sangat mirip.
Tips Mencegah Penipuan Deepfake:
Verifikasi dengan Pertanyaan Pribadi: Tanyakan hal-hal spesifik yang hanya diketahui oleh Anda dan orang tersebut (nama hewan peliharaan masa kecil, kejadian keluarga unik).
Perhatikan Detail Tidak Wajar: Fokus pada area sekitar wajah, mata, dan mulut. Terkadang ada artefak seperti blur ringan, cahaya yang tidak konsisten, atau sinkronisasi suara-bibir yang sedikit meleset.
Jangan Terburu-buru Transfer: Prinsip utama: TUNDA. Katakan Anda akan menghubungi balik, lalu segera telepon langsung ke nomor asli orang tersebut melalui kontak yang sudah Anda simpan.
Batasi Informasi Pribadi di Medsos: Kurangi membagikan video dan suara jelas keluarga di platform publik. Atur privasi akun dengan ketat.
Kesimpulan: Dalam era AI, prinsip "trust but verify" (percaya tapi verifikasi) harus ditingkatkan. Edukasi literasi digital tentang bahaya deepfake perlu disebarluaskan, terutama kepada kelompok rentan seperti orang tua. Selalu curiga pada permintaan uang mendesak, sekalipun datang dari wajah yang sangat dikenal.




