digitalMamaID — Teknologi kecerdasan buatan atau artificial intelligence (AI) telah memberikan banyak manfaat dalam kehidupan sehari-hari. Namun di sisi lain, kemajuan AI juga kerap disalahgunakan oleh para pelaku kejahatan digital. Waspadai penipuan deepfake dan ketahui cara mencegahnya!
Otoritas Jasa Keuangan (OJK) baru-baru mengungkapkan modus baru para pelaku kejahatan digital di sektor keuangan. Dengan menggunakan teknologi deepfake dan voice cloning, pelaku berhasil mengelabui para korbannya hingga menguras isi rekening mereka.
Deepfake merupakan video palsu yang menyerupai wajah seseorang yang dibuat dengan bantuan AI. Sedangkan Voice cloning merupakan teknologi suara AI untuk meniru suara asli seseorang hanya melalui rekaman pendek.
Sekretariat Satgas PASTI Hudiyanto menjelaskan, teknologi AI saat ini memungkinkan pelaku kejahatan merekam, mempelajari, dan meniru suara seseorang, baik teman, keluarga, maupun kolega. Korban semakin sulit membedakan mana komunikasi asli dan mana jebakan digital.
“Teknologi AI memudahkan pelaku penipuan untuk merekam dan meniru suara seseorang seperti teman, kolega, atau keluarga. Dengan menggunakan suara yang sudah dipelajari tersebut, penipu dapat melakukan percakapan seolah-olah mereka adalah orang yang dikenal korban,” ujar Hudiyanto dikutip dari Kompas.com, Minggu, 16 November 2025.
Lebih dari itu, pelaku juga memanfaatkan teknologi deepfake untuk membuat video palsu yang menampilkan wajah dan ekspresi seseorang secara akurat. Video sering digunakan dalam modus permintaan dana darurat atau instruksi mendesak, sehingga korban merasa terdesak dan tidak sempat melakukan pengecekan.
Cara mencegah
Untuk mencegah hal tersebut terjadi, Satgas PASTI melalui unggahan di akun media sosial resminya menyampaikan beberapa cara menyelamatkan diri dari penipuan AI, antara lain:
- Setelah menerima panggilan video call harap lakukan klarifikasi kepada pihak yang menghubungi, hubungi Kembali dengan nomor alternatif untuk memastikan lagi.
- Selalu lakukan verifikasi langsung sebelum melakukan transaksi.
- Tidak așal percaya dan melakukan transfer kepada pelaku, apalagi jika nama yang tertera pada rekening bukan merupakan nama yang kita kenali.
- Tidak memberikan data ribadì yang terkait dengan keuangan seperti OTP, PIN ATM, PIN kartu kredit, CVV/CVC, atau password akun keuangan kita.
Mengenal beberapa modus penipuan deep fake
- Panggilan darurat mengatasnamakan keluarga. Pelaku biasanya memakai suara atau foto yang mirip dengan keluarga kita untuk meminta transfer sejumlah dana (desakan minta transfer segera).
- Impersonasi pejabat atau public figur. Pelaku memakai gambar atau suara dengan pejabat publik atau publik figur untuk meminta akses aku keuangan kita.
- Love scam. Pelaku membangun kedekatan emosional lalu meminta transfer atau data finansial kita
Penyamaran pelayanan perbankkan. Pelaku memakai gambar atau suara yang mirip dengan operator Bank untuk meminta sejumlah uang atau meminta data akun keuangan.
Selalu waspada dengan penipuan deepfake ini ya, Mama! Deepfake bisa palsukan suara dan wajah. Kalau Mama atau orang-orang di sekitar menjadi korban penipuan ini, segera laporkan ke iasc.ojk.go.id atau ke kontak OJK 157. Bisa juga melalui website: sipasti.ojk.go.id. [*]






