Peringatan ai call scam yang menyoroti modus penipu menggunakan kloning suara berbasis AI untuk meniru suara keluarga atau customer service dan meminta transfer uang.
AI call scam memakai suara tiruan untuk menipu korban melalui telepon.

AI Call Clone Scam Marak, Suara Keluarga Dipalsukan untuk Minta Transfer

0 0
Read Time:2 Minute, 56 Second

Jakarta, hpurchase — Kejahatan digital memasuki level baru setelah munculnya modus ai call scam. Pelaku memakai teknologi voice cloning untuk meniru suara keluarga, teman, atau customer service resmi. Karena suaranya terdengar sangat mirip, korban sering langsung percaya dan mengikuti instruksi pelaku.

Menurut data terbaru kloning suara menjadi salah satu teknik penipuan tercepat perkembangannya sepanjang 2025. Teknologi ini memungkinkan pelaku membuat salinan suara hanya dari beberapa detik rekaman percakapan.

Selain itu, banyak platform AI saat ini menyediakan fitur cloning suara tanpa verifikasi identitas, sehingga pelaku dapat membuat suara palsu dengan sangat mudah.


Bagaimana Penipu Melakukan AI Call Scam?

Modus ini bekerja dalam beberapa langkah cepat. Pertama, pelaku mencari rekaman suara korban atau anggota keluarganya melalui video TikTok, Instagram, atau WhatsApp. Setelah itu, AI mempelajari suara tersebut dalam hitungan detik. Kemudian, pelaku menelpon korban memakai suara tiruan dan meminta transfer uang dengan alasan mendesak.

Selain itu, beberapa pelaku mengaku sebagai:

  • anak yang mengalami kecelakaan,
  • CS bank yang meminta verifikasi,
  • kurir paket yang meminta biaya tambahan,
  • petugas pinjol yang menawarkan “pelunasan cepat”.

Laporan dari CNBC Indonesia mengonfirmasi bahwa voice cloning menjadi tren penipuan digital paling berbahaya tahun ini.


Kasus di Indonesia Mulai Muncul

Sejumlah pengguna melaporkan bahwa mereka menerima telepon dari nomor tidak dikenal, tetapi suara penelepon terdengar sangat mirip anak atau saudara. Dalam beberapa kasus, pelaku menangis atau berpura-pura panik agar korban cepat terpengaruh.

hpurchase sebelumnya pernah membahas risiko manipulasi suara dalam artikel Ancaman AI di Aplikasi Chat yang menyinggung kemampuan AI meniru ekspresi manusia.

Selain itu, penipu kini menggabungkan AI call scam dengan link phishing, sehingga korban tidak hanya kehilangan uang tetapi juga akses akun pribadi.


Kenapa Banyak Korban Langsung Percaya?

Ada beberapa faktor utama:

Pertama, suara tiruan terdengar sangat alami.
Kemudian, pelaku memakai nada panik agar korban tidak sempat berpikir.
Selain itu, AI mampu meniru jeda napas, intonasi, dan cara bicara manusia.

Emosi korban menjadi senjata utama. Banyak orang langsung bereaksi ketika mendengar “suara keluarga” meminta tolong.


Modus AI Call Scam yang Sering Digunakan

Beberapa skenario yang sering terjadi:

  • Pura-pura kecelakaan → minta uang segera
  • Mengaku CS bank → minta OTP atau verifikasi
  • Mengaku kurir → minta biaya tambahan
  • Pura-pura teman lama → minta pinjaman singkat
  • Suara pasangan → minta transfer dadakan

Selain itu, beberapa pelaku memakai AI untuk mengubah suara menjadi suara perempuan atau anak kecil agar lebih meyakinkan.


Ciri-Ciri Telepon Berbahaya

Pengguna bisa mengenali AI call scam melalui tanda-tanda berikut:

  • Suara terlalu “bersih” tanpa noise
  • Peleton bicara terdengar sangat teratur
  • Penelepon menolak video call
  • Penelepon mendesak untuk segera transfer
  • Nomor telepon tidak dikenal
  • Percakapan terlalu singkat dan langsung ke inti transfer

Jika beberapa ciri ini muncul, kemungkinan besar itu voice clone AI.


Cara Menghindari AI Call Clone Scam

Untuk melindungi diri, lakukan langkah berikut:

  • Jangan kirim uang hanya berdasarkan suara
  • Hubungi kembali keluarga melalui nomor utama mereka
  • Minta penelepon mengirim pesan video
  • Gunakan kode keamanan keluarga (family code)
  • Aktifkan fitur verifikasi panggilan di WhatsApp
  • Abaikan setiap telepon mendesak dari nomor asing

Selain itu, pengguna bisa membaca panduan perlindungan tambahan di artikel hpurchase Cara Mengenali Link Phishing di Smartphone.


Platform Digital Diminta Bergerak

Menurut pakar keamanan, platform perpesanan perlu menambahkan fitur pendeteksi suara AI atau notifikasi “voice suspicious”. Fitur ini dapat membantu pengguna mengenali percakapan yang terdengar terlalu sempurna.

WhatsApp juga bisa menambahkan label verifikasi untuk panggilan dari akun bisnis resmi agar pengguna lebih mudah mengidentifikasi panggilan asli.


Kesimpulan

AI call scam memperlihatkan bahwa penipu semakin memanfaatkan teknologi untuk mengelabui korban. Karena suara tiruan sangat meyakinkan, banyak pengguna langsung percaya dan mengikuti instruksi penipu. Waspada, tenang, dan selalu verifikasi menjadi kunci untuk terhindar dari modus ini.

Happy
Happy
0 %
Sad
Sad
0 %
Excited
Excited
0 %
Sleepy
Sleepy
0 %
Angry
Angry
0 %
Surprise
Surprise
0 %

Average Rating

5 Star
0%
4 Star
0%
3 Star
0%
2 Star
0%
1 Star
0%