![]() |
| Foto ilustrasi/AI |
Menurut laporan dari berbagai media dan peringatan pihak berwenang, pelaku kejahatan cyber ini bisa mereplikasi suara seseorang dengan sangat mirip hanya dari sampel singkat, bahkan beberapa detik saja. Suara tersebut kemudian dipakai untuk menipu orang lain, misalnya keluarga atau rekan korban.
1. Bagaimana Modus Ini Bekerja
Rekaman Suara dari Telepon
Cara yang sering dilaporkan adalah:
1. Pelaku menelepon korban dari nomor tidak dikenal.
2. Telepon tidak langsung berbicara; hanya menunggu sampai korban menjawab.
3. Saat korban membalas dengan kata seperti “halo”, suaranya direkam oleh sistem pelaku.
4. Pelaku kemudian mematikan panggilan.
Setelah suara dikumpulkan, pelaku menggunakan teknologi AI voice cloning untuk membuat tiruan suara yang menyerupai suara asli korban. Kloning ini bisa dipakai untuk:
- Menelepon keluarga atau teman korban dengan suara “palsu”,
- Meminta transfer uang dengan alasan darurat,
- Menyamar sebagai korban untuk melakukan penipuan lain.
2. Benar Tidaknya Suara Satu Kata Bisa Digunakan?
Ada perdebatan di antara pakar keamanan digital mengenai seberapa efektif modus “rekam suara ‘halo’” untuk membuat kloning yang sempurna.
Beberapa ahli menyatakan bahwa AI terkini bisa mengenali dan memproses suara dari rekaman sesingkat itu, namun faktor lain seperti kualitas audio dan variasi suara juga mempengaruhi.
Selain itu, suara bukan satu-satunya sumber yang diperlukan pelaku — seringkali mereka juga mengumpulkan sampel lain dari media sosial, pesan suara, atau video korban di internet untuk membuat tiruan yang lebih meyakinkan.
3. Ancaman Nyata yang Perlu Diwaspadai
Kasus serupa sudah terjadi di berbagai negara, di mana penipu AI:
- Meniru suara orang terdekat untuk meyakinkan korban lain agar mentransfer uang,
- Membujuk staf keuangan untuk memindahkan dana ke rekening penipu,
- Menggunakan suara palsu dalam deepfake panggilan video/skype untuk memanipulasi pihak lain.
Modus ini bukan sekadar isapan jempol — laporan Otoritas Jasa Keuangan (OJK) di Indonesia mencatat ribuan laporan terkait penipuan yang melibatkan kloning suara di berbagai skenario digital.
4. Tips Penting untuk Masyarakat
Untuk menghindari menjadi korban, ada beberapa langkah yang bisa dilakukan oleh masyarakat:
a. Jangan mudah menjawab panggilan dari nomor asing
Apalagi jika langsung diminta bicara tanpa konteks jelas.
b. Hindari memberikan informasi sensitif lewat telepon
Kalau memang harus menjawab, tetap berhati-hati dan jangan langsung mengatakan informasi pribadi.
5. Verifikasi identitas melalui jalur lain
Jika yang menelepon mengaku keluarga atau kolega, pastikan verifikasi melalui nomor lain yang pernah tersimpan.
▪︎ Gunakan kode aman dalam keluarga/organisasi
Disepakati bersama sebagai tanda autentikasi saat ada panggilan darurat.
• Minimalisir unggahan suara di media sosial
Hal ini akan menyulitkan penipu mengumpulkan sampel suara.
Modus penipuan dengan AI memang nyata dan berpotensi merugikan banyak orang jika sampel suara korban berhasil dikloning. Namun, menjawab telepon atau berkata “halo” sendiri tidak otomatis membuat suara itu langsung disalahgunakan. Kunci utamanya adalah kepala dingin, waspada, dan verifikasi setiap permintaan yang mencurigakan sebelum bertindak.
5. Verifikasi identitas melalui jalur lain
Jika yang menelepon mengaku keluarga atau kolega, pastikan verifikasi melalui nomor lain yang pernah tersimpan.
▪︎ Gunakan kode aman dalam keluarga/organisasi
Disepakati bersama sebagai tanda autentikasi saat ada panggilan darurat.
• Minimalisir unggahan suara di media sosial
Hal ini akan menyulitkan penipu mengumpulkan sampel suara.
Modus penipuan dengan AI memang nyata dan berpotensi merugikan banyak orang jika sampel suara korban berhasil dikloning. Namun, menjawab telepon atau berkata “halo” sendiri tidak otomatis membuat suara itu langsung disalahgunakan. Kunci utamanya adalah kepala dingin, waspada, dan verifikasi setiap permintaan yang mencurigakan sebelum bertindak.
