-->

Notification

×

Iklan

Iklan

Waspada Modus Penipuan Baru, Ucapan “Halo” Bisa Direkam untuk Kejahatan Digital

Jumat, 02 Januari 2026 | 10.46 WIB | 0 Views Last Updated 2026-01-02T03:46:38Z
Foto ilustrasi/AI


Di era digital 2025, modus penipuan semakin canggih karena teknologi kecerdasan buatan (artificial intelligence / AI) berkembang pesat. Salah satu tren yang belakangan ramai dibicarakan adalah penipuan yang memanfaatkan kloning atau tiruan suara korban yang direkam hanya dari beberapa detik ucapan sederhana seperti “halo”.

Menurut laporan dari berbagai media dan peringatan pihak berwenang, pelaku kejahatan cyber ini bisa mereplikasi suara seseorang dengan sangat mirip hanya dari sampel singkat, bahkan beberapa detik saja. Suara tersebut kemudian dipakai untuk menipu orang lain, misalnya keluarga atau rekan korban.

1. Bagaimana Modus Ini Bekerja


Rekaman Suara dari Telepon

Cara yang sering dilaporkan adalah:

1. Pelaku menelepon korban dari nomor tidak dikenal.
2. Telepon tidak langsung berbicara; hanya menunggu sampai korban menjawab.
3. Saat korban membalas dengan kata seperti “halo”, suaranya direkam oleh sistem pelaku.
4. Pelaku kemudian mematikan panggilan.

Setelah suara dikumpulkan, pelaku menggunakan teknologi AI voice cloning untuk membuat tiruan suara yang menyerupai suara asli korban. Kloning ini bisa dipakai untuk:

  • Menelepon keluarga atau teman korban dengan suara “palsu”,
  • Meminta transfer uang dengan alasan darurat,
  • Menyamar sebagai korban untuk melakukan penipuan lain.

Pesan semacam “telepon ini seolah-olah dari anak/keluarga yang butuh bantuan uang mendesak” menjadi salah satu contoh skenario yang digunakan para penipu digital.

2. Benar Tidaknya Suara Satu Kata Bisa Digunakan?

Ada perdebatan di antara pakar keamanan digital mengenai seberapa efektif modus “rekam suara ‘halo’” untuk membuat kloning yang sempurna.

Beberapa ahli menyatakan bahwa AI terkini bisa mengenali dan memproses suara dari rekaman sesingkat itu, namun faktor lain seperti kualitas audio dan variasi suara juga mempengaruhi.

Selain itu, suara bukan satu-satunya sumber yang diperlukan pelaku — seringkali mereka juga mengumpulkan sampel lain dari media sosial, pesan suara, atau video korban di internet untuk membuat tiruan yang lebih meyakinkan.

3. Ancaman Nyata yang Perlu Diwaspadai

Kasus serupa sudah terjadi di berbagai negara, di mana penipu AI:

  • Meniru suara orang terdekat untuk meyakinkan korban lain agar mentransfer uang,
  • Membujuk staf keuangan untuk memindahkan dana ke rekening penipu,
  • Menggunakan suara palsu dalam deepfake panggilan video/skype untuk memanipulasi pihak lain.

Modus ini bukan sekadar isapan jempol — laporan Otoritas Jasa Keuangan (OJK) di Indonesia mencatat ribuan laporan terkait penipuan yang melibatkan kloning suara di berbagai skenario digital.

4. Tips Penting untuk Masyarakat

Untuk menghindari menjadi korban, ada beberapa langkah yang bisa dilakukan oleh masyarakat:

a. Jangan mudah menjawab panggilan dari nomor asing

Apalagi jika langsung diminta bicara tanpa konteks jelas.

b. Hindari memberikan informasi sensitif lewat telepon

Kalau memang harus menjawab, tetap berhati-hati dan jangan langsung mengatakan informasi pribadi.

5. Verifikasi identitas melalui jalur lain

Jika yang menelepon mengaku keluarga atau kolega, pastikan verifikasi melalui nomor lain yang pernah tersimpan.

▪︎ Gunakan kode aman dalam keluarga/organisasi

Disepakati bersama sebagai tanda autentikasi saat ada panggilan darurat.

• Minimalisir unggahan suara di media sosial

Hal ini akan menyulitkan penipu mengumpulkan sampel suara.

Modus penipuan dengan AI memang nyata dan berpotensi merugikan banyak orang jika sampel suara korban berhasil dikloning. Namun, menjawab telepon atau berkata “halo” sendiri tidak otomatis membuat suara itu langsung disalahgunakan. Kunci utamanya adalah kepala dingin, waspada, dan verifikasi setiap permintaan yang mencurigakan sebelum bertindak.
×
Berita Terbaru Update