Senin 08 Jan 2024 15:10 WIB

Scammer Manfaatkan Teknologi Kloning Suara AI untuk Menipu, Kenali 4 Tandanya

Scammer menipu korban bahwa pasangan atau keluarga sedang terlibat masalah.

Rep: Adysha Citra Ramadani/ Red: Friska Yolandha
Hacker/scammer (ilustrasi). Teknologi kloning suara menggunakan AI dapat dimanfaatkan scammer untuk menipu.
Foto: Freepik
Hacker/scammer (ilustrasi). Teknologi kloning suara menggunakan AI dapat dimanfaatkan scammer untuk menipu.

REPUBLIKA.CO.ID, JAKARTA --Kian hari, perkembangan teknologi kloning suara berbasis AI semakin canggih. Meski menakjubkan, teknologi kloning suara ini bisa dimanfaatkan oleh scammer untuk melancarkan aksi penipuan mereka.

Para scammer umumnya memanfaatkan teknologi kloning suara berbasis AI untuk menjerat korban lewat sambungan telepon. Meski suara yang dihasilkan oleh teknologi ini cukup meyakinkan, ada beberapa tanda yang dapat membedakan suara hasil kloning dari scammer dengan suara asli. Berikut ini adalah empat tanda di antaranya, seperti dilansir Gadgets Now pada Senin (8/1/2024).

Baca Juga

1. Telepon datang secara tak terduga

Waspadai datangnya telepon yang tidak terduga dari seseorang yang mengaku sebagai kolega atau anggota keluarga. Terlebih, bila telepon tersebut datang di waktu yang aneh atau tidak biasa. Scammer umumnya memanfaatkan waktu-waktu yang tak terduga karena pada saat itu korban cenderung lebih mudah untuk terjerat tipuan.

2. Permintaan yang mendesak

Dengan memanfaatkan suara hasil kloningan AI, scammer dapat berpura-pura seperti sedang dalam situasi yang darurat. Cara ini dilakukan oleh scammer untuk membuat korban memenuhi permintaan mereka tanpa bisa berpikir panjang terlebih dahulu.

Sebagai contoh, scammer menipu korban bahwa pasangan atau keluarga korban sedang terlibat masalah dan membutuhkan uang secepatnya atau menipu korban seakan akun bank korban bermasalah.

3. Gaya bicara tak alami

AI memang dapat meniru suara orang lain dengan cukup baik. Akan tetapi, bukan berarti suara yang dihasilkan oleh AI terbilang sempurna. Suara hasil kloningan AI biasanya akan memiliki jeda-jeda yang terasa tidak alami, cara bicara yang mirip dengan robot, atau cara pelafalan kata yang aneh.

4. Meminta Informasi Pribadi

Dengan suara hasil kloningan AI, scammer biasanya akan meminta sesuatu dari korban. Sesuatu ini bisa berupa uang atau informasi pribadi korban, seperti nomor KTP. Jangan pernah memberikan informasi pribadi seperti ini melalui percakapan telepon, meski pihak yang menelepon terdengar meyakinkan. Perusahaan yang benar tidak akan meminta informasi-informasi pribadi dan sensitif melalui sambungan telepon.

Lanjut ke halaman berikutnya....

 

BACA JUGA: Update Berita-Berita Politik Perspektif Republika.co.id, Klik di Sini
Advertisement
Berita Lainnya
Advertisement
Terpopuler
1
Advertisement
Advertisement