“Penipu menggunakan kecerdasan buatan agar lebih terdengar seperti anggota keluarga yang sedang dalam kesulitan. Orang yang tertipu akan mengalami kerugian finansial”
Dunia maya baru-baru ini dihebohkan dengan berita tentang keluarga yang kehilangan ribuan dollar karena penipuan yang menggunakan teknologi cloning suara berbasis kecerdasan buatan (artificial intelligence/AI). Dalam laporan baru dari The Washington Post, modus ini menjadi jenis penipuan paling populer kedua di AS dengan lebih dari 36.000 kasus sepanjang 2022.
Kecerdasan buatan menawarkan berbagai kemungkinan baru, beberapa di antaranya adalah kemajuan dalam bidang sintesis suara. Hanya dengan beberapa detik rekaman audio, seseorang dapat membuat tiruan sempurna dari suara seseorang. Teknologi kecerdasan buatan dimanfaatkan oleh pelaku kejahatan untuk menipu korbannya. Modus yang dilakukan adalah dengan menirukan suara dan meyakinkan orang yang merupakan anggota keluarga bahwa anggota keluarganya mengalami kesulitan. Dengan dukungan AI, sejumlah alat online yang murah dapat menerjemahkan file audio menjadi replikasi suara, dan memungkinkan untuk membuat “berbicara” apapun yang diketik oleh penipu.
Upaya penipuan dengan menggunakan suara yang sudah dipoles kecerdasan buatan kini mengintai semua orang. Survei yang dilakukan oleh McAfee di tujuh negara dan melibatkan 7.054 orang, menyebutkan bahwa masyarakat semakin mudah tertipu dengan upaya penipuan berbasis suara yang dipoles dengan kecerdasan buatan.
Tindakan penipuan banyak dilakukan melalui panggilan telepon dan menargetkan orang tua atau lanjut usia yang memang rentan menjadi korban, terutama jadi target kejahatan keuangan.
Cara Kerja
Pelaku dapat melakukan profiling “calon korban” pada media sosial untuk mendapatkan informasi yang dibutuhkan. Selanjutnya pelaku dapat memanfaatkan informasi yang diperoleh untuk melakukan penipuan terhadap keluarga “calon korban”
Masyarakat ternyata semakin tidak bisa membedakan suara palsu dengan kecerdasan buatan dan suara asli. AI mendukung perangkat lunak/aplikasi untuk membuat teks, gambar, atau suara berdasarkan data yang diberikan. Aplikasi berbasis AI yang menghasilkan suara melakukan analisis suara seseorang termasuk usia, jenis kelamin dan aksen, selanjutnya mencari pada database untuk menemukan suara yang serupa dan memprediksi pola. Selanjutnya aplikasi dapat menciptakan kembali nada, timbre, dan suara dari suara seseorang untuk menciptakan efek keseluruhan yang serupa. Aplikasi hanya membutuhkan sampel audio singkat yang dapat diperoleh dari media sosial calon korban seperti youtube, podcast, iklan, Instagram dan lainnya.
Korban tidak mengetahui bahwa penipu tersebut telah mengkloning suara anggota keluarganya dan meyakinkan mereka bahwa itu adalah kerabat yang meminta uang tersebut.
Perusahaan EvenLabs yang merupakan startup AI penyintesis suara yang didirikan tahun 2022, dapat mengubah sampel vocal pendek menjadi suara yang dihasilkan secara sintetis melalui alat “text-to-speech”. Software EvenLabs dapat digunakan secara gratis atau dengan harga tertentu untuk memungkinkan pengguna menghasilkan lebih banyak audio. Mayoritas kejahatan berbasis kloning suara A.I. ini telah dikaitkan dengan penggunaan akun anonim yang gratis. Untuk menghentikan hal ini, ElevenLabs, telah memutuskan untuk merilis paket berbasis langganan baru yang mengharuskan pengguna untuk memverifikasi identitas mereka untuk menggunakan penyintesis suara.
Langkah Pengamanan:
- Abaikan nomor yang tidak dikenal
- Berhati-hati saat memberikan informasi pribadi
- Batasi informasi yang diposting di media sosial
- Selalu verifikasi pengirim pesan suara, teks, atau email yang mencurigakan sebelum mengirim uang atau informasi berharga lainnya.
- Mencoba menghubungi anggota keluarga yang lain ketika mendapatkan panggilan yang mencurigakan.
- Jangan pernah membayar dengan kartu hadiah (gift card) dan selalu bersikap waspada jika ada orang yang meminta uang
- Gunakan aplikasi pendeteksi nomor spam
- Rekam pembicaraan
Sampai saat ini, penipuan dengan menggunakan generator audio AI ini masih belum ditemukan di Indonesia. Namun, konsepnya yang sama dengan penipuan berkedok telfon ataupun WhatsApp sangatlah mungkin dilakukan dengan teknologi ini.
Jadi, Sobat Kami tetap waspada dengan telepon yang mencurigakan walaupun suaranya sangat mirip dengan orang yang kita sayangi.