Headline

Setelah melakoni tenis dan olahraga di gym, aktor Christoffer Nelwan kini juga kerajingan padel.

Fokus

Keputusan FIFA dianggap lebih berpihak pada nilai komersial ketimbang kualitas kompetisi.

Hati-hati, Modus Penipuan dengan Kloning Suara dari Kecerdasan Buatan

Adiyanto
12/6/2023 10:13
Hati-hati, Modus Penipuan dengan Kloning Suara dari Kecerdasan Buatan
Aplikasi kloning suara dengan kecerdasan buatan(Chris Delmas / AFP)

"Tolong saya, bu, tolong bantu saya," kata Jennifer DeStefano, seorang ibu menuturkan suara putrinya di ujung telepon. Ia yakin 100 persen itu adalah putrinya yang berusia 15 tahun. Sebelumnya, sang putri pamit bermain ski. "Tidak ada keraguan, itu benar-benar suaranya. Itu adalah cara dia menangis," kata DeStefano kepada sebuah stasiun televisi lokal pada April lalu, menceritakan kisah penculikan anaknya. Sang penculik yang kemudian mengambilalih telepon, kemudian meminta uang tebusan US$1 juta kepada DeStefano.

Kisah di atas merupakan kejadian nyata yang terjadi di Amerika Serikat. Namun, peristiwa penculikan itu sebetulnya tidak pernah terjadi. Suara putri DeStefano juga bukan suara asli sang anak melainkan berasal dari kecerdasan buatan/artificial intelligence (AI).

Bahaya terbesar dari teknologi semacam ini, kata para ahli, adalah kemampuannya untuk menghancurkan batas antara realitas dan fiksi, memberikan teknologi yang murah dan efektif kepada penjahat dunia maya untuk menyebarkan disinformasi.

Baca juga: Inggris Rencanakan KTT Pertama di Dunia Mengenai Kecerdasan Buatan

Dalam jenis penipuan baru yang mengguncang otoritas AS itu, penipu menggunakan alat kloning suara AI yang sangat meyakinkan yang banyak tersedia secara online, telah digunakan untuk menipu orang-dengan menyamar sebagai anggota keluarga, seperti yang dialami DeStefano.

Kasus itu sekarang sedang diselidiki polisi dan menjadi perhatian semua pihak bahwa kecerdasan buatan berpotensi digunakan penjahat.

“Kloning suara AI, kini hampir tidak dapat dibedakan dari ucapan manusia, memungkinkan pelaku ancaman seperti scammer untuk mengekstrak informasi dan dana dari korban secara lebih efektif," ungkap Wasim Khaled, kepala eksekutif Blackbird.AI, perusahaan teknologi kecerdasan buatan, seperti dilansir AFP, Senin (12/6).

Di internet aplikasi semacam ini banyak yang tersedia secara gratis dengan sampel sederhana (terkadang hanya beberapa detik) dari suara asli seseorang yang dapat dengan mudah dicuri dari konten yang diposting online.

"Dengan sampel audio kecil, tiruan suara AI dapat digunakan untuk meninggalkan pesan suara dan teks suara. Bahkan dapat digunakan sebagai pengubah suara langsung pada panggilan telepon," kata Khaled.

"Penipu dapat menggunakan aksen bahkan meniru pola bicara orang yang dicintai. Teknologi ini memungkinkan terciptanya pemalsuan yang meyakinkan," imbuhnya.

Dalam survei global terhadap 7.000 orang dari sembilan negara, termasuk Amerika Serikat, satu dari empat orang mengatakan bahwa mereka pernah mengalami penipuan kloning suara AI atau mengenal seseorang yang pernah mengalaminya.

Tujuh puluh persen responden mengatakan mereka tidak yakin mereka bisa "membedakan antara suara kloning dan yang asli," kata survei, yang diterbitkan bulan lalu oleh McAfee Labs yang berbasis di AS.

Pejabat Amerika telah memperingatkan tentang peningkatan apa yang dikenal sebagai "penipuan kakek-nenek" - di mana seorang penipu berperan sebagai cucu yang sangat membutuhkan uang dalam situasi sulit.

"Anda mendapat telepon. Itu suara cucu Anda. Dia bilang dia dalam masalah besar - dia merusak mobil dan masuk penjara. Tapi Anda bisa membantu dengan mengirimkan uang," kata Komisi Perdagangan Federal AS dalam peringatan di bulan Maret. "Kedengarannya seperti dia. Bagaimana itu bisa menjadi penipuan? Kloning suara, begitulah," demikian kata lembaga tersebut.

Itu pula yang dialami Eddie, remaja berusia 19 tahun di Chicago yang kakeknya menerima telepon dari seseorang yang mirip dengannya dan mengklaim dia membutuhkan uang setelah kecelakaan mobil.

Tipu muslihat, yang dilaporkan oleh McAfee Labs, begitu meyakinkan sehingga kakeknya mempertimbangkan untuk menggadaikan rumahnya, sebelum akhirnya aksi penipuan itu akhirnya terbongkar.

"Karena sekarang mudah untuk menghasilkan tiruan suara yang sangat nyata. Hampir semua orang yang pernah online rentan terhadap serangan ini," tutur Hany Farid, seorang profesor di UC Berkeley School of Information.

Awal tahun ini, startup AI ElevenLabs mengakui bahwa alat kloning suaranya dapat disalahgunakan untuk "tujuan jahat" setelah pengguna memposting audio deepfake yang mengaku sebagai aktor Emma Watson yang membaca biografi Adolf Hitler "Mein Kampf."

"Kami dengan cepat telah mencapai pengembangkan (teknologi) dimana Anda tidak dapat mempercayai hal-hal yang Anda lihat di internet," kata Gal Tal-Hochberg, kepala petugas teknologi grup di perusahaan modal ventura Team8, kepada AFP.

"Kami akan membutuhkan teknologi baru untuk mengetahui apakah orang yang Anda pikir sedang Anda ajak bicara sebenarnya adalah sungguh-sungguh nyata," katanya. (M-3)



Cek berita dan artikel yg lain di Google News dan dan ikuti WhatsApp channel mediaindonesia.com
Editor : Adiyanto
Berita Lainnya