korannews.com – – Saat ini, terdapat beraneka macam jenis teknologi artificial intelligence (AI). Salah satunya yang tengah ramai dimanfaatkan adalah AI Voice Generator . Di media sosial, AI Voice Generator ramai dimanfaatkan buat mengganti lagu dengan suara orang lain.
Salah satu contoh pemanfaatan AI Voice Generator untuk mengganti lagu dengan suara orang lain itu bisa dilihat dari unggahan video TikTok dari akun dengan handle dengan handle @dhamz._.
Membalas @fixxx_07 nii bang
Pada unggahan tersebut, pengguna mengunggah lagu “Asmalibrasi” dari band Soegi Bornean yang dinyanyikan oleh suara mirip dengan Presiden Joko Widodo. Contoh lain bisa dilihat lewat unggahan TikTok dari akun dengan handle @ianyxi_ di bawah ini.
Membalas @hydrophobic Komang – Ariana Grande (@Raim Laode )
Dalam video itu, lagu “Komang” dari penyanyi asal Indonesia Raim Laode terdengar dinyanyikan oleh suara yang mirip dengan penyanyi internasional Ariana Grande. Dari kedua contoh di atas, lagu itu sejatinya tidak dilantunkan oleh tokoh asli.
Akan tetapi, baik lagu “Asmalibrasi” maupun “Komang”, pada dasarnya dinyanyikan oleh suara yang diproduksi dari AI Voice Generator. Pemanfaatan AI Voice Generator seperti itu lagi ramai di media sosial dan cukup menarik perhatian warganet.
Sementara tengah ramai di media sosial, lantas apakah AI Voice Generator aman digunakan? Sama seperti teknologi AI lain, AI Voice Generator juga terdapat celah penyalahgunaan yang dapat merugikan pengguna.
Untuk lebih lengkapnya, berikut adalah penjelasan mengenai bahaya AI Voice Generator yang berpotensi disalahgunakan dan dapat merugikan pengguna.
Apa itu AI Voice Generator ?
Sebelum mengetahui bahaya AI Voice Generator, ada baiknya memahami dulu cara kerja dari program ini sehingga dapat digunakan untuk mengganti lagu dengan suara fiktif yang mirip milik orang lain.
Perlu diketahui, AI Voice Generator secara sederhana merupakan program yang dapat menghasilkan audio baru sebagai output. Sama seperti teknologi AI lain, untuk menghasilkan output tersebut, AI Voice Generator telah dilatih dengan dataset.
Dengan berbasis program deep learning (pembelajaran mendalam), AI Voice Generator mempelajari dataset atau sekumpulan data untuk nanti bisa menghasilkan audio baru sebagai output atas perintah (input) yang diminta pengguna.
Untuk menghasilkan audio, AI Voice Generator bakal memadankan dataset (sekumpulan data) yang dipelajarinya dengan perintah yang diminta pengguna. Input atau perintah pengguna bisa berupa teks atau audio juga.
Contoh cara kerja AI Voice Generator bisa dilihat pada suara yang dihasilkan di Google Translate. Ketika pengguna memasukkan teks tertentu di Google Translate, program ini dapat mengeluarkan suara seperti robot untuk melafalkan teks tersebut.
Di beberapa platform, AI Voice Generator bisa menghasilkan suara dengan karakter yang lebih variatif. Semakin banyak dataset yang dipelajari AI Voice Generator maka semakin banyak pula karakter audio atau suara yang bisa dihasilkan.
Di internet, terdapat beberapa platform AI Voice Generator yang bisa diakses secara umum, seperti Lovo.ai, Murf.ai, Voice.ai, Voicify.ai, dan Play.ht. Semua platform tersebut bisa menghasilkan audio dengan berbagai karakter suara yang bisa dipilih pengguna.
Bahkan, beberapa di antaranya bisa menghasilkan audio dengan karakter suara mirip seorang tokoh publik. Dengan kemampuan ini, AI Voice Generator dapat mengganti suara penyanyi di lagu dengan suara orang lain seperti yang lagi ramai di media sosial.
Kemampuan AI Voice Generator untuk menghasilkan suara itu bisa dibilang menarik, tetapi sejatinya terdapat bahaya yang mengintai juga.
Bahaya AI Voice Generator
Dikutip dari Makeuseof, AI Voice Generator rentan disalahgunakan untuk meniru suara orang dengan tujuan yang merugikan pengguna, seperti menyebar informasi palsu, menyebar ujaran kebencian, menipu, menjatuhkan nama seseorang, dan sebagainya.
Pada Januari 2023, program AI Voice Generator buatan ElevenLabs pernah disalahgunakan oleh sekelompok orang untuk membuat suara beberapa tokoh publik seperti David Attenborough dan Emma Watson.
Sebagai informasi, AI Voice Generator dari ElevenLabs punya fitur yang dapat meniru karakter suara dari data audio yang diunggah pengguna untuk menghasilkan audio baru.
Dengan fitur tersebut, sekelompok orang itu membuat seolah para tokoh publik yang disebutkan di atas sedang berbicara keji dan penuh kebencian.
Penyalahgunaan AI Voice Generator juga tercatat pernah terjadi pada Maret 2023. Terdapat video viral di TikTok yang berisi percakapan antara podcaster terkenal Joe Rogan dan Dr Andrew Huberman.
Keduanya terdengar sedang membicarakan tentang produk minuman kafein yang dapat meningkatkan gairah seksual. Percakapan dibuat seolah mereka berdua mendukung produk itu. Padahal, percakapan tersebut adalah fiktif dan suaranya diproduksi dengan AI.
AI Voice Generator tidak hanya disalahgunakan untuk meniru suara para tokoh publik. AI Voice Generator pernah juga tercatat dipakai untuk meniru suara orang biasa dengan tujuan melancarkan aksi penipuan.
Dikutip dari ZDNet, di Amerika Serikat, marak terjadi modus penipuan dengan membuat suara tiruan orang terdekat pengguna seperti teman atau keluarga. Modus ini dikenal sebagai “vishing” atau “voice phising” dan sudah ribuan orang yang jadi korban.
Penipu menyalahgunakan AI untuk membuat suara fiktif. Lewat suara tiruan itu, penipu menghubungi korban dan mengaku sebagai orang terdekat.
Lalu, mereka meminta sejumlah uang pada korban untuk membantunya dari masalah yang dibuat-buat seperti sedang ditangkap polisi.
Itulah bahaya AI Voice Generator yang rentan disalahgunakan dan dapat merugikan pengguna. Di tengah perkembangan AI yang meningkat, pengguna harus bijak dalam memanfaatkannya. Gunakanlah AI untuk tujuan yang tidak merugikan orang lain.
Dengan kemampuan AI Voice Generator yang bisa meniru suara orang, pengguna juga perlu senantiasa waspada atas semua informasi yang beredar. Verifikasi keabsahan informasi yang beredar secara berlapis penting untuk dilakukan.