Klon suara, wajah untuk perdaya mangsa

Iklan
AI boleh mengambil sampel audio hanya beberapa ayat dan mengubahnya menjadi rakaman audio penuh dengan harga murah. - Gambar hiasan

SHAH ALAM - Mangsa menerima panggilan telefon daripada individu yang mempunyai suara seperti ahli keluarga mereka tetapi Suruhanjaya Komunikasi Persekutuan Amerika Syarikat (FCC) memberi amaran ia mungkin satu penipuan.

"Malangnya, pelakon jahat kini boleh menggunakan teknologi kecerdasan buatan (AI) untuk meniru suara, meyakinkan orang, selalunya orang tua, bahawa orang yang mereka sayangi berada dalam kesusahan,” menurut kenyataan FCC seperti dipetik Washington Post baru-baru ini.

Terima kasih kerana membaca dan menyokong kewartawanan yang bebas, eksklusif dan kritis.
Nikmati pelbagai lagi keistimewaan langganan yang tersedia dengan melanggan Sinar Premium!!
Artikel Tanpa Had Akses mana-mana artikel dimana jua
Harga bermula dari
RM 6.90 - RM 66.20
1 bulan / 12 bulan
Langgan dengan
Log Masuk atau Daftar Akaun untuk membaca artikel ini.