Klon suara, wajah untuk perdaya mangsa
Iklan
SHAH ALAM - Mangsa menerima panggilan telefon daripada individu yang mempunyai suara seperti ahli keluarga mereka tetapi Suruhanjaya Komunikasi Persekutuan Amerika Syarikat (FCC) memberi amaran ia mungkin satu penipuan.
"Malangnya, pelakon jahat kini boleh menggunakan teknologi kecerdasan buatan (AI) untuk meniru suara, meyakinkan orang, selalunya orang tua, bahawa orang yang mereka sayangi berada dalam kesusahan,” menurut kenyataan FCC seperti dipetik Washington Post baru-baru ini.