BARU-baru ini, pempengaruh media sosial, Khairul Aming, 31, mendedahkan dirinya sekali lagi menjadi mangsa aplikasi digital dipacu teknologi kecerdasan buatan (AI) yang dikenali sebagai deepfake (video, imej dan suara palsu) dalam satu video.
Wajah dan suaranya yang telah diubah suai turut disunting bagi mempromosi sebuah produk peralatan dapur. Pendek kata, muka macam dia tapi bukan dia.
Sebelum itu, Datuk Seri Siti Nurhaliza turut meminta orang ramai agar tidak terpedaya dengan taktik scammer yang menggunakan teknologi berkenaan bagi meniru suara dan wajahnya demi mengaut keuntungan.
Perkara sebeginilah yang menjadi kebimbangan. Memanipulasi teknologi AI dengan menggunakan pempengaruh dan selebriti terkenal sebagai taktik untuk menipu.
Dengan kes scammer yang tidak berkesudahan, pasti ada yang mudah terperdaya dengan taktik deepfake AI.
Ia amat bahaya bukan sahaja kepada individu malah terhadap keselamatan siber negara.
Ia digunakan bagi memanipulasi kandungan seseorang walhal individu sebenar tidak pernah melakukan seperti yang dipertontonkan.
Penggunaan teknologi AI sememangnya membantu pembangunan negara, namun malang bila ada pihak menyalahgunakannya bagi tujuan jenayah termasuk macau scam dan penipuan pelaburan.
Deepfake AI ini boleh menjadi punca segala jenayah, justeru, ia perlu dibendung segera.
Gesaan Menteri Komunikasi, Fahmi Fadzil yang mahukan platform media sosial meletakkan notis AI dalam setiap kandungan AI yang dimuat naik di platform masing-masing bagi mengelak berlaku insiden tidak diingini amatlah wajar.
Dengan notis itu, para pengguna media sosial akan tahu itu adalah AI dan orang ramai dapat mengetahui imej atau video yang dilihat adalah sesuatu yang tulen atau sebaliknya.
Garis Panduan Tadbir Urus dan Etika AI Negara yang bakal membendung pelbagai isu teknologi AI termasuk deepfake yang dijangka siap sebelum hujung tahun ini juga diharapkan dapat mengekang permasalahan ini.
Undang-undang yang lebih tegas untuk mengawal selia penyalahgunaan teknologi AI bagi tujuan jenayah juga sewajarnya diambil perhatian oleh kerajaan.
Sedarlah, kita perlu sentiasa berwaspada dengan taktik penipuan menggunakan deepfake AI ini dan memastikan video diterima adalah benar dan tulen.