SHAH ALAM - Hasil teknik deepfake AI masih mempunyai kelemahan meskipun ia ditiru daripada sumber sebenar.
Ketua Pegawai Operasi Pusat Pembangunan Kemahiran Teknikal Selangor, Dr Ir Muhiddin Arifin berkata, tindakan penipuan masih boleh dikesan jika pemalsuan berkenaan cuba menggunakan suara dan wajah seseorang.
"Keadaan ini masih terkawal dan untuk mereka (penipu) meniru 100 peratus karakter asal sukar kerana pasti akan wujud perbezaan.
"Ini berlaku kerana AI memerlukan masa untuk memperbaiki kelemahan dan masih sukar mengatasi karakter yang asli,” katanya.
Jelasnya, mengesan deepfake mungkin rumit, tetapi dengan memberi perhatian kepada butiran dan menggunakan beberapa teknik, kita boleh menjadi penilai yang lebih arif.
"Antara cara kita boleh kenal pasti sesuatu bahan media yang dipaparkan itu adalah di bawah kategori ‘kepalsuan mendalam’ adalah pergerakan tidak semula jadi.
"Cari ketidaksepadanan dalam ekspresi muka, corak mata berkelip atau pergerakan badan. Adakah pergerakan mulut orang itu kelihatan tidak selari dengan suara audio dan tidak selari dengan pergerakan otot muka di sekeliling bibir orang itu,” katanya.Tambahnya, menerusi warna video kabur atau ganjil, deepfake boleh bergelut dengan mereplikasi warna kulit dan tekstur rambut dengan sempurna. Perhatikan kekaburan luar biasa di sekitar muka, leher atau garis rambut.
"Deepfake mungkin tidak konsisten dalam pencahayaan atau butiran latar belakang. Adakah sumber cahaya kelihatan berubah dalam adegan, atau adakah unsur latar belakang kelihatan tidak pada tempatnya?” ujarnya.Tambahnya, beri perhatian juga pada kualiti dan penghantaran audio.
"Adakah orang itu bercakap seperti dirinya atau adakah corak pertuturan berombak atau tidak semula jadi yang boleh menimbulkan waswas?
"Secara ringkasnya deepfake ialah media yang dimanipulasi secara video atau imej yang dibuat menggunakan platform AI. Mereka boleh membuat seseorang kelihatan berkata-kata atau melakukan sesuatu yang tidak pernah mereka lakukan dalam kehidupan sebenar,” katanya.