Teknologi sahaja tidak boleh menghentikan penyalahgunaan AI, dasar dan kesedaran juga mempunyai peranan untuk dimainkan

Teknologi

Jaspreet Bindra

Peningkatan dalam deepfakes telah mencetuskan kebimbangan meluas tentang penyalahgunaan teknologi. Baru-baru ini, Perdana Menteri India Narendra Modi berkata dalam ucapannya bahawa dia juga menjadi mangsa deepfakes, yang dibincangkannya dengan pembuat ChatGPT OpenAI. Ini bukan hanya insiden terpencil: malah menteri IT India telah memberi amaran kepada syarikat kecerdasan buatan dan media sosial untuk memerangi penipuan yang mendalam. Beberapa selebriti dari industri hiburan telah terjejas oleh insiden deepfakes.

Walaupun teknologi itu dipanggil penyelesaian untuk memerangi deepfakes, ia bukanlah ubat penawar. Teknologi sahaja tidak mencukupi untuk memerangi penipuan yang mendalam dan kita perlu melakukan usaha yang serius untuk mendidik orang ramai.

Deepfake pertama di dunia

Deepfake pertama “diperakui” di dunia mungkin dibuat oleh pro kecerdasan buatan Nina Schick, yang memberi amaran bahawa “garisan antara realiti dan fiksyen semakin kabur.” algoritma untuk mencipta audio, video atau imej palsu yang sangat realistik dan meyakinkan.

Perkataan “deepfake” pertama kali digunakan pada 2017 di Reddit dan merujuk kepada gabungan “pembelajaran mendalam” dan “palsu”. Pengguna Reddit telah mengubah wajah pelakon seperti Gal Gadot dan Taylor Swift. Kira-kira 95 peratus daripada deepfakes digunakan untuk mencipta pelbagai kandungan palsu, termasuk video, audio dan imej palsu. Dalam kebanyakan kes, wanita menjadi mangsa deepfakes, yang membawa kepada tekanan emosi.

BACA JUGA: Pelajar Ukraine berusia 21 tahun yang belajar di AS ditipu warga Rusia yang disokong China. Inilah kisah Olga Loek

Bagaimanakah deepfakes dicipta?

Deepfakes dicipta menggunakan sejenis kecerdasan buatan yang dipanggil rangkaian adversarial generatif (GAN). GAN terdiri daripada dua rangkaian saraf; penjana dan diskriminasi.

Penjana mencipta kandungan palsu dan diskriminasi menilai kandungan dan memberitahu penjana sama ada ia realistik atau tidak. Pada mulanya memang seronok untuk menunjukkan kehebatan AI. Walau bagaimanapun, idea ini berubah menjadi buruk: ucapan oleh pemimpin politik telah dimanipulasi untuk menimbulkan kekacauan, dan klip “lucah balas dendam” telah difilemkan dan diedarkan kepada khalayak yang lebih luas.

Kini terdapat kebimbangan bahawa pilihan raya masa depan di India dan negara lain boleh ditentukan menggunakan palsu, dan demokrasi itu sendiri boleh dilemahkan.

Deepfakes mendahului kecerdasan buatan generatif, tetapi yang terakhir adalah ancaman pada steroid. Apabila deepfakes menjadi lebih canggih, ia menjadi semakin sukar untuk dikesan. Algoritma pembelajaran mendalam sangat baik dalam menganalisis ekspresi muka dan pergerakan badan, yang menjadikan pemalsuan ini sangat realistik.

Mereka kadangkala boleh dikesan oleh keabnormalan visual dan pendengaran, dan alat kecerdasan buatan wujud untuk mengenal pastinya. Kekurangan data latihan yang pelbagai dan berkualiti tinggi menghalang pembangunan model pengesanan deepfake yang berkesan. Banyak model pengesanan deepfake mengalami positif palsu, yang boleh menyebabkan kandungan sebenar ditanda palsu sebagai deepfake. Ini adalah pertempuran AI vs AI dan ia akan berterusan selama-lamanya.

BACA JUGA: GenAI e-KYC Deepfakes: Bukti Kelayakan Boleh Disahkan pada Rantaian Sekat Berskala Besar – Penyelesaiannya

Bagaimana untuk menangani deepfakes?

Syarikat teknologi mesti bekerjasama untuk membangun dan melaksanakan pengesanan deepfake yang berkesan untuk mencegah penipuan. Dalam senario semasa, penyelesaian berasaskan blokchain boleh digunakan sebagai penyelesaian yang berkesan untuk memerangi deepfakes. Ia boleh digunakan untuk mencipta rekod kalis gangguan kandungan digital dan memastikan keasliannya.

Syarikat teknologi besar dan syarikat permulaan teknologi sedang menumpukan pada membangunkan penanda air digital dan pengelas untuk menghapuskan atau menyelesaikan masalah ini.

Teknologi sahaja tidak dapat menyelesaikan masalah

Teknologi sahaja tidak dapat menyelesaikan masalah. Kerajaan mesti menetapkan peraturan yang jelas untuk penggunaan teknologi deepfake dan menguatkuasakannya. Kesedaran dan pendidikan di peringkat komuniti dan sekolah boleh membantu.

Kita mesti menjadi pengguna media yang bijak dan mempersoalkan kesahihan kandungan yang mencurigakan. Di sesetengah negara, kanak-kanak diajar di sekolah untuk membezakan kandungan sebenar daripada palsu; malah kita perlu melaksanakan amalan yang sama di sekolah kita.

Pada tahap tertentu, walaupun penyelidik dari pelbagai bidang perlu bekerjasama untuk lebih memahami kesan deepfakes terhadap masyarakat dan membangunkan langkah balas yang berkesan untuk memeranginya.

Deepfakes adalah serupa dengan “serangan asid dalam talian,” direka untuk membalas dendam dan memalukan seseorang. Memerangi deepfakes memerlukan pendekatan pelbagai aspek yang melangkaui teknologi. Walaupun teknologi boleh memainkan peranan penting dalam mengesan dan memerangi pemalsuan dalam, ia bukan pengganti usaha bersepadu oleh kerajaan, syarikat teknologi dan orang ramai.

(Penulis ialah pengasas bersama AI&Beyond)

Penafian: Pendapat, kepercayaan dan pandangan yang dinyatakan oleh pelbagai pengarang dan peserta forum di laman web ini adalah peribadi dan tidak menggambarkan pandangan, kepercayaan dan pendapat ABP Network Pvt. OOO