Sekat dari punca imej penderaan kanak-kanak berasaskan AI, kata pakar

Sekat dari punca imej penderaan kanak-kanak berasaskan AI, kata pakar

Mereka gesa perlindungan lebih ketat, pengesahan umur sebenar dan kewajipan ke atas platform bagi cegah kes penderaan kanak-kanak.

Data SKMM menunjukkan penurunan kandungan lucah berunsur AI melonjak daripada kurang 200 kes pada 2022 kepada lebih 1,200 kes tahun lalu. (Gambar Envato Elements)
PETALING JAYA:
Pakar keselamatan siber menekankan usaha membendung penyebaran imej penderaan seksual kanak-kanak dijana kecerdasan buatan (AI) bermula sebelum cubaan kandungan itu tercipta bukan selepas tular.

Pengarah Eksekutif Kumpulan Chasseur, Munira Mustaffa, berkata perisian AI perlu dibangunkan dengan konsep ‘keselamatan sejak peringkat reka bentuk’ termasuk semakan umur sebenar, tapisan
ketat kandungan dan sekatan teknikal.

Katanya, tindakan itu supaya foto kanak-kanak tidak boleh digunakan untuk menghasilkan imej berunsur seksual.

“Prinsipnya jelas: jika sesuatu alat boleh disalah guna terhadap kanak-kanak, kawalan akses perlu benar-benar berkesan, bukan sekadar simbolik,” katanya.

Munira berkata, sistem tindak balas pantas untuk mengesan dan memadam kandungan penderaan yang disahkan juga perlu menjadi syarat mandatori kerana mangsa ‘deepfake’ eksplisit berasaskan AI sering mengalami tekanan mental serius.

“Kanak-kanak biasanya tidak faham soal persetujuan atau kesan kekal kandungan digital. Ada antara mereka sudah dimanipulasi atau diperas untuk berkongsi gambar peribadi.

“Kesan emosi boleh jadi parah, ada kes sehingga mangsa membunuh diri selepas imej mereka digunakan untuk diancam dan dimalukan,” katanya.

Data Suruhanjaya Komunikasi dan Multimedia Malaysia (SKMM) menunjukkan jumlah kandungan lucah AI dipadam meningkat mendadak kepada lebih 1,200 kes pada 2024 berbanding kurang 200, dua tahun lalu.

Ada juga kes pelajar mencipta imej palsu eksplisit rakan sekelas di sebuah sekolah menengah di Johor tahun ini.

Dari sudut peraturan, Akta Keselamatan Dalam Talian 2025 akan mewajibkan platform mmemadam kandungan berbahaya dengan cepat dan bertanggungjawab jika bahan itu terus tersebar.

Pengasas dan CEO LGMS Bhd, Fong Choong Fook, berkata banyak alat AI sebenarnya sudah menyekat imej lucah, tetapi undang-undang jelas diperlukan supaya penyedia perkhidmatan diwajibkan menghalang penghasilan kandungan eksplisit, termasuk melibatkan orang dewasa.

Katanya, Kesatuan Eropah sudah mempunyai peraturan khusus untuk penggunaan AI dan langkah sama dijangka berkembang ke tempat lain.

Ketua Forensik Komputer di Persatuan Profesional Keselamatan dan Anti-terorisme Antarabangsa, SL Rajesh, pula berkata kewajipan tindak balas pantas perlu dikuat kuasa, bukan sekadar galakan.

Katanya, laman sesawang dan aplikasi perlu menyediakan saluran aduan mudah, pusat respons 24 jam dan memadam imej deepfake kanak-kanak sebaik sahaja disahkan.

Selain itu menggunakan padanan menghalang muat naik semula dan bekerjasama dengan unit penguatkuasaan khas yang fokus terhadap penderaan kanak-kanak berasaskan AI.

“Jika setiap platform besar mempunyai pusat respons kritikal dan disokong jabatan penguatkuasaan yang khusus, kandungan berbahaya boleh dipadam cepat dan keselamatan kanak-kanak dapat dipertingkatkan,” katanya.

Stay current - Follow FMT on WhatsApp, Google news and Telegram

Subscribe to our newsletter and get news delivered to your mailbox.