Apple Akan Pindai Foto Pengguna Bermuatan Pelecehan Seksual Anak, Temuan Dilaporkan ke Pihak Berwenang

- 7 Agustus 2021, 20:01 WIB
Messages akan memperingatkan anak-anak dan orang tua saat menerima dan mengirim foto bermuatan sensitif
Messages akan memperingatkan anak-anak dan orang tua saat menerima dan mengirim foto bermuatan sensitif /apple.com

BERITASOLORAYA.com - Apple bakal memindai Child Sexual Abuse Material (CSAM) atau gambar bermuatan pelecehan seksual anak pada gawai besutan Apple. Perusahaan besutan Steve Jobs itu mengklaim pemindaian tersebut bertujuan untuk melindungi anak-anak dari predator seksual yang mencari mangsa di dunia maya.

Temuan akan dilaporkan kepada National Center for Missing and Exploited Children (NCMEC) untuk ditindaklanjuti kepada pihak berwenang.

"Kami ingin melindungi anak-anak dari predator yang menggunakan alat komunikasi untuk merekrut dan mengekspolitasi mereka, serta mencegah meluasnya CSAM," demikian dikuti dari laman apple.com, Selasa 7 Agustus 2021.

Teknologi pencegahan CSAM ini akan dikembangkan pada tiga area yaitu aplikasi perpesanan Messages, iOS dan iPadOS, serta Siri dan fitur pencarian.

Baca juga : Kirab 1 Suro Ditiadakan Karena PPKM, Pengageng Keraton Surakarta Ajak Masyarakat Berdoa Bersama

Di aplikasi perpesanan, anak-anak akan mendapat peringatan setiap kali menerima atau mengirim foto bermuatan seksual. Peringatan juga disampaikan kepada orang tua anak yang bersangkutan.

Setiap kali anak menerima foto bermuatan seksual, foto tersebut akan diburamkan dengan peringatan berupa tulisan 'foto ini mungkin mengandung konten sensitif'.

"Sebagai langkah tambahan, anak juga diberi tahu bahwa orang tua mereka akan mendapat pemberitahuan jika si anak tetap membuka foto tersebut," demikian tertulis dalam rilis.

Perlindungan serupa juga berlaku setiap kali anak mengirim foto bermuatan seksual. Anak mendapat peringatan bahwa orang tua mereka akan menerima tembusan foto yang dikirim.

Baca juga : Rumah Sakit Darurat Baru Beroperasi Saat Kasus Menurun, Direktur RSDM : Sedia Payung Sebelum Hujan

Dalam rilis tersebut juga diterangkan bahwa Apple akan memindai CSAM dari foto-foto pengguna sebelum diunggah ke akun iCloud mereka.

Apple akan melaporkan temuan tersebut kepada National Center for Missing and Exploited Children (NCMEC) jika menemukan gambar bermuatan CSAM.

"NCMEC berperan sebagai pusat pelaporan terpadu untuk CSAM dan berkolaborasi dengan penegak hukum di Amerika Serikat," demikian tertulis dalam rilis.

Baca juga : Taufik Hidayat Kritik Pemerintah Soal Bulu Tangkis: Kalau Lagi Juara Gini Euforia tapi...

Apple mengklaim pemindaian dilakukan tanpa mengorbankan privasi. Pemindaian di gawai pengguna sebelum foto diunggah ke server iCloud. Apple tidak akan mengakses foto-foto yang tidak mengandung CSAM.

Apple menetapkan ambang yang sangat tinggi hingga nyaris tidak mungkin terjadi salah identifikasi.

"Fitur ini akan hadir pada update terbaru tahun ini untuk akun yang diatur sebagai keluarga pada iCloud untuk iOS 15, iPadOS 15 dan MacOS Monterey," seperti dikutip dari laman resmi Apple.

Baca juga : Resmi Pacari Glenca Chysara, Rendi Jhon Ternyata Bukan Keturunan Orang Biasa

Perang terhadap pelecehan seksual terhadap anak juga dikibarkan Apple melalui Siri dan fitur pencarian. Asisten digital besutan Apple itu akan mengarahkan pengguna yang menanyakan bagaimana cara melaporkan CSAM atau ekspolitasi terhadap anak.

Mereka akan mendapatkan sumber-sumber relevan dan saluran resmi untuk melapor temuan ekspolitasi maupun pelecehan seksual anak. Siri dan fitur pencarian juga akan mengintervensi setiap kali pengguna mencari materi bermuatan CSAM.

"Intervensi dilakukan dengan menjelaskan kepada pengguna bahwa topik ini berbahaya dan menimbulkan masalah. Pengguna juga akan diarahkan ke sumber-sumber informasi untuk mendapat pertolongan dengan masalah ini," demikian rilis tersebut mengatakan.***

Editor: Ichsan Noor Rasyid

Sumber: apple.com


Tags

Artikel Pilihan

Terkait

Terkini

Terpopuler

Kabar Daerah