• November 16, 2024
Pornografi anak berkembang pesat di WhatsApp karena moderasi yang tidak memadai

Pornografi anak berkembang pesat di WhatsApp karena moderasi yang tidak memadai

Ini adalah ringkasan yang dibuat oleh AI, yang mungkin memiliki kesalahan. Untuk konteksnya, selalu rujuk artikel selengkapnya.

Dengan 1,5 miliar pengguna dan hanya 300 karyawan, WhatsApp telah melihat pornografi anak lolos dari sistem moderasi kontennya

MANILA, Filipina – WhatsApp memiliki masalah pornografi anak, seperti dilaporkan oleh TechCrunch Jumat, 21 Desember.

Aplikasi perpesanan milik Facebook ini diketahui menjadi rumah bagi sejumlah besar grup obrolan yang mendistribusikan pornografi anak di antara para anggotanya.

Penemuan ini dilakukan oleh dua organisasi non-pemerintah Israel, LSM Screen Savers dan Netivei Reshe. Mereka mengetahui masalah ini pada bulan Juli 2018, ketika seorang pria melaporkan melihat pornografi pornografi berat di aplikasi tersebut.

Kemudian pada bulan Oktober, LSM tersebut menemukan lebih dari 10 kelompok pornografi anak yang kontennya mereka pantau, serta aplikasi yang digunakan untuk menemukan kelompok tersebut.

Kelompok lain, AntiToxin Technologies, dikutip oleh TechCrunch karena mengidentifikasi lebih dari 1.300 video dan foto anak di bawah umur yang melakukan tindakan seksual di grup WhatsApp.

Grup chat di WhatsApp dapat ditemukan melalui link undangan, biasanya dikirimkan kepada seseorang oleh teman. Jumlah anggota juga dibatasi 256 karena pembatasan jumlah menurut WhatsApp akan mencegah penyalahgunaan.

LSM-LSM tersebut menemukan bahwa orang-orang dapat menemukan grup tersebut melalui aplikasi pihak ketiga yang mencantumkan grup obrolan berdasarkan kategori. Salah satu kategori dalam aplikasi pihak ketiga ini adalah “Dewasa”, yang berisi tautan ke pornografi legal dan pornografi anak ilegal.

Aplikasi tersebut bernama “Group Links for What’s by Lisa Studio”, yang menurut laporan TechCrunch kini telah dihapus dari Google Play Store dan Apple App Store. Beberapa grup yang terdaftar di aplikasi yang sekarang dihapus antara lain “hanya pornografi anak tanpa adv”, “video pornografi anak”, dan “video cp”, dengan “cp” merupakan singkatan dari pornografi anak.

Kurangnya moderasi

Aplikasi pencarian grup, bersama dengan dua faktor penting lainnya, dapat diidentifikasi sebagai alasan mengapa pornografi anak dapat menyebar di WhatsApp.

Pertama, aplikasi ini menawarkan enkripsi ujung ke ujung. Ini adalah fitur privasi berharga yang berarti hanya pengirim dan penerima yang dituju yang dapat membaca pesan. Pesan tidak dapat diuraikan saat berpindah antara pengirim dan penerima. Namun, ini termasuk WhatsApp. Artinya, sistem mereka tidak dapat mendeteksi konten pornografi anak.

WhatsApp dapat memeriksa gambar profil pengguna, gambar profil grup, dan informasi grup, serta melihat apakah elemen-elemen tersebut melibatkan pornografi anak. Namun ia tidak dapat melihat apa yang ada di utas obrolan untuk melihat apa yang dibagikan di sana.

Kedua, TechCrunch melaporkan bahwa moderasi manual WhatsApp sangat kurang. Moderasi manual mungkin merupakan teknik yang dapat mengidentifikasi dan menindak kelompok yang melanggar. Sayangnya, WhatsApp memiliki 1,5 miliar pengguna, dan hanya 300 karyawan – beberapa di antaranya menangani moderasi konten. Facebook – yang memiliki 20.000 moderator konten – tidak membantu moderasi WhatsApp, kata TechCrunch. Memiliki lebih banyak moderator manusia dapat membantu meringankan perkembangan yang mengkhawatirkan setelah perusahaan induknya mengalokasikan sejumlah sumber daya kepada mereka.

WhatsApp mengatakan kepada TechCrunch bahwa mereka sedang menyelidiki kelompok yang disebutkan dalam laporan tersebut, yang juga dilaporkan ke polisi Israel. WhatsApp juga mengatakan hal itu melarang 130.000 akun dalam periode 10 hari terakhir karena melanggar kebijakan anti-eksploitasi anak. – Rappler.com

Data Hongkong