• November 25, 2024
Para inovator Asia melawan kebencian di dunia maya, kebohongan karena raksasa teknologi gagal

Para inovator Asia melawan kebencian di dunia maya, kebohongan karena raksasa teknologi gagal

Muak dengan banyaknya berita palsu di grup obrolan WhatsApp keluarganya di India – mulai dari krisis air di Afrika Selatan hingga rumor seputar kematian aktor Bollywood – Tarunima Prabhakar membuat alat sederhana untuk melawan paket misinformasi.

Prabhakar, salah satu pendiri perusahaan teknologi Tattle yang berbasis di India, telah mengarsipkan konten dari situs web pengecekan fakta dan outlet berita serta menggunakan pembelajaran mesin untuk mengotomatiskan proses verifikasi.

Alat berbasis web ini tersedia untuk mahasiswa, peneliti, jurnalis dan akademisi, katanya.

“Platform seperti Facebook dan Twitter sedang diselidiki karena misinformasi, tapi WhatsApp tidak,” katanya mengenai aplikasi perpesanan yang dimiliki oleh induk Facebook, Meta, yang memiliki lebih dari 2 miliar pengguna aktif bulanan, dengan sekitar setengah miliar di India saja.

“Alat dan metode yang digunakan untuk memeriksa misinformasi di Facebook dan Twitter tidak berlaku untuk WhatsApp, juga tidak cocok untuk bahasa India,” katanya kepada Thomson Reuters Foundation.

Pada tahun 2018, WhatsApp memperkenalkan langkah-langkah untuk membatasi pesan yang diteruskan oleh pengguna, setelah rumor yang menyebar di layanan pesan tersebut menyebabkan beberapa pembunuhan di India. Itu juga menghapus tombol fast forward di sebelah pesan media.

Tattle adalah salah satu dari semakin banyak inisiatif di Asia yang menangani misinformasi online, ujaran kebencian, dan pelecehan dalam bahasa lokal, dengan menggunakan teknologi seperti kecerdasan buatan, serta crowdsourcing, pelatihan di lapangan, dan keterlibatan dengan kelompok masyarakat sipil untuk mengatasi masalah tersebut. kebutuhan masyarakat.

Meskipun perusahaan-perusahaan teknologi seperti Facebook, Twitter, dan YouTube menghadapi pengawasan yang semakin ketat atas ujaran kebencian dan misinformasi, mereka belum melakukan investasi yang cukup di negara-negara berkembang, dan kekurangan moderator yang memiliki keterampilan bahasa dan pengetahuan tentang peristiwa-peristiwa lokal, kata para ahli.

“Perusahaan media sosial tidak mendengarkan komunitas lokal. Mereka juga gagal mempertimbangkan konteks – budaya, sosial, sejarah, ekonomi, politik – ketika memoderasi konten pengguna,” kata Pierre François Docquir, kepala kebebasan media di Article 19, sebuah kelompok hak asasi manusia.

“Hal ini dapat memberikan dampak yang dramatis, baik secara online maupun offline. Hal ini dapat meningkatkan polarisasi dan risiko kekerasan,” tambahnya.

Inisiatif lokal penting

Meskipun dampak ujaran kebencian di dunia maya telah tercatat di beberapa negara Asia dalam beberapa tahun terakhir, para analis mengatakan perusahaan teknologi belum meningkatkan sumber daya untuk meningkatkan moderasi konten, terutama dalam bahasa lokal.

Penyelidik hak asasi manusia PBB mengatakan pada tahun 2018 bahwa penggunaan Facebook memainkan peran penting dalam menyebarkan ujaran kebencian yang memicu kekerasan terhadap Muslim Rohingya di Myanmar pada tahun 2017, menyusul tindakan keras militer terhadap komunitas minoritas.

Pada saat itu, Facebook mengatakan pihaknya sedang mengatasi misinformasi dan berinvestasi pada penutur dan teknologi bahasa Burma.

Di Indonesia, “perkataan kebencian yang signifikan” secara online menyasar kelompok minoritas agama dan ras, serta kelompok LGBTQ+, dengan bot dan troll berbayar yang menyebarkan disinformasi yang bertujuan memperdalam perpecahan, menurut laporan Pasal 19 pada bulan Juni.

“Perusahaan media sosial… perlu bekerja sama dengan inisiatif lokal untuk mengatasi tantangan besar dalam mengendalikan konten bermasalah secara online,” kata Sherly Haristya, peneliti yang membantu menulis laporan tentang moderasi konten Pasal 19 di Indonesia. .

Salah satu inisiatif lokal tersebut adalah organisasi nirlaba Indonesia, Mafindo, yang didukung oleh Google, yang menawarkan lokakarya untuk melatih masyarakat – mulai dari pelajar hingga ibu rumah tangga – untuk memeriksa fakta dan menemukan informasi yang salah.

Mafindo, atau Masyarakat Anti Fitnah Indonesia, menawarkan pelatihan pencarian gambar terbalik, metadata video, dan geolokasi untuk memverifikasi informasi.

Organisasi nirlaba ini memiliki tim pengecekan fakta profesional yang dibantu oleh relawan warga, telah memberantas setidaknya 8.550 hoaks.

Mafindo juga membangun chatbot pengecekan fakta dalam bahasa Indonesia bernama Kalimasada – yang diluncurkan tepat sebelum pemilu tahun 2019. Ini diakses melalui WhatsApp dan memiliki sekitar 37.000 pengguna – sebagian kecil dari lebih dari 80 juta pengguna WhatsApp di negara ini.

“Orang lanjut usia sangat rentan terhadap hoax, misinformasi, dan berita palsu di platform ini, karena mereka memiliki keterbatasan keterampilan teknologi dan mobilitas,” kata Santi Indra Astuti, presiden Mafindo.

“Kami mengajari mereka cara menggunakan media sosial, tentang perlindungan data pribadi, dan melihat secara kritis topik yang sedang tren: selama COVID, informasi yang salah tentang vaksin, dan pada tahun 2019 tentang pemilu dan kandidat politik,” katanya.

Tantangan deteksi penyalahgunaan

Di seluruh Asia, pemerintah memperketat peraturan untuk platform media sosial, melarang jenis pesan tertentu dan mewajibkan penghapusan segera postingan yang dianggap menyinggung.

Namun perkataan yang mendorong kebencian dan pelecehan, terutama dalam bahasa lokal, sering kali tidak terkendali, kata Prabhakar dari Tattle, yang juga membuat alat bernama Uli – yang merupakan bahasa Tamil untuk pahat – untuk melacak pelecehan online berbasis gender dalam bahasa Inggris, Tamil, dan Hindi.

Tim Tattle memperoleh daftar kata dan frasa ofensif yang biasa digunakan secara online, yang kemudian diburamkan oleh alat tersebut ke linimasa pengguna. Orang juga dapat menambahkan lebih banyak kata sendiri.

“Deteksi penyalahgunaan merupakan hal yang sangat menantang,” kata Prabhakar. Fitur pembelajaran mesin Uli menggunakan pengenalan pola untuk mendeteksi dan menyembunyikan postingan bermasalah dari feed pengguna, jelasnya.

“Moderasinya terjadi di tingkat pengguna, jadi ini pendekatan bottom-up, bukan pendekatan platform top-down,” katanya seraya menambahkan bahwa mereka juga ingin Uli berhenti melakukan pelanggaran dalam menemukan meme, gambar, dan video.

Di Singapura, Empathly, sebuah perangkat lunak yang dikembangkan oleh dua mahasiswa, menggunakan pendekatan yang lebih proaktif dan berfungsi seperti pemeriksa ejaan ketika mendeteksi kata-kata yang menyinggung.

Ditujukan untuk bisnis, alat ini dapat mendeteksi istilah-istilah yang menyinggung dalam bahasa Inggris, Hokkien, Kanton, Melayu, dan Singlish – atau Inggris Singapura.

“Kami telah melihat dampak buruk yang ditimbulkan oleh ujaran kebencian. Namun Big Tech cenderung berfokus pada bahasa Inggris dan penggunanya di pasar berbahasa Inggris,” kata Timothy Liau, pendiri dan CEO Empathly.

“Jadi ada ruang untuk intervensi lokal – dan sebagai penduduk lokal kami memahami budaya dan konteksnya dengan lebih baik.” – Rappler.com

Awalnya diterbitkan pada: https://www.context.news/big-tech/asian-innovators-fight-online-hate-lies-as-tech-giants-fall-short

Pengeluaran SGP hari Ini