• November 25, 2024

Inilah cara algoritma dapat memanipulasi Anda

Laporan internal Facebook menemukan bahwa algoritme platform media sosial – aturan yang diikuti komputer untuk memutuskan konten apa yang Anda lihat – memungkinkan kampanye disinformasi di Eropa Timur menjangkau hampir separuh penduduk Amerika menjelang pemilihan presiden tahun 2020, menurut s laporan dalam Tinjauan Teknologi.

Kampanye tersebut menghasilkan halaman terpopuler untuk konten Kristen dan Kulit Hitam Amerika, dan secara keseluruhan menjangkau 140 juta pengguna AS per bulan. Tujuh puluh lima persen orang yang melihat konten tersebut tidak mengikuti halaman mana pun. Orang-orang melihat konten tersebut karena sistem rekomendasi konten Facebook menempatkannya di feed berita mereka.

Platform media sosial sangat bergantung pada perilaku orang untuk menentukan konten yang Anda lihat. Secara khusus, mereka melihat konten yang ditanggapi atau “diikuti” oleh orang-orang dengan menyukai, berkomentar, dan berbagi. Peternakan trollorganisasi yang mendistribusikan konten provokatif mengeksploitasi hal ini dengan menyalin konten dengan keterlibatan tinggi dan menempatkannya sebagai milik mereka.

Jika sebuah ilmuwan komputer yang mempelajari cara banyak orang berinteraksi dengan teknologi, saya memahami logika penggunaannya kebijaksanaan orang banyak dalam algoritma ini. Saya juga melihat kendala yang signifikan dalam praktik perusahaan media sosial.

Dari singa di sabana hingga Suka di Facebook

Konsep kebijaksanaan orang banyak berasumsi bahwa menggunakan sinyal dari tindakan, opini, dan preferensi orang lain sebagai panduan akan menghasilkan keputusan yang baik. Misalnya, prediksi kolektif biasanya lebih akurat daripada individu. Kecerdasan kolektif digunakan untuk memprediksi pasar keuangan, olahraga, pemilu dan bahkan wabah penyakit.

Selama jutaan tahun evolusi, prinsip-prinsip ini telah dikodekan dalam otak manusia dalam bentuk bias kognitif yang diberi nama seperti: popularitas, paparan belaka Dan efek ikut-ikutan. Jika semua orang mulai berlari, Anda juga harus mulai berlari; mungkin seseorang melihat singa datang dan berlari bisa menyelamatkan hidupmu. Anda mungkin tidak tahu alasannya, namun lebih bijaksana jika Anda bertanya nanti.

Otak Anda menangkap isyarat dari lingkungan – termasuk teman sebaya – dan kebiasaan aturan sederhana untuk dengan cepat menerjemahkan sinyal-sinyal tersebut ke dalam keputusan: Pilih pemenang, ikuti mayoritas, tiru tetangga Anda. Aturan-aturan ini bekerja sangat baik dalam situasi tertentu karena didasarkan pada asumsi yang masuk akal. Misalnya, mereka berasumsi bahwa orang sering bertindak rasional, kecil kemungkinannya ada kesalahan, masa lalu meramalkan masa depan, dan seterusnya.

Teknologi memungkinkan orang mengakses sinyal dari lebih banyak orang, yang sebagian besar tidak mereka kenal. Aplikasi kecerdasan buatan memanfaatkan secara ekstensif sinyal popularitas atau “keterlibatan” ini, mulai dari memilih hasil mesin pencari hingga merekomendasikan musik dan video, dan dari menyarankan teman hingga memberi peringkat pada postingan di feed berita.

Tidak semua hal pantas untuk dijadikan viral

Penelitian kami menunjukkan bahwa hampir semua platform teknologi web, seperti media sosial dan sistem rekomendasi berita, mempunyai pengaruh yang kuat bias popularitas. Ketika aplikasi didorong oleh isyarat seperti keterlibatan, bukan kueri mesin telusur yang eksplisit, bias popularitas dapat menyebabkan konsekuensi berbahaya yang tidak diinginkan.

Media sosial seperti Facebook, Instagram, Twitter, YouTube, dan TikTok sangat bergantung pada algoritma AI untuk menentukan peringkat dan merekomendasikan konten. Algoritme ini mengambil masukan dari apa yang Anda sukai, komentari, dan bagikan – dengan kata lain, konten yang Anda ikuti. Tujuan dari algoritme ini adalah untuk memaksimalkan interaksi dengan mencari tahu apa yang disukai orang-orang dan memberi peringkat pada bagian atas feed mereka.

Sepintas lalu, hal itu tampak masuk akal. Jika orang-orang menyukai berita yang kredibel, opini ahli, dan video menyenangkan, algoritme ini akan mengidentifikasi konten berkualitas tinggi tersebut. Namun kebijaksanaan orang banyak membuat asumsi penting di sini: bahwa merekomendasikan apa yang populer akan membantu “menggelembungkan” konten berkualitas tinggi.


Kami menguji asumsi ini dengan mempelajari algoritme yang memberi peringkat pada item menggunakan campuran kualitas dan popularitas. Kami menemukan bahwa bias popularitas secara umum cenderung menurunkan kualitas konten secara keseluruhan. Alasannya adalah bahwa keterlibatan bukan merupakan indikator kualitas yang dapat diandalkan ketika hanya sedikit orang yang mengenal suatu item. Dalam kasus ini, keterlibatan menghasilkan sinyal derau, dan algoritme kemungkinan besar akan memperkuat derau awal ini. Begitu popularitas barang berkualitas rendah cukup besar, maka akan terus diperkuat.

Algoritme bukan satu-satunya hal yang terpengaruh oleh bias keterlibatan – namun bisa saja menyentuh orang Juga. Bukti menunjukkan bahwa informasi dikirimkan melalui “infeksi yang kompleks,” yang berarti semakin sering orang dihadapkan pada sebuah ide secara online, semakin besar kemungkinan mereka untuk mengadopsi dan membagikan ulang ide tersebut. Ketika media sosial memberi tahu orang-orang bahwa suatu barang sedang viral, bias kognitif mereka muncul dan berubah menjadi dorongan yang tidak dapat ditolak untuk memperhatikan dan membagikannya.

Kerumunan yang tidak terlalu bijaksana

Kami baru-baru ini melakukan percobaan menggunakan aplikasi literasi berita bernama Fakey. Ini adalah permainan yang dikembangkan oleh lab kami yang mensimulasikan umpan berita seperti Facebook dan Twitter. Pemain melihat campuran artikel terkini dari berita palsu, ilmu sampah, sumber hiper-partisan dan konspirasi, serta sumber arus utama. Mereka mendapat poin karena berbagi atau menyukai berita dari sumber tepercaya dan menandai artikel dengan kredibilitas rendah untuk pemeriksaan fakta.

Kami menemukan bahwa para pemain memang demikian lebih cenderung menyukai atau berbagi dan lebih kecil kemungkinannya untuk menandai artikel dari sumber dengan kredibilitas rendah ketika pemain dapat melihat bahwa banyak pengguna lain telah terlibat dengan artikel tersebut. Oleh karena itu, paparan terhadap metrik keterlibatan menciptakan kerentanan.

Percakapan

Kebijaksanaan massa gagal karena dibangun di atas asumsi yang salah bahwa massa terdiri dari berbagai sumber yang independen dan beragam. Mungkin ada beberapa alasan mengapa hal ini tidak terjadi.

Pertama, karena kecenderungan orang untuk bergaul dengan orang yang serupa, lingkungan online mereka tidak terlalu beragam. Kemudahan pengguna media sosial untuk membatalkan pertemanan dengan orang yang tidak mereka setujui mendorong orang-orang ke dalam komunitas yang homogen, yang sering disebut dengan komunitas homogen ruang gema.

Kedua, karena banyak teman orang yang berteman satu sama lain, maka mereka saling mempengaruhi. A eksperimen terkenal menunjukkan bahwa mengetahui musik apa yang disukai teman Anda memengaruhi preferensi Anda sendiri. Keinginan sosial Anda untuk menyesuaikan diri mendistorsi penilaian independen Anda.

Ketiga, sinyal popularitas bisa dimainkan. Selama bertahun-tahun, mesin pencari telah mengembangkan teknik canggih untuk apa yang disebut “peternakan terhubung” dan skema lain untuk memanipulasi algoritma pencarian. Platform media sosial, di sisi lain, baru mulai belajar tentang diri mereka sendiri kerentanan.

Orang-orang yang bertujuan untuk memanipulasi pasar informasi telah menciptakan akun palsuseperti troll dan bot sosialDan terorganisir jaringan palsu. Mereka punya jaringan kebanjiran untuk menciptakan tampilan yang a teori konspirasi atau a kandidat politik populer dan menipu algoritme platform dan bias kognitif masyarakat secara bersamaan. Mereka bahkan punya telah mengubah struktur jejaring sosial untuk membuat ilusi tentang opini mayoritas.

Matikan keterlibatan

Apa yang harus dilakukan? Platform teknologi saat ini bersikap defensif. Mereka menjadi lebih banyak agresif selama pemilu hapus akun palsu dan misinformasi berbahaya. Namun upaya ini bisa serupa dengan permainan memukul tikus tanah.

Pendekatan pencegahan lainnya adalah dengan menambahkan gesekan. Dengan kata lain, memperlambat proses penyebaran informasi. Perilaku berfrekuensi tinggi seperti penyimpanan dan pembagian otomatis dapat dihambat oleh CAPTCHA tes atau biaya. Hal ini tidak hanya akan mengurangi peluang manipulasi, namun dengan lebih sedikit informasi, orang akan dapat lebih memperhatikan apa yang mereka lihat. Hal ini akan memberikan lebih sedikit ruang bagi bias keterlibatan untuk mempengaruhi keputusan masyarakat.

Ini juga akan membantu jika perusahaan media sosial menyesuaikan algoritme mereka agar tidak terlalu bergantung pada keterlibatan dalam menentukan konten yang mereka sajikan kepada Anda. Mungkin pengungkapan pengetahuan Facebook tentang kelompok troll yang mengeksploitasi keterlibatan akan memberikan dorongan yang diperlukan. – Rappler.com

Ini adalah versi terbaru dari a artikel pertama kali diterbitkan pada 10 September 2021.Percakapan

Filippo MenczerLuddy, Profesor Informatika dan Ilmu Komputer, Universitas Indiana

Artikel ini diterbitkan ulang dari Percakapan di bawah lisensi Creative Commons. Membaca artikel asli.


taruhan bola online