ZONA KUANTUM NAQS DNA, MEDIA PERPUSTAKAAN DAN PEMBELAJARAN ONLINE

Sabtu, 18 Mei 2013

Waspadai Filter Bubble di Facebook

Pernah dengar tentang filter bubble?

A filter bubble is a result state in which a website algorithm selectively guesses what information a user would like to see based on information about the user (such as location, past click behaviour and search history) and, as a result, users become separated from information that disagrees with their viewpoints, effectively isolating them in their own cultural or ideological bubbles. Prime examples are Google's personalised search results and Facebook's personalised news stream. The term was coined by internet activist Eli Pariser in his book by the same name; according to Pariser, users get less exposure to conflicting viewpoints and are isolated intellectually in their own informational bubble. Pariser related an example in which one user searched Google for "BP" and got investment news about British Petroleum while another searcher got information about the Deepwater Horizon oil spill and that the two search results pages were "strikingly different." ref. http://en.wikipedia.org/wiki/Filter_bubble

Sebuah filter bubble adalah sebuah kondisi hasil perhitungan perkiraan algoritma selektifitas sebuah situs yang menebak informasi apa yang pengguna ingin melihat berdasarkan informasi tentang pengguna (seperti lokasi, Riwayat "KLIK", dan riwayat pencarian) dan, sebagai hasilnya, pengguna menjadi terpisah dari informasi yang tidak selaras dengan pandangan mereka, hal ini secara efektif mengisolasi mereka dalam gelembung budaya atau ideologi mereka sendiri. Contoh utama adalah hasil personalisasi pencarian Google dan aliran berita yang ada di beranda Facebook kita. Istilah ini diciptakan oleh aktivis internet Eli Pariser dalam bukunya dengan nama yang sama, menurut Pariser, pengguna mendapatkan informasi yang lebih sedikit untuk sudut pandang yang bertentangan dengan sudut pandangnya dan terisolasi secara intelektual dalam gelembung informasi mereka sendiri. Pariser mengaitkan sebuah contoh di mana satu pengguna menggunakan mesin pencari Google untuk "BP" dan mendapat berita investasi sekitar British Petroleum sementara pencari lain mendapat informasi tentang tumpahan minyak Horizon Deepwater. Hal ini menunjukan bahwa hasil pencarian untuk keyword yang sama yaitu "BP" ternyata menghasilkan dua hasil pencarian yang "sangat berbeda."

Mari kita coba bahas untuk kasus Facebook.

Bayangkan ada seorang kader PKS, sebutlah Fulan, yang sangat fanatik. Di tengah heboh berita2 mengenai PKS akhir2 ini, di FB ia hanya like dan comment status Andi, Budi, Chandra yang pro PKS. Berita dari PKS Piyungan ia selalu share. Setiap ada tautan dari Tempo, Metro TV, tidak ia hiraukan. Dan ini berlangsung terus selama 2 pekan.

Karena algoritma FB memastikan news feed yang muncul adalah dari teman2 yang paling dekat dengan si Fulan (yang sering di-like, yang sering di-share, dsb), maka kemungkinan besar yang muncul hanya status2 Andi, Budi, dan Chandra, serta berita2 yang semuanya pro PKS.

Si Dono yang sering kritik PKS, walaupun berteman dengan Fulan, Andi, Budi, Chandra, statusnya mungkin jarang muncul di news feed si Fulan. Kenapa? Karena baik Andi, Budi, Chandra juga tidak pernah like atau comment di status Dono. Algoritma FB pun kemudian menyimpulkan bahwa Dono teman jauh.

Akhirnya si Fulan jadi sangat jarang menjumpai opini2 yang berlawanan, membuatnya terisolasi di bubbles/gelembung2 ide/keyakinan kelompoknya sendiri.

Ini lah yang kira2 disebut dengan konsep filter bubble, diperkenalkan oleh Eli Pariser pada 2011.

Apa kira2 efek negatifnya?

1. Bisa menciptakan pemahaman paling benar sendiri dan bebal terhadap kritik.
Karena selalu disodori opini dan pandangan pro PKS, Fulan semakin jauh dari opini dan pandangan di luar itu. Walaupun si Dono menulis kritik bagus dan konstruktif tentang PKS, tidak akan sampai ke newsfeed si Fulan. Akhirnya semakin lama semakin terbentuk pemikiran “pokoknya PKS yang paling benar, yang lain salah”.

2. False-consensus effect.
Kalau Fulan ditanya, “Seberapa tingkat penerimaan PKS di publik sekarang?”, bisa jadi serta-merta dia akan menjawab, “Wah, sangat bagus. Di news feed FB saya semuanya memuji PKS.”

Ini yang disebut false-consensus effect: kecenderungan orang untuk overestimate bahwa orang lain semua sepaham dengan dia. Dalam kondisi biasa saja efek ini umum berlaku, apalagi kalau diperburuk dengan filter bubble.

Walaupun saya ambil ilustrasi kader PKS fanatik, tapi bubble filter ini juga mengancam kelompok yang berseberangan, yaitu PKS haters tulen; dan juga kelompok2 lain.

Semoga kita semua terhindar dari efek buruk filter bubble. Indonesia butuh anak2 muda yang dewasa, fair dan objektif, serta berpikiran terbuka. Mari kita mulai dari diri kita masing2, demi Indonesia yang lebih baik.

Referensi : http://rinisetia.tumblr.com/post/50572920598/beware-online-filter-bubbles