Acum ar fi momentul pentru butonul dislike

Înscrie-te la atelier: Cum să te uiți la o dezbatere electorală televizată (pentru profesori și formatori)
November 21, 2016
NOU pentru profesori: Copiii și publicitatea la alimente (plan de lecție, cls. III-V)
December 14, 2016

Acum ar fi momentul pentru butonul dislike

“Gata, am intrat în bula de informație pe Facebook”, îmi anunțam prietenii pe Facebook zilele trecute. În ziua aceea, la București, a avut loc marșul pentru susținerea drepturilor omului și a comunității LGBT, cărora susținătorii “familiei tradiționale” vor să le interzică căsătoria. Și nu oricum, ci prin schimbarea Constituției. Mă plângeam că pe newsfeed-ul meu nu văzusem nicio părere în acord cu ‘familia tradițională’. Curgeau gârlă invitațiile la marș și opinii pro drepturi LGBT. În timp ce derulam newsfeed-ul, am avut o viziune: de partea cealaltă, unui susținător al “familiei tradiționale” – și utilizator de Facebook – i se întâmplă același lucru. Dar pe invers. Și am văzut hăul de comunicare dintre noi.

E posibil ca viziunea mea să fie puțin prăpăstioasă și ea, însă discuția despre Internetul care se transformă în insule de informație, tot mai segregate, fie că e vorba despre Facebook sau de Google search, e tot mai prezentă în presa online din țările occidentale. (În România, mai puțin.) 

Victoria lui Donald Trump în alegeri, amploarea pe care a luat-o retorica extremistă și polarizarea discursului politic între două tabere tot mai bine definite (pe social media, cel puțin) – conservatori vs. liberali, roșii vs. albaștri –  sunt percepute ca fiind efectele acestei ‘segregări‘ online. 

Dar cine ne divizează în felul ăsta? Sau ce? Algoritmii folosiți de cele două companii pentru a selecta conținuturile, chiar dacă nu ne divizează în mod direct, contribuie, se pare, la polarizarea politică. Dar și la dezinformare.

Cu cât accesezi, ‘dai like‘ sau ‘share‘ conținuturilor care sunt în acord cu părerile tale, cu atât Facebook ‘te va hrăni‘ cu postări similare. Un studiu al Institutului Reuters din februarie 2016 –  Marcă și încredere într-un mediu de informare fragmentat – arăta că mulți utilizatori*, dintre aceia care urmăresc știrile în fiecare zi, preferă știrile selectate de algoritmi. Cei mai mulți sunt tineri, bine familiarizați cu tehnologia. Motivul preferinței? Percep informațiile selectate cu ajutorul algoritmilor ca fiind neutre. Cred că algoritmii nu sunt influențați de agende politice sau editoriale, așa cum îi percep pe jurnaliști.

Aceeași utilizatori, participanți la studiul Reuters, preferă algoritmii și pentru că le selectează știrile ‘personalizat‘, pe baza consumului de știri anterior. Practic, nu mai este nevoie de efortul suplimentar de selecție în oceanul de informație. Un avantaj imediat care, pe termen mediu și lung, generează un mare dezavantaj: împiedică comunicarea liberă și schimbul de opinii în contradictoriu.

Dezavantajul algoritmilor 

În bula de informație te simți comfortabil, nu te deranjează nimeni, articolele conțin idei cu care ești de acord. Doar câțiva autori sau interlocutori pe social media te mai provoacă. De cele mai multe ori, convingerile îți sunt confirmate. Pe cât de confortabil, pe atât de nesănătos e!

În bula de informație, ai doar iluzia că te informezi. Așa se face că pe newsfeed-ul meu apar numai mesajele celor care critică acțiunea Coaliției pentru Familie de a schimba Constituția. Niciun mesaj din partea cealaltă. 

O soluție ar fi ca Facebook și Google să-și reconsidere platformele în așa fel încât utilizatorii să poată da like și postărilor sau opiniilor cu care nu sunt de acord. Dar cum să dai Like unui conținut cu care nu ești de acord.

Acum ar fi momentul pentru butonul “dislike”. Sau “disagree”. Nu contează numele, ci funcția lui, care ar trebui să echilibreze mecanismul de selecție a informațiilor.

Aș folosi dislike (sau disagree) și atunci Facebook mi-ar aminti: ‘Uite ce mai zic ăștia cărora le-ai dat dislike! Ce crezi? Tot dislike sau like?‘ Și tot așa. Sigur, exista riscul de “păruială” online. Dar selecția știrilor ar fi mai sănătoasă. 

Citește și articolul lui Cătălin Ștefănescu despre incapacitatea oamenilor din tabere ideologice diferite de a dialoga. Sau, mai bine zis, despre abilitatea de a se antagoniza, până la a refuza existența celuilalt.

În termenii și condițiile de folosire, Facebook și Google susțin că ne urmăresc interacțiunea pe social media și istoricul căutărilor ca să ne ofere o experiență de informare cât mai apropiată de gusturile și nevoile noastre. Dar uită să menționeze că publicitatea – câștigul din publicitate – stă în primul rând la baza mecanismului. 

Și ar mai fi ceva. De curând, Facebook a concediat mai mulți editori, care au refuzat să șteargă știri de interes pentru cititorii conservatori. Mai multe detalii AICI. Fără echipa de editori care să verifice materialele, știrile false și-au găsit loc ușor în lista ‘de tendințe‘ (trending), decisă de algoritm în mod mecanic. Și apoi în newsfeed. 

În bula de informare, sunt șanse mai mari ca știrile false să devină credibile. Asta sugerează și democrații americani după ce Hillary Clinton a pierdut alegerile în fața lui Donald Trump. Mai ales, dacă utilizatorii nu sunt dispuși (sau nu știu cum) să verifice informațiile. E greu să identifici dezinformarea când ai acces doar la o parte a poveștii.

INFOGRAFIC: Cum să identifici dezinformarea în știri!

Este Facebook companie media cu responsabilitate editorială? 

Poate că Facebook nu este companie media – în sensul de furnizor de informație, companie de presă cu redacție organizată. Totuși, capacitatea Facebook de a cenzura informațiile distribuite pe platforma sa e importantă din perspectiva dreptului la informare corectă și a interesului public. Îi conferă un soi de responsabilitate editorială, care ține de imparțialitatea cu care setează algoritmii de selecție.

În acest moment, cantitatea de click-uri/like-uri și share e mai importantă decât calitatea informațiilor, căci aduce profit companiei. Banii contează. Problema e că acest tip de măsurare a interacțiunii pe platforma Facebook cu scop comercial are implicații morale în mediul de informare online mai larg și permite știrilor care dezinformează să se propage ușor. Va fi o provocare pentru Facebook, zice și the Guardian, căci cel mai probabil va trebui să-și regândească modelul de bussiness. Rolul său în informare a luat proporții fără ca Facebook să-și fi pus probleme etice, caracteristice producției de știri și jurnalismului

Atât Facebook, cât și Google au anunțat că vor lua măsuri împotriva știrilor false. Până una-alta, tu nu rămâne pe aceeași plaformă. Caută alternativa.

Nicoleta Fotiade
Nicoleta Fotiade
Nicoleta Fotiade is the President and co-founder of Mediawise Society. She is a media literacy educator, researcher and advocate in the media and communication field for more than 15 years. She has a keen interest in empowering educators and students to have a deep critical understanding of how media work and their impact on everyday life. Nicoleta also teaches media education to final year BA students at the Faculty of Psychology and Education Sciences at the University of Bucharest. She is an active member and contributor to international and regional associations (co-founder of IAME – International Association for Media Education). She is the author and co-author of two media literacy textbooks, more than 20 media research studies and several other education materials for teachers and students. Nicoleta holds a Master's degree in Communication from the University of Westminster in London, UK and she earned her Bachelor's degree in Journalism at the Superior School of Journalism in Bucharest.

1 Comment

  1. Bogdan says:

    “Algoritmii folosiți de cele două companii pentru a selecta conținuturile, chiar dacă nu ne divizează în mod direct, contribuie, se pare, la polarizarea politică. Dar și la dezinformare.”

    Well, de fapt nu stim ce fac algoritmii respectivi. Presupunem, ghicim, dar ne fapt nu stim exact nici ceea ce face un site sa fie pe locul 1 in Google si nici de ce o stire e mai prezenta in wall-ul Facebook sau nu.

    Si atunci problema pre-existenta este transparenta algoritmilor. Cum explica mai bine altcineva
    “Because these algorithms, these AIs, are influencing information, decisions, and pretty much everything in 21st century society there’s been a move for what’s been termed “algorithmic transparency”. Essentially it’s call for explaining what data is collected and how it’s used.”
    Sursa – https://medium.com/@jonathankoren/algorithm-transparency-d558d7e17359#.4pxg8nvyf

    Deci intai sa iesim la lumina, deocamdata luam “de bun” tot ceea ce primim de la aceste companii si nici macar nu ne intrebam daca cumva prin algoritmii aia ne influenteaza su nu gandirea.

Leave a Reply

Your email address will not be published. Required fields are marked *