Presenečenje: Facebook pravi, da je Facebook v redu za novice!

Študija je bila objavljena prejšnji teden v reviji Znanost kar kaže, da algoritem Facebooka ni vzrok za hipotetični "filtrirni mehurček" - kjer ljudje na družbenem omrežju vidijo le novice, ki se ujemajo z njihovimi političnimi nagnjenji.

Edina težava? Gre za študijo na Facebooku, ki so jo izvedli ljudje, ki so zaposleni pri Facebooku.

Ali bi morali biti resnično vsi presenečeni nad tem, da lastni raziskovalci Facebooka čim manj vplivajo na manipulacije njihovega podjetja z novicami ljudi?

Študij, Izpostavljenost ideološko raznolikim novicam in mnenjem na Facebooku, avtor Eytan Bakshy in sodelavci na Facebooku, je bil objavljen prejšnji teden v Ljubljani Znanost. Kako bi lahko to študijo objavili v prestižni reviji Znanost? 1 Ali naj med strokovnimi pregledi ne bodo zajete samopostrežne študije, ki jih objavljajo podjetja, ki samo dokazujejo, kaj podjetje želi, da podatki kažejo?

Treba se je vprašati, kako so recenzenti opravili to študijo, kot je bila objavljena. Številne kritike študije so bile že objavljene, zato bom samo na hitro pregledal probleme, ki jih navajajo drugi. Ta kritika Christiana Sandviga v veliki meri povzema težavo s tem, kako so raziskovalci Facebooka v objavljeni študiji zavrteli svoje ugotovitve:

Glede primerjave študija nadalje pravi, da:

"Dokončno ugotovimo, da ... posamezne odločitve bolj kot algoritmi omejujejo izpostavljenost vsebini, ki izziva odnos."

"V primerjavi z algoritemskim razvrščanjem so močneje vplivale odločitve posameznikov o tem, kaj naj zaužijejo"

Zvonijo me alarmni zvonovi. Tobačna industrija bi nekoč morda financirala študijo, ki pravi, da je kajenje manj nevarno kot premogovništvo, vendar imamo tukaj študijo o kajenju rudarjev. Verjetno, ko so v premogovniku.

Hočem reči, da ni scenarija, v katerem bi bilo mogoče zamenjati "izbire uporabnikov" in "algoritem", ker se zgodijo skupaj [...]. Uporabniki izbirajo med tem, kar jim je algoritem že filtriral. To je zaporedje.

Mislim, da je pravilna trditev o teh dveh stvareh, da sta obe slabi - oba povečujeta polarizacijo in selektivnost. Kot sem že povedal, se zdi, da algoritem skromno povečuje selektivnost uporabnikov.

Dejansko bi si mislili, da bi raziskovalci Facebooka, ki veste, delajo na Facebooku, razumeli, da ne morete dražiti in ločevati algoritma od vedenja uporabnika, saj je eden odvisen od drugega. Brez manipuliranja z algoritmom (za kar je raziskava Facebooka Adam Kramer ugotovila, da ni dobro narediti, ne da bi prej pridobili informirano soglasje uporabnika), v resnici ne morete reči, zakaj uporabniki kliknejo eno stvar bolj kot nekaj drugega.

Toda ta pregled študije na Facebooku Zeynep Tufekci, profesorice z univerze v Severni Karolini, Chapel Hill, je zapisal, da so bili podatki, ki so jih resnično našli v študiji, pokopani v njeni prilogi:

Višja je povezava, večja (veliko več) verjetnost bo, da jo bodo kliknili. Živite in umrete s postavitvijo, določeno z algoritmom novic. (Učinek je, kot pravilno ugotavlja Sean J. Taylor, kombinacija umestitve in dejstva, da algoritem ugiba, kaj bi radi).

To je bilo večinoma že znano, a super je, da so to potrdili raziskovalci Facebooka (avtor študije so bili le zaposleni na Facebooku). […]

Ena od novih ugotovitev je, da algoritem za novice (skromno) zatira raznoliko vsebino, druga ključna in tudi nova ugotovitev pa je, da umestitev v vir (močno) vpliva na razmerje med prikazi in kliki.

Facebook vam prikazuje novice, ki jih boste verjetno prebrali (ker se strinjajo z vašim političnim stališčem) in da višja kot je v vašem viru novic, večja je verjetnost, da jo boste kliknili.

Z drugimi besedami, Facebookova manipulacija z vašo novico še naprej ostaja pomemben dejavnik pri določanju, na kaj boste verjetno kliknili. In še naprej manipulirajo s tem virom, da vam prikazujejo politično usklajene novice bolj, kot če v njihovem algoritmu sploh ne bi bilo pristranskosti.

Kot je pomembno poudariti Tufekci, je šlo za majhno, izbrano skupino uporabnikov Facebooka, ki so jo preučevali samo zato, ker je bilo za raziskovalce Facebooka bolj priročno (in ceneje), da jih preučujejo. Ogledali so si le uporabnike, ki so na Facebooku prepoznali svojo politično pripadnost in se redno prijavijo v storitev (približno 4 odstotke vseh uporabnikov Facebooka [le 9 odstotkov uporabnikov izjavi svojo politično pripadnost na Facebooku, kar pomeni, da to ni vzorec, ki ga lahko posplošite karkoli od]). Ne piše nič o uporabnikih Facebooka, ki na Facebooku ne izjavijo svoje politične pripadnosti - kar je večina izmed nas.

Bi lahko Facebook izvedel močnejšo študijo? Seveda, vendar bi bile potrebne bolj tradicionalne raziskovalne tehnike, kot je na primer anketiranje na spletnem mestu v kombinaciji z naključnim nabiranjem e-pošte zunaj spletnega mesta.

Tukaj je torej nefiltrirana, nepristranska ugotovitev iz podatkov (z dovoljenjem Tufekcija), ki so se jih raziskovalci Facebooka na videz zavrteli, da pravijo, da to, kar vidite v njihovem viru, ni njihova krivda:

Raziskovalci Facebooka dokončno dokazujejo, da algoritem Facebookovega podajanja novic ideološko raznolike, medsektorske vsebine, ki jih ljudje vidijo iz svojih socialnih omrežij na Facebooku, zmerno zmanjša. Raziskovalci poročajo, da izpostavljenost različnim vsebinam Facebook algoritem zavira za 8% za samoopredeljene liberalce in za 5% za samoopredeljene konzervativce.

Ali, kot pravi Christian Sandvig, "algoritem filtrira 1 od 20 medsektorskih trdih novic, ki jih vidi samozavestni konservativec (ali 5%), in 1 od 13 medsektorskih trdih novic, da je samoopredeljeni liberal vidi (8%). " Videli ste manj novic, s katerimi se ne bi strinjali, in jih delijo prijatelji, ker jih algoritem ne prikazuje.

Na žalost zunaj New York Times in nekaj izbranih prodajnih mest, večina rednih spletnih strani z novimi mediji je pravkar poročala o tem, kar so trdili raziskovalci Facebooka v svoji študiji, brez dvoma.

Toda zdaj veste resnico - Facebook je preučil majhen, nereprezentativen vzorec, nato pa zmanjšal, kaj so dejansko pokazali njihovi podatki, da bi poudaril bolj pozitiven rezultat do podjetja. Zame je to še en primer, da raziskovalci Facebooka v resnici ne razumejo smisla znanstvenega raziskovanja - deliti znanje s svetom, ki ni pristransko in z njim ni manipulirano.

Za nadaljnje branje ...

Zeynep Tufekci: Kako Facebook algoritem zatira raznolikost vsebine (skromno) in kako Newsfeed ureja vaše klike

Christian Sandvig: Facebook študija "To ni naša krivda"

NY Times: Facebook uporabljate polarizacijo? Spletno mesto se začne razlikovati

Opombe:

  1. Na žalost moram zdaj na seznam spoštovanih znanstvenih publikacij dodati še eno revijo, ki jo je treba podrobneje preučiti. Kot vedo dolgoletni bralci Sveta psihologije, se ta seznam vsako leto podaljša: Pediatrija (Pediatrija objavlja študije o tehnologiji, ki jih očitno ni pregledal nihče, ki ni seznanjen z vzročnimi povezavami osnovnih raziskav.), Kiberpsihologija, vedenje in socialno mreženje (Cyberpsychology očitno objavi katero koli študijo o zasvojenosti z internetom ali socialnih omrežjih, ne glede na njegovo kakovost.) In zdaj, Znanost. [↩]

!-- GDPR -->