Üllatus: Facebook ütleb, et Facebook on uudiste jaoks okei!

Eelmisel nädalal avaldati ajakirjas uuring Teadus see näitab, et Facebooki algoritm ei ole hüpoteetilise "filtrimulli" põhjus - seal näevad inimesed sotsiaalvõrgustikus ainult uudiseid, mis vastavad nende poliitilistele suundumustele.

Ainus probleem? See on Facebooki uuring, mille viisid läbi Facebookis töötavad inimesed.

Kas peaksime tõesti üllatuma, et Facebooki enda teadlased minimeerivad nende ettevõtte manipuleerimise mõju inimeste uudistevoogudele?

Uuring, Kokkupuude ideoloogiliselt mitmekesiste uudiste ja arvamustega FacebookisEytan Bakshy ja tema kolleegid Facebookis avaldati eelmisel nädalal aastal Teadus. Kuidas saaks seda uuringut mainekas ajakirjas avaldada Teadus? 1 Kas vastastikune eksperdihinnang ei peaks hõlmama ettevõtete omakasupüüdlikke uuringuid, mis näitavad ainult seda, mida ettevõte soovib andmete kuvamiseks?

Tuleb imestada, kuidas eelretsenseerijad selle avaldatud uuringu läbisid. Paljud kriitikad selle uuringu kohta on juba avaldatud, nii et ma lihtsalt võtan kiirelt kokku teiste viidatud probleemid. See Christian Sandvigi kriitika võtab üsna palju kokku probleemi, kuidas Facebooki teadlased avaldatud uuringus omaenda järeldusi ketrasid:

Võrdluste osas öeldakse uuringus, et:

"Me kinnitame lõplikult, et ... individuaalsed valikud, mis on rohkem kui algoritmid, piiravad kokkupuudet väljakutseid pakkuvale sisule."

"Võrreldes algoritmilise järjestusega oli üksikisikute valikutel, mida tarbida, tugevam mõju"

Minu jaoks helistavad häirekellad. Tubakatööstus võis kunagi rahastada uuringut, mis ütleb, et suitsetamine on vähem ohtlik kui söekaevandamine, kuid siin on meil uuring söekaevurite suitsetamise kohta. Tõenäoliselt siis, kui nad on söekaevanduses.

Ma tahan öelda seda, et pole stsenaariumi, kus „kasutajate valikuid” ja „algoritme” saaks kaubelda, kuna need toimuvad koos […]. Kasutajad valivad selle, mida algoritm neile juba filtreeris. See on jada.

Ma arvan, et nende kahe asja kohta on õige väide, et mõlemad on halvad - mõlemad suurendavad polarisatsiooni ja selektiivsust. Nagu ma eespool ütlesin, näib, et algoritm suurendab kasutajate selektiivsust tagasihoidlikult.

Tõepoolest, arvate, et Facebooki teadlased, kes teate, töötavad Facebookis, mõistaksid, et te ei saa algoritmi kasutaja käitumisest kiusata ja lahutada, kuna üks sõltub teisest. Algoritmiga manipuleerimata (mille Facebooki uuringud, mille Adam Kramer avastas, pole hea teha ilma kasutaja teadliku nõusoleku saamiseta), ei saa te tegelikult öelda, miks kasutajad klõpsavad ühel, mitte millelgi muul.

Kuid Põhja-Carolina ülikooli Chapel Hilli professori Zeynep Tufekci Facebooki uuringu ülevaade kirjutas, et see, mida uuringu andmed tegelikult leidsid, maeti uuringu lisasse:

Mida kõrgem link, seda rohkem (palju rohkem) tõenäoliselt sellele klõpsatakse. Elate ja surete paigutuse järgi, mille määrab uudisvoo algoritm. (Mõju, nagu Sean J. Taylor õigesti märgib, on kombinatsioon paigutusest ja asjaolust, et algoritm arvab ära, mida soovite).

See oli juba teada, enamasti, kuid on tore, kui seda kinnitasid Facebooki teadlased (uuringu autorid olid ainult Facebooki töötajad). […]

Üks uudne järeldus on see, et uudisvoo algoritm pärsib (tagasihoidlikult) mitmekesist sisu ning teine ​​ülioluline ja ka uudne leid on see, et voos asetamine mõjutab (tugevalt) klikkimise määra.

Facebook näitab teile uudiseid, mida loete tõenäolisemalt (kuna see on kooskõlas teie poliitilise seisukohaga) ja et mida suurem on see teie uudisvoos, seda tõenäolisem on, et klõpsate sellel.

Teisisõnu, Facebooki manipuleerimine teie uudisvooga on jätkuvalt oluline panustegur selle määramisel, millele tõenäoliselt klõpsate. Ja nad jätkavad selle vooga manipuleerimist, et näidata teile poliitiliselt ühtlustatud uudislugusid rohkem kui siis, kui nende algoritmis poleks mingit kallutatust.

Ja nagu Tufekci tähtsalt märgib, oli see väike uuritud Facebooki kasutajate rühm ainult seetõttu, et Facebooki teadlastel oli neid uurida mugavam (ja odavam). Nad vaatasid ainult kasutajaid, kes tuvastasid Facebookis oma poliitilise kuuluvuse ja logisid regulaarselt teenusesse sisse (umbes 4 protsenti kõigist Facebooki kasutajatest [ainult 9 protsenti kasutajatest deklareerib oma poliitilist kuuluvust Facebookis, see tähendab, et see pole valim, mida saate üldistada) midagi pärit]). See ei ütle midagi Facebooki kasutajate kohta, kes ei deklareeri oma poliitilist kuuluvust Facebookis - see on enamik meist.

Kas Facebook oleks võinud teha põhjalikuma uuringu? Muidugi, kuid see oleks nõudnud traditsioonilisemaid uurimistehnikaid, näiteks uuringu värbamist saidil koos juhuslike e-kirjade värbamisega väljaspool saiti.

Niisiis, siin on andmete filtreerimata ja erapooletu järeldus (Tufekci nõusolekul), mille Facebooki teadlased näiliselt keerutasid, öeldes, et see, mida te nende uudisvoos näete, pole nende süü:

Facebooki teadlased näitavad lõplikult, et Facebooki uudisvoo algoritm vähendab mõõdetava hulga ideoloogiliselt mitmekülgset, läbivat sisu, mida inimesed näevad oma Facebookis oma suhtlusvõrgustikes. Teadlaste teatel pärsib Facebooki algoritm kokkupuudet erineva sisuga 8% -l end identifitseerivate liberaalide puhul ja 5% enda identifitseeritud konservatiivide puhul.

Või, nagu ütleb Christian Sandvig, „filtreerib algoritm välja ühe 20-st läbilõikavast raskest uudisloole, mida näeb end identifitseerinud konservatiiv (ehk 5%), ja 1-st 13-st läbilõikelisest raskest uudisest, mille ise identifitseerinud liberaal näeb (8%). " Näete vähem uudiseid, millega te ei nõustu ja mida teie sõbrad jagavad, kuna algoritm ei näita neid teile.

Kahjuks väljaspool New York Times ja veel mõned müügikohad, enamus peavoolu uudistemeedia saite teatasid Facebooki teadlaste poolt oma uuringus väidetud kahtluseta.

Kuid nüüd teate tõde - Facebook uuris väikest, mitteesindavat valimit ja alahindas siis seda, mida nende andmed tegelikult näitasid, et rõhutada ettevõtte suhtes positiivsemat tulemust. Minu jaoks on see veel üks näide sellest, kuidas Facebooki teadlased ei mõista tegelikult teadusuuringute mõtet - jagada maailmale teadmisi, mis pole kallutatud ja manipuleeritud.

Edasiseks lugemiseks ...

Zeynep Tufekci: kuidas Facebooki algoritm sisulist mitmekesisust alla surub (tagasihoidlikult) ja kuidas uudisvoo teie klikke reguleerib

Christian Sandvig: Facebooki uuring "See pole meie süü"

NY Times: Facebook kasutab polariseerimist? Sait palub erineda

Märkused:

  1. Kahjuks pean nüüd lisama oma lugupeetud teaduspublikatsioonide nimekirja veel ühe ajakirja, mis vajavad täiendavat uurimist. Nagu psühholoogiamaailma kauaaegsed lugejad teavad, pikeneb see loetelu igal aastal: Pediaatria (Pediaatria avaldab uuringuid tehnoloogia kohta, mille ilmselt keegi ei ole läbi vaadanud, kes on tuttav põhiuuringute põhjuslike seostega.), Küberpsühholoogia, käitumine ja suhtlusvõrgustikud (Küberpsühholoogia avaldab ilmselt mis tahes uuringu Interneti-sõltuvuse või suhtlusvõrgustike kohta, olenemata selle kvaliteedist.) Ja nüüd, Teadus. [↩]

!-- GDPR -->