Facebook vil ha en do-over på nyheter
Denne gangen vil selskapet heller at du fokuserer på menneskene.

Andrew Harnik / AP
Oppdatert klokken 16:27. den 22. august 2019.
En spesielt skarp aforisme om internetts oppmerksomhetsøkonomi sammenligner nettsider med bilulykker. Forklarer til New York Times i 2017 hvordan likes og delinger driver brukere mot ekstremer, Evan Williams, medskaperen av Twitter, Medium og Blogger , bemerket at nyhetsfeedalgoritmer, opplært til å gi oss det mest oppmerksomhetsfengende innholdet, vil gjøre det hensynsløst. Å bruke nettet, sa Williams, er som å kjøre nedover veien, se en bilulykke, for så å bli et øyeblikk fiksert på ulykken. Når du registrerer dette, gir algoritmene som kjører internett deg flere bilulykker, vel vitende om at blodbadet støtter deres primære mål: å få og opprettholde oppmerksomhet.
Se på tilstanden til nettets største plattformer, og det er lett nok å se vraket. YouTubes anbefalingsalgoritmer sette barn i fare på siden. Googler på skogbranner som brenner Amazonas raskere enn noen gang før returnerer resultater for Amazon Fire ebook-leser. Apper som blir virale takket være Facebook og Instagrams anbefalingsalgoritmer har overraskende mørke konsekvenser for dataene våre.
Så nå introduserer noen av selve plattformene som klarte å skalere massivt ved å stole på den billige arbeidskraften til algoritmer for å sortere og anbefale innhold sakte en motgift mot bilulykkens status quo: mennesker. Spotify , Google Play , YouTube Kids , LinkedIn , HBO , og Apple Nyheter har alle begynt å fremheve menneskelig kurasjon som en markedsføringstaktikk.
Tidligere denne uken Facebook annonsert det ville være å gjeninnføre menneskelige redaktører for å kuratere News Tab, en dedikerte nyheter seksjon. Selskapet forfølger for tiden partnerskap som vil tillate det å promotere artikler fra publikasjoner som New York Times , Wall Street Journal , Washington Post , og Atlanteren . * I følge a Wall Street Journal rapportere, den samtalene er fortsatt pågående.
Facebook har vært uvanlig tydelig i å understreke nøyaktig hva menneskene vil gjøre og hva algoritmene vil gjøre. Topphistorier og siste nyheter vil bli valgt av menneskelige redaktører, mens størstedelen av innholdet vil bli servert algoritmisk, basert på dataene Facebook allerede har om deg.
News Tab er Facebooks sjanse til å starte sin tilnærming til nyheter på nytt. På mange måter kan det sees på som en soningshandling for selskapets strategi for oppmerksomhetsoptimalisering, så vel som dets nå nedlagte Trending Topics-produkt. Rapporter om News Tab-funksjonen kom akkurat da Facebook la ut resultatene av sin konservativ-bias revisjon , som spurte 133 konservative lovgivere og grupper om deres bekymringer over hvordan plattformen behandler høyreorientert innhold (og ga ikke noen bevis at slikt innhold er forfordelt på Facebook). I 2016, a Gizmodo rapportere påsto at Facebook ba de menneskelige redaktørene på Trending Topics-teamet presse ned konservative nyhetskilder. Facebook svarte den gangen med å si at de tar påstander om partiskhet på alvor og at dets redaksjonelle retningslinjer ikke tillot undertrykkelse av politiske perspektiver [eller] prioritering av ett synspunkt fremfor et annet.
Påstandene om skjevhet setter Facebook i en vanskelig posisjon. Gjennom årene har administrerende direktør Mark Zuckerberg utpekte algoritmer som et effektivt middel for å avskrekke hatytringer og falske nyheter. I skarpe møter med republikanske lovgivere har Zuckerberg tilsynelatende tatt avstand fra Trending Topics-fiaskoen og lagt vekt på menneskets rolle i dets algoritmiske moderasjonssystemer. Det underliggende budskapet er at menneskelig involvering kan risikere skjevheter eller subjektivitet, så kritiske prosjekter som å filtrere ut hatytringer må ha minst mindre menneskelig involvering.
Vi må stole på og bygge sofistikerte AI-verktøy som kan hjelpe oss med å flagge bestemt innhold, sa Zuckerberg på en kongresshøring i fjor . Stilt overfor et dusin eksempler fra komitémedlemmer der konservativt innhold ble fjernet feilaktig, lovet Zuckerberg at selskapet ville stole mer på AI for å gi svar. Han la merke til at ISIS-relatert innhold flagges av AI før menneskelige moderatorer i det hele tatt ser det, sa han, jeg tror vi må gjøre mer av det.
I årevis har Facebook selektivt lagt vekt på og nedtonet menneskers rolle i sine algoritmiske systemer til sin egen fordel. Nyheter-fanen understreker menneskers rolle som et middel til å unngå å vise populært, men ubekreftet innhold. Derimot, i å diskutere innholdsmoderering, Zuckerberg har lagt vekt på rolle AI, kanskje for å dempe kritikk om effekt dette arbeidet kan ha på menneskene som gjør det. Da ProPublica fant ut at Facebook tillot arbeidsgivere å kjøp målrettede annonser Jødehatere, det sosiale nettverket pekte fingeren på algoritmene de sa ikke var programmert til å filtrere hatytringer. ** Da Trending Topics dukket opp virale videoer av isbøtte-utfordringen, men ikke Black Lives Matter-demonstranter, rekrutterte Facebook mennesker for å bestemme nyhetsrelevans.
Men dikotomien mellom mennesker og algoritmer har alltid vært falsk. Mennesker trener algoritmiske systemer på menneskelige data. News Tab er et eksempel på denne prosessen: Facebook fortalte Tider det håper algoritmer til slutt vil fange opp hvordan mennesker engasjerer seg i nyhetene. Facebooks tilbakevending til menneskelig kurering har fortsatt en algoritmisk tilbøyelighet, bare ikke en den legger vekt på for pressen.
Populære emner er et annet eksempel. Ja, menneskelige redaktører valgte hvilke historier som fylte sidefeltet, men disse historiene ble valgt fra en pool av mye delte lenker på et tidspunkt da nyhetsfeeden ble spesielt utviklet for å prioritere viralt innhold. Algoritmene oppmuntret til å dele populære nyhetshistorier, og folk delte det som ble servert til dem, med de beste historiene som fikk trendbetegnelsen. Etter at Facebook sparket menneskene, tok algoritmene over frem til produktet dukket opp falske nyheter historier og menneskelige moderatorer, passende nok, ryddet opp etter det. Menneskene og algoritmene blir fremhevet eller feid bort etter hvert som skandalen gjør det nødvendig.
Å legge vekt på algoritmer fremfor menneskelige aktører kan være svært nyttig dekning. Mens hun kritiserte algoritmiske praksiser i boken hennes Hvis da , bygger teknologiforskeren Taina Bucher på sosialteoretikeren Linsey McGoeys forestilling om strategisk uvitenhet, når det er nyttig for makthavere å ikke vite noe. Å gjengi systemer som fullstendig menneskelige eller fullstendig algoritmiske, skriver Bucher, er et kunnskapsalibi, en avbøyning der teknologien bekvemt beskrives som uavhengig og kompleks, men menneskelige aktører som inerte og uvitende om konsekvenser. For å unngå full skyld, flytter selskaper kritikernes fokus fra hvor mye handlekraft en gitt algoritme har og til hvor lite menneskelige aktører har – eller hvor lite vi blir ført til å tro de har. Konservativ angst rundt skjevhet vil ikke bli løst ved å utdype denne feilslutningen mellom mennesker og algoritmer. Når folk er redde for at algoritmer er hemmelige partiske, er det de faktisk er på vakt mot menneskelig skjevhet i industriell skala.
* Denne artikkelen har tidligere feilskrevet vilkårene i avtalen Facebook forfølger med utgivere .
** En tidligere versjon av denne historien feilkarakteriserte språket i målrettingskategoriene.