Artiklen her er ikke gratis, men du kan læse eller lytte, fordi Nene La Beet er medlem af Zetland og har delt den med dig.

signature

Radikaliserer YouTube? Jeg lavede et eksperiment, der efterlod mig måbende

FLIMMERYouTubes videoanbefalinger lokker én ud på fløjene af dansk politik. Illustration: Kasper Løftgaard

Derfor skal du læse denne artikel

Det er på YouTube, at danske børn og unge i stigende grad finder deres medieindhold – fra Gurli Gris til nyhedsrelateret indhold. Men videoplatformen, der har 1,5 milliarder brugere, bliver kritiseret for at radikalisere sine brugere ved at anbefale enten meget venstre- eller højreorienteret videoindhold. Gælder det også i Danmark? Jeg satte mig for at eksperimentere med YouTubes hemmelighedsfulde algoritme.

Under præsidentvalget i 2016 overværede den tyrkisk-amerikanske sociolog og professor Zeynep Tufekci flere af Donald Trumps valgfester. 66-årige Tufekci studerede sociale bevægelser, og da hun senere skulle beskrive valgfesterne, gik hun på YouTube og fandt optagelser derfra. Hurtigt bemærkede Tufekci noget besynderligt”, som hun senere skulle beskrive i avisen The New York Times.

YouTube begyndte at anbefale og autoplaye videoer til mig med hvide nationalister, holocaustbenægtere og andet foruroligende indhold.”

Klummen, som Tufekci, der er fast klummeskribent på avisen, skrev, hed YouTube, the Great Radicalizer og udkom tidligere på året. I den beskrev hun, hvordan YouTubes algoritme – den, der udvælger, hvilke videoer af alle YouTubes videoer du bør se – driver hende ud på fløjene af amerikansk politik. Det er, som om du aldrig er hardcore nok til YouTubes anbefalingsalgoritme,” skrev hun. Det gjaldt også ikke-politiske søgninger, skrev hun. Videoer om vegetarisme førte til veganisme, videoer om løb til maratonløb.

Opdagelsen var blandt de første virkelig kritiske eftersyn af YouTube, verdens største videoplatform. Med sine omkring en milliard brugere,” fortsatte Zeynep Tufekci, er YouTube måske et af det 21. århundredes mest magtfulde radikaliserende redskaber.”

Det er YouTubes algoritme, der udvælger, hvad videoplatformens 1,5 milliarder brugere bør se – videoer, som kan forme en persons verdensbillede. Tag sådan én som mig. Jeg er 27 år og ser meget YouTube. Det er på YouTube, og i mindre grad på traditionelt tv, at jeg bliver klogere på verden omkring mig – og jeg er ikke alene. Ifølge Reuters Institute bliver halvdelen af alt videoindhold fra medier i dag set på YouTube (eller Facebook) i stedet for på mediernes egne hjemmesider eller apps. 65 procent af de adspurgte (fra i alt 25 lande) havde set nyhedsrelateret videoindhold den seneste uge (46 procent i Danmark). En fjerdedel af dem på YouTube. Måske ikke overraskende er det især unge – 88 procent af de 18-34-årige – der får nyhedsindhold online.

Zoomer vi ind på Danmark, står der i DRs seneste rapport, at halvdelen af befolkningen er på YouTube mindst en gang om ugen. Det gør videoplatformen til den mest populære – over Netflix, HBO, Viaplay, DR TV og TV 2 Play. 37 procent taler en gang imellem eller ofte” med andre om YouTube. Måske om noget, vi har set.

Præcis hvordan YouTubes algoritme udvælger, hvilken video vi skal se som den næste (og næste igen), er hemmeligt. Derfor satte jeg mig for at teste, hvor jeg blev ført hen – om jeg ville havne lige så radikaliserede steder som Zeynep Tufekci – hvis jeg søgte på danske ord relateret til politiske emner og lod algoritmen tage over. Her er mit lille eksperiment, der efterlod mig måbende.

Jeg ville se, hvor algoritmen førte mig hen, når jeg slap den løs, og jeg var derfor nødt til at logge af min private YouTube-konto og oprette to nye konti. Ellers ville algoritmen være under indflydelse af, hvad jeg før har søgt og set på.

Den første konto skulle være til videoer om emner, der knytter sig til venstrefløjen (Tufekci fik efter kort tid anbefalet 11. september-konspirationsvideoer, selv om hun begyndte med at se videoer med Demokraternes præsidentkandidat Hillary Clinton). Den anden konto ville jeg bruge til emner, der knytter sig til højrefløjen. Da kontiene var oprettet, begyndte eksperimentet.

Jeg skulle begynde et sted og loggede ind på venstrefløjskontoen og søgte på Mette Frederiksen, Socialdemokratiets leder. Jeg trykkede på første video – Debat mellem Mette Frederiksen og Lars Løkke – en video fra Folketinget, hvor der er spørgetime med statsministeren. Videoen var fra Socialdemokratiets YouTube-kanal. Det syntes lovende.

Herefter anbefalede YouTube et tv-klip fra DR1s Vi ses hos Clement med Mette Frederiksen. Herefter fulgte endnu et klip fra samme show, men denne gang med Yahya Hassan. Det fik YouTubes algoritme til at gå i selvsving. Yahya Hassan flipper ud i TV 2 Nyhederne var næste anbefalede video. Blandt videoerne, som YouTube nu fremhævede ude i højre side, var en fra det højreradikale parti Stram Kurs’ kanal. Muslim: Respekt til ham som sagde at han ville stikke Rasmus Paludan (Stram Kurs’ leder, red.) ned hed én. Herfra gik det stærkt. Ikke længe efter sad jeg og så en dansk mand teste en sikkerhedsvest med et dannebrogsflag på, som en ven har iført sig. Først med et boldtræ, så et koben og til sidst en dolk.

Jeg ville tilbage på sporet. Jeg søgte på venstreorienteret’. Første video var med Socialdemokratiets Dan Jørgensen, der forsvarer EU som et venstreorienteret projekt. Næste video, YouTube foreslog, var fra det indvandrerkritiske og stærkt højreorienterede netmedie NewSpeeks YouTube-kanal. En lige højre til venstrefløjen hed den. Jeg prøvede at gå baglæns og søgte på socialisme’, men YouTube foreslog, at næste video var om Karl Marx, kommunismens helt store tænker. Jeg mærkede tydeligt, hvad Zeynep Tufekci også havde følt: Algoritmens usynlige hånd puffede mig mod yderfløjene.

Hvordan min YouTube-forside så ud på venstrefløjskontoen efter eksperimentet:

FORSIDE # 1Her er, hvordan min personlige YouTube-startside så ud efter at have søgt og set på venstrefløjsrelaterede emner. Forklaringen på, hvad debattøren Nikita Klæstrup og den amerikanske ditto Milo Yiannopoulos laver dér, kommer senere. Skærmbillede

Jeg loggede af. Og loggede ind på højrefløjskontoen. Søgninger på statsministeren, Venstres Lars Løkke Rasmussen, førte mig ned ad et royalt spor med klip fra hans tale ved kronprins Frederiks fødselsdag og fortsatte i et royalt spor. Søgninger på højreorienteret’ førte mig ned ad et satirisk spor med tv-klip fra DR2s satireprogram Tæt på sandheden. Den viste blandt andet en sketch med Pernille Vermund, Nye Borgerliges leder, der talte om, hvad god højreorienteret humor er. De næste videoer var flere klip med Vermund, men også Dansk Folkepartis Martin Henriksen og udlændinge- og integrationsminister Inger Støjberg.

Herefter tastede jeg ordet indvandring’. Den ikke-vestlige indvandring er en katastrofe for Danmark var første hit. Herefter foreslog den, jeg så Indvandring fra lavintelligenslande resulterer i fald af et lands gennemsnits I.Q – begge klip fra TV 2 News, som privatpersoner har uploadet (og selv givet titel). Algoritmen førte mig ned ad et spor, hvor jeg igen og igen endte ved samme video. Der er for mange muslimer i Danmark hed den. Det var et klip fra DR2s Debatten mellem DFs Martin Henriksen og en imam. Jeg bemærkede, at personen, der havde lagt videoen op, angiveligt en nationalkonservativ blogger, kun havde 80 følgere, og at videoen var set 72.000 gange. Langt hovedparten af de visninger, tænkte jeg, måtte være algoritmens fortjeneste.

Jeg prøvede også søgninger på politiske varme emner. Burkaforbuddet var et. Første video var fra denne måneds demonstration på Nørrebro og var lagt op af en privatperson. Næste videoforslag var fra et amerikansk nationalkonservativt medie kaldet One America News Network. Denmark’s Burqa Ban’ Goes Into Effect, Triggers Muslim Outrage hed den. Anbefalingen førte mig ned ad et ret ensidigt pro-burkaforbudsspor med videoer fra blandt andet russisk stats-tv og Fox News. Jeg loggede af.

Hvordan min YouTube-forside så ud på højrefløjskontoen efter eksperimentet:

FORSIDE # 2Her er, hvordan min personlige YouTube-startside så ud efter at have søgt og set på højrefløjsrelaterede emner. Videoer som ‘Trump Keeps Promise About Economy’ er fra en pro-Trump-propagandakanal, der ligner et journalistisk medie. Det er det ikke. DR Nyheder, som også er på YouTube, er en officiel kanal og har derfor et flueben ud for sit navn, som man kan se på videoen. Flueben betyder ikke, det er en god viden, men blot, at det er en officiel kanal. Skærmbillede

Fordi Google, der ejer YouTube, ikke vil oplyse, hvad algoritmen ser på, når den anbefaler en video over en anden, har privatpersoner rundtom i verden forsøgt at hacke’ YouTube. En fransk datalog har måske haft størst succes.

36-årige Guillaume Chaslot er en tidligere YouTube-ansat, som har talt kritisk om sin arbejdsplads, siden han blevet fyret i 2013. YouTube ligner virkeligheden, men det er en forvrænget udgave, som skal få dig til at bruge mere tid online,” sagde han til britiske The Guardian tidligere i år. Chaslot har forsøgt at bevise sin påstand. I 2016 byggede han et computerprogram, der automatisk trykkede på den næste video, algoritmen anbefalede, og analyserede så kæden af anbefalinger – lidt ligesom jeg har gjort, men maskinelt.

Programmet kørte tusindvis af søgninger, og Chaslot, der har en ph.d. i kunstig intelligens, mener, at slutresultatet har givet ham en idé om, hvad YouTube-algoritmen synes at foretrække. Det tyder på, har han fortalt til britiske The Guardian, at den systematisk udvælger videoer, der er splittende, sensationelle og konspiratoriske”. På YouTube,” sagde Chaslot, udkonkurrerer fiktion virkeligheden.” YouTubes forsvar var, at Chaslots resultater blot afspejlede seernes interesse”.

Jeg læste YouTubes forsvar sådan her: Algoritmen er neutral. Hvis dens anbefaling er tvivlsom, er det, fordi mennesket – ikke algoritmen – forføres af holocaustbenægtere og den slags. Det vil sige, at hvis tilstrækkeligt mange mennesker vælger at klikke på radikale videoer, så er det også de videoer, algoritmen ender med at anbefale. Radikaliseringen er selvforskyldt.

Tilbage på YouTube loggede jeg igen ind på venstrefløjskontoen og søgte på ikke-politiske emner. Søgninger på klimaforandringer’ gav ganske informative anbefalinger med videoer fra den grønne ngo Noah. Opmuntret søgte jeg på climate change’, og begejstringen steg. Record Heat; is global warming advancing? hed første video, hvor et panel anerkendte klimaforskere diskuterer dette års globale varmerekorder. Videoen var blevet set 5.000 gange. Næste video, YouTubes algoritme anbefalede mig, var GLOBAL WARMING IS THE BIGGEST FRAUD IN HISTORY – klimaforandringer er det største svindelnummer i historien (se skærmbilledet herunder). Antal visninger? Langt over 700.000. Næste videoanbefaling kom fra russisk stats-tv, der havde interviewet én, der afviste klimaforandringer som menneskeskabte.

NÆSTEHer kan man tydeligt se, at YouTubes algoritme har fundet en ny video, jeg kan se. Videoen er angivet som “Næste” i øverste højre hjørne. Nedenunder er videoer, som algoritmen også har fundet frem fra sit enorme arkiv. Skærmbillede

Derefter tastede jeg ordet feminisme’. Første video var med bloggeren og debattøren Nikita Klæstrup, der var blevet spurgt af Radio24syv, hvordan feminisme og letpåklædte billeder af kvinder på Instagram” hænger sammen. Næste anbefaling var en intelligenstest” af deltagere fra realityprogrammet Paradise Hotel. Det var ikke det, jeg ville. Jeg gik tilbage til udgangspunktet og så, at videoen under Klæstrup-interviewet – altså YouTubes andet bedste forslag, når man søger på feminisme’ – var Milo Yiannopoulos Hates Feminism. Det var et interview med Milo, en antifeminist og kontroversiel britisk debattør fra det yderste af højrefløjen. I klippet argumenterer han for, at kvinder skal stoppe med at prædike, at man er smuk, uanset hvordan man ser ud. Nogle mænd kan godt lide tykke piger, men det er ikke mange,” lød det.

UDVALGDa jeg søgte på ‘feminisme’ var dette YouTubes to bedste forslag. Skærmbillede

Så hvad foregår der? Er det, som Zeynep Tufekci formulerer det i klummen til The New York Times, YouTubes ingeniører, der forsøger at køre verden ud over en klippeafsats”? Næppe.

Forklaringen er nok snarere YouTubes forretningsmodel og algoritmens kunstige intelligens. Det hænger sammen sådan her: På YouTube er din opmærksomhed lig med penge i kassen. YouTube – ligesom Facebook – finansieres ved annoncesalg. Det betyder, at jo flere videoer du ser, jo flere annoncer ser du også – og jo flere penge tjener YouTube til Google, som ejer platformen.

Og hvordan fastholder man et menneskes opmærksomhed i længst tid (og dermed maksimerer indtjeningen)?

Algoritmen ser ud til at have gennemskuet, at vi kan lokkes til at klikke videre ved hele tiden at blive præsenteret for lidt mere ekstreme ting end dem, vi lagde ud med at søge på. Sociologen Tufekci mener, at algoritmen udnytter en dybtliggende lyst til at gå på opdagelse i et emne, hele tiden komme et spadestik dybere, og dermed ender vi med at sidde og se video efter video, fordi vi måske vil finde sandheden’. Måske forholder det sig sådan. Måske ikke. Google Danmark har ikke svaret på min henvendelse. Men en ting kan vi dog være sikre på: YouTube er virkelig god forretning for Google. Spørgsmålet er, om det er en lige så god idé for os, der ser med.

Nå, så kom det akavede øjeblik

Det er nu, vi bare siger det direkte: Bliv medlem, hvis du sætter pris på viden og nuancer.

Bliv medlem