Manden, der forudså fake news, har en advarsel. Næste krise er i gang – og den bliver værre

DEEPFAKESDet er ingen sag for en pc at lægge Trumps ansigt oven på Løkkes. Illustration: Kasper Løftgaard

Vores medlemmer foretrækker at lytte

Zetlands medlemmer kan høre alle vores artikler som lyd - oplæst af skribenterne selv. De fleste foretrækker at lytte i vores app, hvor man får den bedste oplevelse. Men du er velkommen til at lytte med her.

00:00

10:47

Derfor skal du læse denne artikel

Op til præsidentvalget i USA advarede Aviv Ovadya om, at de sociale medier er sårbare over for falske nyheder. Han fik ret: Løgnagtige artikler blev set af millioner af amerikanere. Nu advarer Ovadya om noget endnu værre: at enhver kan forfalske video og lyd med virkelige mennesker. Gulp.

Det, der er med internettet, er, at bedst som man tror, man har set det hele, så lægger en eller anden noget op, som verden aldrig har set før. Ofte på verdens største debatforum, Reddit.

Det var tilfældet i december sidste år, hvor brugeren, der kaldte sig deepfakes, uploadede pornovideoer med kendte kvinder i forummet /Celebfakes. Der var én med den 20-årige Game of Thrones-skuespillerinde Maisie Williams. Én med Gal Gadot – også kendt som Wonder Woman – der havde sex med sin stedbror”. Én med sangerinden Taylor Swift, én med skuespillerinden Scarlett Johansson og så videre.

Ved første blik så videoerne virkelige nok ud. Men ved nærsyn var noget helt, helt galt. Det var kvindernes rigtige ansigter. Men kroppene var ikke deres. Deepfakes havde klæbet kvindernes ansigt fast på en anden kvindes krop – her pornoskuespillerinders – og dermed skabt noget, ingen havde set før: ultrarealistisk falsk porno.

I januar uploadede så en anden Reddit-bruger en app – FakeApp havde han kaldt den.

Det var samme avancerede videomanipuleringsteknologi, som deepfake havde benyttet – bare meget mere brugervenlig: Fortæl, hvis ansigt der skal klæbes på hvis krop, og klik Kør’. FakeApp er siden blevet hentet 120.000 gange, og falsk porno kan i dag findes overalt på smudsede egne af internettet. Én er med Michelle Obama i en lavthængde bluse med synlig sort bh nedenunder.

Fake news lærte os, vi ikke skal tro på alt, vi læser på internettet. Nu skal vi vænne os til, at det samme gælder for det, vi ser og hører. Det mener amerikanske Aviv Ovadya, der er teknologidirektør i Center for Social Media Responsibility hos University of Michigan og i USA kendt som ham, der forudså fake news-krisen”.

Tidligere på året i et stort, meget omtalt interview til Buzzfeed News kom Ovadya med en ny forudsigelse: Med lyd- og videomanipulation står vi over for en ny informationsapokalypse (det kalder han det) med to mulige udfald. Den ene er, at ingen i fremtiden vil tro på det, de læser, ser eller hører, og den anden er, at alle tror på løgne. I en mail til mig uddyber han:

Før var videomanipulation noget, der krævede mange års træning og tusinder – måske endda millioner – af dollars at producere,” skriver Aviv Ovadya.

I dag kan alle internettets trolde reelt konkurrere om, hvem der bedst kan manipulere den offentlige samtale i fritiden – noget, de gør for the lulz’.” Altså for sjov.

Den hastige udvikling inden for såkaldt maskinlæring – det, der gør det muligt for computere at lære” at bytte ansigter, når man fodrer den med video af personerne – har betydet, at enhver i dag kan bytte et menneskes ansigt ud med en andens. Videoerne kaldes deepfakes – opkaldt efter deres skaber på Reddit. Lad mig illustrere, hvordan det ser ud.

Komikeren Melissa McCarthys ansigt er her byttet ud med Donald Trumps tidligere pressemand Sean Spicers, som hun parodierer i det originale klip. Det er foruroligende godt lavet.

Eller den her med Supermans kæreste, skuespillerinden Amy Adams, men som Nicolas Cage.

Videoerne er lavet for sjov og kan som sådan virke harmløse. Men det kræver ikke meget fantasi at forestille sig, at det en dag bliver trivielt at lave sjove videoer og falsk kendisporno. Tænk, hvis nogen i stedet vil betale for at få produceret falsk porno med ekskærestens ansigt. Eller hvis man vil hænge nogen ud. Donald Trump eksempelvis.

På internettet behøver man kun at fuppe nogle få, før det kan få alvorlig konsevenser. Det, der siden blev døbt pizzagate under det amerikanske præsidentvalg, viste, at en falsk historie om en pædofiliring i et pizzeria i Washington D.C. var nok til, at en ung mand stormede stedet med en riffel og åbnede ild.

Det er beroligende, at Reddit har lukket alle fora med falske kendispornovideoer – et forum havde 100.000 brugere. Twitter, Pornhub og andre har også forbudt videoerne. Mens det sløver udbredelsen, stopper det ingen i fortsat at eksperimentere med at forfalske virkeligheden og gøre det sværere at skelne mellem, hvad der er virkeligt og simuleret.

Gør det, vi læser, ser og hører, når vi er på sociale medier, os til klogere, mere oplyste borgere – det er spørgsmålet, Aviv Ovadya er optaget af.

Egentlig er han uddannet datalog fra det prestigefyldte Massachusetts Institute of Technology (MIT) og har arbejdet for techgiganter som Amazon og Google. Men, skriver han i mailen, op til præsidentvalget blev han dybt bekymret” for, at internettet havde katastrofale negative konsekvenser” for samfundet.

Han så, at et stigende antal mennesker læste nyheder på sociale medier. Det var altså afgørende, at de nyheder, var sande – og at man havde tillid til, at de var sande. Men Ovadya så det lige modsatte: Dybt politiske, misvisende eller direkte løgnagtige nyhedshistorier havde virkelig gode vilkår på de sensationsdrevne platforme – og ingen kunne stoppe løgnene i at blive set af millioner af mennesker. I ugerne op til valget præsenterede Ovadya sine bekymringer for techinteresserede i Silicon Valley. Oplægget hed Infocaplyse. Det handlede om en forestående fake news-krise.

Ovadyas forudsigelse holdt stik: Ifølge en analyse foretaget af BuzzFeed News var den mest populære historie på Facebook under valget én om, at pave Frans støttede Donald Trump. Det var fake news skrevet af en rumæner, men historien trak næsten en million interaktioner (likes, kommentarer, delinger og så videre). Den mest populære sande historie fik knap 850.000.

I et så manipulerbart nyhedsmiljø er teknologier som FakeApp en virkelig dyster nyhed. I teorien ville den samme rumænske mand i dag kunne vedhæfte en video med paven og Trump i venskabelig omgang – og dermed tilføre historien ekstra troværdighed.

Lyd er mere overbevisende end tekst. Video mere overbevisende end stillbilleder … I stedet for at læse om noget, der er løgn – vil du kunne se det ske.”

Ifølge Ovadya er der ikke grund til at tro, at vi vil behandle falske videoer og lydbidder anderledes end falske nyhedshistorier. Vi vil være lige så ukritiske.

Det er Reddit-brugeren derpfakes, der har lavet flere populære falske videoer med skuespilleren Nicolas Cage, enig i. (Derpfakes skal ikke forveksles med deepfakes, Reddit-brugeren bag kendispornoen. Det er to forskellige personer. Derpfakes har ikke lavet kendisporno, ifølge New York Times, der har samarbejdet med derpfakes).

Over Reddit skriver derpfakes, at mens han forstår det problematiske i, at man laver falsk porno, så håber han, de falske videoer vil bidrage til, at vi begynder at stille spørgsmål ved alt, hvad vi ser og hører” på internettet (og i vores dagligdags liv”) i stedet for at acceptere alt, vi finder på internettet, som fakta”.

Folk har intet andet valg end at tilpasse sig, eftersom teknologien er kommet for at blive,” skriver derpfakes.

Det er Aviv Ovadyas gæt, at hvis vi igen og igen oplever at blive fuppet af hyperrealistisk falske videoer eller lydbidder med, lad os sige, politikere, så risikerer vi at udvikle det, Aviv Ovadya kalder realitetsapati”: Vi giver op på virkeligheden og stopper med at følge med i nyheder.

Et sådant samfund vil ophøre med at fungere … Du kan ikke have et demokrati i det miljø.”

Det, der også er med internettet, er, at bedst som man tror, alt håb er ude, så finder nogen på forunderlig vis på noget – og Aviv Ovadya har nogle konkrete idéer til, hvad det noget kan være.

I Washington Post sidste uge skitserede han fire tiltag, der kan medvirke til at forhindre, at vi pludselig befinder os i en informationsapokalypse, som USA gjorde under præsidentvalget – med russiske trolde overalt på Facebook, forklædt som politisk interesserede landsmænd.

  • Monitorer sociale medier
    Facebook, Twitter og andre sociale medier skal være bedre til at forstå, hvad der florerer på deres platforme. Det dur ikke, skriver Ovadya, at han med en simpel analysesoftware kunne se fake news komme før de ansvarlige virksomheder.
  • Udviklere skal hjælpes
    Der findes i dag ingen, der kan rådgive udviklere, der arbejder med kunstig intelligens og maskinlæring, med etiske overvejelser. Rådgivere kan forhindre utilsigtede konsekvenser ved udviklernes arbejde.
  • Digital vandmærkning
    Vi skal have en måde at validere, om en video er manipuleret eller ej – en digital vandmærkning af en slags. På den måde vil man kunne se, hvor og hvornår videoen er filmet.
  • Sociale medier skal belønne autentisk indhold
    Så længe de sociale medier prioriterer misvisende, sensationslystent indhold, vil falske videoer trives på platformene. Det kan betyde, at medier er nødt til at gentænke, hvad der gør indeholdt populært”, hvis det ikke kan være interaktioner.

Tiltagene, skriver Ovadya, er toppen af isbjerget” – og det er et isbjerg, vi først lige har opdaget. Men, slutter han:

Dette er en kamp, vi er nødt til at kæmpe.”

Bidrag fra Zetlands medlemmer

Ved du, hvorfor Zetland findes?

Vi følger otte enkle principper, der hjælper med at skabe plads til fordybelse og omtanke i en verden, der mangler præcis dét.

– Lea Korsgaard, medstifter og chefredaktør

I dag læser vores medlemmer: