Et af disse mennesker er skabt af en kunstig intelligens. Så kan du gætte hvem?

GÆTTELEGHende til højre er tidligere premierminister i New Zealand, Helen Clark. Hende til venstre er ja, ingen. Hun er skabt af en kunstig intelligens. Foto: thispersondoesnotexist.com

Vores medlemmer foretrækker at lytte

Zetlands medlemmer kan høre alle vores artikler som lyd - oplæst af skribenterne selv. De fleste foretrækker at lytte i vores app, hvor man får den bedste oplevelse. Men du er velkommen til at lytte med her.

00:00

17:36

Derfor skal du læse denne artikel

Drømmen om en dag at skabe menneskelignende robotter er nu halvt indfriet. Fremskridt inden for kunstig intelligens har gjort det muligt at skabe virkelighedstro billeder af præcis det menneske, du har lyst til – og de ligner så godt, at vi ikke kan skelne ægte mennesker fra kopierne. Allerede nu har teknologien snydt offentligheden online. Her er hvordan.

For knap et år siden skræmte en amerikansk it-udvikler ved navn Philip Wang internettet fra vid og sans. Besøgte man Wangs side thispersondoesnotexist.com, blev man mødt af et billede af et menneskeansigt. Genindlæste man siden, så man et nyt menneskeansigt. Børn, voksne, ældre. Uanset hvor mange gange man genindlæste siden, så man et nyt ansigt. Og billederne lignede ægte mennesker, det gjorde de virkelig – prøv selv, siden findes her.

Som du kan se, er det tæt på umuligt at begribe, at ansigterne ikke skulle tilhøre nogen. Men det gør de ikke. Ansigterne er 100 procent computerskabte, har Wang forsikret. Og nogle gange kløjes computeren i det og genererer ansigter, som ligner noget fra en gyserfilm, hvor der gror udefinerbare gevækster ud af et deformt ansigt. Det smarte ved billederne af menneskene er, de ikke taget af ægte mennesker, så de kan bruges til alt – hvad end ens behov end måtte være: fake over for familien, man har mødt en sød pige? Snyde sig til falske følgere på Instagram? Udstyre en troldehær på Facebook med profilbilleder, der ikke kan spores tilbage?

Før thispersondoesnotexist.com fandtes, krævede den bagvedliggende kraftfulde teknologi en kunstig intelligens, at man havde adgang til en masse computerkræfter og var virkelig tech-savvy. Med Wangs side blev teknologien tilgængelig for alle, og hvad denne demokratisering ville have af konsekvenser for vores evne til at skelne realitet fra fiktion online, advarede tech-mediet The Verge mod dengang: ThisPersonDoesNotExist.com er den blide introduktion til denne nye teknologi. Den ikke så blide opvågning kommer senere.” Og The Verge fik ret.

LIVAGTIGIngen af disse ansigter er ægte mennesker. Zetlands art director Mikkel Bøgild har skabt dem på Thispersondoesnotexist.com. Ét trick til at genkende de computerskabte ansigter er, at deres iris altid er placeret i midten. Mikkel Bøgild Jacobsen / Thispersondoesnotexist.com

I sommer afslørede nyhedsbureauet Associated Press, at en kvinde ved navn Katie Jones, som var forbundet med Washington D.C.s politiske elite på LinkedIn, var spion gemt bag en falsk profil. Og hendes profilbillede – et kønt ungt ansigt med langt, rødt hår – var genereret af en kunstig intelligens. En amerikansk efterretningschef kommenterede, at særligt kinesiske spioner i dag opererer på sociale medier med falske identiteter. I stedet for at sende spioner til nogle parkeringshuse i USA for at rekruttere et target, er det mere effektivt at sidde bag en computer i Shanghai og sende venneanmodninger til 30.000 targets,” lød det.

Næste opvågning kom lige før jul. Her fjernede Facebook et ualmindeligt stort netværk af 900 falske profiler, sider og grupper, som blev fulgt af 55 millioner brugere. De falske profiler administrerede siderne og grupperne, som delte artikler af dubiøs journalistisk kvalitet om Donald Trumps genialiteter samt memes om amerikansk politik. Ifølge Facebook havde flere falske profiler profilbilleder, der var genereret af en kunstig intelligens, der maskerede dem som amerikanere.” Bag kontiene sad i virkeligheden personer i USA og Vietnam, som var tilknyttet et vietnamesisk mediehus. Mediehuset brugte netværket på Facebook til at lokke uvidende læsere ind på dets nyhedssider. Ifølge analyseinstituttet Graphika og tænketanken Atlantic Council, som fik overleveret data om netværket fra Facebook, før det blev luget væk, var netværket verdens første implementering af fake faces på stor skala. Dét var den ikke så blide opvågning, The Verge talte om.

Når man gennem teknik eller kemi efterligner noget, der forekommer i naturen, kalder vi det syntetisk. Mennesker, altså homo sapiens, forekommer i naturen, ligesom bomuld, morfin, olie og gummi, som vi fremstiller syntetisk – og nu kan vi altså skabe syntetiske mennesker, i hvert fald på sociale medier. Det fik mig for nylig til at tweete, at vi lever i et afsnit af den cyberdystopiske Netflix-serie Black Mirror. Som én kommenterede på tweetet: I en tid, hvor vi i forvejen kan være i tvivl om, hvad der er rigtigt og forkert, er det et vanvittigt våben.”

Måske tweetede jeg i affekt, måske overdramatiserer jeg, men for én, der i årevis har rapporteret fra internettet (og, føler jeg, set alt), er der noget ved kunstige menneskeansigter, som får det til at løbe koldt ned ad ryggen. Jeg har set samme teknologi generere billeder af katte, nye skrifttyper, smukke graffitimalerier. Men menneskeansigter? Ad.

Endnu vildere er det, at teknologien ikke stopper ved fake faces. I dag kan kunstig intelligens generere videoer, hvor den lægger ét menneskes ansigt over en andens. Det er et nøk op ad cyberdystopi-skalaen, fordi de fleste videoer, såkaldte deepfakes, bytter om på ægte menneskers ansigter. Eksempelvis skuespilleren Tom Cruises ansigt, som her lægges over komikeren Bill Haders, når Hader parodierer Cruise i et David Letterman-interview.

Meget aktuelt bandlyste Facebook sidste uge videoer, som er manipuleret på måder, hvor det ikke er synligt for en gennemsnitlig person og sandsynligvis vil vildlede nogen”. Det gør Facebook for at bolstre sin platform mod spredning af misinformation ved USAs primærvalg til foråret. Frygten er deepfakes med en præsidentkandidat, der gør noget vanvittigt – som at slå en ørn ihjel, eksempelvis – og før nogen opdager, videoen er en deepfake, styrtdykker politikerens ratings.

En light-udgave af det scenarie har vi allerede set. Sidste år blev en manipuleret video af Demokraternes Nancy Pelosi, som er formand for Repræsentanternes Hus, spredt af Trump-glade amerikanere på sociale medier. Videoen var ikke engang en deepfake, men blot redigeret, så Pelosis tale var sløvet ned, så det lød, som om hun havde fået en tår over tørsten. Selv om videoen ret tydeligt var manipuleret, blev bare én version af videoen set over to millioner gange på Facebook, delt 45.000 gange og fik over 23.000 kommentarer, hvor brugere kaldt Pelosi fuld” og et rablende rod”. Trods stor kritik fra Pelosis partifæller, valgte Facebook dengang ikke at fjerne videoen. Man ville ikke forbyde deling af informationer, som ikke er sande”, lød det.

Måske derfor har Demokraterne taget imod Facebooks deepfake-bandlysning med behersket optimisme forud for primærvalget til foråret, hvor Donald Trumps udfordrer skal vælges. Som med ethvert nyt tiltag bliver det afgørende at følge, hvordan det implementeres, og især om Facebook effektivt kan opdage deepfakes på den skala og med den hastighed, som det vil kræves for at forhindre dem i at gå viralt,” sagde Adam Schiff, en demokrat, i sidste uge. Partiets kølige modtagelse skal også ses i kontekst af, at Demokraterne er traumatiseret af præsidentvalget 2016. Her spredte makedonske teenagere og russere hypervirale løgnagtige historier om partiets præsidentkandidat Hillary Clinton på Facebook.

Når det er lettere end nogensinde at skabe virkelighedstro manipulerede videoer og billeder af mennesker, er det ikke nok at være kritisk over for det, vi læser online. Vi skal også være kritiske over for det, vi ser. Og forespørgslen på syntetiske, computerskabte mennesker er så stor, at en række start-ups i dag udvikler forretningsmodeller omkring kunstigt genererede modeller. Men før vi dykker ned i, hvad disse mennesker’ bruges til, er det fedt først at forstå, hvordan teknologien, der efterligner vores anatomi så overbevisende, faktisk fungerer. Det er nemlig ret fascinerende.

Modsat et traditionelt computerprogram, hvor man skal programmere alt, programmet skal kunne gøre, kan man med maskinlæring, en avanceret form for kunstig intelligens, lære et computerprogram at gøre ting af sig selv. For det gør, at et program med maskinlæring kan sættes til at analysere gigantiske kataloger af billeder af eksempelvis menneskeansigter. Og når den så har lært, hvordan et ansigt ser ud, kan den generere nye versioner af menneskeansigter.

Og årsagen til, vi har så svært ved at se forskel på ægte og computerskabte menneskeansigter, er denne: Før programmet får lov at spytte et nyt menneskeansigt ud, skal den passere en svær test. Det er lidt som at gå til eksamen. Programmet skal vise sin version af et menneskeansigt til et program, der kaldes dommeren. Dommeren ved kun, hvordan ægte mennesker ser ud, og dommeren skal gætte, hvilket af de to ansigter er ægte. Gætter den rigtigt, skal programmet prøve igen – og igen og igen og igen, indtil dets menneskeansigt snyder dommeren, som gætter forkert. Når den ikke længere kan se forskel, har programmet bestået testen, og det nye ansigt får lov at passere. Testen gør, at programmet hele tiden lærer, hvad det skal gøre for at snyde dommeren. Programmet lærer altså af sig selv at skabe livagtige ansigter, og perspektiverne i det skræmmer eksperter.

Eksempelvis Elana Zeide, der forsker i kunstig intelligens på University of California. Hun sagde til The Washington Post sidste uge, at de kunstigt genererede menneskeansigter udstiller, hvor lidt kontrol og viden internetbrugere har over den virkelighed, de ser online … Der er ingen objektiv virkelighed at sammenligne disse billeder med. Vi er vant til fysiske verdener med et sanseligt input. Men her har vi ingen instinktive eller tillærte måder at finde ud af, hvad der er virkeligt, og hvad der ikke er.”

Derfor udvikles der programmer til at spotte computergenererede menneskeansigter for os. Blandt andet har forskere fra Peking University med programmet face X-ray bevist, det er muligt at træne et computerprogram til at skelne ægte menneskeansigter fra syntetiske. Amerikanske forskere har også skabt whichfaceisreal.com, hvor man skal gætte, hvilket ansigt der er ægte, for at indsamle data om, hvor gode vi er til at skelne (det er svært!). Den viden sammen med teknologi som face X-ray er nødvendig, hvis sociale medier effektivt skal bekæmpe netværk som det vietnamesiske, hvor falske Facebook-profiler i hundredvis og tusindvis koordineret deler, liker og kommenterer indhold for kunstigt at fremme en politisk dagsorden.

MODELLER Amerikanske Rosebud AI har et stort fotokatalog kun med syntetiske modeller. Skærmbillede / Rosebud AI

I den industri, der sælger kunstigt genererede mennesker, er teknologien så god, at man er ved at gøre smukke mennesker overflødige. På rosebud.ai kan man søge blandt 25.000 billeder af mandlige og kvindelige modeller, alle skabt af en kunstig intelligens, som en start-up i San Francisco har udviklet. Fordi modellerne er kunstige, kan man give dem præcis de karakteristika, man ønsker – og 2.000 virksomheder står allerede på venteliste til at få adgang til kataloget, ifølge The Washington Post. Det er ikke kun ansigter, man kan vælge mellem hos Rosebud AI, men hele kroppe, som poserer i modetøj, og du vælger selv modellens etnicitet.

Ud over modeller bliver også modefotografer i stort omfang overflødige med et fotokatalog som Rosebuds – for hvorfor bøvle med rigtige mennesker, når du kan skabe dine egne, allerede fotograferede modeller online?

I samme boldgade ser vi også såkaldte robot-influencere. På Instagram følger 1,8 millioner brugere Lil Miquela, en 19-årig brasiliansk-amerikansk kvinde med brunt pandehår. På sine billeder poserer Lil Miquela i designertøj, hænger ud med venner (ægte og andre robot-influencere), deler progressive politiske budskaber og laver betalte partnerskaber med store modehuse. Lil Miquela er en animation skabt af en influencer-start-up i Los Angeles. Her ses start-uppens tre største influencer-robotter ude til en frokost. Lil Miquela sidder i midten. Blawko hedder manden’, og den lyshårede kvinde’ er Bermuda.

Generated.photos er et andet start-up-firma, der som Rosebud AI tilbyder kunstigt genererede mennesker, dog kun ansigter. Unikke, bekymringsfrie modelbilleder,” står der på generated.photos’ forside. Her kan man ud over etnicitet – hvid, latino, asiat og sort – også vælge, om ansigtet skal være af en baby, et barn, en ung, voksen eller ældre person. Derudover kan man vælge øjenfarve, hårfarve og -længde samt ansigtsudtryk – “glad”, neutral” og overrasket”. Icons8, som den argentinske start-up bag generated.photos hedder, skriver på sin side, at de syntetiske ansigter kan bruges i en virksomheds marketing eller til at øge mangfoldighed” og mindske skævhed”, da en virksomhed med Icons8’s ansigter kan inkludere mange forskellige etniske baggrunde i dine projekter”.

I stedet for at fremme reel mangfoldig på en arbejdsplads og vise det udadtil i en brochure eller en hjemmeside, kan man fake sig til det. Ifølge The Washington Post solgte Icons8 i sin første uge menneskeansigter til et unavngivet amerikansk universitet, et HR-firma og en dating-app.

MODELLER Sådan ser det ud på Icon8’s platform, hvor kunderne selv kan sammensætte deres drømmeansigt. Skærmbillede / generated.photos

I 2018 interviewede jeg den amerikanske forsker Aviv Ovadya, der er blevet kaldt ham, der forudså fake news-krisen”. Op til præsidentvalget i 2016 præsenterede han sine bekymringer om en forestående fake news-krise på sociale medier for tech-interessede i Silicon Valley, som huser Facebook, Twitter og Google. Infocalypse hed oplægget. Aviv Ovadya fik ret: Da valget var ovre, og Trump havde sejret, viste en analyse, at den mest populære historie på Facebook havde været en om, at pave Frans støttede Donald Trump. Det var pure opspind. Da jeg to år senere interviewede Aviv Ovadya, kom han med en ny forudsigelse: Den næste fake news-krise vil komme i form af manipulerede billeder, lyd og video. Lyd er mere overbevisende end tekst. Video mere overbevisende end stillbilleder … I stedet for at læse om noget, der er løgn – vil du kunne se det ske,” skrev han til mig i en mail.

Facebooks forbud mod deepfakes og de konstante fremskridt inden for teknologier, der kan afsløre manipuleret indhold, kan skærme vores offentlighed mod det skrækscenarie, som Ovadya dengang beskrev for mig sådan her: hvis vi igen og igen oplever at blive bedraget online, kan det ifølge Ovadya, der er teknologidirektør i Center for Social Media Responsibility hos University of Michigan, føre til det, han kalder realitetsapati”. Her opgiver man at følge med i verdens gang, i hvert fald som den folder sig ud i ens Facebook-newsfeed. For hvad nytter det, når man ikke engang kan stole på sine egne øjne?

Et sådant samfund vil ophøre med at fungere,” advarede han i mailen. Du kan ikke have et demokrati i det miljø.” De ord er alligevel bemærkelsesværdige, nu hvor vi har set den første implementering af fake faces på stor skala”, hvor tusindvis af mennesker var medlemmer af Facebook-grupper og fulgte nyhedssider, der var drevet af falske profiler med syntetiske ansigter.

Bidrag fra Zetlands medlemmer

Ved du, hvorfor Zetland findes?

Vi følger otte enkle principper, der hjælper med at skabe plads til fordybelse og omtanke i en verden, der mangler præcis dét.

– Lea Korsgaard, medstifter og chefredaktør

I dag læser vores medlemmer: