Send en tanke til Zetlands medlemmer

De har betalt for, at vi kunne lave denne artikel. Uafhængig journalistik er ikke gratis.

Dette billede er skabt af en kunstig intelligens. Og vores billedverden bliver aldrig den sammme igen

De digitale tjenester er både sjove at lege med og så overbevisende, at vi er nødt til at tage dem alvorligt

Illustration: MidJourney/Torben Sangild

Hvor er det dog et smukt billede. Det berører mig,” skriver Lucy i en kommentar på Facebook til et billede, jeg har slået op. Hun fik simpelthen tårer i øjnene, da hun så det. Det er svært at beskrive billedet, men der er et vældigt rum med en kæmpe flosset portal, hvorudfra en silhuet går mod en lysende figur. Figuren peger op i skyerne, hvor en række åndelige væsener synes at holde til. Det er lettere at vise det end at beskrive det, så du kan se det lidt længere nede i denne artikel.

Jeg synes også, billedet er smukt. Det rummer en eksistentiel storhed, som måske er lige lovlig religiøs til mit temperament, men som alligevel griber mig, måske fordi det er et udtryk for en længsel, jeg genkender uden at kunne sætte ord på den. Og alligevel er der ingen, der har udtænkt og komponeret billedet. Det er genereret af en computer-algoritme, nærmere bestemt tjenesten MidJourney, ud fra følgende simple ordlyd: God creates light”, Gud skaber lyset. Og det er mig, der har indtastet ordene i MidJourney, så jeg er selv ude om det religiøse.

Denne sommer har MidJourney og en tilsvarende tjeneste, Dall-E 2, taget verden med storm. Begge tjenester omdanner ord til billeder med brug af machine learning, det, der i folkemunde bare kaldes kunstig intelligens. Det er ikke i sig selv nyt; det nye er, at man selv kan få lov at lege med, og så ikke mindst, at billederne er så overbevisende, at man ofte ikke kan se forskel på de computergenererede og så dem, mennesker tegner, maler og fotograferer. Men vigtigst af alt: De er flotte, de er overbevisende, og de kan være decideret gribende. Men de kan selvfølgelig også være sjove, grimme og virkelig mærkelige.

Jeg har leget med de to tjenester i nogle uger nu, og det er dybt fascinerende, at uanset hvad man putter ind i dem af ord, så kommer der vilde billeder ud i den anden ende efter et minuts ventetid. Man kan selv vælge stilarter, farver og formater. Man kan være lige så detaljeret i sin beskrivelse, som man har lyst til.

Og det her er kun begyndelsen. De vil blive endnu bedre i de kommende år, og jeg tror ikke, jeg siger for meget, hvis jeg påstår, at de fra nu af vil sætte et varigt aftryk på vores verden. Jeg vil endda bruge et ord, som var på mode for få år siden, og som jeg vist ikke har brugt uden ironi før: disruption. Dette er en disruption af både billedskabelse og billedoplevelse i den forstand, at noget nyt kommer ind og ændrer alt. De vil ændre, hvilke billeder vi ser, og endda ændre selve vores forhold til billeder som sådan.

Jeg mærker på mine omgivelser en tydelig nervøsitet, når jeg fortæller om det. Så det store spørgsmål er: Er dette enden på alt, der var godt og fint ved billeder, eller er det en kreativ eksplosion af muligheder og en demokratisering af, hvem der kan lave hvad? Jeg har ikke alle svarene, og vi vil måske miste noget, men vi vil også vinde noget. I feltet mellem det, vi vinder, og det, vi mister, ligger omridset af et svar på, hvilken slags fremtid der venter os.

GUD SKABER LYS Jeg skrev blot “God creates light”, og det fik MidJourney til at skabe dette billede. Illustration: MidJourney/Torben Sangild

Dette fænomen er så nyt, at det mig bekendt ikke har fået et navn endnu. Men mit gæt er, at nogen snart opfinder ét. Machine learning-delen handler om, at de regler’, den benytter for at omdanne sprog til billeder, ikke er programmeret, men er algoritmer, som systemet selv danner ud fra mønstergenkendelse i sammenhænge ud fra kæmpestore datasæt. Den lærer’ sig selv sammenhænge mellem tekst og billeder.

Lad mig beskrive det mere konkret: Systemet fodres med mange millioner billeder med tilhørende billedtekst, høstet fra det store internet. Teksterne kan være beskrivelser, billedtekster, titler på værker og så videre. Det, en machine learning-tjeneste er god til, er at finde mønstre i alt det her. Hvis den har set’ 100.000 billeder af heste, begynder den at få en idé om, hvad fællestrækkene er for ordet hest’. Det betyder ikke, at den ved, hvad en hest er, for den har hverken bevidsthed eller kendskab til virkeligheden, men den finder alligevel nogle mønstre og variationsmuligheder i, hvilke billeder der hører til ordet hest’. Nu skal du forestille dig, at det er langt mere komplekst end som så, for den skal også finde mønstre i ord som tvivl’ og side’ og 70’er-agtigt’ og før’ og alle andre tænkelige ord og udtryk. Og kunne forholde sig til helt nye kombinationer af dem. Og kende stilarter, farver, stemninger og følelser. Og ikke mindst generere noget, vi gider se på, noget, vi finder overbevisende, måske endda gribende.

Uden at gå ned i det tekniske kan jeg fortælle, at Dall-E 2 opererer med 12 milliarder parametre. Det er langt flere, end et menneske bevidst er i stand til. Vi tænker normalt i parametre som farve, form, detaljegrad, størrelse … Vi kommer i bekneb for at formulere flere end 20 parametre at skabe et billede ud fra. Så 12 milliarder betyder, at intet menneske nogensinde vil kunne forstå, hvad det er, Dall-E 2 har fundet af mønstre – bortset fra de få indlysende komponenter. Det er derfor, man bruger begrebet kunstig intelligens’ (eller AI, som det forkortes). Den foretager sig ting, vi ikke længere forstår, selv om det selvfølgelig er mennesker, der har skabt dens funktionsmåde og gjort dens operationer mulige.

De to tjenester hedder som sagt Dall-E 2 og MidJourney. Dall-E 2 hedder Dall-E som en sammentrækning af kunstneren Salvador Dalí og Pixar-film-robotten Wall-E. Den hedder 2’, fordi den har en længere historie med en tidligere version, der ikke var lige så overbevisende som toeren. MidJourney er den nye pige i klassen, og jeg siger bevidst pige’, fordi den har det med at vise kvindefigurer, når kønnet ikke er specificeret. De er begge foreløbige versioner, og de fungerer begge ved at spytte fire billeder ud, når man skriver en tekst. Men der er også nogle afgørende forskelle.

MidJourney er god til at lave grafisk lækre ting. Den sætter skønhed og stemning over objekter og nøjagtighed. Dall-E 2 er god til præcision og objekter, firkantet sagt. Når man ikke specificerer stilen, genererer Dall-E 2 fotorealisme, mens MidJourney snarere genererer en plakat-agtig stil med en bestemt palet. Sætter man Dall-E til at lave God creates light”, er dens bedste bud noget mere nøgternt end MidJourneys, nemlig et sort-hvid fotografi’ af solen, der bryder gennem skyerne.

Det er lidt besværligt at få lov til at benytte Dall-E 2, hvor man stadig kommer på en venteliste, hvorefter man betaler efter antal billeder, man genererer. MidJourney har for nylig åbnet for alle, hvilket betyder, at de nærmer sig en million brugere. Man kan prøve den gratis et stykke tid, derefter skal man tegne abonnement.

Så hvad skal vi bruge det til?

For at svare på det må vi kigge på styrker og begrænsninger ved disse tjenester, som vi måske kunne kalde billedgeneratorer eller AI-grafikere, mens vi venter på en smartere betegnelse. Der er ingen tvivl om, at en stor styrke ved dem er, at de kan komme med ofte overraskende resultater, som ikke lige var det, man forestillede sig, men som man af samme grund heller ikke selv ville have fundet på.

Blandt de mange ting, jeg har genereret – især sammen med MidJourney, som jeg ofte synes er den mest tilfredsstillende af de to – er: myrer, der tager selfies, mens de bygger pyramiderne; Elvis Presley, der optræder til Smukfest i tordenvejr; Jesu genkomst; Lucky Luke på natklub i Berlin i 1920’erne; en mand, der svømmer i havregrød; at opleve verden med hukommelsestab; en moderne by, som middelaldermaleren Hieronymus Bosch ville male den. Og meget andet. Nogle af opgaverne har jeg selv fundet på, andre kommer fra andre. Det har været sjovt, indimellem dybt tilfredsstillende, andre gange skuffende.

1 / 8

BILLEDSERIE (swipe for flere)At opleve verden med hukommelsestab i MidJourneys versionIllustration: MidJourney/Torben Sangild

Fordi de ikke kender virkeligheden, men kun andre billeder, går der tit ged i opbygningen. Hoveder, der sidder lidt skævt på kroppen, forvredne ansigter, bygninger, der ser ud, som om de er ved at smelte, kviste, der flyver rundt i himlen. Det er efter alt at dømme begyndervanskeligheder, og der er allerede gjort store fremskridt fra de tidlige versioner. Desuden kan man altid lave nye varianter af sit motiv. Og man kan præcisere, hvordan noget skal se ud. Ordet symmetrisk’ kan for eksempel gøre underværker.

De er enormt gode til at variere. Og det er det, de gør. De laver variationer på milliarder forskellige parametre. Og derfor er de også virkelig gode til at overraske. De finder på vanvittige ting, der strider mod alle menneskelige idéer. Men den her uendelige variation er også deres begrænsning. De er ikke gode til konsistens. Man kan ikke få den samme person i to forskellige situationer, for personen vil se ud på en ny måde hver gang. Eller bygningen. Eller landskabet. Det er sikkert også noget, der vil kunne løses i en kommende version, men det virker indtil videre som en konsekvens af selve måden, de virker på.

Man støder indimellem ind i absurde problemer, som når et ord eller en vending bliver misforstået, eller når den interne censur melder sig – en censur, der er forskellig mellem de to platforme. Her er et par eksempler:

Med en vis ret er firmaerne bag disse tjenester bekymrede for, at det kan misbruges til at skabe falske billeder af kendte nulevende mennesker. Da min redaktør foreslog Mette Frederiksen på sejrsskamlen som vinder af Tour de France”, fik jeg at vide af Dall-E 2, at den ikke godkendte chikanerende motiver. MidJourney ville gerne være med på den satiriske leg, men var til gengæld ikke i stand til at få kvinden på sejrsskamlen til faktisk at ligne vores statsminister. Rygtet siger, at de med vilje har sørget for, at kendte mennesker ikke bliver alt for vellignende.

Da en Facebook-ven bad mig generere selve Jesu fødsel – altså ikke hvor han ligger i krybben, men der hvor han kommer ud af Marias skød – ignorerede MidJourney igen og igen mine efterhånden detaljerede beskrivelser og viste bare en gravid Maria med glorie. Det andet var åbenbart for grænseoverskridende.

Dall-E accepterer ikke ordet dead’, heller ikke metaforisk som i the dead of night”. Det gør MidJourney, men her er ordet breed’ (formere sig) til gengæld for frækt, også selv om det gælder planter. Og da jeg brugte ordet wound’ i betydningen viklet’, opfattede MidJourney det som betydningen sår’, og det er forbudt, fordi det har med sygdom og måske vold at gøre.

De sidste eksempler stammer fra, da jeg tog den litterære vej og visualiserede begyndelsen af T.S. Eliots berømte langdigt The Waste Land, Beatles-sangene Blackbird og Lucy in the Sky with Diamonds og en drøm i Andrei Kurkovs roman Grå bier, hvor en ortodoks præst har gasmaske på, mens han stiger ind i en elevator på vej ned i en kulmine. Netop det at kunne sætte billeder på poetiske og drømmeagtige beskrivelser er en af de helt store styrker ved AI-grafikerne.

1 / 7

POESI OMDANNET TIL BILLEDER (Swipe)Ortodoks præst med gasmaskeIllustration: MidJourney/Torben Sangild

Da jeg ikke er god til at tegne, er det en kæmpe wow-oplevelse, det her, på trods af begrænsningerne. Det er intet mindre end fantastisk, hvordan ord kan blive til detaljerede billeder på den måde.

Og det er så også her, en del af bekymringen ligger. For hvad sker der, hvis alle kan lave lækre grafiske billeder? Bliver grafikere og kunstnere så ikke overflødige? Og hvad med det at gøre en indsats i stedet for bare at trykke på en knap? Hvad med den dannelse, der ligger i at lære at se og tegne det, man ser? Ender vi ikke med at blive immune over for stærke billeders påvirkning? Lad os forlade den legende begejstring for en stund og gå ned i nogle af de store diskussioner, AI-grafikerne rejser.

Når AI-grafikerne så let som ingenting kan skabe illusioner af rum, stemninger og vellignende figurer i alle tænkelige stilarter, kan man godt forledes til at tro, at de så vil sætte sig på billedproduktionen, så det, vi ser i reklamer, magasiner og endda på kunstudstillinger, fremover vil være genereret af dem. Og at alt, hvad der er godt og fint ved den menneskelige langsomhed, originalitet og vision, dermed også bliver henvist til et lille hjørne af vores billedverden, der bliver dyrket af få retrotyper, lidt ligesom vinylplader og stofbleer.

Og der er ingen tvivl om, at intet bliver det samme. Men der er samtidig nogle grunde til, at det ikke bliver sådan, at vi kun omgiver os med disse genererede billeder. Man kan på nogle punkter sammenligne det med fremkomsten af fotografiet i 1800-tallet. En ny, rent mekanisk billedgenerator, der kunne vise virkeligheden mere nøjagtigt og langt hurtigere end en tegning eller et fotografi. Og med snapshotkameraets opfindelse omkring år 1900 kunne alle og enhver gå og skabe billeder med et enkelt tryk på en knap. Hvad skulle der nu blive af tegnekunst og malerkunst? Ville vi miste evnen til for alvor at se? Ville vi blive oversvømmet af overfladiske maskinbilleder uden menneskelig dybde? De færreste tænker sådan om fotografiet i dag. Det har fundet indpas som en vigtig billedform, hvor vi også anerkender fotografers og fotokunstneres evne til at skabe særlige billeder med det mekaniske kamera.

Jeg vil argumentere for, at det er lidt det samme med AI-grafikken, selv om der naturligvis også er forskelle, ikke mindst forholdet til virkeligheden, hvor kameraet i udgangspunktet er objektivt registrerende, mens AI-billederne er fabulerende, uden relation til virkeligheden. Men der er altså også nogle ligheder i forhold til bekymringen for, hvad dette vil betyde for vores forhold til billeder. Så lad mig lige nuancere skrækscenariet:

For det første er der de her begrænsninger i, hvad de kan, og hvad man må sætte dem til. De kan for eksempel ikke lave billeder af sex, vold og sygdom (men gerne af depressioner, uhygge og sataniske væsener). Så den slags billeder må vi skabe på andre måder. I hvert fald indtil videre. Ligesom portrætter af konkrete mennesker heller ikke er noget, de brillerer i. Så der er masser af opgaver, der bedre varetages af andre.

Ligesom med fotografiet vil tegnere, malere og fotografer nok blive presset, men samtidig vil det stå klart, hvilke ting de er bedre til. Såsom præcision, konsistens og personlig stil. Jeg tror for eksempel ikke, at en AI-grafiker bliver bedre til at lave en satiretegning af en kendt politiker, for det kræver nogle helt særlige idéer om den person og en særlig måde at se den person på. En indsigt, simpelthen. Ikke kun i personens udseende, men også i vedkommendes politiske rolle, personlige stil og image.

For det andet vil det i høj grad være et samarbejde: Ligesom med fotografiet vil de nye tjenester kunne fungere som inspiration og oplæg til illustratorer, kunstnere og designere. Illustratorer vil kunne generere løs, indtil der kommer et resultat, de kan arbejde videre med. Og så bearbejde billedet frem mod et endeligt resultat. Kunstnere vil finde mærkelige måder at hacke’ algoritmerne på, som de kan bruge i deres projekter. Designere kan få overraskende idéer til, hvordan en stol eller et diagram kan se ud. Og alle tre ting sker faktisk allerede:

Det bærende billede til denne artikel er genereret af mig i MidJourney med teksten Imagination of an AI: How it sees the world”. Jeg lavede for sjov varianter, indtil dette motiv dukkede op, og det syntes vores art director Mikkel Bøgild var bedre end det bevidste forsøg på at lave en illustration til denne artikel. Vi havde nemlig forsøgt sammen at skabe et billede af en kunstig intelligens, der maler på et lærred. Men det kunne MidJourney ikke forstå, mens det hos Dall-E 2 blev lidt banalt.

På samme måde er der allerede AI-genererede forsideillustrationer på magasinet Cosmopolitan og ugeavisen The Economist. Der er en del kunstnere, der allerede leger med Dall-E 2 og MidJourney, og flere vil utvivlsomt følge efter. Mulighederne er mange, men fælles for dem er, at AI-grafikken kan give de professionelle kreative impulser og variationer snarere end færdige resultater.

For det tredje ligger der også både en kreativitet og et håndværk i at være god til at arbejde med dette nye medie. Det er tydeligt, at der allerede er nogle, der laver avancerede prompter’ (den tekst, man putter ind i systemet), og som er næsten virtuose til at få fantastiske billeder. Præcis ligesom der findes gode fotografer, der har sans for det rigtige øjeblik og en egen stil. For eksempel har en fyr ved navn Marco Morales opfundet en stil og et helt univers, han kalder bubblepunk, udelukkende genereret i MidJourney.

Så lad os ikke tænke dette som mennesket mod maskinen’, men snarere som et nyt redskab, vi kommer til at gøre brug af. Og som naturligvis også rummer nogle udfordringer, som jeg kommer tilbage til. Men først skal vi lige kigge på selve billederne. Er de virkelig så overbevisende? Og rummer de en særlig æstetik? Jeg gik på gaden for at undersøge det.

Mange har på sociale medier instinktivt reageret med en stor skepsis over for disse billeder og sagt, at de er overfladiske og grimme og uden sjæl. Når jeg hører den slags, bliver jeg skeptisk og tænker, at det meget vel kunne være en fordom, de ser bekræftet uden at kigge åbent på billederne. Og som indledningscitatet til denne artikel klart markerer, er det ikke utænkeligt, at billederne vil kunne berøre os på en alt andet end overfladisk måde.

For at undersøge det konstruerede jeg tre billedserier med hver deres beslægtede tema: en serie med landskabsbilleder i romantisk stil, en med koloristisk kunst i postkubistisk’ stil (som hos den sene Picasso) og en med fotorealistiske malerier af citrusfrugter. I hver serie er halvdelen malerier af rigtige kunstnere, og halvdelen har jeg genereret i Dall-E 2 og MidJourney. For at få fordomsfrie reaktioner fortalte jeg intet om, hvad undersøgelsen handlede om, men bad en række tilfældige mennesker på gaden om at kommentere på billederne og sige, hvilke de bedst kunne lide.

Det er på ingen måde en videnskabelig undersøgelse, dertil er der for få forsøgspersoner, og de er udvalgt blandt dem, der lige befandt sig i området, og som så ud til at have tid til at blive belemret af mig. Men der er altså en lille overvægt af forkærlighed for de AI-genererede billeder frem for kunstnere som Pablo Picasso, Elias Martin og Dennis Wojtkiewicz.

Et af de AI-billeder, som mange var glade for, var et abstrakt billede i flotte farver, som mange forbandt med noget velkendt, nemlig Asger Jorn, og som blev beskrevet som et dynamisk billede med mange følelser. Det er genereret i Dall-E 2 og bygger på et Picasso-billede, der også var med i serien, og som de fleste vurderede som kedeligt. Hvad angår landskabsbillederne, blev der læst mange følelser og symboler ind i MidJourneys billeder, der blev beskrevet som flot malet”, fulde af fantasi” og gudeligt”.

1 / 5

Udvalgte AI-billeder fra blindtest-voxpopLandskabsbillede i stilen fra den svenske maler Elias Martin. Det blev kaldt “godt malet”, og en af forsøgspersonerne identificerede det endda som et svensk landskab. Andre fandt det dystert.Illustration: Dall-E 2/Torben Sangild

Pointen er ikke, at AI-billederne så har en lige så stor kunstnerisk værdi som de menneskeskabte kunstværker, men blot, at vi er nået et punkt, hvor de er lige så overbevisende for det umiddelbare blik. De har nailet noget om, hvad vi finder overbevisende og smukt.

Men det gør de jo udelukkende på baggrund af, at de kender en masse allerede eksisterende billeder. De varierer den massive billedverden, der allerede er derude. Og det stiller nogle svære spørgsmål til, om vi overhovedet kan og bør tænke det her som original skabelse eller blot sampling.

Når nu Dall-E 2 og MidJourney baserer sig på internettets kæmpe lager af offentligt tilgængelige billeder, kan man så sige, at de skaber noget nyt? Svaret er ikke helt enkelt, for det afhænger af, hvad vi mener med at skabe noget nyt.

På sin vis kan man sige, at den blot laver variationer og kombinationer af alle de billeder, der allerede eksisterer. Den snylter på de billeder, menneskeheden har skabt og lagt ud. Hvis man skulle lave en parallel til musik, ville det svare til, at den laver numre baseret udelukkende på samples fra anden musik, der så forvrænges og ændres og kombineres på nye måder. Men det er en praksis, som adskillige elektroniske musikere faktisk benytter sig af. De skaber noget nyt af noget eksisterende. Sådan vil vi i dag se på det.

På samme måde med AI-grafikerne. De skaber noget nyt af det eksisterende og noget, der tit kommer så meget bag på os, at vi umiddelbart ser det som originalt. Er det vigtige ikke, om vi bliver overraskede?

Det dybe spørgsmål er, hvad originalitet er. Og det korte svar er, at det i hvert fald ikke er, at et geni ud af ingenting udvikler en helt ny stil. Picasso stod på skuldrene af utallige andre malere, hvis stil han tilegnede sig, før han skabte den kubistiske malemåde. Han er endda ofte blevet citeret for slagordet Gode kunstnere kopierer, store kunstnere stjæler”, selv om han aldrig har sagt det. Men pointen med at lægge netop den oneliner i munden på indbegrebet af modernistisk malerkunst er klar nok: Selv den mest originale kunstner er også en sampler.

Nogle har anført, at der også er et økonomisk aspekt af denne diskussion. Hvis disse tjenester skaber nye billeder i en nulevende kunstners stil, skylder de så ikke kunstneren noget af det, der snart bliver en kommerciel indtjening? Der er ikke noget let svar på det spørgsmål. Tom Waits fik i 1990 udbetalt erstatning på to millioner dollars, fordi en reklame brugte en stemme, der lød som hans. De nævnte ham ikke, men han fik medhold i, at hans stemme var så original, at de bevidst spillede på at lyde som ham. Hvis man mener, at Tom Waits har ophavsretten til stemmer, der lyder sådan, så kan en kunstner måske også have ophavsretten til et bestemt formsprog? Det er i sidste ende et juridisk spørgsmål, men jeg kan i hvert fald godt se problemerne i denne tankegang, netop i lyset af, at alle er inspireret af andre.

Så hvad mister vi, og hvad vinder vi, når vi kan lave overbevisende AI-billeder på et minut? Vi har fået et sjovt legetøj og et inspirerende redskab, der ser billeder anderledes, end vi gør, og derfor kommer med overraskelser og indimellem vilde løsninger. Det gør amatører som mig i stand til at lave fantastiske billeder, som jeg ellers kun kunne drømme om. Og ja, netop at visualisere ens drømme er endnu en ting, man kan bruge det til.

Men når jeg taler med folk om det her, mærker jeg en stor bekymring for, at vi mister noget afgørende. At det bliver for let. At man ikke skal gøre sig umage længere. At håndværket forsvinder. At den menneskelige afsender, sjælen’, forsvinder.

Jeg er ikke selv lige så bekymret, selv om jeg sagtens kan se problemer i det her scenarie – især hvis det bliver de kommercielle techgiganter, der udbyder det. Men jeg tror ikke, at folk vil holde op med at tegne og male og fotografere, og jeg er overbevist om, at der stadig vil ligge en særlig værdi for os i, at man selv skaber noget fra bunden. Vi har bare fået et nyt, potent redskab blandt de andre. At tegne er at se,” som man siger, og den evne skal vi naturligvis bevare. Folk spiller stadig på instrumenter, selv om man kan lave musik på computeren – og ved hjælp af kunstig intelligens. Jeg ser ingen grund til at tro, det skulle være anderledes med billeder.

Man kan forestille sig, at imponerende billeder i flotte farver med detaljerede rumgengivelser bliver trættende i længden, at vi mister den wow-fornemmelse, der er der lige nu. At vi simpelthen bliver immune over for dem og trætte af dem. Hvis det sker, finder vi nok andre typer billeder at begejstres over. Hvis noget bliver for perfekt, dyrker vi det uperfekte.

Men vi har vel brug for sjælen, eller kan det være lige meget? Der er i vores kultur en meget rodfæstet idé om, at maleriet er en slags indgang til kunstnerens sind, og at det er denne forbindelse til kunstnersjælen, der giver værkerne deres værdi. Det er jeg stærkt uenig i, og jeg synes også, at mit lille eksperiment antyder, at det ikke holder. Jeg har endda skrevet en ph.d.-afhandling om blandt andet det. Den hedder Objektiv sensibilitet og argumenterer for, at det afgørende for erfaringen af et kunstværk ikke ligger i en indbildt forbindelse til kunstneren, men i værket selv. Når et kunstværk er i stand til at udtrykke følelser, skyldes det ikke kunstnerens følelsesmæssige intensitet, men værkets egen intensitet. Jeg ved godt, det er provokerende for mange, men der ligger et større filosofisk argument bag det, som fører for vidt her. Lad mig i stedet illustrere det med et meget konkret eksempel:

En af de første computere, der selv kunne komponere musik, fik et værk arrangeret for orkester og opført i en kirke, krediteret til et fiktivt komponistnavn. Bagefter blev publikum én for én spurgt om deres oplevelse af værket, og mange fortalte, at de var grebet af denne smukke musik. Da de fik at vide, at det var en computer, der stod bag, blev flere af dem vrede. Hvorfor? Fordi det provokerer os, at noget ikke-menneskeligt kan berøre os kunstnerisk. Men tænk på naturen, den har ikke nogen intention om at berøre os, og alligevel gør den det gang på gang.

På samme måde er det måske med AI. Og det er derfor, min Facebook-ven Lucy kunne blive så berørt af MidJourneys billede af lysets skabelse. Også selv om MidJourney ikke har skyggen af en sjæl.