Vores medlemmer foretrækker at lytte
“”
—
Derfor skal du læse denne artikel
Skal man forstå udviklingen af moderne teknologi, skal man forstå, hvad kunstig intelligens er. Sådan helt basalt. For passer det, når Bill Gates kalder kunstig intelligens en trussel mod menneskeheden og Tesla-stifter Elon Musk sammenligner den med atombomben? Her giver skribent og datanørd Lasse Hjorth Madsen dig sin überpædagogiske og (spoiler alert!) dommedags-afblæsende guide til et af tidens mest omdiskuterede fænomener.
Den første gang jeg mødte kunstig intelligens, var omkring 1995 på et kollegieværelse i Universitetsparken i Aarhus. Kunstig intelligens så cirka sådan her ud: På min computerskærm var en bølgeformet kurve, en såkaldt sinuskurve, der bevægede sig op og ned i pæne, bløde rytmer. Hvis du har glemt, hvordan en sinuskurve ser ud, så tænk på vejbump. De er tit udformet som en flad udgave af sinuskurver.
Ud over den perfekte, regelmæssige sinuskurve på min skærm var der også en anden kurve, som mindede meget om den første, men som var … uperfekt. Det så ud, som om den efterlignede sinuskurven, men indimellem ramte lidt forbi.
Den uperfekte kurve var resultatet af mit forsøg på bedre at forstå, hvad kunstig intelligens egentlig var. Jeg havde skrevet et lille computerprogram, der indeholdt et såkaldt kunstigt neuralt netværk, som er en af de teknikker, man ofte forbinder med begrebet kunstig intelligens. Netværket havde fået til opgave at efterligne en sinuskurve. Den skulle med andre ord “gætte på”, hvad sinus til et givent tal er. (Som nogle læsere vil huske fra matematiktimerne, er sinus en funktion, som beskriver forholdet mellem en vinkel og sidelængder i retvinklede trekanter. Enkelt og dog kompliceret).
Mit hjemmestrikkede neurale netværk var intelligent i den forstand, at det formåede at reproducere sinuskurven nogenlunde, når blot det blev fodret med tilpas mange eksempler på, hvordan sådan en ser ud. Metoden var ikke ny; den blev første gang beskrevet i 1940’erne. Det nye var, at computerne var ved at blive kraftige nok til at håndtere store neurale netværk, og der var kommet matematiske teknikker til at optimere de samme netværk mere effektivt. Det gav anledning til hede drømme om, at metoden snart ville kunne bruges til at udrette virkelig store ting. Neurale netværk, med andre ord, var the shit.
Fast forward omkring 14 år, til cirka 2009, og virksomheder som Google og Tesla er i gang med at udvikle deres stærkt omtalte selvkørende biler – vel noget af det tætteste man kommer på et håndgribeligt eksempel på, hvad kunstig intelligens egentlig kan i dag. Nemlig at køre en bil.
Fast forward yderligere fem år, til 2014, og direktøren for selvsamme Tesla, den ikoniske Elon Musk, advarer om, at kunstig intelligens formentlig er den største trussel mod menneskeheden. “Med kunstig intelligens slipper vi en dæmon løs,” advarer han. Et synspunkt, han fastholder, for i 2018 lyder det, at “kunstig intelligens er farligere end atomvåben”. Ikke overraskende trækker udtalelser af den type en del overskrifter.
For mig virker det sådan lidt voldsomt. Og ret langt væk fra mine sinuskurver på kollegieværelset. Så har Musk og hans ligesindede ret? Er den allestedsnærværende kunstige intelligens virkelig det farligste, vi har opfundet?
Eller kan kunstig intelligens tværtimod bruges til at smage på øl, finde ringborge fra vikingetiden, redde den bornholmske dialekt, filme fodboldkampe, spille musik, revolutionere sundhedsvæsenet og fange momssvindlere, for nu blot at plukke i overskrifter fra de seneste par måneder?
For at finde svaret på det, er det en god idé at forstå, hvad kunstig intelligens rent faktisk er.
Så lad os tage et godt kig ind i maskinrummet på den teknik, som jeg brugte til at efterligne sinuskurver med, og som Elon Musk bruger til at bygge selvkørende biler med. Hvad er der egentlig i det maskinrum?
Kan du huske noget, der hedder funktionsmaskiner? Et ord, du måske er stødt på i din lærebog i matematik i folkeskolen, omkring 6. eller 7. klasse? En funktionsmaskine er en kasse, som bliver fodret med tal i den ene ende og spytter nogle andre tal ud i den anden ende. De tal, der kommer ind, kalder man nogle gange for x, mens de tal, der kommer ud, kaldes for y. En typisk funktionsmaskine fra min matematikbog blev for eksempel fodret med tallene 2, 3 og 4 (x-værdierne). Ud af det kom måske tallene 5, 7 og 9 (y-værdierne). Opgaven bestod så i at aflure, hvad der var “inden i” funktionsmaskinen, hvordan 2, 3 og 4 blev lavet om til 5, 7 og 9. I eksemplet her kunne svaret være, at man fordobler og lægger én til. Eller som formel: y = 2x + 1.
Et neuralt netværk, der som nævnt er en af de mest almindelige former for kunstig intelligens, er ligesom en funktionsmaskine eller slet og ret bare en funktion. Den tager én talrække og laver den om til en anden talrække. Så enkelt er det faktisk.
Men hvordan hulen kan det blive til en selvkørende bil?
En selvkørende bil får sit input fra kameraer, som fotograferer omgivelserne. En del af tricket er at lave billederne om til tal, som kan fodre bilens funktionsmaskine eller neurale netværk. Et digitalt billede består af pixels, bittesmå prikker, som hver har tre værdier mellem 0 og 255, der tilsammen fortæller, hvilken farve den pågældende prik har. Et billede kan have millioner af pixels og dermed millioner af tal, men tal er det altså, og det er netop tal, funktionsmaskiner og neurale netværk har brug for. Ind i den ene ende ryger altså en lang række tal, x’erne, som repræsenterer et billede. Ud af den anden ende kommer … hvad?
Ud af den anden ende kommer information, som bilen skal bruge til at køre. Det kan for eksempel være en angivelse af, hvor i billedet kørebanen er. Eller det “kørbare område”, som det nogle gange kaldes. Igen udtrykt som tal svarende til y’erne i vores funktionsmaskine.

Bilen skal selvfølge bruge mange informationer, ikke bare om, hvor der må køres, men også om, hvor eventuelle andre trafikanter befinder sig, hvilken farve lysreguleringen viser, hvad der står på skiltene og så videre. Alt sammen noget, computeren skal bruge til at afgøre, om det er bedst at dreje rattet til højre eller til venstre, bedst at trykke på speederen eller bremsen.
Derfor er der i bilens computer også flere funktionsmaskiner, som samtidig arbejder på at oversætte en lind strøm af billeder fra de otte kameraer, som for eksempel en Tesla er udstyret med.
Den vanskelig opgave er at finde ud af, hvordan funktionerne skal se ud; hvilke parametre de har. Er det y = 2x + 1, eller er nogle andre værdier bedre som y = 3x - 2? I modsætning til matematikbogen i folkeskolen kan man ikke bare kigge på tallene og prøve sig lidt frem. Der er alt for mange tal. Men der findes til formålet forskellige matematiske metoder, som klarer opgaven, når bare de får nok eksempler at arbejde med. Hvis man har mange billeder af trafiksituationer, hvor vejbanen eller lyskurven er markeret, kan netværket efterhånden selv identificere vejbaner og lyskurve på nye billeder. Det er den proces, man kalder maskinlæring, fordi maskinen i en vis forstand “lærer” at genkende objekter på et billede. Processen er anderledes, end når vi for eksempel lærer et fremmedsprog, for hos computeren består læringen i at fastsætte parametrene i en række formler.
En del af Teslas udviklingsgrundlag er, at hele bilparken af Teslaer verden over konstant fotograferer trafiksituationer og sender billederne retur til Tesla. Dermed får de et virkelig stort billedmateriale at arbejde med, når deres selvkørende neurale netværk skal forbedres. Hvis autopiloten for eksempel har problemer i tunneller, kan man indhente billeder fra kørsel i tunneller og bruge disse som træningseksempler, så det neurale netværk bedre “lærer” at genkende en vej i en tunnel.
Det skal medgives, at de formler, der er inden i bilens neurale netværk, er ret lange, og at de, i modsætning til funktionsmaskinen i 6. klasses matematikbog, bruger mere end de fire regnearter – plus, minus, gange og dividere. Men princippet er det samme: En talrække oversættes ved hjælp af en ligning (eller et sæt ligninger) til en anden talrække. Det er hele idéen med kunstig intelligens: at oversætte et input til noget andet. Præcis ligesom de funktioner, vi lærte om i skolen.
Med de rette teknikker, tilpas meget data, en god portion skarp matematik og nogle ordentlige computere er teknikken i neurale netværk forbløffende fleksibel og effektiv. De kan anvendes til næsten enhver opgave, der involverer, at man tager en eller anden form for input og oversætter det til noget andet. Når man tænker over det, er det faktisk kernen i rigtig mange typer af opgaver.
For eksempel er det noget lignende, Google gør, når de oversætter tekst: Teksten laves på snedig vis om til en masse x-værdier, disse hældes i en funktionsmaskine, som indeholder en forfærdelig lang formel, og ud i den anden ende kommer y-værdier, som repræsenterer samme tekst, men på et andet sprog.
Fair nok, oversættelserne er ikke perfekte, på samme måde som mine efterlignede sinuskurver på kollegieværelset ikke var helt perfekte. Men maskinoversættelser er bedre end ingenting, og til visse formål er de acceptable.
Et andet eksempel, kendt fra streamingtjenesterne: Tag alle brugernes filmpræferencer plus min egen historik, og oversæt det til en god anbefaling til mig.
Et knap så muntert eksempel: Tag et mammografi, og afgør, om det indeholder en kræftsvulst. Det handler alt sammen om at oversætte et input til et output, hvilket er præcis, hvad vi har funktioner til.
Én af grundene til, at de neurale netværk ofte forbindes med kunstig intelligens, er, at de er inspireret af den måde, hjernen virker på. Arkitekturen er et netværk af såkaldte neuroner, der er forbundet på kryds og tværs. Hvor det i hjernen er elektriske signaler, der vandrer mellem neuronerne, er det i computeren tal. Neuronerne antager en eller anden værdi, udledt af andre neuroners værdier, via et sæt af formler. Tricket er så at vælge formlerne, så det neurale netværk opfører sig, som man gerne vil have det til. Altså for eksempel afgør pålidelige, om et billede indeholder en lyskurv, der lyser rødt.
Med andre ord: hvis man er bange for, at kunstig intelligens en dag skal tage magten fra os, så hjælper det at huske på, at de ikke er væsensforskellige fra funktionsmaskinerne fra folkeskolen. Formlerne og talrækkerne er længere, men princippet er det samme. Så giver det overhovedet mening at bruge ordet “intelligens” om kunstig intelligens?
Svaret er nej. For at se hvorfor, så hæng på i det følgende eksempel fra en opdigtet ejendomsmægler i Aarhus.
Forestil dig en ejendomsmægler, som lever af at sælge ejerlejligheder i Aarhus. Hver gang en ny sælger melder sig, er første opgave at komme med et bud på, hvad vedkommendes lejlighed kan sælges for. Ejendomsmægleren har travlt, og det er tidskrævende at besigtige de mange lejligheder, så hun beslutter sig for at automatisere opgaven ved hjælp af kunstig intelligens. Formlen bag intelligensen lyder i al sin enkelhed: Salgspris er lig antal kvadratmeter gange 30.000 kroner. En lejlighed på 100 kvadratmeter prissættes derfor altid til 3 millioner kroner.
Som man kunne forvente, varer det ikke længe, før ejendomsmægleren konstaterer, at hendes lille hjælper ofte regner galt. Der er nemlig andre ting end arealet, som påvirker prisen. For eksempel er stuelejligheder typisk knap så dyre som lejligheder med udsigt.
Næste generation af intelligensen lægger derfor et beløb til, for hver etage lejligheden befinder sig over stueplan. Efter et kig på data for faktiske salgspriser forfines formlen lidt, så det især er på de nederste etager, at afstanden fra gadeplan gør en forskel. Der er med andre ord større forskel på prisen mellem stuen og første sal end mellem sjette og syvende etage. I ejendomsmæglerens formel fikses det ved at tage kvadratroden af etagen og gange med 100.000 kroner. Så bliver en lejlighed på første sal prissat 100.000 kroner højere end stueetagen, mens en på niende sal bliver 300.000 kroner højere.
De følgende generationer af formlen indarbejder stadig flere forhold: Hvorvidt der er en elevator i ejendommen, hvor attraktivt lejligheden ligger, hvor god stand den er i, hvor trafikeret vejen er, om man kan se Aarhus Bugt og så videre. Til sidst sidder ejendomsmægleren med en kunstig intelligens, en syntetisk valuar, der er bedre til at prissætte ejerlejligheder end de menneskelige pendanter.
Formlen er undervejs blevet noget længere og noget mere kompliceret. Det har været nødvendigt at bruge både kvadratrødder og logaritmer, men den kan stadig stå på et A4-ark, hvis man bruger lille skrift.
Det er ikke, fordi den kunstige intelligens i dette eksempel er særlig perfekt. Den virker måske decideret dum, når den ikke tager højde for, at en lejlighed er nabo til en rockerborg og derfor svær at sælge. Til gengæld glemmer den aldrig at tænke over alt det andet, og den lader sig ikke påvirke af vejret og dagsformen.
Det er gode tider for vores fiktive mægler, for hun kan nu prissætte lejlighederne effektivt, helt uden at bruge tid på at se dem. Som en ekstra finesse får hun en gang om året formlerne opdateret baseret på nye data om salgspriser. (Det, vi kalder maskinlæring). De opfanger nu, hvis købernes ønsker ændrer sig, for eksempel når et bestemt område i byen bliver hipt.
Men er det rimeligt at kalde formlerne i ejendomsmæglereksemplet og softwaren i selvkørende biler for “intelligent”? Som vi har set, er det i begge tilfælde bare formler. Meget lange formler, men stadig bare formler. De er ikke principielt forskellige fra funktionsmaskinen, hvis indmad bestod af formlen y = 2x + 1.
Hvis vi bliver enige om, at en formel fra en 6.-klassematematikbog med et enkelt led, altså en enkelt x-værdi, ikke med rimelighed kan hævdes at rumme intelligens, præcis hvor mange led er det så, der skal til, før vi opnår intelligens? Er det 100 led? En million? For mig er det ret indlysende, at en ligning ikke kan kaldes intelligent, uanset hvor lang den er, og uanset om den gør brug af kvadratrødder og logaritmer og andre rare sager. I hvert fald ikke hvis ordet “intelligent” bruges på en måde, der minder om almindelig sprogbrug. Her er det nemlig ikke nok at kunne regne hurtigt – man skal kunne bruge sine evner smart.
Kunstig intelligens er altså på ingen måde intelligent. Overhovedet ikke. Navnet beskriver forskernes våde drømme om, hvad teknikken en dag kunne udvikle sig til. Ikke hvad det faktisk er.
Men ligesom man kan være flink, selv om man har et mærkeligt navn, kan kunstig intelligens også være fantastisk, selv om navnet er falsk varebetegnelse. Lad os se på noget af det fantastiske ved kunstig intelligens. Det bliver lidt personligt.
Vi skal tilbage til mit kollegieværelse i Aarhus i 1995. Tiden er kommet til at afsløre, at jeg ikke interesserede mig for kunstig intelligens, fordi jeg ledte efter en alternativ måde at tegne sinuskurver på. Det var, fordi jeg godt kunne lide at spille backgammon.
Jeg spillede så meget backgammon, som mit studie gav plads til – og så lidt mere. På det tidspunkt boomede backgammon helt enormt i Danmark, og Carlsberg sponsorerede en landsdækkende turnering på alle landets caféer med en stor finalerunde i København. Så der var masser af modstandere.
På den tid deltog jeg i en stor backgammonturnering. Her mødte jeg en nordmand, Fredrik A. Dahl. Efter vores match udvekslede vi en række mails, hvor vi sammen analyserede kampen i en fælles indsats for at forbedre vores spillestyrke. Undervejs luftede Fredrik en idé, han havde: Han ville skrive et program, der kunne spille backgammon, baseret på et neuralt netværk, altså en form for kunstig intelligens. Ved at spille mod sig selv ville programmet langsomt “lære”, hvad der var gode, og hvad der var dårlige træk.
For at gøre en lang historie kort: Fredriks projekt lykkedes, og et år eller to senere kunne man købe et computerprogram ved navn JellyFish, altså “vandmand”, som kunne spille backgammon. Vel at mærke på et niveau, som var langt højere end alle tidligere backgammonprogrammer, og på niveau med de bedste spillere i verden.
JellyFish forandrede for altid den måde, man spillede backgammon på. Fra i høj grad at være et pengespil i stil med poker, hvor selvtillid, bluff og psykologi spillede en stor rolle, blev det i højere grad til et analytisk spil, hvor statistik, computeranalyser og matematisk forståelse kom i højsædet.

Men inde i JellyFish sad altså i bund og grund samme konstruktion, som jeg havde brugt til at tegne sinuskurver med og Elon Musk i dag bruger til at fremstille selvkørende biler med. En funktion, der som input fik en backgammonposition (behørigt oversat til tal), og som output leverede et tal for, hvor stærk positionen var. Det var alt, computerprogrammet behøvede for i gennemsnit at vælge bedre træk, end de fleste mennesker var i stand til. For hver position opregnede den blot alle lovlige træk og valgte det, som førte til den stærkeste stilling.
Var JellyFish intelligent? Ikke på den måde, vi normalt forbinder med intelligens. Fredrik A. Dahl, der som udvikler forstod neurale netværk bedre end nogen, havde netop valgt navnet JellyFish, fordi vandmænd er blandt de dummeste dyr i verden.
Fredrik beholdt i øvrigt sin interesse for spil; han udviklede mange år senere et lignede program, som spillede poker og var næsten umuligt at slå på lang sigt.
I det hele taget er spil et område, hvor kunstig intelligens har triumferet: Skakprogrammet Deep Blue slog verdensmesteren Kasparov i 1997, og i 2017 gjorde programmet AlphaGo Master noget lignende inden for Go. (Go er et brætspil, der er særligt populært i Asien, og som regnes for vanskeligere end skak).
Deep Blue og AlphaGo er baseret på andre teknologier end neurale netværk, men de er, i deres kerne, stadig blot funktioner: Ind kommer en Go- eller skakposition, ud kommer en vurdering af, hvor stærk positionen er. Deres funktioner er længere og mere komplicerede end dem, vi mødte i folkeskolen, men ikke væsensforskellige. Hvis de nævnte programmer er intelligente, så er funktionen y = 2x + 1 det også.
Pointen er, at intelligens er mere end regnekraft. Alt, hvad vi normalt kalder kunstig intelligens, mangler en række fundamentale egenskaber for at minde om, hvad vi til daglig forstår ved intelligens. De kunstigt intelligente systemer er først og fremmest initiativløse, ganske som en lommeregner er det. Deep Blue kunne ikke finde på at foreslå at ændre reglerne i skak. Lige så lidt som Googles eller Teslas selvkørende biler af sig selv kommer med forslag til at forbedre færdselsreglerne.
Intelligente computerprogrammer forsøger heller ikke at udvide deres virkefelt: Bilerne begynder ikke af sig selv at anbefale musik, du kan høre på turen, og AlphaGo kaster sig hverken over backgammon, amatørfotografi eller haikudigte.
Viljen, eller intentionaliteten, som man nogle gange kalder det, mangler helt i kunstig intelligens, og så er det faktisk ikke særlig intelligent. Hvad mere er: Der er ikke skyggen af tegn i forskningen på, at den egenskab ligger inden for rækkevidde. Tværtimod: Alle, som jeg har hørt om, og som rent faktisk beskæftiger sig med kunstig intelligens på en konkret måde, melder om, at det har lange udsigter med intentionaliteten.
Noget lignende gør sig gældende med alle de andre begreber, som formentlig skal til for at retfærdiggøre brugen af ordet intelligent: Bevidsthed (en forståelse af selv at eksistere); empati (en forståelse af, at andre eksisterer); følelser (formentlig en forudsætning for vilje); forestillingsevne (en forudsætning for empati); evne til at generere idéer og så videre og så videre.
Så happy days, kunstig intelligens er blot en funktion, en statistisk matematisk teknik, én af mange måder at bruge data på, et legetøj for übernørder.
Der er bare ét problem …
Mange af dem, som burde vide allerbedst, lader til at se ekstremt skræmmende fremtidsscenarier for kunstig intelligens. Vi har allerede nævnt Elon Musk, som mente, at kunstig intelligens er farligere end atomvåben. Microsofts grundlægger, Bill Gates, insisterede på at se kunstig intelligens som en trussel mod menneskeheden, og den nyligt afdøde verdensberømte fysiker Stephen Hawking proklamerede dystert, at kunstig intelligens kunne blive menneskets sidste opfindelse.
Opfinderen af Spectrum-computeren, Clive Sinclair, (er der andre end mig, der husker det pudsige minitastatur med gummitaster?) mener endda, at det er uundgåeligt, at kunstig intelligens vil udslette menneskeheden. Tag den, menneskehed.
Det virker altså, som om Bill Gates, Elon Musk, Stephen Hawking og Clive Sinclair synger cirka samme melodi. Det virker også, som om mange af de dystre visioner startede omkring det tidspunkt, da en bog med titlen Superintelligence: Paths, Dangers, Strategies udkom i 2014. Bogen er skrevet af den svenske filosof Nick Bostrom, fik gode anmeldelser og strøg hurtigt til tops på The New York Times’ bestsellerliste, mens den blev oversat til en række sprog. Elon Musk erklærede sig enig i bogens konklusioner, da han udtalte, at kunstig intelligens kunne blive farligere end atomvåben, og bogen fik også stærke anbefalinger med på vejen af Bill Gates.
I Bostroms bud på fremtiden for kunstig intelligens er det sandsynligt, at programmerne før eller siden opnår intelligens på niveau med mennesker. Kort herefter vil de hurtigt udvikle sig selv, indtil de i en såkaldt “intelligenseksplosion” opnår en gudelignede superintelligens, som vil sætte dem i stand til at tage verdensherredømmet. Scenariet minder om plottet i filmserien Terminator. Den første film i serien, The Terminator, kom i 1984 og går ud på, at en kunstig intelligens i år 2029 pønser på at udslette menneskeheden i en atomkrig. (Den syvende film i serien, Terminator: Dark Fate, har dansk premiere den 31. oktober).
Superintelligence er på mange måder lige så fantastisk og lige så fuld af logiske huller som Terminator. Hvordan kan Bostrom for eksempel vide med nogen grad af sikkerhed, hvordan en teknologisk udvikling, som kan ligge hundreder af år ude i fremtiden, kommer til at udspille sig? Hvis den forventede, selvbevidste teknologi netop er superintelligent, langt over menneskeligt niveau, hvordan kan Bostrom så vide, hvordan den præcist vil ræsonnere?
Søren Kierkegaard, uanset hvor begavet han end var som filosof, havde nok heller ikke ret meget at sige om, hvilken retning udviklingen af internettet, streamingtjenester og virtual reality ville udvikle sig 200 år senere. Det er svært at tro, at Bostrom er meget bedre stillet til at udtale sig om, hvordan en teknologi, vi ikke kender, vil opføre sig på et tidspunkt i fremtiden, som kan ligge år, årtier eller århundreder forude.
Bostroms Superintelligence lyder unægteligt som det, man tit kalder “Hollywood AI” (hvor AI står for artificial intelligence), og de dystre visioner står – uanset den tilsyneladende tilslutning fra folk som Elon Musk og Bill Gates – da også i skarp kontrast til fakta. Her er fire informationsbidder, som jeg vil betragte som netop den slags fakta:
Vi ved, at kunstig intelligens i øjeblikket er virkelig uintelligent, blot en lang version af ligninger som y = 2x + 1.
Bostroms skrækvision om en superintelligens med herskertrang kræver som et absolut minimum en skabning med vilje til verdensherredømmet.
En sådan vilje, intentionalitet, er i øjeblikket slet ikke i horisonten i forskningen i kunstig intelligens.
Det ville kræve en ufattelig mængde stupiditet at udvikle en dims med potentiale til at tage verdensherredømmet uden at udstyre den med en pålidelig afbryderknap.
Så hvorfor al den ballade?
En del af forklaringen er, at medierne, som gentaget til hudløshed, har en forkærlighed for de dramatiske, dommedagsagtige vinkler. Så hvor Bill Gates faktisk også sagde, at kunstig intelligens har potentiale til at løse problemer som klimaforandringer og fattigdom, så var det den bid om truslen mod menneskeheden, der endte i overskrifterne.
Noget tilsvarende gælder for Elon Musk. Samtidig med at han advarede om farerne ved AI, gjorde han det helt klart, at han var stærk fortaler for at udvikle teknologien. Andet ville også være mærkeligt, al den stund det netop er teknologi, der minder om kunstig intelligens, der er forretningsmodellen i Tesla.
Samtidig er Elon Musk mediebevidst. Han ved nok godt, at det er sammenligningen med atomvåben, der får ham på forsiden af Rolling Stone, ikke nogle godmodige bemærkninger om, at det nok skal gå alt sammen.
Læser man mere end blot overskrifterne, er bekymringerne med andre ord knap så opkørte. Clive Sinclair, Spectrum-computeropfinderen, der mente, kunstig intelligens ville blive menneskets endeligt, tager det også ret afslappet, når det kommer til stykket. “Det ligger langt ude i fremtiden, og under alle omstændigheder er der ikke så meget, vi kan gøre,” udtalte han til BBC i 2014.

Samtidig er der masser af stemmer, som er langt mere afbalancerede. Tag Andrew Ng, en kinesisk-amerikansk datalog og statistiker. Han er ukendt i den brede offentlighed, men superstjerne i det faglige miljø, der arbejder på at gøre computere smartere. Han har blandt meget andet grundlagt og ledet Googles afdeling for kunstig intelligens. Det er ikke fantasi, han mangler, og alligevel kan han altså ikke forestille sig nogen måde, hvorpå de teknologier, vi kender i dag, kan udvikle sig til at blive onde. Ikke at man kan afvise det definitivt, ingen ved, hvad der vil ske om hundrede eller tusind år. Men muligheden er for hypotetisk til, at man rigtigt kan arbejde med det på en produktiv måde, forklarede Ng i 2015 til Splinter, et onlinemedie for nyheder og meninger. Lidt på samme måde som vikingerne ikke kunne forventes at gøre noget fornuftigt for at forebygge skærmafhængighed hos teenagere i år 2019.
Der er også historikeren Edward Moore Geist, som i en artikel i tidsskriftet Bulletin of the Atomic Scientists har en lang kombineret anmeldelse af Superintelligence og oversigt over udviklingen i forskningen i kunstig intelligens.
Geist har heller ikke meget tilovers for Bostroms fremtidsfantasier af samme grunde som nævnt her: De er ekstremt hypotetiske, baseret udelukkende på spekulationer og ikke i nærheden af, hvad teknologien faktisk er i stand til i dag og i overskuelig fremtid. Geist ser den egentlige fare ved kunstig intelligens et helt andet sted: i dens muligheder for at forstærke menneskelig dumhed.
Det er med andre ord ikke maskinernes kløgt, der udgør problemet. Det er vores idioti. Lad os tale lidt om den.
Selv om kunstig intelligens ikke er i nærheden af at opnå egentlig intelligens, kan det sagtens bruges og misbruges på måder, der vil forandre meget omkring os. Ganske som backgammonprogrammet JellyFish for altid ændrede konkurrencebetonet backgammon, kan kunstig intelligens ændre en hel del grundlæggende ting i samfundet.
Når det sker, er det på mange måder ligesom al anden teknologisk udvikling: fra kuske, der blev afløst af biler, og grøftegravere, der blev overflødiggjort af gravkoen, over typografer, der forsvandt med indførelsen af ny teknologi i begyndelsen af 1980’erne, til streaming, der afskaffede flow-tv. (Og nej, jeg orker ikke endnu en gang at nævne internettet, sociale medier og smartphones, som har ændret sociale og politiske spilleregler fuldstændigt).
Forskellen fra de maskiner, vi tidligere har set indført, er, at dette værktøj er baseret på data og matematik og lever usynligt på en harddisk. Men som al anden teknologi har kunstig intelligens mulige slagsider, som det kræver dømmekraft, etiske overvejelser og, ja, gammeldags intelligens at håndtere.
Lad os tage et af de mest skræmmende eksempler på kunstig intelligens, som samtidig er nogenlunde realistisk: Hvad hvis en stormagt som USA fodrer en drone med billeder af eftersøgte terrorister, udstyrer dronen med en teleskoplinse, et ansigtsgenkendelsesprogram og et skydevåben?
Ville en sådan drone kunne have fundet og aflivet Osama bin Laden, før den amerikanske flådes specialstyrker gjorde det? Måske. Er det problematisk? Så absolut. Skræmmende? Meget.

Men på den anden side. Alternativet, at have agenter rendende rundt med nervegas, som de forsøger at aflive afhoppede spioner og andre uvenner med, er heller ikke betryggende. Det var, hvad der formentlig skete sidste år i England for den tidligere russiske spion Sergej Skripal og hans datter. Det skræmmende består i at slå folk ihjel og i, at det er stater, som gør det. Stater, som netop er skabt for at beskytte sine borgere. Om det er nervegas, pistol med lyddæmper eller drone med billedgenkendelse, er ikke det afgørende. Det er bare et valg af våben.
Sammenligner man lejemorderdroner med andre teknologiske gysere som atomvåben eller biokemiske våben, foretrækker jeg alligevel dronerne. Hellere en intelligent dræber end en uintelligent dræber som atombomben, der uden smålige hensyn slår alt liv i en radius af 40 kilometer ihjel.
Pointen er, at det er op til mennesker at regulere de våben, vi opfinder, uanset hvilken teknologi de er baseret på. Det kræver, at vi tænker os om og opretholder et vist etisk niveau.
En del af problemerne med kunstig intelligens er altså problemer, der knytter sig til al ny teknologi. De nye muligheder har altid en bagside, og der er intet, der stopper os fra at bruge det nye værktøj uden sikkerhedsudstyr.
De faldgruber, som er særlige for kunstig intelligens, er for det første, at alle de fantasifulde og frygtsomme forestillinger, der omgærder emnet, risikerer at tage opmærksomheden fra mere jordnære problemer. Kloakering i udviklingslande og udryddelse af polio er nok mere presserende problemer end forebyggelse af en superintelligens i stil med den, Nick Bostrom og Elon Musk frygter.
For det andet har kunstig intelligens den særlige egenskab, at det potentielt kan bruges til at forstærke alle andre opfindelser, herunder de negative aspekter. Tænk for eksempel masseødelæggelsesvåben fintunet med kunstig intelligens. Eller når sociale medier med deres store rækkevidde infiltreres af falske brugere i form af kunstigt intelligente computerprogrammer. I begge tilfælde kan man potentielt fyre op under gammelkendte teknologier.
Så man kan sige, at kunstig intelligens kræver ekstra omtanke, fordi det har så mange anvendelsesområder.
Personligt synes jeg, de sværeste problemstillinger er de lidt mindre spektakulære og lidt mere konkrete. Det er en blandet pose bolsjer. For eksempel: Påvirker kunstig intelligens privatlivets fred gennem brug af persondata? Hvilke rettigheder har borgere over for afgørelser truffet af kunstig intelligens? Og hvad med alle de jobs, der automatiseres væk?
Det er nemt at se for sig, at taxi- og lastbilchauffører måske kan blive erstattet af selvkørende biler. Det er også ret tydeligt, at mere vidensintensive brancher heller ikke skal vide sig sikre: Vi har intelligente systemer, der hjælper jurister med at gennemtrawle domme for at finde præcedens, hjælper læger med at stille bedre diagnoser, hjælper politiet med at fange flere kriminelle.
De fleste konkrete eksempler på kunstig intelligens har karakter af værktøjer; nogle af værktøjerne er så potente, at de måske helt overflødiggør en faggruppe (som chauffører og kuske før dem), andre reducerer blot behovet for mandetimer (som gravemaskiner i sin tid gjorde), mens atter andre forbedrer præcisionen og kvaliteten af det, folk laver (som lægen, der får hjælp til at stille diagnoser).
Mange af disse problemstillinger popper hele tiden op i bekymrede indslag i medierne. For eksempel i en udgave af programmet Supertanker på DR P1 sidste år om kunstig intelligens, hvor forfatteren Lone Hørslev var på det bekymrede hold. Hun havde skrevet en digtsamling, Dagene er data, blandt andet drevet af bekymring for big data, ny teknologi, sociale medier, algoritmer og kunstig intelligens.
Hendes bekymring var let at forstå. Problemet var, at så mange forskellige begreber kommer i samme kasse. Hvordan finder vi hoved og hale på det? Ved at bruge begreberne lidt mere præcist og huske på, at kunstig intelligens hverken er det samme som big data, algoritmer, maskinlæring, digitalisering, sociale medier eller overvågning. Det er alle emner, hvor kunstig intelligens måske kan bringes i anvendelse, men det er også adskilte emner, som fortjener en særskilt behandling.
Skal man sige noget samlet om, hvordan de mange mulige problemer bedst løses, er det netop ved gennemsigtighed, debat og oplyst refleksion – ikke med skrækscenarier som i Hollywood AI. Igen: Det er ikke kunstig intelligens, vi behøver frygte, det er vores egen mangel på samme.
Før vi pakker sammen, er der én stemme mere, som fortjener at komme på banen. Nemlig den kunstige intelligens’ varmeste fortalere. Desværre er den stemme heller ikke nødvendigvis et sandhedsvidne.
Hvor medierne har en tendens til at fokusere på (og overdrive) de potentielt katastrofale aspekter af kunstig intelligens, er der en anden gruppe, som har præcis modsatte tendens – en gruppe, der hylder mulighederne og de milliarder og atter milliarder, som samfundet og virksomheder kan spare ved at satse på kunstig intelligens. Den stemme kommer fra konsulenthuse, der producerer glittede rapporter om teknologiens strålende fremtidsudsigter – og i øvrigt tilbyder at rådgive både virksomheder og offentlige myndigheder om, hvordan man bedst høster fordelene. Mod et honorar, naturligvis.
Det er for eksempel McKinsey & Companys rapport, som Innovationsfonden for nylig præsenterede, og som Frederik Kulager skrev om her på Zetland. Også Rambøll, Bain & Company, PwC, Ernst and Young, A.T. Kearney, Grant Thornton, BDO og Boston Consulting Group har alle lignende rapporter, artikler, blogs, konferencer og kurser om emnet. Man behøver hverken kunstig eller ret meget almindelig intelligens for at regne ud, at de ikke gør sig al den umage for sjov. De har en interesse i at tale fænomenet op.
Der er selvfølgelig noget om snakken: Selvkørende biler har potentiale til at revolutionere måden, vi transporterer os på; kunstig intelligens har allerede revolutioneret måden, vi spiller skak, poker, backgammon og Go på, og også hvordan virksomheder kommunikerer med deres kunder.
Vi behøver ikke se på fremtidsudsigterne udelukkende med defensive briller: Mon ikke også kunstig intelligens, sammen med rigtig intelligens, har potentiale til at give en hånd med i kampen mod klimaforandringer og fattigdom?
Når fordelene ved den nye teknologi efter min mening er stærkt oversolgte, skyldes det dels tendentiøse konsulentrapporter, dels at alle de mindre vellykkede eksempler på kunstig intelligens typisk flyver lidt under radaren.
Jeg mangler for eksempel endnu at møde nogen, der er begejstret for Siri, den kunstige intelligens i iPhonen, som nogle gange kan forstå lidt af det, du siger, og nogle gange kan finde ud af at reagere på det. En teknologibegejstret bekendt nævnte hårdt presset, at hun havde glæde af Siri, når hun med fedtede hænder havde brug for at indstille alarmen i sin telefon i forbindelse med madlavning. En ret marginal nytteværdi, skulle man synes.
Bankerne har trukket mange overskrifter om Siri-lignende digitale assistenter, der kan svare på spørgsmål om privatøkonomi. Det kan være en bedre og mindre fremmedgørende oplevelse at chatte frem for at google og slå op i lister over hyppigt stillede spørgsmål. Men så er forskellen altså ikke større; så lækkert er det heller ikke at bestille et nyt dankort via en chat med en virtuel assistent frem for med en drop-down-menu. Og vi skal ikke glemme alle de droppede, skrottede og floppede projekter, der aldrig kommer til offentlighedens kendskab. Dem er der nogle stykker af, skal jeg hilse og sige som tidligere ansat i Nordeas Data Science Lab.
Og så er tidspunktet kommet til at tage en dyb indånding og sammenfatte, hvad vi nu ved om kunstig intelligens. Vi ved, at kunstig intelligens er en teknologi, der især imponerer på tre punkter: Den er uheldigt navngivet, risiciene er blæst fuldstændig ud af proportioner, og fordelene er skamløst oversolgt.
Vi ved også, at kunstig intelligens har potentiale til at forandre samfundet.
Er kunstig intelligens ligefrem en revolution? Nej, udvikling er et bedre ord.
Rummer det etiske dilemmaer? Ja, masser.
Er det en trussel mod menneskeheden? Måske, men i så fald kommer det langt nede på listen over trusler.
Kan det løse alle vores problemer? Nej, men det kan hjælpe med en del af dem.
Kan kunstig intelligens kludre gevaldigt i det? Selvfølgelig.
Er artiklens forfatter begejstret for kunstig intelligens? Så afgjort.
Kommer der flere retoriske spørgsmål? Nej, det var det sidste.
Tak, fordi du tænkte med.