Send en tanke til Zetlands medlemmer

De har betalt for, at vi kunne lave denne artikel. Uafhængig journalistik er ikke gratis.

Hvordan undgår vi ulykker, svindel og pandemier? Måske ved at forstå, at vi lever i de komplekse systemers tid

Illustration: Jørgen Stamp for Zetland

Vores medlemmer foretrækker at lytte


29. juli 2020
19 min.

Ingen forstod, hvad der skete. Pludselig begyndte aktierne at gå amok. Det havde ellers været en sløv sommermorgen på Wall Street. Her, den 1. august 2012, var der ingen store nyheder om økonomien. Men rundtom i skyskraberne i New Yorks finanscentrum bemærkede folk noget mærkeligt. I det øjeblik børsen åbnede, blev nogle aktier lynhurtigt handlet i abnormt store mængder. Kursen på ét selskab – medicinalfirmaet Novartis – strøg nedad, selv om der ikke var kommet dårlige nyheder om firmaet. Handlen med Pepsi, Ford og andre aktier eksploderede også. Systemerne bippede højt fra computeren foran John Mueller, en Wall Street-programmør. Hvad fanden foregår der?” udbrød han.

Klokken 10, i et hus i en velfriseret forstad, hørte Tom Joyce telefonen ringe. TJ, som direktøren for børsmæglerfirmaet Knight Capital blev kaldt, var lige blevet opereret i knæet. Nu lå han på sofaen med is på benet. Han tog telefonen. Har du set CNBC?” spurgte hans trading-chef. Nej, TJ havde ikke set finanskanalen. Vi har haft en handelsfejl – den er stor.”

Og fejlen var stor. Hvert minut tabte Knight Capital 15 millioner dollars. På en halv time havde de – uden at ville det – købt uønskede aktier for 6,5 milliarder dollars.

TJ humpede på krykker ud i bilen og susede ind mod kontoret. Over telefonen fandt han ud af problemet. En ny software var for nylig blevet installeret på firmaets computere. Det var gået fint på syv ud af otte servere. Men på den ottende var noget gået skævt. Og da børsen åbnede, begyndte den computer at handle aktier som en vanvittig.

TJ stavrede ud af bilen og tog elevatoren op mod kontoret. Han forstod det ikke. Hvordan kunne en enkelt ansats skødesløse installering af et computerprogram få hans firma til at miste 500 millioner dollars, så det nu balancerede på randen af konkurs? Hvordan kunne én triviel fejl få aktier i verdens finanscentrum til at gå amok?

Tre år tidligere, i 2009, var der sket noget mystisk i Washington, DC. Det handlede om et usynligt tog. I metroen var et tog smadret ind i et andet, stillestående tog foran. I et kaos af hvirvlende glas og bøjet metal var ni mennesker døde. Men ingen forstod, hvordan det kunne ske. Hvorfor stod der pludselig et tog stille på skinnerne, som ingen havde set? Alle sikkerhedssystemerne burde have fanget, at det var der. Det gjorde de ellers altid. Hvordan kunne et tog, der var dobbelt så langt som en fodboldbane, bare forsvinde?

Fire år senere, i 2013, lancerede skattemyndighederne i Danmark et nyt og længe ventet it-system. Det skulle effektivisere inddrivelsen af gæld. Men systemet virkede aldrig ordentligt – og endte med at sende Skat ud i en mangeårig, dyr krise. Også hos Skat, cirka samtidig, lykkedes det udenlandske finansfolk at udnytte et smuthul til at trække milliarder ud af statskassen. Det blev senere kendt som udbytteskandalen. Og i 2020, for få uger siden, sendte bilfirmaet Volvo en opsigtsvækkende besked ud: Historisk mange biler skulle tilbagekaldes på grund af en fejl, ingen havde opdaget før nu, men som kunne få fatale konsekvenser.

Hvorfor gik det så galt – med Skats it-system, Volvo og udbyttesvindlerne? Og hvad har de til fælles med det usynlige tog og aktierne, der gik amok på Wall Street?

Bag de mange eksempler ligger én enorm, vigtig og ofte overset historie: Verden er i stigende grad blevet fyldt med komplekse systemer. At være i live i det 21. århundrede er at være afhængig af komplekse systemer, men nogle gange fejler de,” som det lyder i bogen Meltdown – Why Our Systems Fail and What We Can Do About It. Et komplekst system kan være alt fra vores elektricitetsnet til globale finansnetværk. Og den slags systemer giver nogle særlige udfordringer, vi ikke altid er lige gode til at forstå.

Meltdown er herhjemme en lidt overset bog, der endnu ikke er kommet på dansk, men som har vundet adskillige priser rundtom i verden – Årets Bog i Financial Times og flere andre vigtige priser. Den er skrevet af en forsker i komplekse organisationer, András Tilcsik, og en fysiker fra Harvard, der senere endte på Wall Street, Chris Clearfield. Og det er en bog, der rammer noget vigtigt i tiden. I langt højere grad end tidligere understøtter komplekse systemer vores hverdag – i atomkraftværker, offentlig transport, myndigheder, postkontorer, sociale medier, flysektoren, shipping, sundhedsvæsenet. Systemerne er vidt forskellige, men de har også vigtige ligheder, som forskerne er begyndt at forstå.

Vi lever i en verden nu, der er styret fra top til bund af komplekse systemer,” siger Chris Clearfield over en hakkende Zoom-forbindelse. At kunne forstå og styre de systemer er i virkeligheden en af de ting, der afgør, om folk og organisationer er succesfulde, eller om de kæmper for at klare sig.”

Helt aktuelt har vi set, hvordan verden havde svært ved at håndtere et nyt komplekst system: coronakrisen. Bogen udkom før pandemien, men Clearfield har en øjenåbnende analyse af corona, og hvorfor krisen har udviklet sig, som den har gjort, set med bogens system-briller. Den vender vi tilbage til. Men også i vores eget hverdagsliv, på arbejdet og derhjemme, møder vi de komplekse systemer.

Ofte virker de, som de skal. Men af og til går det galt. Og når det sker, kan konsekvenserne være enorme og uforudsete. Fordi systemerne er så tætte og komplekse, kan en lille fejl – et forkert installeret computerprogram i et kontor på Wall Street – sende chokbølger ud i verden. Det er, som bogen pointerer, en slags fremskridtets paradoks: Jo mere kompetente systemerne bliver, jo mere avancerede bliver de. Det gør dem mindre tilgivende og mere skånselsløse over for fejl. Det gør dem også sårbare over for at blive udnyttet af udbytteskattesvindlere eller virksomheder, der snyder bag et slør af kompleksitet.

Men der findes en række løsninger, der kan hjælpe til at navigere i en verden af komplekse systemer. Det handler blandt andet om at løse det, vi kan kalde kaptajn-problemet – og at søge mennesker, der ikke ligner os selv.

I 1979 var en ulykke på atomkraftværket Three Mile Island i USA tæt på at blive katastrofal. Vi forstår i dag stadig ikke præcis, hvad der skete. Men det var en kombination af små fejl – et helt almindeligt vvs-problem, en fastsiddende ventil og en instrumentlampe, der sendte forvirrende signaler – som førte til noget langt større: en delvis nedsmeltning i en reaktor. Det var det værste uheld nogensinde på et atomkraftværk i USA – og det kunne let have fået enorme konsekvenser.

Et stort hold af eksperter blev sat til at undersøge, hvad der var gået galt. Og sociologen Charles Perrow fandt ud af noget interessant. Operatørerne på atomkraftværket handlede sådan set okay inden for systemet, konkluderede han. Det var systemet, der var problemet.

Perrow opdagede nu et mønster, der også gik igen ved hundredvis af ulykker helt andre steder – flystyrt eller eksplosioner på kemiske fabrikker. Forskellige dele af et system interagerede uventet med hinanden. Små fejl spillede sammen på uventede måder. Og folk forstod ikke, hvad der skete.

Perrow konkluderede, at to faktorer afgør, hvor sårbart et system er for den slags nedbrud.

1. Kompleksitet. Nogle systemer er lineære. Forestil dig et samlebånd på en fabrik. En ting fører til en anden ting, som fører til en tredje ting – i en lige, forudsigelig linje. Andre systemer, som et atomkraftværk, er mere komplekse. De minder mere om et sindrigt edderkoppespind, hvor ting spiller sammen med andre ting på kryds og tværs, ofte på skjulte og uforudsigelige måder. Sårbarheden stiger i takt med kompleksiteten.

2. Kobling. Perrows anden vigtige faktor handler om luft eller afstand i systemet. Hvor tæt koblet er systemets forskellige elementer? Hvis et system har tight coupling, er der meget lille buffer mellem edderkoppespindets tråde. Hiver du i en tråd, sender det øjeblikkeligt rystelser ud i resten af nettet. Derfor er tiden typisk knap i et tæt koblet system. Du kan ikke bare stoppe op og tænke dig lidt om. Derfor drejede det sig om minutter i Three Mile-værkets tæt koblede system, hvis en ulykke skulle forhindres. Det er modsat i et løst koblet system – en ting kan godt bryde sammen, uden at det berører resten af systemet, i hvert fald ikke med det samme.

MATRIX Charles Perrow lavede denne matrix i 1980’erne over forskellige systemers kompleksitet og kobling. Siden har en hel del ændret sig for de fleste af systemerne. Charles Perrow

De to begreber er en nøgle til at forstå komplekse systemer – og hvorfor de bryder sammen. Finansmarkedet er eksempelvis et ekstremt tæt koblet og komplekst system. Det finansielle system overgår kompleksiteten i noget atomkraftværk, jeg nogensinde har studeret”, som Charles Perrow har sagt ifølge bogen. Én del af finanssystemet interagerer med mange andre dele på sindrige, usynlige og lynhurtige måder. Der er meget lille afstand mellem systemets dele – tingene går lynhurtigt. Derfor kunne én fejl hos Knight Capital få så stor betydning så hurtigt. Derfor kunne et forkert installeret computerprogram koste milliarder på ekstremt kort tid.

Bogen rummer talrige eksempler på lignende problemer, alt fra shitstorme på sociale medier – én lille ting får store uforudsete konsekvenser – til boreplatformskatastrofer, forkert behandling på hospitaler og it-systemer, der har sendt forkerte mennesker i fængsel og endda ført til mistede menneskeliv. Stor kompleksitet er også blevet udnyttet af kriminelle talrige gange. Der er den markante stigning i hacker-forbrydelser, der er Britta Nielsen, der udnyttede et hul i satspuljemidlernes komplekse system – eller finansfolk, der fandt smutveje i langt større skala hos skattemyndigheder rundtom i Europa i den såkaldte Cum-Ex-skandale. Der er virksomheder, der som tyske Volkswagen (snyd med diesel-forurening) og amerikanske Enron (snyd med regnskaber) skjulte svindel bag et virvar af kompleksitet. Kompleksitet,” sagde en svindeldømt Enron-chef ifølge bogen, var ikke et problem, det var en mulighed.”

Så hvordan undgår man den slags problemer?

Inden vi kigger på løsningerne, så lad os få et vigtigt forbehold på plads. For oftest fejler systemerne jo ikke. I pressen – og når man læser Meltdown – hører vi ofte om katastroferne. Fokus er på de få gange, det går galt, ikke hverdagen, hvor systemerne virker fint. Det er vigtigt at understrege. Nyhedsmedierne fokuserer på de få flystyrt, ikke det markant stigende antal fly, der letter og lander planmæssigt.

Det medgiver Chris Clearfield også. Ja, de fleste systemer virker,” siger han. Men vi presser dem til det yderste. Systemerne er lidt som en elastik, du strækker og strækker hele tiden. På et tidspunkt knækker de.” En verden af komplekse systemer er ikke værre end før, men den er anderledes, påpeger han. Ikke mindst ved at små fejl kan have utilsigtede, ja, globale, konsekvenser, vi ikke så før i mere afgrænsede lineære, løst koblede systemer. Vi kan ikke løse problemerne i komplekse systemer med vores gamle værktøjskasse,” siger han. Vi har brug for nye værktøjer og nye løsninger.

Lad os kigge nærmere på dem.

PIONER Charles Perrow, der døde sidste år, var professor i sociologi på Yale Universitet og pioner inden for forskningen i komplekse systemer. Foto: Wikimedia Commons

For en del år siden bemærkede man noget dybt bekymrende i luftfartsbranchen. I et fly skiftes to piloter typisk til at flyve: kaptajnen – manden med magten, ofte ældre og mere erfaren – og andenpiloten, styrmanden. Men når man kiggede på statistik over ulykker, sprang noget mærkeligt i øjnene: Langt størstedelen af flyulykkerne – tre ud af fire – skete, når kaptajnen fløj. Med andre ord: Det var sikrere for passagerne, når den mindst erfarne pilot fløj. Hvorfor?

Det viste sig at handle om magt og åbenhed om fejl. Når kaptajnen fløj, var hans underordnede langt mindre tilbøjelige til at fortælle ham, at noget kunne være galt. De holdt småfejl og mistanke om mulige problemer for sig selv. Det gjaldt ikke, når den yngre pilot fløj. Her var folk, fra stewardessen til, ja, kaptajnen ved siden af, hurtige til at påpege mulige risici.

Flybranchen indførte nu et nyt system, der tilskyndede folk til at råbe op. Effekten var tydelig. Der blev ikke kun færre ulykker; ulykkerne fordelte sig snart også ligeligt mellem kaptajn og andenpilot. Ændringen var en del af en større indsats for at skabe åbenhed om fejl, som luftfartsbranchen har arbejdet målrettet på i længere tid. Der er indført en særlig database, hvor alle fejl bliver indrapporteret, som er tilgængelig for alle. Der udkommer et magasin om læring af fejl. At råbe op om problemer eller mistanke om problemer er forbundet med stolthed. Og det virker. Antallet af ulykker faldt fra over 2.300 i 1972 til 59 i 2017, selv om antallet af passager – og systemernes kompleksitet – er steget voldsomt.

At skabe rammer, hvor folk naturligt og hurtigt og ofte råber op, er afgørende for succes i komplicerede systemer, lyder det i Meltdown. Vi ser det også hos tandlæger, brandmænd, i sundhedssektoren og virksomheder som Google. Afdelinger, hvor alle – i høj grad også folk nede i hierarkiet – råber op, klarer sig bedre. Undersøgelser viser for eksempel, hvilke hold af brandmænd der lykkes med at bekæmpe skovbrande. Alle holdene var lige dygtige og så, hvad der var ved at ske. Men det var de hold, hvor nogen råbte hurtigt op om mulige farer, der fik slukket ilden bedst.

Problemet er bare: Det er ikke let. Kaptajn-problemet var ikke en enlig svale. Adskillige studier viser, hvor svært vi har ved at råbe op – især over for folk med mere magt end os selv. Eksperiment på eksperiment har kortlagt, hvordan vi retter ind og tier stille, selv om vi ved, at noget måske er forkert. Man kan se det i vores hjerner. Belønningscenteret lukker ned, når vi som den eneste skal råbe op om en fejl. Vores hjerne straffer os. Det er uafhængighedens smerte”, som en forsker konkluderer i bogen. Vores hjerner er ikke bygget til afvigelser”.

Det er også det, der sker, når storstilede projekter fejler – som it-systemer i Skat eller sundhedsvæsenet – påpeger Chris Clearfield: Der er ikke skabt rammer for, at medarbejdere kan råbe vagt i gevær; at der bliver tilskyndet og lyttet til advarsler nedefra.

Vi ser næsten altid i den slags skandaler, at nogen vidste, der var problemer, men deres stemme blev ikke hørt, eller de blev ikke opmuntret til at råbe op,” siger han.

Men man kan gøre en hel del for at fremme den slags åbenhed i et system. Bogen nævner for eksempel særlige typer åben ledelse og fokus på magtsymboler – altså hvad der signalerer en ledelse: Er der privat elevator til chefen, som hos den krakkede finanskrisebank Lehman Brothers, hvor ingen råbte op? Eller vælger chefen det mindste kontor, altid med åben dør? Men den mest interessante ingrediens for at skabe et system, hvor folk råber op, er måske noget helt andet: diversitet.

Diversitet er afgørende for at få folk til at turde råbe op, viser adskillige studier. Når vi omgiver os med folk, der ikke ligner os selv – det gælder køn, etnisk baggrund eller fagligt felt – bliver vi mere tilbøjelige til at anstrenge os for dels at forklare os, dels at stille kritiske spørgsmål. Vi læner os ikke tilbage og glemmer alle de oplagte spørgsmål. Vi bliver ikke blinde.

Nogle af finanskrisens store banker var kendetegnet ved ekstrem homogenitet: masser af hvide, midaldrende mænd, der havde gået på de samme skoler. Den skandaleramte Silicon Valley-virksomhed Theranos, der gik konkurs efter at have løjet om sin nye blodprøve-teknologi, havde en sjældent set ensartet bestyrelse. Stort set alle var ældre hvide mænd med samme baggrund.

Og netop diversitet i faglig baggrund er vigtigt. De banker, der gik ned under en krise, var typisk dem, der havde flest bankfolk i bestyrelsen, har en undersøgelse vist, for de så alle sammen verden på samme måde. Diversitet tvinger en gruppe til at stille flere spørgsmål,” siger Chris Clearfield. Eller som det lyder i bogen: Diversitet er et fartbump, der redder os fra os selv. Det er helt centralt i komplekse systemer.

Nu kunne man indvende, at en løsning på for meget kompleksitet blot kunne være at mindske kompleksiteten. Og det kan også, påpeger Clearfield, i nogle tilfælde være en glimrende idé. Ikke mindst kan man løsne koblingerne i et system, så én del ikke lynhurtigt påvirker alle andre dele af systemet. Det er det, man har gjort efter finanskrisen, siger han. Kravet om, at banker skal have mere kapital på kistebunden, er i virkeligheden en ekstra buffer i et kompliceret system. Det gør koblingen lidt løsere, så en kriseramt bank ikke straks sender chokbølger gennem resten af finanssystemet.

Men, siger han også, der er samtidig store ulemper ved at forringe kompleksiteten. Det kan gøre systemerne dårligere, simpelthen. Det har været en pointe fra mange virksomheder og offentlige instanser, han har rådgivet. Vi har brug for en stor grad af kompleksitet i vores systemer, sagde de. Clearfields løsning her handler blandt andet om transparens. Når du ikke kan forringe kompleksiteten, kan du til gengæld øge gennemsigtigheden. Du kan sikre, at systemet er åbent og forståeligt for mange. At det er synligt, hvad der sker hvornår og hvorfor. Transparens kan være en modgift til kompleksitet,” siger han.

I sin enkle form handler transparens om, hvordan du indretter et cockpit. Nogle flys vigtige instrumenter er ekstremt tydelige; din medpilot ser med det samme, når du trækker i et håndtag. Det tilfører sikkerhed. Det var det modsatte, der skete, da Boeing introducerede det nye 373 Max-fly for få år siden. Designet var så kompliceret og u-transparent, at piloterne ikke kunne gennemskue systemet. Det er en perfekt kompleksitetshistorie, hvor flyet gør noget, piloterne ikke forstår,” siger Clearfield, der også selv i en periode arbejdede som pilot. To fly af den nye type styrtede i 2018 og 2019, og flyene fik derefter forbud mod at blive brugt.

I sin essens handler transparens om at få os til at se klarere. Det går også igen i den sidste løsning, jeg vil nævne fra bogen (der er mange). Den handler om, hvordan vi faktisk indser, hvad en fejl drejer sig om.

På Three Mile-atomkraftværket blev de ansatte forvirrede over, hvad sikkerhedssystemet egentlig prøvede at fortælle dem. Hvad var der galt? Ved boreplatformskatastrofer og fatale hospitalsfejl går det samme igen. Advarselssystemerne er for overvældende, for forvirrende. Et hospital fortæller i bogen, hvordan deres it-system hele tiden blinkede forkerte eller uvigtige advarsler, så man aldrig vidste, hvornår noget for alvor var galt. Sikkerhedssystemer er den største enkeltkilde til nedbrud i komplekse systemer,” siger Charles Perrow, sociologen, i Meltdown.

Dét kan man løse ved at gøre sikkerhedssystemerne mere enkle og først og fremmest mere prioriterede. Flybranchen og sundhedssektoren har haft succes med at lave hierarkier for alarmer. Hvad er livsvigtigt, hvad er vigtigt, hvad er ikke vigtigt?

Men det handler ikke kun om optimerede systemer. Det handler også om, hvordan vi reagerer på dem. Ofte er vi nemlig dårlige til at se fejl og advarsler, selv om de står og blinker foran os. Det handler om begrebet expected world – vores forventede verden. Vi konstruerer en forventet verden, fordi vi ikke kan håndtere kompleksiteten i den virkelige verden,” siger Charles Perrow i bogen. Og så vælger vi den information, der passer ind i den forventede verden, og udelukker information, der modsiger den.”

Det var det, der skete med togulykken i Washington, hvor et usynligt tog pludselig stod på skinnerne. Længe før havde ingeniører faktisk opdaget en fejl ved sensorerne på skinnerne, og den var delvist blevet fikset, men så blevet glemt igen midt i systemets kompleksitet. Og selv om der var kommet advarsler siden hen – tog viste sig ikke på systemets skærme, selv om de var der – havde folk ikke reageret. De affejede den nye information, fordi den ikke passede ind i deres forventede verden. Og så gik det galt.

Det bringer os til noget, der ramte os i 2020, som heller ikke passede ind i vores forventede verden.

For omkring et halvt år siden begyndte coronavirusset at sprede sig fra Kina. Der var egentlig masser af information om udviklingen. Først hørte vi om udbruddet i Wuhan, så om krydstogtskibe og smitte i Italien. Der var masser af advarselslamper, der blinkede. Alligevel ramte pandemien som et chok for stort set alle lande. Måske fordi mange – inklusive landenes politikere og myndigheder – blev inde i deres forventede verdener. De kunne ikke få den nye information til at passe ind, så den blev nedtonet. Det gjaldt også i USA, selv om man havde set pandemien brede sig i Europa og Asien.

Selv da tingene så virkelig alvorlige ud, var der en lyst til at få tingene til at føles bedre,” siger Chris Clearfield. Politikere i USA sagde, at det bare var en influenza. Det var ikke værre end noget, de havde set før. De opførte sig lidt som metro-folkene i Washington, der ignorerede advarslerne om usynlige tog. Dengang kostede det liv – ligesom under corona. For det betød selvfølgelig, at vi gik glip af en masse muligheder for at gribe ind og lave substantielle skift i, hvordan tingene blev håndteret.”

På sin vis kan coronapandemien ses som et kompliceret system med tæt kobling. Virus spredte sig lynhurtigt og påvirkede, sammen med myndighedernes indgreb, alle dele af samfundet med ét slag. Fysisk afstand og nedlukning var en måde at gøre systemet mindre tæt koblet; der blev lagt buffere ind. Pandemien var samtidig et helt nyt system, som myndigheder og beslutningstagere ikke havde stor erfaring med. Sikkerhedslamperne virkede desuden dårligt – eller blev ikke taget alvorligt. Der blev, for eksempel i Kina, ikke lyttet, når læger advarede eller råbte op. Det var stadig kaptajnen, der styrede flyet, og han opfordrede ikke til kritik. I USA røg man ned i flere faldgruber, der er typiske for komplicerede systemer.

Vi manglede evnen til at styre det som et kompliceret system – for eksempel ved at prioritere test og smitteopsporing i begyndelsen. Det betød, at systemet kom ud af vores kontrol. Og nu står vi og skal håndtere konsekvenserne af det,” siger Chris Clearfield.

Det handlede også her om mangel på både diversitet og transparens. I USA var der, ikke mindst i begyndelsen, en markant homogenitet i gruppen af beslutningstagere i Det Hvide Hus. Det gjaldt ikke bare køn og race, men også faglighed. Der manglede simpelthen et bredt spektrum af eksperter helt inde i beslutningscenteret. Folk havde primært politisk baggrund, ikke videnskabelig, påpeger Chris Clearfield: Det handlede om mangel på diversitet i tanker og input – og manglende villighed til at lytte til de input.”

Også transparensen var begrænset i kampen mod corona, påpeger han. Der manglede åbenhed udadtil om grundlaget for beslutningerne. Men der manglede også viden og forståelse om, hvordan virusset spredte sig: Vi gik glip af en mulighed for virkelig at forstå den informationen, der var i systemet. Havde vi udført brede test, kunne vi have fået informationen til at bevæge sig hurtigere end virusset,” siger han.

På den måde peger corona videre på en stor, langsom udvikling, vi har set igennem årene, men ikke talt så meget om: de komplekse systemers sejrsgang. De komplekse systemer er overalt – i en computerfejl på Wall Street, et usynligt tog, en skandaleramt Boeing, it-systemer, der ikke virker, svindlere, der gemmer sig bag kompleksitet. Men også i alle de mange systemer, der fungerer hver dag. De komplekse systemers verden er, som Chris Clearfield tidligere pointerede, ikke nødvendigvis en dårligere verden. Men det er en markant anden slags verden end den, vi levede i engang. Derfor kræver den også andre løsninger – fra diversitet til transparens, fra at komme ud af vores forventede verden til at tilskynde til at kritisere kaptajnen.

Vi lever i kompleksitetens gyldne æra, men vores tænkning og værktøjer er ikke fulgt med,” siger Chris Clearfield.

Med andre ord: Nye systemer kræver nye løsninger. Nu handler det bare om at bruge dem.