Send en tanke til Zetlands medlemmer

Artiklen her er ikke gratis, men du kan læse eller lytte, fordi Nene La Beet er medlem af Zetland og har delt den med dig.

91,4 procent af danskerne elsker denne artikel. Eller gør de? Derfor skal du ikke stole på meningsmålinger

Ikke alle tal er lige gode.

Illustration: Nico H. Brausch for Zetland

Vi lever i en verden af tal. Debatter og argumenter får en særlig aura af autoritet, når en af parterne kan citere et tal, gerne med procent bagefter. Det er en god ting. Synspunkter, der står på et fundament af viden, som andre kan kontrollere og reproducere, står stærkere end synspunkter, der udspringer af anekdoter, fornemmelser og antagelser.

Men tallene er ikke altid gode, for tal er ikke altid meningsfulde. Én bestemt type tal får særlig stor opmærksomhed. Nemlig dem, som kommer fra meningsmålinger. Det, vi også kalder spørgeskemaundersøgelser.

En ting er, at målingerne får meget opmærksomhed, de har også meget mere magt, end man ser på overfladen. Spørgeskemaundersøgelser påvirker konklusioner i forskning, beslutninger på Christiansborg og i store virksomheder. De er med til at afgøre, hvordan vi indretter samfundet. Derfor er det værd at overveje, hvor pålidelige tallene fra meningsmålinger egentlig er.

Her er et nyligt eksempel på en spørgeskemaundersøgelse bag en historie i Berlingske. Man kunne læse, at 59 procent af danskerne er enige eller overvejende enige i, at vi som samfund skal favne flere kønsidentiteter end blot mand og kvinde”. Er de 59 procent et af de gode tal? Er det meningsfuldt? Bliver vi klogere af det? Vi kommer tilbage til de 59 procent, men først skal vi have en bekendelse.

Jeg hedder Lasse, jeg er tidligere storforbruger af meningsmålinger. Jeg har tilrettelagt og solgt spørgeskemaundersøgelser, og jeg har selv benyttet den type undersøgelser i mit arbejde.

Gennem årene har jeg opbygget en skepsis over for spørgeskemaundersøgelser, og nu er det tid til at undersøge sagen nærmere. Duer de til noget, undersøgelserne, eller gør de ikke? Vi begynder med en historie fra gamle dage.

Den episode, jeg nu vil fortælle om, kommer fra maskinrummet i et meningsmålingsinstitut, hvor jeg arbejdede tilbage i 00’erne. Det var ved den lejlighed, at min tiltro til målingerne første gang fik et knæk.

Jeg arbejdede for en nu nedlagt virksomhed, som hed Institut for Konjunktur-Analyse. Vores kerneprodukt var nogle kvartalsvise undersøgelser, hvor en tilfældigt udvalgt stikprøve af den voksne danske befolkning fik stillet et batteri af politiske og økonomiske spørgsmål.

Et fast afsnit i spørgeskemaet handlede om bekymringen for forskellige ting af samfundsmæssig betydning. Deltagerne blev bedt om at angive, hvor bekymrede de var for arbejdsløshed, inflation, forurening, kriminalitet, skattetryk, indvandring, risikoen for krig og en række andre ting. Hvis det havde været i dag, havde vi helt sikkert taget bekymring for klimaforandringer med på listen.

En dag ringede Justitsministeriets Forskningsenhed. De fulgte med interesse vores bekymringsindeks, som vi kaldte det, især bekymringen for vold og kriminalitet. Nu ville de undersøge, hvor mange danskere der faktisk havde været udsat for kriminalitet. De havde i forvejen en stor spørgeskemaundersøgelse til den slags, den såkaldte offerundersøgelse, men de ville gerne supplere og kombinere med vores data.

Som sagt, således gjort. Næste kvartal tog vi en serie spørgsmål med i vores undersøgelse, der handlede om, hvorvidt folk selv havde oplevet en række former for kriminalitet. De spørgsmål kom lige før spørgsmålet om, hvor bekymret man var for kriminalitet.

Og så skete der noget mærkeligt. I det kvartal, hvor de her ekstra spørgsmål var med, faldt bekymringen for vold og kriminalitet markant – noget, vi ikke havde set før. Kvartalet efter, da de særlige spørgsmål ikke længere var med, steg bekymringen for kriminalitet igen til det sædvanlige niveau.

Det undrede mig – og Justitsministeriet – en del. Men set i bakspejlet var forklaringen ret indlysende: Når man netop har oplyst, at hverken én selv eller nogen, man kender, har oplevet kriminalitet, er det utroligt svært umiddelbart efter at sige, at man er meget bekymret” for kriminalitet. Det virker selvmodsigende.

Et eksperiment bekræftede, at det var sådan, det hang sammen: I en ny undersøgelse fik halvdelen af deltagerne spørgsmålene om personligt oplevet kriminalitet, mens den anden halvdel gik direkte til bekymringsspørgsmålene. Der var klar forskel på den bekymring, de to grupper gav udtryk for. De foregående spørgsmål betød altså noget for bekymringsniveauet.

Hvad kan man lære af det? Man kan lære, at kontekst betyder noget, når man spørger. Faktisk ret meget. I vores undersøgelse faldt andelen, som var meget bekymret” for vold og kriminalitet, fra omkring 40 procent til omkring 30 procent, da vi havde de personlige spørgsmål med.

Det er egentlig overhovedet ikke overraskende, men hvornår har du sidst set en nyhedsartikel om en meningsmåling, hvor der blev redegjort for, hvilken sammenhæng spørgsmålet blev stillet i? Aldrig? Det tænkte jeg nok.

Problemet her er ikke nødvendigvis, at data fra spørgeskemaundersøgelser er ubrugelige – vi så ret klart, at de på mange punkter afspejlede virkeligheden – men at undersøgelserne også er meget skrøbelige. De svar, folk giver, afhænger nemlig af … alt muligt. Jeg faldt tilfældigvis over en bestemt effekt. Der kan være mange andre.

Okay. Historien om, hvordan danskernes bekymring for vold og kriminalitet pludselig steg og så faldt igen, er et eksempel på, hvordan konteksten i spørgeskemaundersøgelser kan påvirke svarene. Men måske var det en enlig svale? Måske var det bare virkelig uheldigt, måske gælder det slet ikke for andre typer af spørgsmål.

Og dog: Nogle år senere arbejdede jeg i en fagforening, som målte medlemmernes stressniveau ved hjælp af en spørgeskemaundersøgelse. Spørgsmålet, vi brugte, var forskningsmæssigt anerkendt. Vi spurgte til konkrete symptomer på stress. Sådan her: Med stress menes en situation, hvor man føler sig anspændt, rastløs, nervøs eller urolig eller ikke kan sove om natten, fordi man tænker på problemer hele tiden. Føler du denne form for stress for tiden?”

Vi fandt ud af, at der blandt medlemmerne, som var ansat i den finansielle sektor, var et ganske betydeligt stressniveau. 17 procent svarede, at de oplevede symptomerne ret meget” eller virkelig meget”.

Senere gennemførte den daværende paraplyorganisation FTF en meget større undersøgelse, hvor de også spurgte vores medlemmer og stillede samme spørgsmål. Her var stressniveauet blandt samme gruppe ansatte markant lavere. Nu var ti procent, ikke 17, meget stressede. Forskellen var klart statistisk signifikant. Hvorfor opstod den?

Én forklaring kunne være, at FTF-undersøgelsen var meget længere, omkring 30 minutter i gennemsnit mod vores egen, som tog fem minutter. Måske var folks opmærksomhed tyndslidt, når de nåede til stressspørgsmålet. Eller måske var det mest de ustressede, der havde tid til at gennemføre så langt et spørgeskema. Eller også var det, fordi FTF af uransagelige årsager havde valgt at vise svarmulighederne i omvendt rækkefølge i forhold til deres øvrige spørgsmål.

Det lykkedes mig aldrig med sikkerhed at fastslå årsagen. Men jeg tror godt, vi kan formode, at forskellen skyldes metoden og ikke, at bankfolkene på kort tid var blevet meget mindre stressede.

Nogle gange er forklaringen på mærkelige spørgeskematal så oplagt, at det næsten er til at græde over. Et aktuelt eksempel: Hvor stort et problem er mobning i danske skoler egentlig? Den almindeligste måde at finde ud af det på er ved hjælp af – rigtigt gættet – spørgeskemaundersøgelser. Nogle gange har spørgsmål om mobning været med i PISA-undersøgelserne, som måler skoleelevers kompetencer i alle OECD-lande. Det indgår også i den internationale Skolebørnsundersøgelse, som Danmark deltager i.

Det har undret fagfolk, at PISA finder, at 22 procent af danske skolebørn mellem 11 og 15 år oplever mobning, mens Skolebørnsundersøgelsen kun får det til fem procent. (Begge opgørelser er 2018-tal).

Hvad skal man så tro? Er mobning et lille eller et stort problem? For at nærme sig svaret skal man nærlæse spørgeskemaerne.

De to undersøgelser spørger nemlig på to helt forskellige og fuldstændig usammenlignelige måder. PISA oplister seks forskellige ubehagelige situationer, for eksempel at blive gjort grin med, truet, skubbet eller få ødelagt sine ting. Hvis man har oplevet mindst én af disse, tæller det i deres undersøgelse som mobning.

Skolebørnsundersøgelsen spørger helt anderledes, nemlig sådan her: I de sidste par måneder: Hvor tit er du blevet mobbet i skolen?” Medmindre man svarer: Jeg er ikke blevet mobbet”, tæller det som mobning.

I PISA-undersøgelsen er der altså mange typer af oplevelser, der kan føre til, at man bliver talt med som mobbeoffer. I Skolebørnsundersøgelsen gælder det kun, hvis man selv bruger ordet mobning om det, man har oplevet.

Det er ikke så mærkeligt, at de to undersøgelser når frem til forskellige resultater. Men det er sjældent, at selv de helt oplagte metodiske forskelle kommer med i mediernes dækning. Så afhængigt af, hvilken avis man læser, kan problemet med mobning i skolen pludselig blive mere end fire gange så stort.

Naturligvis findes der et næsten uendeligt antal måder at formulere ethvert spørgsmål på. Selv med de bedste intentioner kan man komme til at påvirke resultatet af sin undersøgelse på en måde, man ikke have forudset. Det gælder også, når det er forskere og ikke journalister, som formulerer spørgsmålene.

Hvad der kan ske, hvis man ikke har de bedste intentioner, er endnu vildere. Ingen steder har jeg set det illustreret så godt som i tv-serien Yes, Minister fra 1980’erne. I en berømt episode demonstrerer kontorchef i afdelingen for administrative affærer Humphrey Appleby, hvordan man kan manipulere vælgernes holdning. Den lettere forfjamskede embedsmand Bernhard skifter på få minutter holdning til værnepligt, da Appleby ændrer spørgeteknik. For selvfølgelig kan man ikke være tilhænger, når værnepligten associeres med tvang og dødelige skydevåben i stedet for med disciplin, orden og sikkerhed. Appleby ser derfor intet problem i at få gennemført en meningsmåling, som skal vise, at vælgerne er imod genindførelse af værnepligt.

Her er det fristende at konkludere, at spørgeskemaundersøgelser er ubrugelige. Men lad os nuancere lidt, før vi går så vidt. Måske er de her eksempler trods alt undtagelser. Måske er spørgeskemaundersøgelser som regel ganske retvisende?

Vi må have friske øjne på sagen, så jeg ringer til en forsker. Eller rettere sagt to: adfærdsforskeren Pelle Guldborg Hansen fra Roskilde Universitet og Erik Gahner Larsen, ph.d. i statskundskab og analysechef i virksomheden Earth Security. Begge har gjort flittig brug af spørgeskemaundersøgelser i deres forskning.

Af de to er Erik Gahner Larsen mest positivt stemt. Men alligevel ikke særlig positiv: Der er mange eksempler på undersøgelser, som ikke giver mening eller giver misvisende resultater. Hvorvidt undersøgelserne er brugbare, afhænger af, hvad man vil bruge dem til, og hvordan man bruger dem,” siger han over telefonen.

Som eksempel på brugbare spørgeskemaer nævner han de løbende målinger af politiske partiers tilslutning. Man må give ham ret i, at de målinger rummer en eller anden form for meningsfuld information: Resultaterne flugter nogenlunde med partiernes faktiske tilslutning, når først der kommer folketingsvalg. Deltagerne har altså ikke kastet med en terning, da de svarede. Spørgeskemaundersøgelser kan ikke forudsige valgresultatet helt præcist, men de målinger, der ligger lige inden valgdagen, kommer som regel ret tæt på. De har en eller anden form for forudsigelseskraft,” siger Erik Gahner Larsen.

Det er sjovt, for netop de politiske prognoser har fået et dårligt ry, men det er måske faktisk lidt ufortjent. Vi husker det, som om målingerne skød totalt forbi ved valget af Donald Trump som præsident i USA i 2016. Og at de var helt i skoven i forhold til afstemningen om Brexit i Storbritannien samme år. Men målingerne i USA var ved 2016-valget omtrent så præcise, som de plejer at være, nemlig et sted mellem fire og fem procentpoint fra det faktiske resultat. Og Brexit-målingerne viste stort set 50/50 til ja- og nej-siden, hvilket stemte fint overens med det faktiske resultat: et snævert ja fra briterne til at forlade EU.

I USA gik det galt for målingerne på to måder: Et par medier regnede forkert, da de skulle omsætte Clintons føring til vinderchancer, og gav hende alt for gode odds. Det var ikke målingernes skyld. Dernæst fejlfortolkede både medier, kommentatorer og vælgere de prognoser, som viste, at Hillary Clinton var moderat favorit. De så Clintons favoritværdighed som udtryk for, at Trump umuligt kunne vinde valget. Men sitet FiveThirtyEight, som er berømt for deres prognosemodeller, gav faktisk Trump 28,6 procent vinderchancer. I det lys var det ikke chokerende, at han vandt.

Folk har en tendens til at forveksle høje sandsynligheder med absolut sikkerhed. Eller som grundlæggeren af FiveThirtyEight, Nate Silver, tweetede igen og igen før 2020-valget: Ti procent er ikke nul procent.” Ved det valg, hvor Trump som bekendt tabte til Biden, havde de estimeret Trumps chancer til ti procent.

I Storbritannien skete noget lignende op til Brexit: En marginal føring til EU-siden blev tolket som en sikker sejr, hvor den ædruelige tolkning ville have været dødt løb.

Men selvfølgelig bliver målingerne aldrig helt præcise: En stor del af vælgerne beslutter sig først i stemmeboksen. Hvis de selv ikke forinden ved, hvad de vil stemme, hvordan skulle meningsmålingsinstitutterne så kunne vide det? Erik Gahner Larsens råd til brugere af spørgeskemaundersøgelser er: Brug dem, når der ikke er noget alternativ.”

Men hvad er det egentlig, der sker oppe i folks hoveder, som indimellem gør svarene så uforudsigelige? Hvorfor svarer folk ikke bare på det, de bliver spurgt om?

Pelle Guldborg Hansen, adfærdsforskeren fra Roskilde Universitet, har et bud på, hvad der går galt. Han forklarer det sådan her: Holdninger er ikke noget, man har, de er noget, man danner, når man skal bruge dem. Man henter ikke sine holdninger i et slags bibliotek, hvor de står arkiveret. Derfor betyder det noget, under hvilke omstændigheder man bliver spurgt. Og derfor ændrer folk let mening, når omstændighederne ændrer sig.”

Omstændighederne’ kunne for eksempel være de øvrige spørgsmål i spørgeskemaet, svarmulighedernes rækkefølge, skemaets længde, om det er et telefoninterview eller et internetinterview, og en masse andre metodiske finesser, som er usynlige for udenforstående.

Pelle Guldborg Hansen peger på, at der findes en hel forskningsretning, som undersøger robustheden af spørgeskemametoden. Masser af studier demonstrerer, at man relativt nemt kan få folk til at ændre mening, hvis man ved, hvilke knapper man skal skrue på.

Problemet med meningsmålingerne er altså ikke, at de altid er forkerte, men at det er næsten umuligt at vide, hvornår og hvor meget de er forkerte. Selv de normalt nogenlunde retvisende målinger af de politiske partiers tilslutning er ikke uden problemer. Blandt andet er det en kendt sag, at målingerne overvurderer valgdeltagelsen ganske betragteligt. I undersøgelserne er der flere, som hævder, at de stemte ved seneste valg, end den faktiske stemmeprocent.

En dansk forsker, Jens Olav Dahlgaard, har sammen med nogle kolleger undersøgt, hvorfor det er sådan. På snedig vis har de brugt oplysninger fra valgsteder om, hvem der rent faktisk har stemt, og koblet dem sammen med deres egen spørgeskemaundersøgelse. I en forskningsartikel fra 2019 identificerer Dahlgaard og kollegerne to logiske grunde til, at valgundersøgelserne næsten altid finder for få sofavælgere.

For det første er de, der stemmer, betydeligt mere tilbøjelige end andre til at deltage i en spørgeskemaundersøgelse. Undersøgelserne er altså lidt skæve, hvad politisk deltagelse angår. For det andet hævder nogle vælgere, at de har stemt, selv om det ikke er rigtigt. Måske fordi det er forbundet med en vis skam at blive hjemme på valgdagen, eller måske fordi man egentlig havde tænkt sig at stemme, men glemmer, at man alligevel ikke fik det gjort.

Pointen er, at selv spørgeskemaundersøgelser i forskningskvalitet, hvor man spørger til noget konkret og faktuelt, kan give misvisende resultater. Og at der er flere forskellige kilder til fejlen.

Men gør det hele egentlig så meget? De fleste undersøgelser, vi møder i medierne, har mest karakter af kuriosa. Som de berømte lykkeundersøgelser, hvor Danmark gang på gang scorer højt. Kan det passe, at vi er så lykkelige, når selvmord, misbrug og psykiske lidelse er ret udbredt? Kan der ligge noget gemt i sproget, oversættelsen, kulturen eller metoden, som får lykketallene i Danmark til at svulme op? Måske, måske ikke.

Man kan vælge at trække på skuldrene. Måske er det bare ligegyldigt. Who cares? Men vi bør nok kere os om det, for nogle undersøgelser har meget stor betydning. Politiske meningsmålinger før et folketingsvalg menes at kunne påvirke vælgernes adfærd, og masser af forskning om eksempelvis ernæring, sundhed, medieforbrug og seksualvaner er helt eller delvist baseret på spørgeskemaundersøgelser. De undersøgelser påvirker lovgivning, skoleundervisning, dagsordenen, og hvad vi i øvrigt prioriterer.

Og så er der selvfølgelig de største meningsmålinger af dem alle: folkeafstemninger som den, vi skal til den 1. juni, om afskaffelse af forsvarsforbeholdet. Netop ordlyden af stemmesedlen har været genstand for intens debat. Og med god grund: Gallup har gennemført en undersøgelse bestilt af Pelle Guldborg Hansen, RUC-forskeren, der undersøger, hvad den eksakte formulering betyder for, hvad vi svarer. Undersøgelsen tester flere formuleringer, blandt andet den oprindelige: Stemmer du ja eller nej til, at Danmark kan deltage i det europæiske samarbejde om sikkerhed og forsvar?” Og en mere negativt ladet: Ønsker du at afskaffe forsvarsforbeholdet?”

Hvis du har læst eller lyttet så langt, kommer det nok ikke som en overraskelse, at den positive variant giver betydeligt flere ja-stemmer end den negative. Folk vil hellere deltage i samarbejde” end de vil afskaffe” noget. Ja-procenten faldt med syv procentpoint, fra 47 til 40, mellem de to varianter. (Begge formuleringer gav dog ja-siden flertal, for man kunne også svare ved ikke”.) Syv procent er enormt i en EU-afstemning. Som regel vil det være nok til at vippe et ja til et nej.

Hvis vi skal være helt fair over for de politiske meningsmålinger, skal vi også vende nogle af argumenterne for målingerne. Den største fortaler for meningsmålinger, jeg kan komme i tanke om, er amerikaneren G. Elliott Morris, datajournalist for The Economist og flittig bruger af meningsmålinger. Til juli udkommer hans bog Strength in Numbers, med undertitlen Hvordan meningsmålinger virker, og hvorfor vi har brug for dem.

Morris ser målinger af politiske holdninger som en vigtig del af demokratiet. De er vælgernes talerør. Hvor fejlbehæftede målinger end kan være, er det bedre end slet ikke at have nogen information.

Herhjemme kan man sige, at meningsmålingerne er et supplement til den debat, som engang foregik i forsamlingshusene. Det er den eneste praktiske måde at spørge 1.000 mennesker om deres mening.

Påvirker meningsmålinger valgkampen og -resultatet? Måske, men i så fald er det ifølge Morris en kærkommen påvirkning. Alternativet er,” siger Elliott Morris, at medier dækker valgkampen efter, hvordan redaktøren føler, valgkampen går. Målingerne giver en vis objektivitet til dækningen.”

Så er der alle de undersøgelser, som aldrig kommer til offentlighedens kendskab. Masser af mennesker får løbende deres arbejde evalueret af undersøgelser, og de oplever eventuelle fejlkilder på egen krop.

Tag butiksmedarbejdere, som får karakter, alt efter hvordan kunderne trykker på en smiley-stander på vej ud af butikken. Stod standeren før eller efter den lange kø? Er det især de tilfredse eller de utilfredse kunder, der gider trykke på knappen? Hvem ved.

Eller tag de mellemledere i en større dansk bank, hvor jeg arbejdede, hvis bonus delvist afhang af kundetilfredshedsundersøgelser. Men næsten ingen gider deltage i en spørgeskemaundersøgelse fra deres bank, så det var en lillebitte delmængde af de adspurgte, der endte med at give deres mening til kende. Gad vidst, om en anden metode havde givet en anden fordeling af bonuskronerne.

Som Pelle Guldborg Hansen siger: Virksomheder overreagerer indimellem og fyrer folk på grund af dårlige tilfredshedsundersøgelser. Men de resultater kan skyldes alt muligt.”

Lad os slutte, hvor vi startede: Med de 59 procent danskere, som er enige i, at vi som samfund skal favne flere kønsidentiteter end blot mand og kvinde”. Er det et tal, vi kan stole på? Pelle Guldborg Hansen og Erik Gahner Larsen er ikke i tvivl.

Nej,” siger Erik Gahner Larsen. Det er ikke et meningsfuldt tal. Jeg ville ikke selv vide, hvordan jeg skulle svare. Jeg ville forholde mig meget kritisk til det spørgsmål.”

Nej,” istemmer Pelle Guldborg Hansen. Jeg kan slet ikke forestille mig alle de måder, det spørgsmål kunne formuleres på.”

Elliott Morris er heller ikke i tvivl: Ja, det er et meningsfuldt tal!” siger han. Det er selvfølgelig kun én måling, som kan være forkert af mange grunde. Men normer som disse afgøres i demokratier primært gennem konsensus, og flertallets ønske vejer tungt.”

Altså er 67 procent af vores eksperter stærkt kritiske over for det pågældende spørgsmål.

De samme argumenter for og imod kunne man bruge mod mange andre undersøgelser, der er i omløb hele tiden. Jeg plukker i flæng fra landsdækkende aviser de seneste måneder:

87 procent af danskerne mener, at danske virksomheder skal skynde sig ud af Rusland – koste, hvad det vil.”

55,1 procent af danskerne mener ikke, at præster skal have mulighed for at sige nej til at vie par af samme køn.”

61 procent af danskerne mener, at det ikke er muligt at styre og forstå, hvad de giver samtykke til, at deres data kan bruges til på nettet.”

I alle disse tilfælde kan man nemt forestille sig, at man kunne være kommet frem til helt andre tal, hvis spørgsmålet havde været formuleret på en anden måde, eller konteksten var anderledes.

Før lyset går helt ud, så lad os lige tage et par fif til, hvordan vi bedre kan skelne skidt fra kanel, når det kommer til meningsmålinger. Og forhåbentlig vride den brugbare information ud, som målingerne trods alt kan rumme.

For det første: Tjek spørgsmålsformuleringen. Er det konkret, faktuelt og muligt at svare på? Det er nemmere at sige, om man har handlet ind i Brugsen i går, eller hvad man vil stemme i morgen, end at vurdere den etiske standard hos et teleselskab, man måske har hørt om.

For det andet: Fokusér på sammenligninger, ikke procenter. Procenttal er elastiske, men sammenligninger mellem befolkningsgrupper er mere robuste. For eksempel: At 59 procent mener, at samfundet skal favne flere kønsidentiteter, er ikke så interessant. Det er mere spændende, om mænd, kvinder, unge, gamle, veluddannede, byboere eller venstreorienterede skiller sig ud fra andre grupper.

For det tredje er udviklingen over tid tit mere informativ end de konkrete procenter. Især hvis metoden er konstant: samme spørgsmålsformulering, samme institut, samme målgruppe og så videre. Går det op, eller går det ned?

Endelig er det en stor fordel at se på mere end én måling, hvis man kan. Viser flere undersøgelser samme tendens? Det er især relevant ved målinger af de politiske partiers tilslutning, for laver man målinger nok, skal et eller andet institut nok før eller siden finde en markant udvikling for et eller andet parti. Det er ofte bare støj, og det er ironisk nok typisk de målinger, der ender på forsiderne. Se gennem støjen ved at kigge på gennemsnittet af målingerne.

Det allersidste råd får Pelle Guldborg Hansen lov til at levere: Når du ser undersøgelser i avisen, som hævder noget i stil med, at 59 procent mener, vi skal favne flere kønsidentiteter, har jeg kun ét godt råd: Bladr videre. Det er hverken umagen værd at læse eller forsøge at vurdere.”