Hva betyr det at en AI hallusinerer – og hvordan unngår du det?
AI kan si ting med stor selvsikkerhet som er helt feil. Det kalles hallusinasjon. Her er hva du trenger å vite for å ikke bli lurt.
Sebastian - EnklereAI · 19. mars 2026
En advokat brukte ChatGPT til å forberede et rettsdokument. ChatGPT sitat presedenser fra rettssaker som aldri hadde funnet sted. Advokaten leverte dokumentet uten å sjekke – og ble irettesatt av retten.
Dette er et klassisk eksempel på AI-hallusinasjon. Det er viktig å forstå hva dette er, hvorfor det skjer og hva du kan gjøre.
Hva er en AI-hallusinasjon?
Hallusinasjon i AI-kontekst betyr at modellen genererer informasjon som er feil, oppdiktet eller fullstendig fabrikert – men presentert med like stor selvsikkerhet som sann informasjon.
Det er ikke at AI lyver bevisst. Det er heller at AI-modeller er optimalisert for å produsere plausibel tekst, ikke for å garantere sannhet. Noen ganger er det plausible også tilfeldigvis sant. Noen ganger er det ikke det.
Hvorfor skjer det?
Språkmodeller forutsier hva som er sannsynlig å komme etter et bestemt ord eller setning, basert på milliarder av eksempler. De har ikke en intern «faktabase» de slår opp i – de genererer tekst som ligner på tekst de har sett.
Når du spør om noe modellen ikke har god dekning på i treningsdataene – for eksempel spesifikke lokale fakta, nylig hendelser eller veldig nisjepregede spørsmål – er det høyere risiko for at den «fyller ut» med plausibelt lydende nonsens.
Hva hallusinerer AI oftest om?
- Kildehenvisninger og sitater – Bøker, artikler og studier som ikke eksisterer, eller sitater attribuert til feil person
- Spesifikke tall og statistikk – Prosenter, datoer og tall som høres riktige ut men er feil
- Navn og detaljer om reelle, mindre kjente personer – Feil tittel, feil bakgrunn
- Juridiske og medisinske fakta – Spesifikke lover, prosedyrer og dosering
- Tekniske detaljer – Spesifikasjoner og API-dokumentasjon som er utdatert eller feil
Hva hallusinerer AI sjeldnere om?
- Generelle, velkjente fakta (historiske hendelser, geografi, vitenskap)
- Tekst- og skrivehjelp (her er det ingen «fakta» å ta feil om)
- Matematikk og logikk (men selv her kan det oppstå feil i komplekse beregninger)
- Kreative oppgaver
Slik unngår du å bli lurt
1. Vet når du er i risikosonen
Høy risiko: Spesifikke fakta, tall, sitater, kildehenvisninger, juridiske detaljer, medisinske råd Lav risiko: Hjelp til å skrive og formulere, generelle forklaringer, kreative oppgaver
2. Be om kildehenvisninger – og sjekk dem
Hvis du trenger fakta, be eksplisitt om kildehenvisninger. Men viktigst: sjekk alltid om kildene eksisterer og sier det ChatGPT påstår.
3. Still kritiske oppfølgingsspørsmål
«Er du sikker på dette? Hva er kilden?» – Noen ganger vil ChatGPT faktisk korrigere seg selv.
4. Bruk AI til det den er best på
Bruk AI til å hjelpe deg tenke, skrive og strukturere. Bruk etablerte kildebaser (Google Scholar, Lovdata, SNL) til faktainnhenting.
5. Sjekk viktige påstander
For alle fakta du skal publisere, presentere eller bruke til å ta beslutninger: verifiser fra en uavhengig, pålitelig kilde.
Oppsummering
AI-hallusinasjon er ikke en midlertidig bug – det er en iboende egenskap ved hvordan språkmodeller fungerer. Den beste forsikringen er informerte brukere som vet hva AI er bra på, hva det ikke er bra på, og når man bør dobbeltsjekke.
Publisert: 19. mars 2026
Hold deg oppdatert
Få AI-nyheter og guider rett i innboksen. Ingen spam — bare nyttig innhold, på norsk.
Ved å melde deg på godtar du at vi lagrer e-postadressen din for å sende deg nyhetsbrev om AI. Du kan melde deg av når som helst. Les vår personvernerklæring.
Relaterte artikler
Prompt-engineering: Slik skriver du instruksjoner som faktisk fungerer
Kvaliteten på ChatGPT-svaret avhenger direkte av kvaliteten på spørsmålet ditt. Her er de viktigste teknikkene for å få det ut du faktisk trenger.
Sebastian - EnklereAI · 19. mars 2026
Slik bruker du AI til å effektivisere e-post og møter
E-post og møter spiser mesteparten av arbeidsdagen for mange. Her er konkrete måter AI kan hjelpe deg å frigjøre tid – fra i dag.
Sebastian - EnklereAI · 19. mars 2026
AI-verktøy for norske bedrifter i 2026: En ærlig oversikt
Markedet for AI-verktøy er overveldende. Her er en oversikt over de mest relevante alternativene for norske bedrifter – uten hype.
Sebastian - EnklereAI · 19. mars 2026
