Hva betyr det at en AI hallusinerer – og hvordan unngår du det?

Hva betyr det at en AI hallusinerer – og hvordan unngår du det?

AI kan si ting med stor selvsikkerhet som er helt feil. Det kalles hallusinasjon. Her er hva du trenger å vite for å ikke bli lurt.

S

Sebastian - EnklereAI · 19. mars 2026

En advokat brukte ChatGPT til å forberede et rettsdokument. ChatGPT sitat presedenser fra rettssaker som aldri hadde funnet sted. Advokaten leverte dokumentet uten å sjekke – og ble irettesatt av retten.

Dette er et klassisk eksempel på AI-hallusinasjon. Det er viktig å forstå hva dette er, hvorfor det skjer og hva du kan gjøre.

Hva er en AI-hallusinasjon?

Hallusinasjon i AI-kontekst betyr at modellen genererer informasjon som er feil, oppdiktet eller fullstendig fabrikert – men presentert med like stor selvsikkerhet som sann informasjon.

Det er ikke at AI lyver bevisst. Det er heller at AI-modeller er optimalisert for å produsere plausibel tekst, ikke for å garantere sannhet. Noen ganger er det plausible også tilfeldigvis sant. Noen ganger er det ikke det.

Hvorfor skjer det?

Språkmodeller forutsier hva som er sannsynlig å komme etter et bestemt ord eller setning, basert på milliarder av eksempler. De har ikke en intern «faktabase» de slår opp i – de genererer tekst som ligner på tekst de har sett.

Når du spør om noe modellen ikke har god dekning på i treningsdataene – for eksempel spesifikke lokale fakta, nylig hendelser eller veldig nisjepregede spørsmål – er det høyere risiko for at den «fyller ut» med plausibelt lydende nonsens.

Hva hallusinerer AI oftest om?

  • Kildehenvisninger og sitater – Bøker, artikler og studier som ikke eksisterer, eller sitater attribuert til feil person
  • Spesifikke tall og statistikk – Prosenter, datoer og tall som høres riktige ut men er feil
  • Navn og detaljer om reelle, mindre kjente personer – Feil tittel, feil bakgrunn
  • Juridiske og medisinske fakta – Spesifikke lover, prosedyrer og dosering
  • Tekniske detaljer – Spesifikasjoner og API-dokumentasjon som er utdatert eller feil

Hva hallusinerer AI sjeldnere om?

  • Generelle, velkjente fakta (historiske hendelser, geografi, vitenskap)
  • Tekst- og skrivehjelp (her er det ingen «fakta» å ta feil om)
  • Matematikk og logikk (men selv her kan det oppstå feil i komplekse beregninger)
  • Kreative oppgaver

Slik unngår du å bli lurt

1. Vet når du er i risikosonen

Høy risiko: Spesifikke fakta, tall, sitater, kildehenvisninger, juridiske detaljer, medisinske råd Lav risiko: Hjelp til å skrive og formulere, generelle forklaringer, kreative oppgaver

2. Be om kildehenvisninger – og sjekk dem

Hvis du trenger fakta, be eksplisitt om kildehenvisninger. Men viktigst: sjekk alltid om kildene eksisterer og sier det ChatGPT påstår.

3. Still kritiske oppfølgingsspørsmål

«Er du sikker på dette? Hva er kilden?» – Noen ganger vil ChatGPT faktisk korrigere seg selv.

4. Bruk AI til det den er best på

Bruk AI til å hjelpe deg tenke, skrive og strukturere. Bruk etablerte kildebaser (Google Scholar, Lovdata, SNL) til faktainnhenting.

5. Sjekk viktige påstander

For alle fakta du skal publisere, presentere eller bruke til å ta beslutninger: verifiser fra en uavhengig, pålitelig kilde.

Oppsummering

AI-hallusinasjon er ikke en midlertidig bug – det er en iboende egenskap ved hvordan språkmodeller fungerer. Den beste forsikringen er informerte brukere som vet hva AI er bra på, hva det ikke er bra på, og når man bør dobbeltsjekke.

Likte du denne artikkelen?

Opprett en gratis konto for å lagre artikler og prompts.

Opprett konto
AIhallusinasjonai-feilkildekritikkchatgptfakta

Publisert: 19. mars 2026

Hold deg oppdatert

Få AI-nyheter og guider rett i innboksen. Ingen spam — bare nyttig innhold, på norsk.

Ved å melde deg på godtar du at vi lagrer e-postadressen din for å sende deg nyhetsbrev om AI. Du kan melde deg av når som helst. Les vår personvernerklæring.

Relaterte artikler