12. jan. 2026

Menneskelig kontroll ved KI-bruk i tannklinikk

12. jan. 2026

Menneskelig kontroll ved KI-bruk i tannklinikk

Menneskelig kontroll ved KI-bruk: hva betyr det i klinisk arbeid?

KI-funksjoner blir raskt en del av klinisk arbeid i tannhelse – ofte som støtte i tekst, arbeidsflyt, prioritering og kommunikasjon, og noen ganger som beslutningsnær støtte.

Når slike funksjoner oppleves som “innebygde” og friksjonsfrie, blir det lett å anta at menneskelig kontroll allerede er ivaretatt – fordi en fagperson uansett er involvert.

Denne artikkelen forklarer hva menneskelig kontroll ved KI-bruk faktisk innebærer i praksis, hvor ansvar og risiko typisk oppstår, og hvilke styringsprinsipper som bør være på plass for å gjøre kontrollen etterprøvbar.

Hva menes med KI-bruk i tannhelse?

I tannhelse vil KI-bruk ofte bety at systemer foreslår, oppsummerer, strukturerer eller rangerer informasjon – uten at det nødvendigvis fremstår som et “KI-verktøy”. Eksempler kan være:

  • Tekstnær støtte: utkast til journalnotat, oppsummeringer, standardformuleringer eller forslag til pasientinformasjon.

  • Arbeidsflyt og prioritering: sortering av henvendelser, forslag til oppgaveprioritering, eller automatiske “neste steg” i prosess.

  • Kvalitets- og avvikssignaler: varsler om mangler, avviksmønstre eller inkonsistens i data.

Det avgjørende for “menneskelig kontroll” er ikke om KI brukes, men hvordan KI påvirker handling: Hva blir foreslått som standard? Hva blir utelatt? Hvor fristes man til å godkjenne raskt? Og hvor blir det i praksis vanskelig å overstyre?

Hvor oppstår ansvarsspørsmålet?

Ansvarsspørsmålet oppstår typisk når menneskelig kontroll er en intensjon, men ikke en definert mekanisme. Da blir det uklart hvem som skal kontrollere hvanår, og med hvilket mandat.

Noen gjentakende situasjoner i klinisk arbeid er:

  1. Når KI-innhold “ser riktig ut”
    KI-generert tekst eller forslag kan være språklig overbevisende, men faglig feil eller for generelt. Risikoen blir særlig høy når tidspress gjør at overlesning erstatter reell vurdering.

  2. Når kontrollrollen ikke er eksplisitt tildelt
    Effektiv menneskelig kontroll forutsetter at det faktisk er utpekt hvem som har ansvar for å utøve den, og at vedkommende har kompetanse, myndighet og støtte. Dette er også en tydelig forventning i EU AI Act for deployere av høyrisiko KI. 

  3. Når KI flytter oppmerksomhet, ikke bare tid
    I praksis handler kontroll ofte om oppmerksomhet: KI kan “føre blikket” mot enkelte funn og bort fra andre, eller foreslå et standardløp som blir fulgt uten å bli utfordret.

  4. Når det ikke finnes reelle stoppunkter eller overstyringsmulighet
    Hvis arbeidsflyten ikke har tydelige punkter der man skal stoppe, dobbeltsjekke, eller dokumentere avvik fra KI-forslag, blir kontrollen i praksis valgfri og personavhengig.

  5. Når sporbarhet mangler ved avvik eller klage
    Ved hendelser er det ofte nødvendig å kunne forklare: Hva ble foreslått av systemet? Hva gjorde fagpersonen? Hva ble endret? NISTs AI RMF peker på at prosesser for menneskelig kontroll bør være definerte, vurderte og dokumenterte – nettopp for å gjøre styring etterprøvbar. 

Vanlige misforståelser

«Menneskelig kontroll betyr at en tannlege er involvert»

At en fagperson er i prosessen er ikke det samme som at kontroll faktisk utøves. Kontroll må være operasjonalisert: hva skal vurderes, hvilke tegn skal trigge stopp, og hva gjør man når man er uenig med systemets forslag.

«Dette gjelder bare kliniske KI-systemer»

Kontrollbehov oppstår også ved “administrativ” og kommunikativ KI. Tekstforslag i journal og pasientkommunikasjon kan påvirke presisjon, dokumentasjonskvalitet og pasientens forståelse – selv om KI ikke gjør en klinisk vurdering i snever forstand.

«Hvis leverandøren har bygget inn kontroll, er vi dekket»

Leverandører kan støtte med funksjoner, men virksomheten må definere bruksområde, roller, opplæring og oppfølging i egen kontekst. EU AI Act skiller mellom leverandør- og deployeransvar, og peker blant annet på at deployere må sikre kompetent menneskelig kontroll i bruken. 

«Menneskelig kontroll er en policy, ikke en praksis»

En setning i en intern retningslinje (“det skal alltid gjøres faglig vurdering”) gir lite styring hvis den ikke er koblet til konkrete kontrollpunkter, dokumentasjon og avviksrutiner.

«Kontroll betyr at KI ikke kan brukes effektivt»

Menneskelig kontroll handler ikke om å fjerne gevinster, men om å sikre at effektivisering ikke skjer på bekostning av etterprøvbarhet og faglig presisjon. I praksis er målet å definere hvor kontrollen er nødvendig, og gjøre den enkel å gjennomføre konsekvent.

Hva bør være på plass i praksis?

For tannklinikker er et godt mål å etablere en kontrollmodell som er lett å etterleve i hverdagen, og som tåler etterprøving i etterkant.

  • Kartlagt faktisk KI-bruk i virksomheten
    Oversikt over hvor KI påvirker klinisk arbeid (journal, pasientinfo, prioritering, oppfølging), og hva som i praksis er “automatikk” versus faglig vurdering.

  • Tydelige roller, ansvar og beslutningsmyndighet
    Utpek hvem som har kontrollansvar i de viktigste bruksområdene, og sørg for at rollen har mandat til å stoppe/endre praksis ved behov. Helsedirektoratet peker også på at drift og forvaltning av KI kan kreve tydelige roller og ansvar, og at styringssystemer kan utvides for å håndtere KI-kvalitet over tid. 

  • Menneskelig kontroll og mulighet for overstyring
    Gjør kontroll konkret:

    • hvilke elementer må alltid verifiseres (fakta, kliniske vurderinger, risikoinformasjon, mottaker),

    • hvilke situasjoner krever dobbeltsjekk,

    • hva er stoppkriterier,

    • hvordan dokumenteres uenighet eller korrigering.

    For deployere av høyrisiko KI er forventningen om kompetent human oversight eksplisitt, og knyttet til kompetanse, opplæring, myndighet og støtte. 

  • Dokumentasjon og sporbarhet
    Et minimum bør være at klinikken kan forklare:

    • hvilket bruksområde som var i bruk,

    • hvem som utøvde kontroll,

    • hva som ble vurdert/justert,

    • og hvordan avvik håndteres.
      EU AI Act beskriver også loggkrav for deployere av høyrisiko KI (minimum oppbevaring), som illustrerer retningen mot mer etterprøvbar drift. 

  • Forklarbarhet overfor pasienter og tilsynsmyndigheter
    Klinikken bør kunne beskrive på et praktisk nivå hva KI brukes til, hva den ikke brukes til, og hvilke kontrollmekanismer som finnes. Dette handler om forutsigbarhet, ikke tekniske detaljer.

Acteras rolle i dette

Actera er etablert for å gi tannhelsevirksomheter struktur rundt ansvarlig bruk av KI. 

Vi jobber ikke med teknologiutvikling eller kliniske beslutninger, men med styringsstruktur, ansvarslinjer og dokumentasjon – slik at KI kan brukes på en trygg, forutsigbar og etterprøvbar måte. 

Avsluttende betraktning

Menneskelig kontroll ved KI-bruk er ikke et prinsipp som “oppstår av seg selv” fordi en fagperson er involvert. Det er en praksis som må være tydelig definert, tildelt og støttet – og som må kunne forklares i etterkant.

Når kontrollen operasjonaliseres gjennom roller, stoppunkter og sporbarhet, blir KI-bruk enklere å styre over tid. Det reduserer personavhengighet og gjør det mulig å kombinere effektivitet med etterprøvbar klinisk praksis.

Lawyer portrait photo
Lawyer portrait photo
Lawyer portrait photo

Relaterte artikler

Relaterte artikler

KI i journalføring: ansvar og dokumentasjon

KI i tannklinikk: hvem har ansvaret?

KI og pasientinformasjon: sporbarhet og etterprøvbarhet

Business Intelligence i tannhelse: data som beslutningsstøtte

Avvik ved KI i tannklinikk: ansvar og oppfølging

Tredjeparts KI i tannklinikk: hva kan ikke outsources?

Dokumentasjon av KI-bruk i tannhelse

Menneskelig kontroll ved KI-bruk i tannklinikk

Ansvarlig KI i tannklinikk: hvilke roller må være tydelige?

KI i journalføring: ansvar og dokumentasjon

KI i tannklinikk: hvem har ansvaret?

KI i journalføring: ansvar og dokumentasjon

KI i tannklinikk: hvem har ansvaret?

KI og pasientinformasjon: sporbarhet og etterprøvbarhet