
18. okt. 2025
KI i tannklinikk: hvem har ansvaret?

18. okt. 2025
KI i tannklinikk: hvem har ansvaret?
KI i tannklinikk: hvem har ansvaret?
Kunstig intelligens brukes allerede i tannklinikker – i alt fra administrative prosesser til beslutningsstøtte, tekstforslag og automatisering i arbeidsflyt. Bruken kan være synlig eller “innebygget” i systemer som oppleves som vanlige digitale verktøy.
Når KI påvirker prioriteringer, vurderinger eller kommunikasjon, oppstår et spørsmål som ofte blir hengende: Hvem har egentlig ansvaret – behandler, klinikkledelse, eller leverandør?
Denne artikkelen forklarer hvordan ansvar knyttet til KI-bruk bør forstås i tannklinikk, hvor ansvar typisk blir uklart, og hvilke styringsprinsipper som bør være på plass for å skape forutsigbarhet og etterprøvbarhet.
Hva menes med KI-bruk i tannhelse?
I en tannklinikk handler “KI-bruk” sjelden om én tydelig, avgrenset løsning. Begrepet dekker i praksis flere typer støttefunksjoner og automatisering som kan påvirke hvordan klinikken arbeider.
Typiske eksempler kan være:
Klinikknære støtter: forslag til formuleringer, oppsummering av tekst, triagering eller prioritering av oppgaver, kvalitetskontroller av data eller avvikssignaler i arbeidsflyt.
Administrative bruksområder: automatisert timeplanlegging, ressursfordeling, innsiktsrapporter, eller prediksjoner knyttet til uteblivelser og kapasitet.
Kommunikasjon: utkast til pasientinformasjon, standardtekster, svarforslag, eller oversettelser.
Felles for disse bruksområdene er at KI kan påvirke hva som blir foreslått, hva som blir fremhevet, og hvordan informasjon blir formulert. Det betyr ikke at KI “tar beslutninger” i juridisk eller klinisk forstand, men det kan påvirke beslutningsgrunnlaget og dermed også ansvarsbildet.
Hvor oppstår ansvarsspørsmålet?
Ansvarsspørsmålet oppstår typisk i overgangene mellom menneskelig vurdering og teknologisk støtte – særlig når det er uklart hva som er automatisert, og hvem som har mandat til å godkjenne, overstyre eller stoppe bruken.
Noen gjentakende situasjoner er:
Uklare grenseflater i arbeidsflyt
Når ansatte følger anbefalinger fra et system “som alltid pleier å være riktig”, kan det i praksis oppstå en glideffekt der vurderinger blir mindre aktive, uten at noen har besluttet at det skal være slik.Bruk av tredjepartsløsninger
Mange KI-funksjoner leveres av eksterne aktører, eller er integrert i programvare klinikken allerede bruker. Da kan klinikken oppleve at den “bare er bruker”, mens ansvar i realiteten fortsatt må forankres i egen styring og praksis.Manglende rolleavklaringer
Hvem kan ta i bruk nye KI-funksjoner? Hvem vurderer risiko? Hvem følger opp avvik? Hvis dette ikke er definert, blir ansvar lett personavhengig og situasjonsstyrt.Svak dokumentasjon og sporbarhet
Når det i ettertid er vanskelig å rekonstruere hva som skjedde (hvilke data som lå til grunn, hvilke anbefalinger som ble gitt, og hvilke vurderinger som ble gjort), blir ansvarsavklaring tilsvarende vanskelig.
Regulatorisk skjerpede forventninger til ansvarlig KI er også en del av bakteppet. EU har vedtatt AI Act, som trådte i kraft 1. august 2024, med gradvis innfasing av krav over tid. For tannhelse er det særlig relevant at enkelte KI-systemer kan klassifiseres som “høyrisiko” avhengig av bruksområde og om de inngår i regulerte produktkategorier (som medisinsk utstyr). (Dette er omtalt som prinsipper og kontekst, ikke juridisk rådgivning.)
Vanlige misforståelser
«KI tar beslutningen»
I praksis er KI som regel en støttefunksjon: den foreslår, rangerer, oppsummerer eller klassifiserer. Det kan likevel oppleves beslutningslignende når forslagene presenteres med høy autoritet eller blir standardvalg i systemet.
Ansvar oppstår derfor ofte ikke i “øyeblikket KI svarer”, men i hvordan klinikken har definert bruken: Hvilke oppgaver kan støttes? Når må en fagperson gjøre en selvstendig vurdering? Hvordan sikres overstyring når noe virker feil?
«Ansvar følger leverandøren»
Leverandøren kan ha ansvar knyttet til produkt, kvalitet og dokumentasjon, men klinikken kan ikke “outsourc’e” ansvar for hvordan et system brukes i egen virksomhet. Klinikken bestemmer kontekst, prosess, opplæring, kontroll og hvordan anbefalinger faktisk påvirker arbeid.
I regelverkslogikk omtales dette ofte som ansvar hos den som tar i bruk og opererer løsningen (deployer/brukerrolle), blant annet knyttet til menneskelig kontroll og løpende oppfølging.
«Dette løses med intern policy»
Retningslinjer er nyttige, men alene blir de ofte for generelle: “Bruk KI med forsiktighet” gir lite styring når det oppstår tvil i praksis.
Ansvar blir tydelig først når policy henger sammen med konkrete mekanismer: roller, godkjenning av bruksområder, opplæring, logging/sporbarhet og praktiske stoppunkter i arbeidsflyten.
«Hvis det bare er tekstforslag, er risikoen lav»
Tekstforslag kan virke ufarlig, men kan påvirke presisjon i journal, tone i pasientkommunikasjon og hvilke opplysninger som faktisk dokumenteres. Små endringer i formulering kan gi stor forskjell i hva som kan etterprøves senere.
Derfor handler ansvar ikke bare om “klinisk beslutning”, men også om dokumentasjonskvalitet, informasjonsflyt og hvordan klinikken sikrer at menneskelig vurdering faktisk skjer.
«Ansvar handler om å finne en skyldig»
Ansvar i styringsforstand handler først og fremst om å sikre at noen har mandat og plikt til å: definere rammer, følge opp praksis, og håndtere avvik. Når dette er uklart, havner problemene ofte hos enkeltpersoner i etterkant.
Et mer robust ansvarsbilde beskriver på forhånd hvem som gjør hva, og hva som skal dokumenteres – slik at etterprøvbarhet ikke blir et ad hoc-prosjekt når noe går galt.
Hva bør være på plass i praksis?
Når en tannklinikk skal bruke KI på en forutsigbar måte, er det ofte fem områder som skiller “tilfeldig bruk” fra styrt praksis:
Kartlegging av faktisk KI-bruk
Oversikt over hvor KI inngår i systemer og arbeidsflyt (også der det ikke er åpenbart), hva den brukes til, og hvilke data som berøres.Tydelige roller, ansvar og beslutningsmyndighet
Hvem kan innføre nye bruksområder? Hvem godkjenner endringer? Hvem eier risiko- og avvikshåndtering? Dette bør være definert på klinikknivå, ikke bare som generell “IT-oppfølging”.Menneskelig kontroll og mulighet for overstyring
Klare forventninger til når ansatte skal stoppe, overprøve eller dobbeltsjekke. Dette forutsetter både kompetanse og praktisk rom i arbeidsflyten til å utøve kontroll.Dokumentasjon og sporbarhet
Det bør være mulig å forklare i ettertid: hvilket bruksområde som var i bruk, hva som ble foreslått/automatisk behandlet, og hvordan en fagperson vurderte resultatet. Uten dette blir ansvar vanskelig å etterprøve.Forklarbarhet overfor pasienter og tilsyn
Klinikken bør kunne beskrive på et forståelig nivå hva KI brukes til, hva den ikke brukes til, og hvilke kontrollmekanismer som finnes. Målet er ikke teknisk detalj, men tillit gjennom etterprøvbar praksis.
Acteras rolle i dette
Actera er etablert for å gi tannhelsevirksomheter struktur rundt ansvarlig bruk av KI.
Vi jobber ikke med teknologiutvikling eller kliniske beslutninger, men med styringsstruktur, ansvarslinjer og dokumentasjon – slik at KI kan brukes på en trygg, forutsigbar og etterprøvbar måte.
Avsluttende betraktning
KI vil fortsette å bli en del av tannklinikken. Spørsmålet er sjelden om teknologien finnes, men hvordan den faktisk påvirker arbeidsflyt, vurderinger og dokumentasjon.
Tydelig ansvar handler derfor mindre om enkeltverktøy, og mer om struktur: roller, kontrollpunkter og sporbarhet som tåler etterprøving. Når dette er på plass, blir det også enklere å ta i bruk KI på en måte som gir forutsigbarhet for klinikk, ledelse og pasient.










