EU AI Act i tannhelse: hva betyr den for tannklinikker?

EU AI Act i tannhelse: hva betyr den for tannklinikker?

EU AI Act er et nytt rammeverk for kunstig intelligens i Europa, og blir relevant også for tannklinikker fordi KI i økende grad brukes i klinisk støtte, arbeidsflyt og pasientkommunikasjon.

Når regelverket omtaler “høyrisiko” og nye plikter for både leverandører og virksomheter som tar i bruk KI, kan det skape uklarhet: Gjelder dette oss – og i så fall når og hvordan?

Denne artikkelen forklarer hvordan EU AI Act kan treffe tannhelse i praksis, hvor ansvar typisk blir uklart, og hvilke styringsprinsipper som bør være dokumentert for å kunne stå støtt over tid. 

Hva menes med KI-bruk i tannhelse?

I tannhelse handler KI-bruk sjelden om ett “stort KI-prosjekt”. Ofte er KI funksjonalitet bygget inn i programvare og tjenester som allerede brukes, eller tas i bruk trinnvis som støtte i hverdagsprosesser.

I praksis kan KI-bruk omfatte:

  • Klinikknær støtte: beslutningsstøtte, mønstergjenkjenning, eller forslag som påvirker vurdering og prioritering.

  • Administrativ automatisering: ressursplanlegging, prognoser, sortering av henvendelser og oppgaver.

  • Kommunikasjon og tekst: utkast til pasientinformasjon, oppsummeringer, standardtekster og intern dokumentasjon.

EU AI Act er risikobasert. Det betyr at konsekvensene ikke avgjøres av om noe “er KI”, men av hva KI brukes til, og hvilken risiko bruken kan ha for helse, sikkerhet og rettigheter. 

Hvor oppstår ansvarsspørsmålet?

Ansvarsspørsmålet blir tydelig når KI påvirker arbeidsflyt eller beslutningsgrunnlag, men det er uklart hvem som har definert rammer, kontroll og dokumentasjon.

I en tannklinikk oppstår dette ofte i tre typer situasjoner:

  1. Overganger mellom menneskelig vurdering og teknologisk støtte
    Når forslag, rangeringer eller “automatiske” anbefalinger blir en del av hverdagen, kan det oppstå en stille endring i praksis: mindre aktiv vurdering, mer følge av systemets forslag. AI Act legger vekt på menneskelig kontroll (human oversight) nettopp fordi slike overganger er risikoutsatte. 

  2. Bruk av tredjepartsløsninger og “innebygd KI”
    Mange klinikker er i rollen som deployer/bruker: man tar i bruk en løsning som andre har utviklet. AI Act legger likevel konkrete plikter på deployere av høyrisiko KI, blant annet knyttet til bruk etter instruks, kompetent tilsyn, relevante inngangsdata, overvåking og loggføring. 

  3. Manglende rolleavklaringer og svak sporbarhet
    Når det ikke er definert hvem som kan innføre nye KI-funksjoner, hvem som vurderer risiko, eller hvordan avvik håndteres, blir ansvaret ofte personavhengig. I ettertid blir det da vanskelig å forklare hva som faktisk skjedde – og hvorfor.

Et særtrekk for helsesektoren er at KI ofte kan være del av regulerte produktkategorier (for eksempel medisinsk utstyr), og da kan klassifisering og tidslinjer bli mer sammensatte. Europakommisjonen peker samtidig på at KI-basert programvare til medisinske formål typisk vil være innenfor “høyrisiko”-logikk og ha krav til blant annet risikohåndtering, gode datasett, brukerinfo og menneskelig oversikt. 

Vanlige misforståelser

«EU AI Act gjelder bare leverandører»

AI Act retter seg både mot de som utvikler/leverer systemer, og de som tar dem i bruk. For høyrisiko KI har deployere egne plikter, blant annet å bruke systemet i tråd med instruksjoner, sørge for kompetent menneskelig oversikt, følge opp drift og håndtere logger. 

«Alt som brukes i helsetjenesten er automatisk høyrisiko»

AI Act skiller mellom ulike måter et system kan bli høyrisiko på. For helserelaterte systemer er det særlig relevant at noen KI-løsninger blir høyrisiko fordi de inngår i regulerte produktkategorier (som medisinsk utstyr), mens andre kan falle inn under høyrisiko fordi de brukes til bestemte formål. 
Poenget for klinikkledelse er ikke å “gjette riktig kategori”, men å forstå at risikonivået avhenger av bruksområde og kontekst – og at dette må kunne forklares.

«Dette handler bare om IT og innkjøp»

Teknologi og innkjøp er bare én del. I praksis er de mest krevende spørsmålene organisatoriske: Hvem eier bruken? Hvem godkjenner bruksområder? Hvilke kontrollpunkter finnes? Hvordan dokumenteres vurderinger? AI Act legger vekt på styring, sporbarhet og menneskelig oversikt, som i stor grad er ledelses- og linjeansvar, ikke bare IT-ansvar. 

«Vi kan vente til alt er fullt innført»

AI Act har en innfasingsplan, men “vente” er sjelden en robust strategi hvis KI-bruk allerede skjer. EU beskriver blant annet at forbudte praksiser fikk anvendelse fra februar 2025, at regler for general-purpose AI fikk anvendelse fra august 2025, og at sentrale regler for høyrisiko kommer i 2026, med utvidet overgang for høyrisiko KI innebygd i regulerte produkter til 2027. 
For tannklinikker er det ofte mer hensiktsmessig å etablere grunnleggende styringsprinsipper tidlig (kartlegging, roller, sporbarhet), uavhengig av detaljene i klassifisering.

Hva bør være på plass i praksis?

I tannklinikker er det typisk fem områder som gir størst effekt på kontroll og etterprøvbarhet, uavhengig av om KI-bruken er “stor” eller “smått innebygd”:

  • Kartlagt faktisk KI-bruk i virksomheten
    En nøktern oversikt over hvor KI inngår i systemer og arbeidsprosesser, hva den påvirker (prioritering, tekst, vurderingsstøtte), og hvilke data som berøres.

  • Tydelige roller, ansvar og beslutningsmyndighet
    Hvem kan aktivere nye KI-funksjoner? Hvem godkjenner bruksområder? Hvem følger opp avvik? Uten dette blir ansvaret utydelig og personavhengig.

  • Menneskelig kontroll og mulighet for overstyring
    Det bør være tydelig når fagpersoner skal overprøve, stoppe eller dobbeltsjekke. AI Act peker eksplisitt på deployers plikt til å sikre kompetent menneskelig oversight og å overvåke bruken. 

  • Dokumentasjon og sporbarhet
    Klinikken bør kunne forklare i ettertid hva som ble brukt, hva systemet bidro med (for eksempel forslag/klassifisering), og hvordan menneskelig vurdering ble utøvd. For deployere av høyrisiko KI omtales også loggplikt (minimumsperiode) som en del av pliktene. 

  • Forklarbarhet overfor pasienter og tilsynsmyndigheter
    Ikke tekniske detaljer, men en forståelig beskrivelse av hva KI brukes til, hvilke begrensninger som finnes, og hvilke kontrollmekanismer klinikken har.

(Dette er styringsprinsipper og praktiske forventninger, ikke juridisk rådgivning.) 

Acteras rolle i dette

Actera er etablert for å gi tannhelsevirksomheter struktur rundt ansvarlig bruk av KI. 

Vi jobber ikke med teknologiutvikling eller kliniske beslutninger, men med styringsstruktur, ansvarslinjer og dokumentasjon – slik at KI kan brukes på en trygg, forutsigbar og etterprøvbar måte. 

Avsluttende betraktning

EU AI Act gjør det tydeligere at KI ikke bare er et teknologivalg, men et styrings- og ansvarsområde. For tannklinikker blir den viktigste konsekvensen ofte behovet for bedre oversikt, tydeligere roller og mer sporbar praksis.

KI vil i økende grad være innebygget i klinikkens verktøy og prosesser. Når struktur og dokumentasjon er på plass, blir det også enklere å håndtere endringer i regelverk, leverandørlandskap og bruksmønstre – uten at kontrollen blir personavhengig. 

Lawyer portrait photo

Relaterte artikler

Relaterte artikler

KI-styring og kvalitetssystem: hva er forskjellen — og hvorfor det betyr noe under EU AI Act

EU AI Act for tannklinikker: krav per artikkel, forklart

EU AI Act for tannklinikker: tre måter å løse det på

Redusere risiko ved KI i tannhelse

Læring etter hendelser der KI er brukt

Når KI påvirker kliniske beslutninger indirekte

Undersøke hendelser der KI er involvert

Avvikssystemer og KI i tannklinikk

Når KI bidrar til feil i tannklinikk

KI-styring og kvalitetssystem: hva er forskjellen — og hvorfor det betyr noe under EU AI Act

EU AI Act for tannklinikker: krav per artikkel, forklart

KI-styring og kvalitetssystem: hva er forskjellen — og hvorfor det betyr noe under EU AI Act

EU AI Act for tannklinikker: krav per artikkel, forklart

EU AI Act for tannklinikker: tre måter å løse det på