
18. okt. 2025
KI i tandklinik: hvem har ansvaret?

18. okt. 2025
KI i tandklinik: hvem har ansvaret?
KI i tandklinik: hvem har ansvaret?
Kunstig intelligens anvendes allerede i tandklinikker – fra administrative processer til beslutningsstøtte, tekstanbefalinger og automatisering i arbejdsgange. Anvendelsen kan være synlig eller "indbygget" i systemer, der opleves som almindelige digitale værktøjer.
Når KI påvirker prioriteringer, vurderinger eller kommunikation, opstår der et spørgsmål, som ofte bliver vedhængende: Hvem har egentlig ansvaret – behandler, klinikledelse eller leverandør?
Denne artikel forklarer, hvordan ansvar forbundet med KI-brug bør forstås i tandklinikker, hvor ansvar typisk bliver uklart, og hvilke ledelsesprincipper der bør være på plads for at skabe forudsigelighed og efterprøvbarhed.
Hvad menes med KI-brug i tandpleje?
I en tandklinik handler "KI-brug" sjældent om én tydelig, afgrænset løsning. Begrebet dækker i praksis flere typer støttefunktioner og automatiseringer, der kan påvirke, hvordan klinikken arbejder.
Typiske eksempler kan være:
Kliniknære støtter: forslag til formuleringer, sammenfatning af tekst, triage eller prioritering af opgaver, kvalitetskontroller af data eller afvigelsessignaler i arbejdsgange.
Administrative anvendelser: automatiseret tidsplanlægning, ressourcefordeling, indsigtsrapporter eller forudsigelser relateret til udeblivelser og kapacitet.
Kommunikation: udkast til patientinformation, standardtekster, forslag til svar eller oversættelser.
Fælles for disse anvendelsesområder er, at KI kan påvirke hvad der bliver foreslået, hvad der bliver fremhævet, og hvordan informationen bliver formuleret. Det betyder ikke, at KI "tager beslutninger" i juridisk eller klinisk forstand, men det kan påvirke beslutningsgrundlaget og dermed også ansvarsfordelingen.
Hvor opstår ansvarsspørgsmålet?
Ansvarsspørgsmålet opstår typisk i overgangene mellem menneskelig vurdering og teknologisk støtte – særligt når det er uklart, hvad der er automatiseret, og hvem der har mandat til at godkende, overstyre eller stoppe anvendelsen.
Nogle gentagende situationer er:
Uklar grænseflader i arbejdsgange
Når ansatte følger anbefalinger fra et system "som altid plejer at være korrekt", kan der i praksis opstå en glideeffekt, hvor vurderinger bliver mindre aktive, uden at nogen har besluttet, at det skal være sådan.Anvendelse af tredjepartsløsninger
Mange KI-funktioner leveres af eksterne aktører eller er integreret i software, som klinikken allerede bruger. Da kan klinikken opleve, at den "bare er bruger", mens ansvar reelt stadig skal forankres i egen ledelse og praksis.Manglende rolleafklaringer
Hvem kan tage nye KI-funktioner i brug? Hvem vurderer risiko? Hvem følger op på afvigelser? Hvis dette ikke er defineret, bliver ansvar let personafhængigt og situationsbestemt.Svag dokumentation og sporbarhed
Når det efterfølgende er svært at rekonstruere, hvad der skete (hvilke data der lå til grund, hvilke anbefalinger der blev givet, og hvilke vurderinger der blev foretaget), bliver ansvarsafklaring tilsvarende vanskelig.
Regulatorisk skærpede forventninger til ansvarlig KI er også en del af baggrunden. EU har vedtaget AI Act, som trådte i kraft 1. august 2024, med gradvis implementering af krav over tid. For tandpleje er det særligt relevant, at enkelte KI-systemer kan klassificeres som "højrisko" afhængig af anvendelse og om de indgår i regulerede produktkategorier (som medicinsk udstyr). (Dette er omtalt som principper og kontekst, ikke juridisk rådgivning.)
Almindelige misforståelser
«KI tager beslutningen»
I praksis er KI som regel en støttefunktion: den foreslår, rangerer, sammenfatter eller klassificerer. Det kan dog opleves som beslutningslignende, når forslagene præsenteres med høj autoritet eller bliver standardvalg i systemet.
Ansvar opstår derfor ofte ikke i "øjeblikket KI svarer", men i hvordan klinikken har defineret brugen: Hvilke opgaver kan støttes? Hvornår skal en fagperson foretage en selvstændig vurdering? Hvordan sikres overstyring, når noget virker forkert?
«Ansvar følger leverandøren»
Leverandøren kan have ansvar i forhold til produkt, kvalitet og dokumentation, men klinikken kan ikke "udkontraktere" ansvar for hvordan et system bruges i egen virksomhed. Klinikken bestemmer kontekst, proces, træning, kontrol og hvordan anbefalinger faktisk påvirker arbejde.
I regelværkslogik omtales dette ofte som ansvar hos den som tager i brug og opererer løsningen (implementerer/brugerrolle), blandt andet relateret til menneskelig kontrol og løbende opfølgning.
«Dette løses med intern politik»
Retningslinjer er nyttige, men alene bliver de ofte for generelle: "Brug KI med forsigtighed" giver lidt styring, når der opstår tvivl i praksis.
Ansvar bliver tydeligt først når politik hænger sammen med konkrete mekanismer: roller, godkendelse af anvendelsesområder, træning, logning/sporbarhed og praktiske stoppepunkter i arbejdsgangen.
«Hvis det bare er tekstanbefalinger, er risikoen lav»
Tekstanbefalinger kan virke ufarligt, men kan påvirke præcisionen i journaler, tonen i patientkommunikation og hvilke oplysninger der faktisk dokumenteres. Små ændringer i formuleringen kan give stor forskel i hvad der kan efterprøves senere.
Derfor handler ansvar ikke kun om "klinisk beslutning", men også om dokumentationskvalitet, informationsflow og hvordan klinikken sikrer, at menneskelig vurdering faktisk finder sted.
«Ansvar handler om at finde en skyldig»
Ansvar i ledelsesforstand handler primært om at sikre, at nogen har mandat og pligt til at: definere rammer, følge op på praksis og håndtere afvigelser. Når dette er uklart, havner problemerne ofte hos enkeltpersoner i efterfølgende.
Et mere robust ansvarsområde beskriver på forhånd, hvem der gør hvad, og hvad der skal dokumenteres – så efterprøvbarhed ikke bliver et ad hoc-projekt, når noget går galt.
Hvad bør være på plads i praksis?
Når en tandklinik skal bruge KI på en forudsigelig måde, er det ofte fem områder, der skiller "tilfældig brug" fra styret praksis:
Kortlægning af faktisk KI-brug
Oversigt over hvor KI indgår i systemer og arbejdsgange (også der hvor det ikke er indlysende), hvad den bruges til, og hvilke data der berøres.Tydelige roller, ansvar og beslutningsmyndighed
Hvem kan indføre nye anvendelsesområder? Hvem godkender ændringer? Hvem ejer risiko- og afvigelsesstyring? Dette bør være defineret på klinikniveau, ikke kun som generel "IT-opfølgning".Menneskelig kontrol og mulighed for overstyring
Klare forventninger til, hvornår ansatte skal stoppe, overprøve eller dobbelttjekke. Det forudsætter både kompetence og praktisk rum i arbejdsgangen til at udøve kontrol.Dokumentation og sporbarhed
Det bør være muligt at forklare efterfølgende: hvilket anvendelsesområde der var i brug, hvad der blev foreslået/automatisk behandlet, og hvordan en fagperson vurderede resultatet. Uden dette bliver ansvar svært at efterprøve.Forklarbarhed overfor patienter og tilsyn
Klinikken bør kunne beskrive på et forståeligt niveau, hvad KI bruges til, hvad den ikke bruges til, og hvilke kontrolmekanismer der findes. Målet er ikke teknisk detalje, men tillid gennem efterprøvet praksis.
Acteras rolle i dette
Actera er etableret for at give tandplejevirksomheder struktur omkring ansvarlig brug af KI.
Vi arbejder ikke med teknologiudvikling eller kliniske beslutninger, men med ledelsesstruktur, ansvarsområder og dokumentation – så KI kan bruges på en sikker, forudsigelig og efterprøvbar måde.
Afsluttende betragtning
KI vil fortsat blive en del af tandklinikken. Spørgsmålet er sjældent om teknologien findes, men hvordan den faktisk påvirker arbejdsgange, vurderinger og dokumentation.
Tydeligt ansvar handler derfor mindre om enkeltværktøjer, og mere om struktur: roller, kontrolpunkter og sporbarhed som tolererer efterprøvelse. Når dette er på plads, bliver det også nemmere at tage KI i brug på en måde, der giver forudsigelighed for klinik, ledelse og patienter.










