
12. jan. 2026
Menneskelig kontrol ved brug af KI i tandklinik

12. jan. 2026
Menneskelig kontrol ved brug af KI i tandklinik
Menneskelig kontrol ved brug af KI: hvad betyder det i klinisk arbejde?
KI-funktioner bliver hurtigt en del af klinisk arbejde i tandpleje – ofte som støtte i tekst, arbejdsgang, prioritering og kommunikation, og nogle gange som beslutningsnær støtte.
Når sådanne funktioner opleves som “indbyggede” og gnidningsfrie, bliver det nemt at antage, at menneskelig kontrol allerede er blevet sikret – fordi en fagperson uanset hvad er involveret.
Denne artikel forklarer hvad menneskelig kontrol ved brug af KI faktisk indebærer i praksis, hvor ansvar og risiko typisk opstår, og hvilke styringsprincipper der bør være på plads for at gøre kontrollen efterprøvbar.
Hvad menes med brug af KI i tandpleje?
I tandpleje vil brug af KI ofte betyde, at systemer foreslår, opsummerer, strukturerer eller rangerer information – uden at det nødvendigvis fremtræder som et “KI-værktøj”. Eksempler kan være:
Tekstnær støtte: udkast til journalnotater, opsummeringer, standardformuleringer eller forslag til patientinformation.
Arbejdsgang og prioritering: sortering af henvendelser, forslag til opgaveprioritering, eller automatiske “næste trin” i processen.
Kvalitets- og afvigelsessignaler: advarsler om mangler, afvigelsesmønstre eller inkonsistens i data.
Det afgørende for “menneskelig kontrol” er ikke om KI bruges, men hvordan KI påvirker handling: Hvad bliver foreslået som standard? Hvad bliver udeladt? Hvor fristes man til at godkende hurtigt? Og hvor bliver det i praksis svært at tilsidesætte?
Hvor opstår ansvarsspørgsmålet?
Ansvarsspørgsmålet opstår typisk når menneskelig kontrol er en intention, men ikke en defineret mekanisme. Da bliver det uklart hvem der skal kontrollere hvad, hvornår, og med hvilket mandat.
Nogle tilbagevendende situationer i klinisk arbejde er:
Når KI-indhold “ser rigtigt ud”
KI-genereret tekst eller forslag kan være sprogligt overbevisende, men fagligt fejlagtig eller for generel. Risikoen bliver især høj når tidspress gør, at gennemsyn erstatter reel vurdering.Når kontrolrollen ikke er eksplicit tildelt
Effektiv menneskelig kontrol forudsætter, at det faktisk er udpeget hvem der har ansvar for at udøve den, og at vedkommende har kompetence, myndighed og støtte. Dette er også en tydelig forventning i EU AI Act for deployere af højrisiko KI.Når KI flytter opmærksomhed, ikke kun tid
I praksis handler kontrol ofte om opmærksomhed: KI kan “lede blikket” mod visse fund og væk fra andre, eller foreslå en standardudvikling som følges uden at blive udfordret.Når der ikke findes reelle stopunkter eller mulighed for tilsidesættelse
Hvis arbejdsgangen ikke har tydelige punkter hvor man skal stoppe, dobbelttjekke, eller dokumentere afvigelser fra KI-forslag, bliver kontrollen i praksis valgfri og personafhængig.Når sporbarhed mangler ved afvigelse eller klage
Ved hændelser er det ofte nødvendigt at kunne forklare: Hvad blev foreslået af systemet? Hvad gjorde fagpersonen? Hvad blev ændret? NISTs AI RMF peger på, at processer for menneskelig kontrol bør være definerede, vurderede og dokumenterede – netop for at gøre styring efterprøvbar.
Almindelige misforståelser
«Menneskelig kontrol betyder at en tandlæge er involveret»
At en fagperson er i processen er ikke det samme som at kontrol faktisk udøves. Kontrol skal være operationaliseret: hvad skal vurderes, hvilke tegn skal udløse stop, og hvad gør man når man er uenig med systemets forslag.
«Dette gælder kun kliniske KI-systemer»
Kontrolbehov opstår også ved “administrativ” og kommunikativ KI. Tekstforslag i journaler og patientkommunikation kan påvirke præcision, dokumentationskvalitet og patientens forståelse – selvom KI ikke udfører en klinisk vurdering i snæver forstand.
«Hvis leverandøren har indbygget kontrol, er vi dækket»
Leverandører kan støtte med funktioner, men virksomheden må definere brugsområde, roller, uddannelse og opfølgning i egen kontekst. EU AI Act skelner mellem leverandør- og deployeransvar, og peger blandt andet på, at deployere skal sikre kompetent menneskelig kontrol i anvendelsen.
«Menneskelig kontrol er en politik, ikke en praksis»
En sætning i en intern retningslinje (“der skal altid udføres faglig vurdering”) giver lidt styring hvis den ikke er koblet til konkrete kontrolpunkter, dokumentation og afvigelsesrutiner.
«Kontrol betyder at KI ikke kan bruges effektivt»
Menneskelig kontrol handler ikke om at fjerne gevinster, men om at sikre, at effektivisering ikke sker på bekostning af efterprøvbarhed og faglig præcision. I praksis er målet at definere hvor kontrollen er nødvendig, og gøre den enkel at gennemføre konsekvent.
Hvad bør være på plads i praksis?
For tandklinikker er et godt mål at etablere en kontrolmodel som er let at efterleve i hverdagen, og som tåler efterprøvning senere.
Kortlagt faktisk KI-brug i virksomheden
Overblik over hvor KI påvirker klinisk arbejde (journal, patientinfo, prioritering, opfølgning), og hvad der i praksis er “automatik” versus faglig vurdering.Tydelige roller, ansvar og beslutningsmyndighed
Udpeg hvem der har kontrolansvar indenfor de vigtigste brugsområder, og sørg for at rollen har mandat til at stoppe/ændre praksis ved behov. Sundhedsstyrelsen peger også på, at drift og forvaltning af KI kan kræve tydelige roller og ansvar, og at styringssystemer kan udvides for at håndtere KI-kvalitet over tid.Menneskelig kontrol og mulighed for tilsidesættelse
Gør kontrollen konkret:hvilke elementer skal altid verificeres (fakta, kliniske vurderinger, risikoinformation, modtager),
hvilke situationer kræver dobbelttjek,
hvad er stopkriterier,
hvordan dokumenteres uenighed eller korrigering.
For deployere af højrisiko KI er forventningen om kompetent menneskelig kontrol eksplicit, og knyttet til kompetence, uddannelse, myndighed og støtte.
Dokumentation og sporbarhed
Et minimum bør være, at klinikken kan forklare:hvilket brugsområde der var i brug,
hvem der udøvede kontrol,
hvad der blev vurderet/justeret,
og hvordan afvigelser håndteres.
EU AI Act beskriver også logningskrav for deployere af højrisiko KI (minimum opbevaring), som illustrerer retningen mod mere efterprøvbart arbejde.
Forklarbarhed overfor patienter og tilsynsmyndigheder
Klinikken bør kunne beskrive på et praktisk niveau hvad KI bruges til, hvad den ikke bruges til, og hvilke kontrolmekanismer der er. Dette handler om forudsigelighed, ikke tekniske detaljer.
Acteras rolle i dette
Actera er etableret for at give tandplejevirksomheder struktur omkring ansvarlig brug af KI.
Vi arbejder ikke med teknologiudvikling eller kliniske beslutninger, men med styringsstruktur, ansvarslinjer og dokumentation – sådan at KI kan bruges på en sikker, forudsigelig og efterprøvbar måde.
Afsluttende betragtning
Menneskelig kontrol ved brug af KI er ikke et princip som “opstår af sig selv” fordi en fagperson er involveret. Det er en praksis som skal være tydeligt defineret, tildelt og støttet – og som skal kunne forklares efterfølgende.
Når kontrollen operationaliseres gennem roller, stopunkter og sporbarhed, bliver brugen af KI nemmere at styre over tid. Det reducerer personafhængighed og gør det muligt at kombinere effektivitet med efterprøvbart klinisk arbejde.










