EU AI Act for tandklinikker: Hvilke forhold skal være strukturelt afklaret?
1. Kontekstualiserende indledning
EU AI Act etablerer en fælles regulatorisk ramme for brugen af kunstig intelligens i EU/EØS. For tandplejevirksomheder betyder dette ikke først og fremmest nye teknologiske muligheder, men tydeligere krav til ansvar, struktur og dokumentation.
Mange tandklinikker benytter allerede KI-baserede systemer – i billedanalyse, diagnostisk støtte, journalføring, administration eller kommunikation. Brugen sker ofte gradvist og fragmenteret. EU AI Act gør det nødvendigt at samle denne praksis i en eksplicit styringsstruktur.
Reguleringen henvender sig ikke kun til udviklere og leverandører, men også til virksomheder, der anvender systemerne i en professionel sammenhæng. For klinikejere, daglig leder og medicinsk ansvarlig indebærer dette et tydeligt placeret ledelsesansvar.
Denne mini-guide afklarer fem forhold, der bør være strukturelt defineret, før KI-brug kan anses som organisatorisk robust.
2. Operationel implikation
EU AI Act er risikobaseret. Systemer, der påvirker medicinske vurderinger eller beslutninger, kan omfattes af kategorien højrisikosystemer.
For tandklinikker betyder det, at:
Virksomheden kan betragtes som en deployer.
Brugen skal være i overensstemmelse med systemets tilsigtede formål.
Menneskelig tilsyn skal være operationaliseret.
Dokumentation og sporbarhed skal være etableret.
Ansvar skal være tydeligt placeret på ledelsesniveau.
Et system kan være lovligt markedsført og korrekt CE-mærket, men stadig blive brugt på en måde, der ikke er organisatorisk tilstrækkelig forankret i den enkelte klinik.
Spørgsmålet er derfor ikke kun om systemet er lovligt, men om brugen er struktureret.
3. Analytiske hovedpunkter
3.1 Afklaring af risikoklassificering og faktisk brug
Ledelsen må have overblik over:
Hvad systemet bruges til i praksis.
Om brugen stemmer overens med leverandørens definerede formål.
Om brugen kan udløse højrisikoklassificering.
Om systemet påvirker kliniske beslutninger direkte eller indirekte.
Administrativ støtte og klinisk beslutningsstøtte repræsenterer forskellige regulatoriske implikationer. Uden præcis formålsafklaring bliver risikovurderingen teoretisk.
3.2 Deployer-rollen og ledelsesansvar
En deployer er den, der bruger et KI-system under egen autoritet i professionel sammenhæng.
For en tandklinik indebærer dette:
Ansvar for korrekt implementering.
Ansvar for, at systemet bruges i overensstemmelse med instruktioner.
Ansvar for menneskelig tilsyn.
Ansvar for intern kontrol og opfølgning.
Leverandørens ansvar ophæver ikke virksomhedens ansvar for faktisk brug. Ansvaret kan heller ikke fordeles uformelt mellem enkeltbehandlere.
Det må være eksplicit forankret.
3.3 Menneskelig tilsyn som struktur, ikke intention
EU AI Act forudsætter menneskelig kontrol over højrisikosystemer.
I tandpleje indebærer dette blandt andet:
At KI ikke erstatter klinisk beslutningsmyndighed.
At der findes definerede tærskler for overstyring.
At den behandlende tandlæge har sidste ord.
At afvigelser identificeres og håndteres systematisk.
Menneskelig tilsyn kan ikke være en antagelse. Det skal være en etableret praksis.
3.4 Dokumentation og sporbarhed
Organisatorisk robusthed forudsætter dokumentation.
Dette omfatter:
Overblik over hvilke KI-systemer der anvendes.
Beskrivelse af anvendelsesområde.
Ansvarsplacering.
Ændringslog ved opdateringer.
Rutiner for håndtering af afvigelser.
Dokumentation er en del af intern styring. Tilsynsberedskab er en konsekvens af struktur – ikke en separat foranstaltning.
3.5 Organisatorisk modenhed før videre implementering
Mange virksomheder overvejer nye KI-værktøjer uden at have kortlagt eksisterende brug.
Før videre implementering bør ledelsen kunne svare præcist på:
Har vi fuldstændig overblik?
Er ansvar tydeligt placeret?
Er menneskelig tilsyn defineret?
Er dokumentation etableret?
Findes der en vurderingsproces før anskaffelse?
Uden dette bliver KI-brug personafhængig og fragmenteret.
4. Intern afklaringsmatrice
Følgende forhold bør være eksplicit defineret internt:
Hvilke KI-systemer anvendes i klinikken?
Hvad er deres faktiske formål?
Hvem har overordnet ansvar?
Hvem har klinisk beslutningsansvar?
Hvordan er menneskelig overstyring defineret?
Hvordan dokumenteres brug og ændringer?
Hvordan vurderes nye systemer før implementering?
Hvordan håndteres fejl og afvigelser?
Hvis et eller flere punkter ikke kan besvares præcist, foreligger et strukturelt afklaringsbehov.
5. Afsluttende syntese
EU AI Act introducerer ikke nødvendigvis nye opgaver for tandklinikker. Den tydeliggør eksisterende ansvar.
KI-brug i tandpleje er ikke primært et teknologispørgsmål. Det er et styringsspørgsmål.
En klinik, der har afklaret risikoklassificering, deployer-rolle, menneskelig tilsyn, dokumentation og intern beslutningsstruktur, står bedre rustet – både organisatorisk og regulatorisk.
Teknologi kan implementeres hurtigt. Struktur skal etableres bevidst.

Actera
Governancestruktur for sikker og ansvarlig brug af KI inden for tandpleje. Vi etablerer klare rammer for ansvar, kontrol og dokumentation, når kunstig intelligens anvendes i klinik og administration. Actera er uafhængig, ikke-klinisk og ikke en KI-leverandør.
Er en AI-politik nok for tandklinikken?
Er en AI-politik nok for tandklinikken?
Har klinikken overblik over al brug af KI?
Har klinikken overblik over al brug af KI?
Er tandklinikken forberedt på tilsyn af KI-brug?
Er tandklinikken forberedt på tilsyn af KI-brug?
Skal tandklinikker informere om brugen af KI?
Skal tandklinikker informere om brugen af KI?
Er KI-baseret journalføring forsvarlig i tandklinik?
Er KI-baseret journalføring forsvarlig i tandklinik?
Kan tandklinikker bruge generative sprogmodeller?
Kan tandklinikker bruge generative sprogmodeller?