EU:s AI-förordning inom tandvården: vad innebär den för tandkliniker?

EU AI Act inom tandvård: vad betyder det för tandvårdskliniker?

EU AI Act är ett nytt ramverk för artificiell intelligens i Europa och blir relevant även för tandvårdskliniker eftersom AI i allt större utsträckning används som stöd i kliniska beslut, arbetsflöde och patientkommunikation.

När reglerna hänvisar till “högrisk” och nya skyldigheter för både leverantörer och verksamheter som använder AI, kan det skapa osäkerhet: Gäller det här oss – och i så fall när och hur?

Den här artikeln förklarar hur EU AI Act kan påverka tandvård i praktiken, var ansvarsfrågorna oftast blir otydliga och vilka styrprinciper som bör vara dokumenterade för att kunna stå stabilt över tid. 

Vad menas med AI-användning inom tandvården?

Inom tandvården handlar AI-användning sällan om ett “stort AI-projekt”. Ofta är AI-funktionalitet inbyggd i programvara och tjänster som redan används, eller införs stegvis som stöd i vardagsprocesser.

I praktiken kan AI-användning omfatta:

  • Kliniknära stöd: beslutsstöd, mönsterigenkänning eller förslag som påverkar bedömning och prioritering.

  • Administrativ automatisering: resursplanering, prognoser, sortering av förfrågningar och uppgifter.

  • Kommunikation och text: utkast till patientinformation, sammanfattningar, standardtexter och intern dokumentation.

EU AI Act är riskbaserad. Det betyder att konsekvenserna inte avgörs av om något “är AI”, utan av vad AI används till och vilken risk användningen kan ha för hälsa, säkerhet och rättigheter. 

Var uppstår ansvarsfrågan?

Ansvarsfrågan blir tydlig när AI påverkar arbetsflöde eller beslutsunderlag, men det är oklart vem som har definierat ramar, kontroll och dokumentation.

På en tandvårdsklinik uppstår detta ofta i tre typer av situationer:

  1. Övergångar mellan mänsklig bedömning och teknologiskt stöd
    När förslag, rangordningar eller “automatiska” rekommendationer blir en del av vardagen kan det ske en tyst förändring i praxis: mindre aktiv bedömning, mer följande av systemets förslag. AI Act betonar mänsklig kontroll (human oversight) just eftersom sådana övergångar är riskbenägna. 

  2. Användning av tredjepartslösningar och “inbyggd AI”
    Många kliniker är i rollen som användare: man tar i bruk en lösning som andra har utvecklat. AI Act lägger trots detta specifika skyldigheter på användare av högrisk AI, bland annat knutet till användning enligt instruktioner, kompetent tillsyn, relevanta indata, övervakning och loggning. 

  3. Brist på klargjorda roller och svag spårbarhet
    När det inte är definierat vem som kan införa nya AI-funktioner, vem som bedömer risk eller hur avvikelser hanteras blir ansvaret ofta personberoende. I efterhand blir det då svårt att förklara vad som faktiskt hände – och varför.

Ett särdrag för hälsovårdssektorn är att AI ofta kan vara del av reglerade produktkategorier (till exempel medicinsk utrustning) och då kan klassificering och tidslinjer bli mer komplicerade. Europeiska kommissionen pekar samtidigt på att AI-baserad programvara för medicinska ändamål typiskt kommer att vara inom “högrisk”-logik och ha krav på bland annat riskhantering, bra datasätt, användarinformation och mänsklig översikt. 

Vanliga missförstånd

«EU AI Act gäller bara leverantörer»

AI Act riktar sig både mot dem som utvecklar/levererar system och de som använder dem. För högrisk AI har användare egna skyldigheter, bland annat att använda systemet i enlighet med instruktioner, säkerställa kompetent mänsklig översikt, följa upp drift och hantera loggar. 

«Allt som används i hälsotjänsten är automatiskt högrisk»

AI Act skiljer mellan olika sätt som ett system kan bli högrisk på. För hälsorelaterade system är det särskilt relevant att vissa AI-lösningar blir högrisk eftersom de ingår i reglerade produktkategorier (som medicinsk utrustning), medan andra kan falla in under högrisk eftersom de används för bestämda ändamål. 
Poängen för klinikledningen är inte att “gissa rätt kategori” utan att förstå att risknivån beror på användningsområde och kontext – och att detta måste kunna förklaras.

«Detta handlar bara om IT och inköp»

Teknik och inköp är bara en del. I praktiken är de mest krävande frågorna organisatoriska: Vem äger användningen? Vem godkänner användningsområden? Vilka kontrollpunkter finns? Hur dokumenteras bedömningar? AI Act lägger tonvikt på styrning, spårbarhet och mänsklig översikt, vilket till stor del är lednings- och linjeansvar, inte bara IT-ansvar. 

«Vi kan vänta tills allt är fullt infört»

AI Act har en infasningsplan, men “vänta” är sällan en robust strategi om AI-användning redan sker. EU beskriver bland annat att förbjudna praktiker träder i kraft från februari 2025, att regler för general-purpose AI börjar gälla från augusti 2025, och att centrala regler för högrisk kommer 2026, med förlängd övergång för högrisk AI inbyggd i reglerade produkter till 2027. 
För tandvårdskliniker är det ofta mer lämpligt att etablera grundläggande styrprinciper tidigt (kartläggning, roller, spårbarhet), oberoende av detaljerna i klassificering.

Vad bör vara på plats i praktiken?

På tandvårdskliniker finns typiskt fem områden som ger störst effekt på kontroll och efterprövbarhet, oberoende av om AI-användningen är “stor” eller “smått inbyggd”:

  • Kartläggning av faktisk AI-användning i verksamheten
    En saklig översikt över var AI ingår i system och arbetsprocesser, vad den påverkar (prioritering, text, stöd för bedömningar) och vilka data som berörs.

  • Tydliga roller, ansvar och beslutandebefogenhet
    Vem kan aktivera nya AI-funktioner? Vem godkänner användningsområden? Vem följer upp avvikelser? Utan detta blir ansvaret otydligt och personberoende.

  • Mänsklig kontroll och möjlighet till överstyrning
    Det bör vara tydligt när fackfolk ska överpröva, stoppa eller dubbelkontrollera. AI Act pekar uttryckligen på användarens plikt att säkerställa kompetent mänsklig översikt och att övervaka användningen. 

  • Dokumentation och spårbarhet
    Kliniken bör kunna förklara i efterhand vad som användes, vad systemet bidrog med (till exempel förslag/klassificering) och hur mänsklig bedömning utövades. För användare av högrisk AI omnämns även skyldighet att logga (minimumperiod) som en del av skyldigheterna. 

  • Förklarelse över patienter och tillsynsmyndigheter
    Inga tekniska detaljer, utan en förståelig beskrivning av vad AI används till, vilka begränsningar som finns och vilka kontrollmekanismer kliniken har.

(Detta är styrprinciper och praktiska förväntningar, inte juridisk rådgivning.) 

Acteras roll i detta

Actera är etablerat för att ge tandvårdsverksamheter struktur kring ansvarsfull AI-användning. 

Vi arbetar inte med teknologiutveckling eller kliniska beslut, utan med styrstruktur, ansvarslinjer och dokumentation – så att AI kan användas på ett tryggt, förutsägbart och efterprövbart sätt. 

Avslutande betraktelse

EU AI Act gör det tydligare att AI inte bara är ett teknologivalent, utan ett styr- och ansvarsområde. För tandvårdskliniker blir den viktigaste konsekvensen ofta behovet av bättre översikt, tydligare roller och mer spårbar praxis.

AI kommer allt fler att vara inbyggt i klinikens verktyg och processer. När struktur och dokumentation är på plats blir det också enklare att hantera förändringar i regelverk, leverantörslandskap och användningsmönster – utan att kontrollen blir personberoende. 

Lawyer portrait photo

Relaterade artiklar

Relaterade artiklar

Minska risk vid AI inom tandvård

Lärande efter händelser där AI används

När AI påverkar kliniska beslut indirekt

Undersöka händelser där AI är involverad

Avvikssystem och KI på tandklinik

När KI bidrar till fel på tandkliniken

Avvikelser relaterade till KI inom tandkliniken: hur man hanterar dem

Riskanalys innan AI används på tandklinik

När tandkliniker bör stoppa ett AI-verktyg

Minska risk vid AI inom tandvård

Lärande efter händelser där AI används

Minska risk vid AI inom tandvård

Lärande efter händelser där AI används

När AI påverkar kliniska beslut indirekt