12 jan. 2026

Avvik vid AI i tandklinik: ansvar och uppföljning

12 jan. 2026

Avvik vid AI i tandklinik: ansvar och uppföljning

Avvikelser och händelser vid KI: hur bör ansvar och uppföljning förstås?

KI blir en alltmer integrerad del av tandklinikens verksamhet – i journaltext, patientinformation, prioritering av uppgifter och administrativa arbetsflöden. Mycket av detta sker genom funktioner som är inbyggda i verktyg kliniken redan använder.

När KI bidrar till förslag, sammanfattningar eller automatiserade val, kan det också uppstå avvikelser: felaktiga formuleringar, missvisande förslag, oavsiktlig delning av information eller beslutsstöd som leder till olyckliga prioriteringar.

Denna artikel förklarar vad som kännetecknar KI-relaterade avvikelser, var ansvar typiskt blir oklart och vilka styrnings- och uppföljningsmekanismer som bör finnas för att hantera händelser på ett efterprövbart sätt.

Vad menas med KI-relaterade avvikelser och händelser?

En KI-relaterad avvikelse är en oönskad händelse, ett felutfall eller en praxis som avviker från klinikens definierade krav – där KI har bidragit till eller påverkat resultatet. Det betyder inte nödvändigtvis att KI gjorde något i teknisk mening. Ofta är KI endast en del av kedjan: förslag → mänsklig bedömning → beslut → dokumentation → kommunikation.

På tandklinik kan KI-relaterade avvikelser typiskt uppstå som:

  • Innehållsavvikelse: felaktig eller oprecis journaltext, olyckliga formuleringar i patientinformation eller standardtexter som inte passar patientens situation.

  • Processavvikelse: att KI används i situationer där kliniken inte har godkänt användningen, eller att kontrollpunkter inte blir genomförda.

  • Data- och integritetsavvikelse: att personuppgifter hanteras på sätt kliniken inte har översikt över, eller att information dras in i utkast/kommunikation utan tillräcklig kontroll.

  • Styrningsavvikelse: att nya KI-funktioner tas i bruk genom uppdateringar utan bedömning, utbildning eller rollklarläggande.

Ett kännetecken för KI-avvikelser är att de ofta är systematiska: samma feltyp kan upprepa sig, eftersom KI producerar liknande utfall i många fall, och eftersom människor kan få en vana av att godkänna förslag när de oftast verkar rimliga.

Var uppstår ansvarsfrågan?

Ansvarsfrågan blir oklar när avvikelser hanteras som enskilda händelser, medan orsaken ligger i ramar, roller och kontrollmekanismer. I praktiken uppstår oklarhet ofta i fem områden:

  1. Otydligt användningsområde och förväntad praxis
    Om det inte är definierat vad KI kan användas till (och inte användas till), blir det svårt att bedöma om händelsen är en avvikelse, eller bara en olycklig situation. Då blir uppföljning slumpmässig och personberoende.

  2. Bristande eller orealiserad mänsklig kontroll
    “Fackpersonen är involverad” är inte samma sak som verklig kontroll. Utan tydliga stoppunkter och minimikrav för kvalitetssäkring kan överläsning bli rutin, särskilt under tidspress.

  3. Svag spårbarhet i händelseförloppet
    Vid avvikelser måste man ofta svara på: Vad var KI:s roll? Vilket förslag gavs? Vem godkände? Vad blev ändrat? Om detta inte kan rekonstrueras, blir både ansvarsutredning och lärande svaga.

  4. Rollblandning mellan fack, drift och leverantör
    Den som kan ändra systeminställningar är inte alltid den som äger fackinnehåll, och leverantörens ansvar blandas lätt med klinikens ansvar för lokal användning. Resultatet kan bli ett “ansvarsvakuum” där ingen har tydligt mandat att stoppa, ändra eller dokumentera åtgärder.

  5. Avvikelser “löses” utan att hanteras
    Många KI-relaterade problem rättas i ögonblicket (man skriver om en text, korrigerar ett notat, sänder ny information), men utan att bedöma om felet kan upprepas. Då försvinner möjligheten till förbättring på systemnivå.

Vanliga missförstånd

«Detta är bara ett enskilt fel – inte en avvikelse»

KI-fel ser ofta ut som enskilda avvikelser, men kan vara uttryck för ett mönster: samma typ av oprecis formulering, samma missförstånd, samma tendens att “fylla i” detaljer. Om händelsen inte behandlas som en avvikelse, blir det svårt att hitta orsak och genomföra varaktiga åtgärder.

«Om KI var involverad, är det leverantörens problem»

Leverantören kan ha ansvar kopplat till produkten, men kliniken har ansvar för egen praxis: vad funktionen används till, vem som använder den, vilka kontrollpunkter som finns, och hur avvikelser följs upp. Avvikelser kan inte outsourcas fullt ut, eftersom de måste kopplas till klinikens arbetsflöde och interna styrning.

«Vi har mänsklig kontroll, för vi kan ju överstyra»

Möjlighet för överstyrning är inte tillräckligt om överstyrning inte faktiskt sker. Verklig kontroll förutsätter att någon har ansvar för att utöva kontroll, att det finns konkreta stoppunkter, och att det är accepterat i praktiken att stoppa en process när något verkar fel.

«Det viktigaste är att logga allt»

Loggning kan vara användbart, men löser inte styrningsproblemet på egen hand. Vad kliniken behöver vid avvikelser är ofta: tydligt användningsområde, definierad kontrollmekanism och en process för att bedöma orsak och åtgärder. Utan dessa blir loggarna bara ett tekniskt spår utan operativt värde.

«Avvikelser handlar om att hitta en skyldig»

Vid KI-relaterade händelser är det sällan robust att fokusera på individ. Mer nyttigt är att klargöra: Vilken del av praktiken brast (användningsregler, utbildning, kontrollpunkt, systemförändring, spårbarhet)? När avvikelser behandlas systemiskt, blir det också enklare att förbättra utan att skapa defensiv kultur.

Vad bör finnas på plats i praktiken?

För att hantera KI-relaterade avvikelser på ett efterprövbart sätt, bör tandkliniken ha ett minimum av styrning som gör händelser hanterbara och lärandeorienterade.

  • 1) Definierade användningsområden och begränsningar
    Kliniken bör ha en enkel översikt över godkända KI-användningsområden, med tydliga “ska/ska inte”-gränser. Då kan man snabbt avgöra om en händelse är en avvikelse mot praxis, eller ett tecken på att praxis måste revideras.

  • 2) Roller och mandat för avvikelseruppföljning
    Det bör vara klart vem som:

    • tar emot och bedömer meddelanden om KI-relaterade avvikelser

    • kan stoppa eller begränsa användning tillfälligt

    • kan ändra rutiner, mallar eller tillgång

    • följer upp leverantör vid behov
      I små kliniker kan detta ligga hos få personer, men mandatet måste vara explicit.

  • 3) Praktiska kontrollpunkter i arbetsflödet
    Etablera minimikontroller där risken faktiskt uppstår (typiskt före signering av journaltext, före utskick av patientinformation och vid användning av standardtexter). Kontrollpunkten bör beskriva vad som måste verifieras, inte bara att “det ska kontrolleras”.

  • 4) Spårbarhet som stödjer händelserekonstruktion
    Kliniken bör kunna rekonstruera:

    • vilket användningsområde/funktion som var i bruk

    • vem som gjorde bedömningen

    • vad som ändrades före slutlig dokument/utskick

    • vilka åtgärder som vidtogs efter händelsen
      Detta behöver inte innebära att lagra allt KI producerar, men att kunna förklara händelseförloppet.

  • 5) En enkel metod för orsaksanalyse och åtgärder
    När avvikelser uppstår, bör kliniken skilja mellan:

    • mänskligt fel (till exempel bristande kontroll i en situation)

    • processfel (kontrollpunkt saknas eller är otydlig)

    • system-/leverantörsförhållande (funktion ändrad, oväntat beteende)

    • kompetensbehov (anställda förstår inte begränsningar)
      Åtgärder bör kopplas till kategorin, så att uppföljningen blir konkret (uppdatera användningsregler, justera mall, ändra tillgång, förbättra utbildning, eskalera till leverantör).

  • 6) Förändringskontroll för inbyggd KI
    Kliniken bör ha en enkel praxis för att fånga upp förändringar i system som kan påverka KI-funktionalitet: uppdateringar, nya moduler, ändrat standardinställning. Många KI-avvikelser handlar inte om “fel användning”, utan om att användningen ändrade sig utan att någon beslutade det.

Acteras roll i detta

Actera är etablerat för att ge tandhälsoföretag struktur kring ansvarig användning av KI.

Vi arbetar inte med teknikutveckling eller kliniska beslut, utan med styrningsstruktur, ansvarslinjer och dokumentation – så att KI kan användas på ett säkert, förutsägbart och efterprövbart sätt.

Avslutande betänkande

KI-relaterade avvikelser i tandklinik uppstår ofta i gränssnitten: mellan förslag och bedömning, mellan standardtext och patientens situation, och mellan leverantörens funktion och klinikens lokala praxis.

När kliniken har definierade användningsområden, operativ kontroll och säkerställt spårbarhet i uppföljningen, blir avvikelser hanterbara – och lärandet blir varaktigt. Det minskar personberoende och gör det möjligt att kombinera effektiv KI-användning med efterprövbar praxis över tid.

Lawyer portrait photo
Lawyer portrait photo
Lawyer portrait photo

Relaterade artiklar

Relaterade artiklar

AI i journalföring: ansvar och dokumentation

AI på tandkliniken: vem har ansvaret?

AI och patientinformation: spårbarhet och verifierbarhet

Business Intelligence inom tandvård: data som beslutsstöd

Avvik vid AI i tandklinik: ansvar och uppföljning

Tredjeparts KI i tandklinik: vad kan inte outsourcas?

Dokumentation av AI-användning inom tandvården

Mänsklig kontroll vid användning av KI på tandklinik

Ansvarsfull KI på tandklinik: vilka roller måste vara tydliga?

AI i journalföring: ansvar och dokumentation

AI på tandkliniken: vem har ansvaret?

AI i journalföring: ansvar och dokumentation

AI på tandkliniken: vem har ansvaret?

AI och patientinformation: spårbarhet och verifierbarhet