Få hela storyn
Starta din prenumeration

Prenumerera

Fredag30.10.2020

Kontakt

Annonsera

Meny

Starta din prenumeration

Prenumerera

Sök

Debatt

”Vården måste uppmärksamma de etiska frågorna kring AI”

Publicerad: 22 Juni 2020, 05:00

Lilas Ali, ledamot i styrelsen för Svensk sjuksköterskeförening, sakkunnig i Smer. Åsa Gyberg-Karlsson, leg. biomedicinsk analytiker och e-hälsostrateg, ledamot i Smer. Mikael Sandlund, ordförande i Svenska läkaresällskapets delegation för medicinsk etik, sakkunnig i Smer.

Bristen på transparens hos många av dagens AI-algoritmer skapar utmaningar, skriver debattörer från Statens medicinsk-etiska råd, Smer.


Nästan dagligen hör vi om nya tillämpningar av artificiell intelligens, AI, i hälso- och sjukvården. Olika självlärande algoritmer uppges kunna ställa diagnos, ge behandlingsrekommendationer eller utföra andra uppgifter i vården lika bra eller bättre än vårdpersonal, och dessutom betydligt snabbare.

Det är därför naturligt att det finns förhoppningar om att AI ska bidra till att möta de utmaningar som hälso- och sjukvården står inför. Samtidigt väcker AI i vården en rad frågor av såväl etisk och juridisk som teknisk art. Statens medicinsk-etiska råd, Smer, beskriver i en ny skrift, Kort om Artificiell intelligens i hälso- och sjukvården, flera av dessa frågor.

Smers uppfattning är att AI i hälso- och sjukvården som utformas, introduceras och följs upp på ett genomtänkt och inkluderande sätt kan medföra nytta för både patienter och samhälle. Men för att detta ska bli verklighet behövs medvetenhet om de etiska och samhälleliga utmaningarna. Inte minst måste denna medvetenhet finnas i vården: hos dem som beslutar om att implementera systemen och hos personalen som ska använda dem.

Det är viktigt att uppmärksamma de värderingar som medvetet eller omedvetet byggs in i algoritmerna. Bedömningen av vilken behandling som gagnar en patient bäst bygger inte bara på fakta utan också på värderingar, exempelvis hur den förväntade nyttan av behandlingen ska vägas mot eventuella risker. Frågan blir hur vi säkerställer att de värderingar som uttrycks i AI-stödda bedömningssystem återspeglar patientens egna värderingar, så att inte patientautonomin begränsas. Bristen på transparens hos många av dagens AI-algoritmer skapar särskilda utmaningar på detta område.

Vården behöver även vara medveten om vikten av att de data som AI-algoritmer ”tränas” på är kliniskt relevanta och representativa för den patientgrupp de är avsedda att användas för. Annars finns risk att vård med AI-stöd inte lever upp till kraven på god vård på lika villkor. Ett sätt att minska denna risk är att tidigt i utvecklingen av nya algoritmer involvera personalen som ska använda dem.

Frågor kring det professionella ansvaret behöver också hanteras när AI introduceras i klinisk verksamhet. Enligt dagens lagstiftning har vårdens medarbetare ansvar för att den vård som ges är i överensstämmelse med vetenskap och beprövad erfarenhet. När AI-baserade bedömningssystem introduceras är det därför nödvändigt att det framgår hur personalen ska se på rekommendationerna från systemen. Om legitimerad vårdpersonal förväntas att själv ta ställning till och värdera bedömningarna utifrån vetenskap och beprövad erfarenhet behöver personalen förstå hur algoritmen kommer fram till sina resultat så att det går att ta ställning till bedömningarnas rimlighet. Även i det sammanhanget kan bristen på transparens hos många AI-algoritmer vara ett problem.

Om å andra sidan personalen förväntas följa bedömningarna från vissa algoritmer kan de inte ensamma hållas ansvariga för eventuella felaktiga beslut. En del av det juridiska ansvaret för att vården lever upp till vetenskap och beprövad erfarenhet kan i framtiden behöva läggas på dem som utvecklar och saluför algoritmerna.

Ytterligare en aspekt som behöver beaktas är risken för så kallad ”automation bias”. Från andra områden vet vi att introduktionen av automatiserade beslutsstödsystem kan leda till att människor börjar lita för mycket på systemen och slutar leta efter evidens som stöder eller motsäger rekommendationerna. På kort sikt kan detta leda till patientsäkerhetsrisker när larmsignaler inte uppmärksammas. På lång sikt skulle det kunna leda till kompetensförlust och att det inte längre finns en mänsklig back up om systemen skulle fallera.

Medvetenhet om de särskilda utmaningar som en AI-stödd vård innebär minskar risken för bakslag och för att förtroendet för teknologin skadas. Smers budskap är att de etiska utmaningarna inte får uppfattas som hinder för innovation, utan tvärtom som något som kan stimulera utvecklingen i riktning mot etiskt hållbar och patientsäker AI.

Lilas Ali, ledamot i styrelsen för Svensk sjuksköterskeförening, sakkunnig i Smer

Åsa Gyberg-Karlsson, leg. biomedicinsk analytiker och e-hälsostrateg, ledamot i Smer

Mikael Sandlund, ordförande i Svenska läkaresällskapets delegation för medicinsk etik, sakkunnig i Smer

LILAS ALI, ÅSA GYBERG-KARLSSON, MIKAEL SANDLUND

Dela artikeln:


Dagens Medicins nyhetsbrev

Välj nyhetsbrev