Dagens PS

Hur säkert är det att släppa in AI i vården?

AI i vården
Är den nya tekniken säker nog för att användas i vården? Hur anpassade är våra regelverk för att avgöra det? (Bild: Canva)
Edvard Lundkvist
Edvard Lundkvist
Uppdaterad: 18 sep. 2024Publicerad: 19 sep. 2024

Forskningen går framåt i en rasande fart och optimismen runt AI i vården är stor. Men hur säkert är det att släppa in de intelligenta algoritmerna i våra känsligaste verksamheter?

ANNONS
ANNONS

Mest läst i kategorin

Om den pågående AI-boomen, som redan gör ett stort avtryck på vården, ska vara med och rädda vården krävs viss försiktighet – annars kan skadorna bli stora, menar författaren och journalisten Jeremy Kahn.

Han skriver i ett nyhetsbrev för Fortune om riskerna med att jobba med AI i vården.

Med AI finns det risker kopplade till modeller som bygger på dålig eller vinklad data. Medicinska studier har bland annat en historisk tendens att vara dålig på att representera alla grupper – och tränar vi vår AI på skev data kan vi få modeller som funkar sämre för vissa patienter.

Risk för felaktiga analyser med AI

Modellerna som ska analysera medicinska bilder eller annan medicinsk data kan lätt hamna snett. Den kan bli riktigt framgångsrik inom den givna ramen som den tränar på, utan att bli kliniskt relevant och bra nog för att stå pall för verkliga fall.

En annan risk med att låta specialtränad AI göra analyser är att en modell kan vara väldigt bra på att identifiera till exempel lunginflammationer – men samtidigt missa den bilden av den stora tumören eftersom att den inte är tränad på det, när en läkare skulle ha lagt märke till avvikelsen.

Som tur är har vi regelverk som skyddar oss mot riskerna med att släppa in AI i vården. Eller har vi det? Det visar sig att våra regelverk är dåligt anpassade för just AI, i alla fall enligt Jeremy Kahn.

ANNONS

Senaste nytt

Brist på klinisk bevisning

I USA har FDA godkänt nästan 1000 AI-baserade “medicinska apparater”, vilket både innefattar mjuk- och hårdvara. De allra flesta har godkänts genom en snabbare metod som kan användas så länge tillverkaren kan visa att produkten är i stort sett likvärdig med en tidigare godkänd apparat.

ANNONS

Men, och här kommer det luriga, den här typen av apparater får testa sin mjukvara på historisk data. De behöver inte visa att eller hur det fungerar på patienter i värdliga kliniska situationer. En ny studie har visat att 43 procent av de FDA-godkända AI-funktionerna inte har någon klinisk data att luta sig mot.

Bara 22 av de 521 AI-funktionerna som forskarna undersökte hade bifogat resultat från slumpmässiga kontroller.

FDA:s regelverk är framtaget för hårdvara, vilket generellt sett uppdateras sällan. Det är dåligt anpassat för en värld där appar och mjukvara uppdateras veckovis vilket skapar problem.

Krav på AI behövs

En kortfattad sammanfattning av Kahns slutsats av läget är att regelverket behöver skärpas. När han själv har pratat med marknadsledande aktörer i industrin säger de skulle välkomna ett hårdare regelverk.

Framför allt behöver man specificera att datan som modellerna bygger på inte ska vara skev eller missvisande mot hur det ser ut i verkligheten.

Kraven som vi tar för givet när det handlar om läkemedel och andra behandlingar måste gälla för AI också om vi vill minska riskerna när vi låser upp den stora potentialen som tekniken bär med sig.

Läs även: Genombrott för hjärnchip som återställer blindas syn. Dagens PS

Läs mer från Dagens PS - vårt nyhetsbrev är kostnadsfritt:
ANNONS
ANNONS

Senaste nytt

ANNONS