Forskningen går framåt i en rasande fart och optimismen runt AI i vården är stor. Men hur säkert är det att släppa in de intelligenta algoritmerna i våra känsligaste verksamheter?
Hur säkert är det att släppa in AI i vården?
Mest läst i kategorin
Om den pågående AI-boomen, som redan gör ett stort avtryck på vården, ska vara med och rädda vården krävs viss försiktighet – annars kan skadorna bli stora, menar författaren och journalisten Jeremy Kahn.
Han skriver i ett nyhetsbrev för Fortune om riskerna med att jobba med AI i vården.
Med AI finns det risker kopplade till modeller som bygger på dålig eller vinklad data. Medicinska studier har bland annat en historisk tendens att vara dålig på att representera alla grupper – och tränar vi vår AI på skev data kan vi få modeller som funkar sämre för vissa patienter.
Risk för felaktiga analyser med AI
Modellerna som ska analysera medicinska bilder eller annan medicinsk data kan lätt hamna snett. Den kan bli riktigt framgångsrik inom den givna ramen som den tränar på, utan att bli kliniskt relevant och bra nog för att stå pall för verkliga fall.
En annan risk med att låta specialtränad AI göra analyser är att en modell kan vara väldigt bra på att identifiera till exempel lunginflammationer – men samtidigt missa den bilden av den stora tumören eftersom att den inte är tränad på det, när en läkare skulle ha lagt märke till avvikelsen.
Som tur är har vi regelverk som skyddar oss mot riskerna med att släppa in AI i vården. Eller har vi det? Det visar sig att våra regelverk är dåligt anpassade för just AI, i alla fall enligt Jeremy Kahn.
Brist på klinisk bevisning
I USA har FDA godkänt nästan 1000 AI-baserade “medicinska apparater”, vilket både innefattar mjuk- och hårdvara. De allra flesta har godkänts genom en snabbare metod som kan användas så länge tillverkaren kan visa att produkten är i stort sett likvärdig med en tidigare godkänd apparat.
Men, och här kommer det luriga, den här typen av apparater får testa sin mjukvara på historisk data. De behöver inte visa att eller hur det fungerar på patienter i värdliga kliniska situationer. En ny studie har visat att 43 procent av de FDA-godkända AI-funktionerna inte har någon klinisk data att luta sig mot.
Bara 22 av de 521 AI-funktionerna som forskarna undersökte hade bifogat resultat från slumpmässiga kontroller.
FDA:s regelverk är framtaget för hårdvara, vilket generellt sett uppdateras sällan. Det är dåligt anpassat för en värld där appar och mjukvara uppdateras veckovis vilket skapar problem.
Krav på AI behövs
En kortfattad sammanfattning av Kahns slutsats av läget är att regelverket behöver skärpas. När han själv har pratat med marknadsledande aktörer i industrin säger de skulle välkomna ett hårdare regelverk.
Framför allt behöver man specificera att datan som modellerna bygger på inte ska vara skev eller missvisande mot hur det ser ut i verkligheten.
Kraven som vi tar för givet när det handlar om läkemedel och andra behandlingar måste gälla för AI också om vi vill minska riskerna när vi låser upp den stora potentialen som tekniken bär med sig.
Läs även: Genombrott för hjärnchip som återställer blindas syn. Dagens PS
Nyfiken skribent som bevakar börs- och finansnyheter med ett särskilt intresse för det internationella perspektivet.
Nyfiken skribent som bevakar börs- och finansnyheter med ett särskilt intresse för det internationella perspektivet.