Algoritmisk skævhed i sundhedsvæsenet: Forspændte algoritmer kan blive et spørgsmål om liv og død

BILLEDKREDIT:
Image credit
iStock

Algoritmisk skævhed i sundhedsvæsenet: Forspændte algoritmer kan blive et spørgsmål om liv og død

Algoritmisk skævhed i sundhedsvæsenet: Forspændte algoritmer kan blive et spørgsmål om liv og død

Underoverskriftstekst
Menneskelige skævheder indkodet i de algoritmer, der driver sundhedsteknologier, kan have alvorlige konsekvenser for farvede mennesker og andre minoriteter.
    • Forfatter:
    • Forfatter navn
      Quantumrun Foresight
    • 2. December, 2021

    Oversigt over indsigt

    Healthcare AI-systemer står over for betydelige udfordringer på grund af ufuldstændige dataprøver, hvilket kan føre til skævheder i diagnosticering og behandling af patienter, især blandt underrepræsenterede grupper. Det medicinske samfunds strenge praksis for databeskyttelse, selv om det er nødvendigt, komplicerer yderligere oprettelsen af ​​diversificerede databaser. At håndtere disse skævheder kræver en fælles indsats for at diversificere datakilder, justere algoritmer for retfærdighed og balancere behovet for privatliv med fordelene ved omfattende data.

    Algoritmisk skævhed i sundhedsmæssig sammenhæng 

    Undersøgelser af den potentielle skævhed, der er til stede i sundheds-AI-systemer, har fremhævet spørgsmålet om ufuldstændige dataprøver som en væsentlig bekymring. For eksempel, hvis en AI-algoritme, som er trænet til at identificere hudkræft, mangler tilstrækkelige referencebilleder af sygdommen på mørkere hudtoner, kan det være mere sandsynligt at fejldiagnostisere individer med farve. Dette problem strækker sig dog ud over AI-systemer. En betydelig del af de kliniske forsøg repræsenterer ikke i tilstrækkelig grad kvinder og minoritetsgrupper. Denne manglende repræsentation kan føre til udvikling af lægemidler og vacciner, der kan have flere bivirkninger for disse underrepræsenterede grupper, da forsøgene ikke fuldt ud redegør for deres unikke fysiologiske reaktioner.

    Desuden vogter det bredere medicinske samfund ofte sundhedsdata nøje på grund af bekymringer om privatlivets fred. Denne beskyttende holdning er ikke uden grund; offentligheden er blevet forsigtig med praksis for datadeling, især efter en række databrud fra store teknologivirksomheder i 2010'erne. Desværre gør dette miljø med privatliv det udfordrende for medicinske forskere at skabe diversificerede databaser til deres studier. Det udgør også en hindring for sundhedsstartups, der sigter på at bygge AI-algoritmer, der er fri for bias, da de ofte mangler adgang til en bred vifte af data.

    For eksempel afslørede en undersøgelse offentliggjort af Journal of the American Medical Association (JAMA) i 2020, at de fleste af de data, der blev brugt til at træne AI-algoritmer, kom fra kun tre stater i USA. Denne geografiske begrænsning i datakilder forværrer yderligere spørgsmålet om bias, da den ikke formår at fange mangfoldigheden af ​​patientpopulationer over hele landet.

    Forstyrrende påvirkning 

    Algoritmer bestemmer deres handlinger baseret på de data, de bliver fodret med. Som sådan påvirker kvaliteten og mangfoldigheden af ​​de data, de behandler, direkte deres output. I sundhedsvæsenet, hvis dataprøverne, der bruges til at træne disse algoritmer, mangler mangfoldighed, kan det føre til forskelle i kvaliteten af ​​den pleje, der ydes til forskellige race- og etniske grupper. For eksempel, hvis størstedelen af ​​dataprøverne er fra kaukasiske patienter, fungerer algoritmerne muligvis ikke så effektivt, når de diagnosticerer og behandler farvede mennesker og andre minoritetsgrupper, hvilket potentielt kan føre til suboptimale sundhedsresultater.

    På trods af disse bekymringer forventes sundhedsnetværk globalt i stigende grad at inkorporere AI-algoritmer i deres operationer gennem 2020'erne. Denne integration spænder over forskellige aspekter af sundhedsvæsenet, fra administrative opgaver til diagnostiske procedurer og behandlingsplaner. De primære drivkræfter bag denne tendens er potentialet for omkostningsreduktion og forbedring af overordnede sundhedsresultater i stor skala. Dette udelukker dog ikke behovet for at adressere den potentielle skævhed mod underrepræsenterede grupper.

    For at afbøde disse skævheder bliver der gjort en betydelig indsats i den private sektor for at øge mangfoldigheden af ​​genomiske datasæt. Denne indsats involverer indsamling og inkorporering af flere data fra underrepræsenterede grupper. Samtidig samarbejder sundhedsprofessionelle med AI-ingeniører om at justere disse algoritmer med det formål at give mere retfærdige vurderinger for alle patientgrupper.

    Implikationer af algoritmisk bias i sundhedsvæsenet

    Bredere implikationer af algoritmisk bias i sundhedsvæsenet kan omfatte: 

    • Øgede medierapporter om fejldiagnosticering og lægemiddel-/vaccinebivirkninger knyttet til brugen af ​​AI-systemer, hvis ophobning kan øge offentlighedens mistillid til traditionel sundhedspleje og lægemidler. 
    • Øgede offentlige og private initiativer til at finansiere indsamlingen af ​​forskellige genomiske databaser til udvikling af næste generations lægemidler, vacciner og AI-sundhedsværktøjer.
    • Udviklingen af ​​sundhedsspecifikke digitale databeskyttelsessystemer, der vil lette deling af helbredsoplysninger uden at afsløre individuelle sundhedsjournaler.
    • Økonomisk ineffektivitet som ressourcer kan blive forkert allokeret på grund af skæve algoritmer, hvilket fører til mindre effektiv levering af sundhedsydelser og højere omkostninger til behandling af fejldiagnosticerede tilstande.
    • Indførelsen af ​​nye politiske debatter og politiske overvejelser, mens regeringer kæmper med behovet for at regulere kunstig intelligens i sundhedsvæsenet for at forhindre skævhed og samtidig fremme teknologiske fremskridt.
    • Teknologiske fremskridt inden for kunstig intelligens som behovet for at adressere bias kunne drive forskning og udvikling inden for maskinlæringsteknikker, der er mere i stand til at håndtere forskelligartede data.
    • Nye roller for AI-etikspecialister og dataforskere med speciale i forskelligartet dataindsamling og -analyse.
    • Bestræbelsen på at indsamle mere forskelligartede data, der fører til øget brug af elektroniske sundhedsjournaler og digitale enheder, hvilket påvirker energiforbruget og generering af elektronisk affald.

    Spørgsmål at overveje

    • Hvordan kan AI-drevne sundhedsinnovationer ellers blive svækket af bias?
    • Tror du, at AI-systemer nogensinde kan have tillid til at diagnosticere patienters helbredsproblemer?

    Indsigtsreferencer

    Følgende populære og institutionelle links blev refereret til denne indsigt: