Biaix algorítmic a l'assistència sanitària: els algorismes esbiaixats poden esdevenir una qüestió de vida o mort

CRÈDIT DE LA IMATGE:
Crèdit d'imatge
iStock

Biaix algorítmic a l'assistència sanitària: els algorismes esbiaixats poden esdevenir una qüestió de vida o mort

Biaix algorítmic a l'assistència sanitària: els algorismes esbiaixats poden esdevenir una qüestió de vida o mort

Text del subtítol
Els biaixos humans codificats en els algorismes que alimenten les tecnologies sanitàries poden tenir conseqüències nefastes per a les persones de color i altres minories.
    • autor:
    • nom de l'autor
      Previsió de Quantumrun
    • Desembre 2, 2021

    Resum d'informació

    Els sistemes d'IA sanitari s'enfronten a reptes importants a causa de mostres de dades incompletes, que poden provocar biaixos en el diagnòstic i el tractament dels pacients, especialment entre els grups poc representats. Les estrictes pràctiques de privadesa de dades de la comunitat mèdica, tot i que són necessàries, compliquen encara més la creació de bases de dades diversificades. Abordar aquests biaixos requereix esforços concertats per diversificar les fonts de dades, ajustar els algorismes per a l'equitat i equilibrar la necessitat de privadesa amb els beneficis de les dades completes.

    Biaix algorítmic en el context sanitari 

    Les investigacions sobre el possible biaix present als sistemes d'IA sanitari han posat de relleu el problema de les mostres de dades incompletes com una preocupació important. Per exemple, si un algorisme d'IA, que està entrenat per identificar el càncer de pell, no té prou imatges de referència de la malaltia en tons de pell més foscos, és més probable que diagnostiqui malament les persones de color. Tanmateix, aquest problema s'estén més enllà dels sistemes d'IA. Una proporció considerable dels assaigs clínics no representen adequadament les dones i els grups minoritaris. Aquesta manca de representació pot conduir al desenvolupament de fàrmacs i vacunes que poden tenir més efectes secundaris per a aquests grups poc representats, ja que els assaigs no tenen en compte completament les seves respostes fisiològiques úniques.

    A més, la comunitat mèdica més àmplia sovint guarda les dades sanitàries de prop per problemes de privadesa. Aquesta postura protectora no és sense raó; el públic ha crescut desconfiat de les pràctiques d'intercanvi de dades, sobretot després d'una sèrie de violacions de dades per part de les principals empreses tecnològiques durant la dècada de 2010. Malauradament, aquest entorn de privadesa fa que sigui difícil per als investigadors mèdics crear bases de dades diversificades per als seus estudis. També suposa un obstacle per a les startups sanitàries que pretenen crear algorismes d'IA lliures de biaix, ja que sovint no tenen accés a una àmplia gamma de dades.

    Per exemple, un estudi publicat pel Journal of the American Medical Association (JAMA) el 2020 va revelar que la majoria de les dades utilitzades per entrenar algorismes d'IA provenien de només tres estats dels EUA. Aquesta limitació geogràfica en les fonts de dades augmenta encara més el problema del biaix, ja que no aconsegueix captar la diversitat de poblacions de pacients a tot el país.

    Impacte disruptiu 

    Els algorismes determinen les seves accions en funció de les dades que els alimenten. Com a tal, la qualitat i la diversitat de les dades que processen influeixen directament en la seva producció. A l'assistència sanitària, si les mostres de dades utilitzades per entrenar aquests algorismes no tenen diversitat, podria provocar disparitats en la qualitat de l'atenció prestada a diferents grups racials i ètnics. Per exemple, si la majoria de mostres de dades provenen de pacients caucàsics, és possible que els algorismes no funcionin tan eficaçment a l'hora de diagnosticar i tractar persones de color i altres grups minoritaris, la qual cosa podria conduir a resultats de salut subòptims.

    Malgrat aquestes preocupacions, s'espera que les xarxes sanitàries a nivell mundial incorporin cada cop més algorismes d'IA a les seves operacions durant la dècada de 2020. Aquesta integració abasta diversos aspectes de l'assistència sanitària, des de tasques administratives fins a procediments de diagnòstic i plans de tractament. Els principals impulsors d'aquesta tendència són el potencial de reducció de costos i la millora dels resultats generals de salut a gran escala. Tanmateix, això no nega la necessitat d'abordar el possible biaix contra els grups poc representats.

    Per mitigar aquests biaixos, s'estan fent esforços importants al sector privat per augmentar la diversitat de conjunts de dades genòmiques. Aquest esforç passa per recollir i incorporar més dades de grups poc representats. Al mateix temps, els professionals sanitaris col·laboren amb enginyers d'IA per ajustar aquests algorismes, amb l'objectiu de proporcionar avaluacions més equitatives per a tots els grups de pacients.

    Implicacions del biaix algorítmic en l'assistència sanitària

    Les implicacions més àmplies del biaix algorítmic en l'assistència sanitària poden incloure: 

    • Augment dels informes dels mitjans de comunicació sobre diagnòstics errònia i efectes secundaris de fàrmacs/vacunes relacionats amb l'ús de sistemes d'IA, l'acumulació dels quals pot augmentar la desconfiança del públic en la sanitat i els productes farmacèutics tradicionals. 
    • Augment de les iniciatives públiques i privades per finançar la col·lecció de bases de dades genòmiques diverses per al desenvolupament de fàrmacs, vacunes i eines sanitàries d'IA de nova generació.
    • El desenvolupament de sistemes de privadesa digital específics per a l'assistència sanitària que facilitaran l'intercanvi d'informació sanitària sense exposar els registres sanitaris individuals.
    • Les ineficiències econòmiques, ja que els recursos es poden assignar malament a causa d'algoritmes esbiaixats, la qual cosa condueix a una prestació d'atenció sanitària menys eficaç i costos més elevats per tractar afeccions mal diagnosticades.
    • La introducció de nous debats polítics i consideracions polítiques a mesura que els governs s'enfronten a la necessitat de regular la IA a l'assistència sanitària per evitar els biaixos alhora que fomenten l'avenç tecnològic.
    • Els avenços tecnològics en IA com la necessitat d'abordar el biaix podrien impulsar la investigació i el desenvolupament de tècniques d'aprenentatge automàtic que siguin més capaços de manejar dades diverses.
    • Nous rols per als especialistes en ètica de l'IA i els científics de dades especialitzats en la recollida i l'anàlisi de dades diverses.
    • L'impuls per recopilar dades més diverses que condueix a un ús més gran dels registres sanitaris electrònics i dels dispositius digitals, que influeix en el consum d'energia i la generació de residus electrònics.

    Preguntes a tenir en compte

    • De quina altra manera podrien les innovacions sanitàries impulsades per la intel·ligència artificial veure's perjudicades pel biaix?
    • Creus que es pot confiar en els sistemes d'IA per diagnosticar els problemes de salut dels pacients?

    Referències insight

    Es va fer referència als següents enllaços populars i institucionals per a aquesta visió: