医疗保健中的算法偏见:有偏见的算法可能成为生死攸关的问题

图片来源:
图片来源
iStock

医疗保健中的算法偏见:有偏见的算法可能成为生死攸关的问题

医疗保健中的算法偏见:有偏见的算法可能成为生死攸关的问题

副标题文字
编码到驱动医疗技术的算法中的人类偏见可能会对有色人种和其他少数族裔产生可怕的后果。
    • 作者:
    • 作者姓名
      量子运行远见
    • 2021 年 12 月 2 日

    洞察总结

    由于数据样本不完整,医疗保健人工智能系统面临重大挑战,这可能导致诊断和治疗患者时出现偏差,特别是在代表性不足的群体中。 医学界严格的数据隐私实践虽然是必要的,但却使多样化数据库的创建进一步复杂化。 解决这些偏见需要共同努力,使数据来源多样化,调整算法以实现公平性,并平衡隐私需求与综合数据的好处。

    医疗保健环境中的算法偏差 

    对医疗保健人工智能系统中存在的潜在偏差的调查强调了数据样本不完整的问题是一个重大问题。 例如,如果经过训练来识别皮肤癌的人工智能算法缺乏深色肤色的疾病的足够参考图像,则它更有可能误诊有色人种。 然而,这个问题超出了人工智能系统的范围。 相当一部分临床试验没有充分代表女性和少数群体。 这种代表性的缺乏可能会导致药物和疫苗的开发,这些药物和疫苗可能会对这些代表性不足的群体产生更多副作用,因为试验没有充分考虑他们独特的生理反应。

    此外,出于隐私考虑,更广泛的医学界通常会密切保护医疗数据。 这种保护姿态并非没有道理; 公众对数据共享做法越来越警惕,尤其是在 2010 年代大型科技公司发生一系列数据泄露事件之后。 不幸的是,这种隐私环境使医学研究人员很难为他们的研究创建多样化的数据库。 这也给旨在构建无偏见人工智能算法的医疗保健初创公司带来了障碍,因为它们往往无法访问广泛的数据。

    例如,美国医学会杂志 (JAMA) 2020 年发表的一项研究显示,用于训练 AI 算法的大部分数据仅来自美国的三个州。 数据源的地理限制进一步加剧了偏见问题,因为它无法捕捉全国患者群体的多样性。

    破坏性影响 

    算法根据输入的数据确定它们的操作。 因此,他们处理的数据的质量和多样性直接影响他们的输出。 在医疗保健领域,如果用于训练这些算法的数据样本缺乏多样性,可能会导致向不同种族和民族群体提供的护理质量存在差异。 例如,如果大多数数据样本来自白人患者,那么算法在诊断和治疗有色人种和其他少数群体时可能无法有效执行,从而可能导致健康结果不佳。

    尽管存在这些担忧,全球医疗保健网络预计将在 2020 年代越来越多地将人工智能算法纳入其运营中。 这种整合涵盖医疗保健的各个方面,从管理任务到诊断程序和治疗计划。 这一趋势背后的主要驱动力是大规模降低成本和改善整体健康结果的潜力。 然而,这并不否定解决针对代表性不足群体的潜在偏见的必要性。

    为了减轻这些偏见,私营部门正在做出巨大努力来增加基因组数据集的多样性。 这项工作涉及收集和整合来自代表性不足群体的更多数据。 与此同时,医疗保健专业人员正在与人工智能工程师合作调整这些算法,旨在为所有患者群体提供更公平的评估。

    算法偏差对医疗保健的影响

    算法偏差对医疗保健的更广泛影响可能包括: 

    • 媒体对与使用人工智能系统相关的误诊和药物/疫苗副作用的报道增加,其积累可能会增加公众对传统医疗保健和药品的不信任。 
    • 增加公共和私人举措,为收集各种基因组数据库提供资金,以开发下一代药物、疫苗和人工智能医疗保健工具。
    • 开发特定于医疗保健的数字隐私系统,这将有助于在不暴露个人健康记录的情况下共享健康信息。
    • 经济效率低下,因为资源可能因算法偏差而被错误分配,导致医疗保健服务效率降低以及治疗误诊疾病的成本更高。
    • 随着政府努力解决医疗保健领域人工智能监管的需要,以防止偏见,同时促进技术进步,引入了新的政治辩论和政策考虑。
    • 由于解决偏见的需要,人工智能的技术进步可能会推动机器学习技术的研究和开发,这些技术更有能力处理不同的数据。
    • 专门从事各种数据收集和分析的人工智能伦理专家和数据科学家的新角色。
    • 收集更多样化数据的动力导致电子健康记录和数字设备的使用增加,从而影响能源消耗和电子废物的产生。

    需要考虑的问题

    • 人工智能驱动的医疗保健创新还会如何受到偏见的影响?
    • 你认为人工智能系统可以被信任来诊断病人的健康问题吗?

    洞察参考

    此见解引用了以下流行和机构链接:

    “科学美国人” 医疗保健 AI 系统存在偏见