有偏见的人工智能可能对你的健康有害——以下是如何促进算法的公平性
通过帮助医生准确诊断和治疗决策,人工智能对改善人类健康的巨大希望。它还可以导致歧视,可以损害少数民族,妇女和经济弱势群体。
问题是,何时卫生保健算法歧视,人们有什么追索权?
这种歧视的一个突出的例子是一个用于介绍慢性病患者的算法对高危病人的关怀。2019年的一项研究发现,在选择接受这些有益服务的患者时,该算法偏向于白人,而非病情较重的非洲裔美国人。这是因为它的使用过去的医疗支出作为医疗需求的代表。
贫困和难度访问健康护理经常防止非洲裔美国人在保健和其他人身上支出。该算法误解了他们的低支出,表明它们是健康的,并剥夺了他们严重所需的支持。
作为一个法律教授和生物伦理学, 我有分析了这个问题并确定解决它的方法。
算法如何区分
如何解释算法偏差?历史歧视有时是根深蒂固的训练数据和算法学会延续现有的歧视。
例如,医生在诊断心绞痛和心脏病发作时,往往基于男性比女性更常见的症状。因此,妇女的心脏病诊断不足。一种旨在帮助医生检测心脏疾病的算法,经过了历史诊断数据的训练,可以学会关注男性症状,而不是女性症状,这将加剧女性诊断不足的问题。
此外,人工智能的歧视可能根植于错误的假设,就像高风险护理计划算法。
在另一个实例中,电子健康记录软件公司Epic建立了一个基于人工智能的工具,帮助诊所识别可能错过预约的患者。它使临床医生可以对可能出现的缺席者进行双重预约,以避免损失收入。由于评估失约概率的主要变量是之前的失约,人工智能不成比例地识别出经济上处于不利地位的人。
这些人通常会有与运输,儿童保育和休假工作的人。当他们确实抵达约会时,由于双预订,医生随着时间的推移而花费时间越多。
一些算法明确调整种族。他们的开发人员审查了临床数据,得出的结论是,总的来说,非裔美国人的健康风险和结果与其他人不同,所以他们对算法进行了调整,目的是让算法更准确。
但数据这些调整是基于的过时的、可疑的或有偏见的。这些算法可能导致医生误诊,黑人患者并将资源转移到远离它们。
例如,美国心脏协会的心脏衰竭风险评分,范围从0到100,为非黑人增加3分。因此,它确定非黑人患者更有可能死于心脏病。类似的,肾结石算法为非黑人增加3 / 13分,从而评估他们患肾结石的可能性更大。但在这两种情况下假设是错误的。尽管这些都是一些简单的算法,并没有被整合到AI系统中,但AI开发者在开发算法时有时也会做出类似的假设。
根据种族进行调整的算法可能基于不准确的概括,并可能误导医生。肤色本身并不能解释不同的健康风险或结果。相反,差异往往归因于基因或社会经济因素,这是算法应该调整的。
此外,近7%混血儿是人口的一部分。如果算法对非裔美国人和非黑人提供了不同的治疗方法,医生应该如何治疗多种族患者?
促进公平算法
有几个用于解决算法偏见的途径:诉讼,监管,立法和最佳实践。
- 差异影响诉讼:算法偏见不构成故意歧视。人工智能开发人员和医生使用人工智能可能并不是有意伤害患者。相反,人工智能可能会导致他们无意识地歧视不同的影响关于少数民族或女性。在就业和住房领域,感到自己受到歧视的人可以以差别影响歧视为由提起诉讼。但是法院已经裁定,私人当事人不能就医疗保健案件中的差别影响提起诉讼。在人工智能时代,这种方法毫无意义。原告应该被允许对导致非故意歧视的医疗实践提起诉讼。
- FDA规定:食品和药物管理局是解决如何规范业的人工智能。它目前正在监管一些形式的人工智能,而不是其他形式的。在FDA监督人工智能的范围内,它应该确保在人工智能系统获得批准之前发现并解决偏见和歧视的问题。
- 算法问责法:2019年,参议员科里·布克(Cory Booker)、罗恩·怀登(Ron Wyden)和众议员伊薇特·d·克拉克(Yvette D. Clarke)推出了“算法问责法”算法的责任法案。在一定程度上,它要求公司研究它们使用的算法,识别偏见,纠正它们发现的问题。该法案没有成为法律,但它为未来可能更成功的立法铺平了道路。
- 使Fairer AIS:医疗AI开发人员和用户可以优先考虑算法公平性。它应该是设计,验证和实施医疗AI系统的关键元素,并且在选择和使用这些系统时应记住医疗保健提供者。
人工智能在医疗保健领域越来越普遍。人工智能歧视是一个严重的问题,可以伤害许多患者,这是那些技术和卫生保健领域的人的责任来认识和解决它。
进一步探索
用户评论