新的分析表明,预测患者的种族可以改善医疗服务的公平性
根据兰德公司(RAND Corporation)的新分析,旨在指导医疗保健的算法可能会导致种族不平等的结果,但将患者的种族和民族信息作为算法的输入消除不是解决这一问题的正确方法。
相反,在无法获得自我识别信息的情况下,使用工具来估计患者的种族和民族信息,实际上可以促进改善医疗保健算法的努力,并使临床医生能够减少偏见他们练习的方式。
该分析发表在该杂志的8月刊上卫生事务.
“关于种族的知识种族——而不是无知——是对抗算法偏见的必要条件,”Marc Elliott说,他是这篇论文的资深作者,也是非营利研究机构兰德公司的高级首席统计学家。“归因种族和民族信息不仅可以扩大识别算法偏见的机会,还可以在临床和非临床环境中对抗偏见。”
算法——从信息中得到预测或评分的定义良好的数学程序——被广泛用于帮助医疗保健部门做出决策。这些工具影响到关于谁接受治疗、他们接受的治疗类型、如何提供治疗以及以什么费用提供治疗的决定。
医疗保健算法的开发目标是通过最小化临床决策的变化来提高医疗保健质量,促进更大的依从性最佳实践以及最大限度地有效利用稀缺资源。
例如,多项研究发现,与临床评估相比,算法得出的分数能更准确地预测链球菌性咽喉感染和识别癌变皮损。
随着算法在医疗保健领域的应用越来越多,人们越来越认识到,这些工具可能会产生将种族和民族偏见编纂成法典的意想不到的后果,可能会使患者的病情持续恶化。
例如,广泛使用算法开发来帮助指导护理心脏衰竭与其他种族的相似患者相比,黑人患者的风险得分有所降低。
在另一个案例中,一种常用的预测在经过剖宫产后顺产成功的算法预测黑人和西班牙裔母亲的成功率比类似的白人母亲低。
兰德公司的研究人员表示,尽管算法所蕴含的偏见可能会导致不公平的结果,但在许多情况下,人类的偏见决策是算法偏见的现状替代品。事实上,当算法学会检测已经存在于训练数据中的差异时,算法偏差经常发生。
尽管很少有人呼吁取消辅助医疗决策的算法,但为了减少算法偏见的潜在可能性,一个常见的建议是将种族和民族排除在输入之外——这种做法通常被称为无意识的公平。
兰德的研究人员认为,更好的策略是使用健康差异工具(包括兰德团队开发的广泛使用的工具)来根据种族和民族来衡量算法上的不平等,即使在患者的种族和民族没有自我报告的情况下,这也是可能的。
输入缺失或不可靠的种族和民族数据有助于识别算法偏差,并明确需要减少或消除哪些纠正措施算法治疗决定的偏见。
另一个种族和民族信息如何提高医疗保健公平性的例子是,使用这些信息来确保绩效薪酬方案的公平性,该方案使用支付系统奖励提供更高质量医疗服务的临床医生。
埃利奥特说:“在卫生保健研究中,种族和民族归因传统上被用于确定健康差异。”算法的持续增长和使用卫生保健决策凸显了杠杆的必要性比赛和种族归属来解决健康新方式的差异。”
该分析报告的其他作者有Irineo Cabreros, Denis Agniel, Steven C. Martino和Cheryl L. Damberg。
进一步探索