医疗保健公平的人工智能

医疗保健公平的人工智能
(从左到右:)Regina Barzilay是工程学院人工智能与健康杰出教授,也是麻省理工学院贾米尔诊所人工智能的联合负责人。colin Stultz是麻省总医院的电气工程和计算机科学教授,也是心脏病专家。福蒂尼·克里斯蒂亚是政治学教授和社会技术系统研究中心主任。资料来源:麻省理工学院

人工智能在医疗保健方面带来公平的潜力,激发了大量的研究工作。传统上,种族、性别和社会经济差异以难以察觉和量化的方式折磨着卫生保健系统。然而,新的人工智能技术正在为变革提供一个平台。

工程学院人工智能与健康杰出教授、麻省理工学院贾米尔诊所人工智能的联合领导Regina Barzilay;政治学教授、麻省理工学院社会技术系统研究中心主任福蒂尼·克里斯蒂亚;和麻省总医院电气工程和计算机科学教授、心脏病专家科林·斯图尔茨在这里讨论人工智能在公平中的作用、当前的解决方案和政策影响。这三人是将于4月12日举行的人工智能医疗公平会议的联合主席。

问:人工智能如何帮助解决医疗保健系统中的种族、性别和社会经济差异?

Stultz:许多因素导致了卫生保健系统的经济差异。首先,毫无疑问,人类固有的偏见导致了边缘人群不同的健康结果。尽管偏见是人类心理不可避免的一部分,但它是潜伏的、无处不在的、难以察觉的。事实上,个人在发现自己对世界的感知中预先存在的偏见方面是出了名的差——这一事实推动了内隐关联测试的发展,使人们能够了解潜在的偏见如何影响决策。

人工智能为开发方法提供了一个平台,可以使个性化医疗成为现实,从而确保客观地做出临床决策,以最大限度地减少不同人群的不良后果。尤其是机器学习,它描述了一套帮助计算机从数据中学习的方法。原则上,这些方法可以提供公正的预测,这些预测仅基于对基础数据的客观分析。

然而,不幸的是,偏见不仅会影响个人如何感知周围的世界,还会影响我们用来构建模型的数据集。存储患者特征和结果的观察数据集往往反映了卫生保健提供者的潜在偏见;例如,某些治疗可能优先提供给那些社会经济地位高的人。简而言之,算法可以继承我们自己的偏见。因此,使个性化医疗成为现实取决于我们开发和部署公正的工具的能力,这些工具可以从观察性临床数据中了解患者具体的决策。这一努力成功的核心是开发出可以识别算法偏差的方法,并在识别偏差时提出缓解策略。

知情的,客观的,患者具体的临床决策是现代临床护理的未来。机器学习将有很长的路要走,使这成为现实——实现数据驱动的临床见解,消除可能影响医疗保健决策的隐性偏见。

问:目前这个领域正在开发哪些人工智能解决方案?

Barzilay:在大多数情况下,有偏差的预测可以归因于训练数据的分布特性。例如,当某些群体在训练数据中代表性不足时,生成的分类器很可能在该组上表现不佳。默认情况下,模型是针对整体性能进行优化的,因此无意中更倾向于适合大多数类别,以牺牲其余类别为代价。如果我们意识到数据中存在这样的少数群体,我们就有多种方法来引导我们的学习算法走向公平行为。例如,我们可以修改学习目标,在不同的群体中强制保持一致的准确性,或者重新衡量训练示例的重要性,放大少数群体的“声音”。

另一个常见的偏差来源与“讨厌的变化”有关,其中分类标签与一些特定于数据集的输入特征表现出特殊的相关性,不太可能泛化。在一个具有这种属性的臭名昭著的数据集中,具有相同病史的患者的健康状况取决于他们的种族。这是训练数据构建方式的不幸产物,但它导致了对黑人患者的系统性歧视。如果预先知道这些偏差,我们可以通过强制模型减少这些属性的影响来减轻它们的影响。在很多情况下,我们的训练数据的偏差是未知的。可以有把握地假设,应用模型的环境可能与训练数据存在一些分布差异。为了提高模型对这种变化的容忍度,许多方法(如不变风险最小化)显式地训练模型以健壮地泛化到新环境。

然而,我们应该意识到,算法并不是可以纠正混乱的现实训练数据中的所有错误的魔杖。当我们不知道特定数据集的特性时,尤其如此。不幸的是,后一种情况在医疗保健领域很常见通常由不同的团队表演。这些“隐藏的”偏见已经导致部署的人工智能工具在某些人群上系统性地犯错(就像上面描述的模型)。在这种情况下,有必要为医生提供工具,使他们能够理解模型预测背后的基本原理,并尽快发现有偏见的预测。如今,机器学习领域的大量工作都致力于开发透明的模型,使其能够将内部推理传达给用户。在这一点上,我们对哪种类型的基本原理对医生特别有用的理解是有限的,因为人工智能工具还不是常规医疗实践的一部分。因此,MIT Jameel诊所的关键目标之一是在世界各地的医院部署临床AI算法,并实证研究它们在不同人群和临床环境中的表现。这些数据将为下一代不言自明、公平的人工智能工具的开发提供信息。

问:对政府机构和更公平的医疗保健人工智能行业有什么政策影响?

克里斯蒂亚:人工智能在医疗保健中的应用现在已经成为现实而行业要想从更公平的人工智能医疗中获益,他们需要创建一个人工智能生态系统。他们必须密切合作,与临床医生和患者合作,优先考虑在这一领域使用的人工智能工具的质量,确保它们是安全的,为黄金时段做好准备。这意味着部署的人工智能工具必须经过良好的测试,并提高临床医生的能力和患者的体验。

为此,政府和行业参与者需要考虑开展教育活动,让卫生从业人员了解特定人工智能干预措施在补充和加强他们解决公平问题的工作方面的重要性。除了临床医生之外,还必须关注在少数族裔患者中建立信心,即引入这些人工智能工具将带来更好、更公平的护理。尤其重要的是,要公开人工智能在卫生领域的使用对个体患者意味着什么,以及缓解少数族裔患者的数据隐私担忧,由于历史上对他们的侵犯,他们往往对“善意的”医疗保健系统缺乏信任。

在监管领域,政府机构需要建立一个框架,使他们能够明确人工智能的资金和与行业和医疗保健专业人员的责任,以便部署最高质量的人工智能工具,同时最大限度地降低临床医生和患者使用它们的相关风险。法规需要明确,临床医生并没有将他们的责任完全外包给机器,并概述对患者健康的专业问责程度。政府机构与行业、临床医生和患者密切合作,还必须通过数据和患者体验来监控人工智能工具在解决问题方面的实际有效性关心实地的差异,并努力改善它们。


进一步探索

研究发现,大多数医疗保健中的内隐偏见培训缺乏适当的基础

所提供的麻省理工学院

本文转载自麻省理工学院新闻(web.mit.edu/newsoffice/),这是一个很受欢迎的网站,涵盖有关麻省理工学院研究、创新和教学的新闻。

引用:医疗保健公平的人工智能(2021年,3月24日)检索于2022年6月17日,从//www.puressens.com/news/2021-03-artificial-intelligence-health-equity.html
这份文件受版权保护。除为私人学习或研究目的而进行的公平交易外,未经书面许可,不得转载任何部分。内容仅供参考之用。
2股票

对编辑的反馈