AI未能通过radiology-qualifying考试
人工智能(AI)目前无法通过资格赛的放射学检查,认为这种承诺的技术还没有准备好取代医生,发现在圣诞节期的一项研究英国医学杂志。
AI越来越多地用于医生做的一些任务,如解释射线照片(x射线和扫描)来帮助诊断一系列条件。
但人工智能能通过皇家放射科医师学院的奖学金(FRCR)考试,英国学员必须符合放射学顾问吗?为了找到答案,研究人员比较了商用AI工具的性能和26所示放射科医生(主要是31到40岁;62%的女性)都已经通过了FRCR考试。
他们开发了10“模拟”快速报告考试,根据三个模块构成的排位赛之一FRCR考试的目的是测试候选人在速度和准确性。
每个模拟考试由30片在同一或更高层次的难度和广度的知识将实际FRCR考试。通过,候选人必须正确解释至少27(90%)的30个图像在35分钟之内。
AI候选人训练评估胸部和骨(肌肉骨骼)射线照片几个条件包括骨折、肿胀和关节脱臼,肺功能衰竭。
津贴是由相关的图片身体部位AI候选人没有训练,这被认为“无法解释的。”
无法解释的图像被排除在分析的时候,AI候选人达到平均79.5%的总体准确性,通过两个10模拟FRCR考试,而平均放射科医生达到平均84.8%的准确性,通过四10模拟考试。
灵敏度(患者能够正确识别条件)的AI候选人是83.6%,特异性(能够正确识别病人没有条件)是75.2%,而84.1%和87.3%在所有放射科医生。
在148的300片被超过90%的放射科医生正确解释,AI的候选人是正确的在134年(91%)和不正确的其余14例(9%)。
在20 300片,超过一半的放射科医生解释不正确,AI的候选人是不正确的在10(50%)和正确的在剩下的10。
有趣的是,放射科医生稍微高估的可能性能AI的候选人,假设它会执行几乎和自己平均比他们至少有三个10模拟考试。
然而,这并非如此。研究人员说,“在这种情况下,人工智能候选人无法通过任何的10个模拟考试时明显反对人类同行同样严格的标准,但它可以通过两个模拟考试如果特别豁免是由RCR排除图像,它没有训练。”
这些观测结果和评估研究人员承认,他们只有一个人工智能工具和使用模拟考试没有时间或监督,所以放射科医生可能没有感觉到压力,做他们最好的人会在一个真实的考试。
然而,这项研究是一种更全面的放射学家和人工智能之间的横向比较,提供了一个广泛的分数和结果进行分析。
进一步培训和修订是强烈推荐,他们补充,特别是对于情况下,人工智能认为“non-interpretable”,如腹部射线照片与轴向的骨架。
AI可能促进工作流,但人类输入仍是至关重要的,研究人员认为在编辑有关。
他们承认使用人工智能”尚未开发的潜力,进一步促进效率和诊断精度满足一组医疗需求”但是说这样做适当”意味着让医生和公众更好了解的局限性人工智能并使这些更加透明。”
这个主题的研究是嗡嗡声,他们补充说,这项研究强调,放射学的一个基本方面practice-passing FRCR考试所必需的执照训练吗受益于人类的联系。