神经网络模型显示为什么自闭症患者阅读面部表情不同
患有自闭症谱系障碍的人很难理解面部表情。
使用一个神经网络模型日本东北大学的一组研究人员已经揭示了这是如何形成的。
《华尔街日报》科学报告研究结果于2021年7月26日公布。
“人类通过观察来识别不同的情绪,比如悲伤和愤怒面部表情.然而,对于我们如何根据面部表情的视觉信息来识别不同的情绪,我们所知甚少,”论文的合著者高桥裕太说。
“目前还不清楚在这个过程中发生了什么变化,导致人们患有自闭症光谱混乱的人很难读懂面部表情。”
研究小组利用预测处理理论来帮助了解更多。根据这一理论,大脑会不断预测下一个感官刺激,并在预测错误时进行适应。面部表情等感官信息有助于减少预测误差。
人工神经网络模型结合了预测处理理论,并通过学习预测面部表情视频中的面部部分如何移动来再现发育过程。在此之后,情绪集群被自组织到神经网络模型的高级神经元空间中,而模型不知道视频中的面部表情对应的是哪种情绪。
该模型可以概括训练中未给出的未知面部表情,重现面部部分的动作,最大限度地减小预测误差。
在此之后,研究人员进行了实验,并诱导神经元活动异常,以调查对学习发展和认知特征的影响。在神经种群活动异质性降低的模型中,泛化能力也降低;于是,形成了情感高水平神经元的聚类被抑制。这导致了无法识别未知面部表情的情绪,这是自闭症谱系障碍的一个类似症状。
高桥说,这项研究阐明了预测处理理论可以用神经网络模型解释从面部表情中识别情绪。
“我们希望进一步了解人类学习识别情绪的过程,以及患有抑郁症的人的认知特征自闭症谱系障碍高桥补充道。“这项研究将有助于为那些难以识别情绪的人开发适当的干预方法。”