aihot  2022-06-30 23:33:50  物联网 |   查看评论   
对于大多数健康的人来说,识别人们脸上表达的情绪是很容易的。 微笑可能意味着快乐,皱眉可能意味着愤怒,但自闭症患者完成这项任务有很大困难。 来自麻省理工学院的一个研究小组训练了一个人工神经网络来处理面部情绪识别信息,以帮助自闭症患者更好地识别人们脸上表达的情绪。

6月15日,麻省理工学院大脑研究所教授Kohitij Kar在《神经科学杂志》上发表了一篇关于行为和神经的计算探针。自闭症中非典型面部情绪处理的标记)。 这项研究利用人工智能在大脑中建模和计算,揭示大脑内部的工作机制。

在过去的一项实验中,研究人员向自闭症成年人和由神经功能正常的受试者组成的对照组展示了一系列面部图像。 这些图像是由软件生成的,从恐惧到快乐各不相同。参与者需要快速判断这些面孔是否描绘了幸福。 与对照组相比,患有自闭症的成年人需要在他们的脸上看到更高程度幸福的图像,以识别幸福的特征。

Kar受到这个实验的启发,训练了一个人工神经网络,这是一个受大脑结构启发的复杂数学函数,来完成同样的任务,即判断人脸图像是否令人愉悦。 卡尔的研究表明,自闭症成人的感觉神经连接可能是“嘈杂的”或低效的。

Kar认为这些视觉处理的计算模型在未来可能会有多种用途。 “我认为面部情感识别只是冰山一角。 他认为,这些视觉处理模型也可以用来选择甚至生成诊断内容。 比如,可以利用人工智能生成电影和教育材料,最大限度地吸引自闭症儿童和成人。

根据这项研究,这些计算模型可能被用来帮助调整增强现实(AR)眼镜中的面部和其他相关像素,以改变自闭症患者看到的东西,例如,通过夸大人们面部的快乐程度或其他情绪,以帮助自闭症患者更好地识别。

即使是更简单的形式,带有面部情绪识别软件的AR眼镜也可以检测人的情绪,并覆盖文字提示来帮助戴眼镜的自闭症患者,从而向他们描述与他们互动的人可能的情绪状态。
 

除特别注明外,本站所有文章均为 人工智能学习网 原创,转载请注明出处来自人工智能协助你更好表达情绪,自闭症患者有福了

留言与评论(共有 0 条评论)
   
验证码:
[lianlun]1[/lianlun]