作者及年份

被试群体

设备

测量方法

主要结果

(分类准确性)

(Koehler et al., 2022)

ASD成年人(n = 16);非ASD成年人(n = 23)

运动能量分析版本3.10 (MEA; Ramseyer & Tschacher, 2011)

对访谈视频中的人际同步(IPS)的潜力,使用MEA独立于观察者的客观工具,量化头部和上半身的运动并进行客观评估

ASD相较于对照组在自然谈话中人际同步(IPS)减少

(He et al., 2021)

4~6岁的儿童共74名,其中26名HFA (高功能自闭症儿童),24名年龄匹配的LFA (低功能自闭症儿童)和24名年龄匹配的TD (典型发育)儿童

计算机、眼动仪

使用包含凝视或非凝视不同方向线索的计算机化视觉定向任务(computerized visual-orienting task),触发参与者的注视跟随行为,同时记录眼动数据,对眼动数据使用机器学习的KNN算法进行分类

总体准确率达81.08%,HFA、LFA和TD组的AUC分别为0.775、0.908和0.927

(Dawson et al., 2018)

104名16~31个月大的幼儿

计算机

使用计算机视觉分析来评估儿童的姿势控制,主要是中线位置的头部姿势控制,这一指标能够反映在主动注意力状态下的自发头部运动率

ASD组头部运动率显著高于非ASD组

(Perochon et al., 2021)

17~37个月大的幼儿910名

计算机、iPhone或iPad设备的摄像头和应用程序

使用计算机视觉分析(CVA)的方法和基于iPhone或iPad设备的摄像头和应用程序,对儿童的头部运动进行编码

同时使用头部转动频率和头部转动延迟信息时,分类器AUC可达0.83

(Bovery et al., 2021)

16·31个月儿童共104名,其中ASD儿童22名

计算机、iPad中的前置摄像头

记录儿童观看不同类视频的头部和虹膜位置,然后通过计算机视觉算法自动分析头部和虹膜位置,以检测注意力的方向

结果表明ASD组整体注意力不足,而且更多地关注非社会刺激而不是社会刺激

(Mouga et al., 2021)

15~16岁的青少年共33名,其中ASD组17名,TD组16名

计算机、眼动仪

使用名为EcoSupermarketX的虚拟现实实验任务,执行任务期间同时监测被试的眼球运动

随着认知负荷的增加,ASD组受到的影响更大;而且ASD组表现出针对线索提示的显著受损,无论是社会性的还是非社会的线索;眼动追踪表明,ASD组在社会性提示下的注视时间显著长于TD组

(Drimalla et al., 2020)

无智力障碍的ASD成年人37名和43名健康成年人的对照组

自动量化社交互动缺陷生物标志物的数字工具

使用模拟互动任务(SIT),通过视频进行标准化的7分钟模拟对话,并自动分析面部表情,凝视行为和语音特征

仅根据ASD的面部表情和声音特征,以73%的准确率,67%的灵敏度和79%的特异性检测出ASD患者,其中,社会性微笑和面部模仿的减少以及更高的声音基频和和谐噪声比是ASD患者的特征

(Javed et al., 2020)

年龄在4~12岁之间的共18名儿童,其中13名TD组和5名ASD组

机器人

在感官迷宫游戏的设置中与机器人进行一次性互动,在针对儿童感觉处理技能的儿童–机器人交互环境中收集视频、音频和运动跟踪数据,并通过训练多通道和多层卷积神经网络,生成个性化的社交参与模型

在训练阶段,该网络对TD组分类的平均准确率为0.7985,对ASD组分类的平均准确率为0.8061。对于测试数据,性能保持稳定,ASD组的平均准确度为0.7767,TD组的平均准确度为0.7918