作者及年份 | 被试群体 | 设备 | 测量方法 | 主要结果 (分类准确性) |
(Koehler et al., 2022) | ASD成年人(n = 16);非ASD成年人(n = 23) | 运动能量分析版本3.10 (MEA; Ramseyer & Tschacher, 2011) | 对访谈视频中的人际同步(IPS)的潜力,使用MEA独立于观察者的客观工具,量化头部和上半身的运动并进行客观评估 | ASD相较于对照组在自然谈话中人际同步(IPS)减少 |
(He et al., 2021) | 4~6岁的儿童共74名,其中26名HFA (高功能自闭症儿童),24名年龄匹配的LFA (低功能自闭症儿童)和24名年龄匹配的TD (典型发育)儿童 | 计算机、眼动仪 | 使用包含凝视或非凝视不同方向线索的计算机化视觉定向任务(computerized visual-orienting task),触发参与者的注视跟随行为,同时记录眼动数据,对眼动数据使用机器学习的KNN算法进行分类 | 总体准确率达81.08%,HFA、LFA和TD组的AUC分别为0.775、0.908和0.927 |
(Dawson et al., 2018) | 104名16~31个月大的幼儿 | 计算机 | 使用计算机视觉分析来评估儿童的姿势控制,主要是中线位置的头部姿势控制,这一指标能够反映在主动注意力状态下的自发头部运动率 | ASD组头部运动率显著高于非ASD组 |
(Perochon et al., 2021) | 17~37个月大的幼儿910名 | 计算机、iPhone或iPad设备的摄像头和应用程序 | 使用计算机视觉分析(CVA)的方法和基于iPhone或iPad设备的摄像头和应用程序,对儿童的头部运动进行编码 | 同时使用头部转动频率和头部转动延迟信息时,分类器AUC可达0.83 |
(Bovery et al., 2021) | 16·31个月儿童共104名,其中ASD儿童22名 | 计算机、iPad中的前置摄像头 | 记录儿童观看不同类视频的头部和虹膜位置,然后通过计算机视觉算法自动分析头部和虹膜位置,以检测注意力的方向 | 结果表明ASD组整体注意力不足,而且更多地关注非社会刺激而不是社会刺激 |
(Mouga et al., 2021) | 15~16岁的青少年共33名,其中ASD组17名,TD组16名 | 计算机、眼动仪 | 使用名为EcoSupermarketX的虚拟现实实验任务,执行任务期间同时监测被试的眼球运动 | 随着认知负荷的增加,ASD组受到的影响更大;而且ASD组表现出针对线索提示的显著受损,无论是社会性的还是非社会的线索;眼动追踪表明,ASD组在社会性提示下的注视时间显著长于TD组 |
(Drimalla et al., 2020) | 无智力障碍的ASD成年人37名和43名健康成年人的对照组 | 自动量化社交互动缺陷生物标志物的数字工具 | 使用模拟互动任务(SIT),通过视频进行标准化的7分钟模拟对话,并自动分析面部表情,凝视行为和语音特征 | 仅根据ASD的面部表情和声音特征,以73%的准确率,67%的灵敏度和79%的特异性检测出ASD患者,其中,社会性微笑和面部模仿的减少以及更高的声音基频和和谐噪声比是ASD患者的特征 |
(Javed et al., 2020) | 年龄在4~12岁之间的共18名儿童,其中13名TD组和5名ASD组 | 机器人 | 在感官迷宫游戏的设置中与机器人进行一次性互动,在针对儿童感觉处理技能的儿童–机器人交互环境中收集视频、音频和运动跟踪数据,并通过训练多通道和多层卷积神经网络,生成个性化的社交参与模型 | 在训练阶段,该网络对TD组分类的平均准确率为0.7985,对ASD组分类的平均准确率为0.8061。对于测试数据,性能保持稳定,ASD组的平均准确度为0.7767,TD组的平均准确度为0.7918 |