噪声环境下面对面交流中眼动行为的适应性调节及其对言语理解与话轮转换的协同支持机制
【字体:
大
中
小
】
时间:2025年10月06日
来源:Frontiers in Psychology 2.9
编辑推荐:
本综述深入探讨了在嘈杂声学环境中,个体如何通过调整眼动行为(如注视模式、扫视频率)来优化面对面交流(Face-to-Face Communication)中的言语感知与话轮转换(Turn-Taking)协调。研究采用可穿戴眼动仪(Tobii Pro Glasses 3)记录三人群组对话,发现噪声显著增加对交谈对象的注视时长,并提升眼动与话轮转换的同步性。这些发现揭示了多模态感知(Multimodal Perception)在沟通障碍中的补偿机制,为听力辅助设备(如基于视觉注意调控的Beamforming技术)的设计提供了重要依据。
在日常交流中,人们很少意识到感知系统需要处理的复杂性。面对面交流是一种丰富的多模态互动,其中言语与非言语行为(如凝视、手势和面部表情)被整合为一体。这些多模态线索非但不会使认知系统超负荷,反而有助于促进对话流畅性并支持言语理解,多模态信息通常比单模态信息处理得更快。在流畅的对话中,交谈者迅速交替听和说,话轮之间的间隙仅约250毫秒。这要求交谈者在处理言语和非言语信号的同时,计划回应并协调话轮转换。背景噪声或听力损伤等挑战可能破坏这种协调,导致个体更依赖视觉线索、减缓话轮转换,并经历更频繁的对话中断。这些干扰可能增加压力和疲劳,长期来看可能导致社交退缩和生活质量下降。准确评估此类沟通困难对于诊断和治疗沟通障碍至关重要。然而,当前的临床测试主要关注听力能力,往往无法预测个体在现实对话中的积极参与能力——这突显了需要更全面捕捉沟通挑战的客观指标。
凝视行为为了解认知过程(如记忆、注意和认知负荷)提供了宝贵见解。眼动在构建视觉输入和支持记忆编码方面发挥重要作用。个体通常将视觉环境用作“外部记忆”,反复采样相关信息以降低认知努力。这种策略反映了凝视与工作记忆之间的权衡:当视觉信息易于获取时,人们倾向于依赖凝视,否则转向内部记忆。视觉注意的焦点与听觉注意密切对齐,我们的感知系统将两者整合为统一的视听感知。当听觉信息被降解时(如存在背景噪声),个体更依赖视觉线索以支持理解,这导致凝视行为的变化。例如,在噪声条件下,听者倾向于花更多时间注视说话者——尤其是嘴巴而非眼睛。除了凝视位置,注视持续时间和扫视频率等指标进一步洞察认知负荷。更长的注视和减少的凝视转移通常与增加的处理难度相关,尤其在噪声环境中。这些行为变化常与生理标记(如瞳孔扩张增加)共同出现,反映聆听努力和一般唤醒。这些发现表明,在挑战性聆听条件下,言语理解期间增加的认知需求反映在眼动行为的改变中。
在面对面对话中,凝视具有双重功能:它支持言语的感知处理,并作为协调互动的社交信号。凝视行为在管理话轮转换中起关键作用,因为它传达参与度并帮助引导对话流。说话者使用凝视监控听者参与度,移开视线以保持发言权,或重新建立眼神接触以发出话轮让步信号。听者通常注视说话者以辅助理解并表示注意力,但可能移开凝视以避免接话或更深入地处理信息。凝视也涉及回应计划:下一个说话者通常在当前话轮结束前开始制定回应,使用韵律和视觉线索——如凝视方向和手势时机——作为话轮结束信号来计时自己的进入。说话者可能将凝视指向特定交谈者以选择他们作为下一个说话者,或避免眼神接触以保持发言权。基于凝视的线索在多方对话中尤为重要,其中管理参与和说话者转换变得更加复杂。群体规模、任务需求和社会背景都会影响凝视行为,较大的群体需要更费力的协调,而双任务条件减少对说话者的凝视。这些发现强调了凝视在对话话轮转换中的预测和调节作用,其中视觉线索有助于预测话轮边界并维持互动流。
凝视的这种双重功能引发了一个问题:在受控实验室环境中通过被动聆听任务获得的关于眼动变化的发现,在多大程度上可以推广到面对面交流。因此,最近两项研究调查了背景噪声对主动参与对话期间眼动的影响。Hadley等人(2019)观察到沟通中视觉注意的转移,指出随着背景噪声增加,交谈者花更多时间注视说话者的嘴巴而非眼睛。这种转移表明视觉信息的重新优先化,听者可能减少对通常传达参与和话轮转换线索的眼睛的依赖,转而更关注嘴巴以辅助言语理解。Lu等人(2021)检查了三方对话中的眼动,发现正常听力听者随着噪声水平上升,增加对主动说话者的视觉聚焦。相比之下,老年或听力受损个体表现出更分散的凝视模式,可能反映预测话轮转换的更大困难或增加扫描场景以寻找有用视觉线索的需求。这些研究代表了理解声学环境如何塑造面对面沟通中视觉注意的早期但重要的步骤,并突出了眼动追踪作为评估现实设置中沟通困难工具的潜力。
然而,Hadley等人(2019)的研究专注于二元对话,这在概念上不同于群体对话。在二元设置中,注意稳定且明确指向,话轮转换动态较不复杂。虽然Lu等人(2021)通过检查三方对话解决了这一限制,但他们的实验设置涉及相同的两名 Confederates 与每位参与者互动,可能引入言语产生中的偏差。此外,他们的分析在整个对话中平均了凝视行为,从而忽视了凝视作为沟通主动工具的动态作用。其他眼动指标——如注视持续时间、扫视延迟和瞳孔扩张——在先前被动任务中被识别为聆听困难的指标,在多大程度上可以可靠地用于评估更现实对话设置中的沟通困难,仍不清楚。
本研究旨在调查在挑战性声学条件下,三方面对面对话期间凝视模式如何适应。具体地,我们询问背景噪声是否改变对话期间视觉注意的分配,以及认知负荷的标记——如注视持续时间、扫视速率和瞳孔扩张——是否反映在噪声中维持对话流所需的增加努力。通过在现实、互动设置中检查这些问题,我们试图弥合实验室发现与现实世界沟通复杂性之间的差距。为了在现实和互动设置中解决这些问题,我们记录了10组(每组包括三名互不相识的正常听力参与者)在结构化三方对话中的眼动和言语。通过引入两个水平的多说话者嘈杂声(Multi-Talker Babble)来操纵对话难度。为了链接话轮转换行为与凝视动态,我们提取了认知负荷标记,并在声学条件之间以及听和说/讲话段之间进行了比较。
三十名年轻的、以丹麦语为母语的参与者(年龄20-30岁)被组织成10个三人组,包括六个混合性别和四个单性别组。每组内,参与者互不相识。所有参与者具有正常或矫正至正常的视力,自我报告正常听力,并无可能影响其沟通能力的医疗条件。实验前,参与者提供书面知情同意,并在之后获得经济补偿。实验程序得到丹麦首都地区科学伦理委员会批准(参考号H-16036391)。
参与者以三角形安排就座,彼此相距1.5米,位于一个由16个等距扬声器组成的环的中心,半径为2.4米。黑色窗帘环绕扬声器环,以减少对话区域的视觉干扰。八个扬声器播放由不同说话者讲述的不同丹麦独白,取自Lund等人(2019)描述的语料库,创建8说话者嘈杂噪声。每个独白持续约90秒,在整个对话中循环播放。扬声器由sonible d:24放大器(sonible GmbH, Austria)驱动。背景噪声以48分贝(‘安静’条件)和78分贝(‘噪声’条件)的声级呈现。
每位参与者配备三个麦克风以记录其言语:一个近嘴麦克风(DPA 4288, DPA Microphones, Denmark)和两个入耳麦克风(DPA 4560, DPA Microphones, Denmark),每次对话产生9通道录音。眼动使用Tobii Pro Glasses 3(Danderyd, Sweden)记录,采样频率50赫兹。眼镜还以25赫兹记录场景视频(视场: 95度 × 63度,分辨率: 1920 × 1080)。Tobii眼镜的所有录音存储在记录单元内的SD卡上,并通过Tobii Pro Glasses 3控制器应用程序流式传输到计算机(运行Windows 10),允许实时监控记录过程。
实验使用MATLAB控制,管理8通道背景噪声的播放和9通道言语信号的记录,采样率48千赫兹。MATLAB脚本还通过计算机与Tobii眼镜记录单元之间的USB连接触发眼动追踪。为了同步Tobii眼镜内置麦克风记录的音频数据与眼动数据,计算了两个音频流之间的最大互相关和相应延迟。
实验开始前,参与者被介绍研究程序,并给予时间互相熟悉。这个时期因到达时间差异而略有不同,但通常持续约10分钟。然后他们被移到实验室并以三角形安排就座。每位参与者安装麦克风和眼动追踪眼镜,在每次记录会话开始前使用Tobii的单点校准程序进行单独校准。
每次试验包括三个阶段,参与者在围绕任务进行的对话之前和之后执行项目比较任务。选择此任务是为了确保参与者参与对话,同时保持对主题的控制。有8组,每组包含8个项目,跨越四个主题:科技公司、电影、国家和哥本哈根的地标。在项目比较任务中,参与者单独评估所有可能的项目对组合,判断它们的顺序(例如,按年份、人口规模或距离)在-100到100的尺度上,这也反映了他们判断的信心。项目使用在触摸屏平板电脑上运行的Unity应用程序呈现,并记录响应。
初始比较任务后,参与者进入沟通阶段,期间他们讨论项目顺序。显示集合中所有项目的纸张被放置在每位参与者面前的支架上。实验员通过拍手启动此阶段(以辅助音频对齐),随后播放背景噪声。参与者有最多10分钟讨论项目,并在讨论完成时向实验员发出信号。沟通阶段后,参与者通过Unity应用程序回答五个问题,在0到10的尺度上评分方面,如聆听努力、参与度、感知对话流畅性、说话难度和言语理解。然后他们再次执行项目比较任务。沟通仅在讨论阶段允许,不在个人判断期间。项目对的呈现和问题顺序随机化。每个主题在两个声学条件(一个在噪声中,一个在安静中)呈现,主题和噪声条件的顺序随机化。
在实际实验前,三人组使用科技公司项目集完成两个完整的练习轮次以熟悉任务。参与者在约1小时后短暂休息,整个实验持续约2.5小时。
每位参与者配备一个面颊安装的方向性麦克风(DPA 4288, DPA Microphones, Denmark)和一对入耳麦克风(DPA 4560, DPA Microphones, Denmark)。九个麦克风连接到两个前置放大器(RedNet MP8R, Focusrite),言语使用MATLAB(R2021b)以48千赫兹采样频率记录。
每次对话任务期间记录的9通道音频使用离线语音活动检测(VAD)为每个说话者分割。VAD包括两个阶段:基于能量的每个说话者语音活动识别,和互相关阶段以消除串扰。音频信号使用截止频率100赫兹的高通滤波器预处理以去除呼吸噪声。滤波后的音频信号然后使用矩形窗口分成20毫秒帧,重叠50%。对于每帧,计算每个单独通道的均方根(RMS),类似于Beechey等人(2018)描述的方法。来自近嘴麦克风的基于帧的RMS表现出双峰分布,一个峰值对应背景噪声,另一个对应说话者的言语。这些分布用于定义识别每个对话语音区域的RMS阈值。
如果由于串扰检测到语音活动,这将在RMS水平差异和互相关中可见。如果多于一人同时说话,所有近嘴麦克风的RMS水平 above 阈值且RMS水平差异低。因此,帧,其中参与者的RMS水平比另一个说话者低6分贝以上,被分类为串扰。串扰的另一个标记是麦克风之间的互相关。对应最大互相关的滞后提供信号相对于麦克风起源的洞察。如果信号源自更接近参与者近嘴麦克风而非其他参与者,则他们自己麦克风与其他说话者之间的滞后将为负。对于互相关阈值的应用,计算通道之间的最大互相关和相应滞后,限制在-300和+300样本的滞后范围内。帧,其中RMS差异小于6分贝,仅当参与者麦克风之间的互相关滞后为负时保留,表明信号源自更接近他们的麦克风。为了进一步过滤噪声,我们排除了参与者近嘴和入耳麦克风之间最大互相关延迟低于0.8毫秒的段,对应约30厘米的距离。
此后,间隙短于180毫秒的语音间隔被合并,短于90毫秒的间隔被移除。然后为每个说话者检测到的话语通过合并同一说话者内的不间断暂停合并成话轮。短于1秒的话轮被排除,因为它们可能包含噪声或声音反馈,如‘是’、‘好’、‘嗯’或‘n?’。此分割过程为每个说话者的每个话轮产生精确的时间戳, enabling detailed analysis of their conversational dynamics.
Tobii 3眼镜记录每只眼的瞳孔位置和直径、凝视起源和方向,以及3D和2D格式的凝视位置。原始数据使用MATLAB(R2023a)处理和分析。缺失数据超过30%的试验被排除分析。眨眼基于双眼缺失数据和瞳孔测量噪声检测。应用时间约束,定义眨眼持续时间 between 50毫秒 and 1,000毫秒。眨眼期间的瞳孔和凝视数据被移除。每只眼的眼方向数据与2D数据一起转换为角方向数据,然后用于计算角速度。角速度超过1,000度/秒或位置为零的数据被丢弃。凝视位置数据使用5阶Savitzky–Golay滤波器平滑,帧长度9,缺失数据间隙短于200毫秒线性插值。预处理后的凝视数据使用I-DT算法分类为注视和扫视(注视点之间的快速眼动),分散阈值1.5度,最小持续时间100毫秒。瞳孔数据使用200毫秒移动中值滤波器平滑,并线性插值。为了考虑潜在 luminance 和凝视位置效应,基线瞳孔扩张为每张脸单独计算,使用噪声开始前每张脸上最长注视期间的平均瞳孔扩张。仅包括参与者在凝视交谈者面部时记录的基线减去瞳孔数据。
感兴趣区域(AOIs)对于交谈者、他们的面部和任务材料在每个视频帧中使用Python识别。人员检测使用YOLOv5n执行,面部检测使用MediaPipe,任务材料检测使用OpenCV的ORB检测器与FLANN匹配器配对进行特征映射。获得的AOI数据空间后处理以去除异常值,通过应用窗口大小3的移动中值滤波器到坐标和大小向量。AOI尺寸被精炼,面部AOIs between 50 and 300像素,人员AOIs between 50 and 900像素,任务材料AOIs between 100 and 1,400像素。时间后处理通过线性插值少于50帧的间隙应用以减少假阴性检测。持续少于4帧的短出现被视为假阳性。AOIs扩大40像素(约2度视觉角度)以考虑Tobii眼镜的准确性(1.60 + ?0.98度)。最后,2D凝视位置数据线性插值以注释AOI内的凝视点。
从处理的眼动追踪数据中,我们提取了一组先前与认知负荷和对话话轮转换相关的特征。在说话和聆听期间,我们计算了平均注视持续时间和扫视速率。此外,我们测量了这些期间从基线的瞳孔扩张的平均和最大变化。为了描述每次对话中视觉注意的整体分布,我们计算了每个AOI的停留时间。凝视位置和时机,相对于聆听和说话的 onset 和 offset,被分析以调查它们在管理话轮转换动态中的作用。在聆听 offset,我们区分了两种场景:当当前听者成为下一个说话者(‘自我话轮’)和当另一个听者接下一个话轮(‘他人话轮’)。类似地,在说话 offset,我们比较了当前说话者指向成为下一个说话者的听者(‘下一个说话者’)与指向继续聆听的听者(‘剩余听者’)的凝视行为。
我们使用混合效应模型分析噪声和对话状态对各种结果测量(y)的影响。除非另有说明,简化前的基线模型结构为:y ~ 噪声条件 * 对话状态 + (1|组/参与者)。模型在R中使用lme4包构建。随后使用lmerTest包对基线模型执行逐步模型简化。简化模型中剩余因子的效应使用方差分析分析。事后 within-factor 分析使用emmeans包进行。效应大小报告为偏η2,使用effectsize包计算。
对话期间凝视位置的分布可以作为视觉注意焦点的指标。我们在场景视频中定义了三个AOIs:其他参与者、他们的面部和任务材料。图3说明了参与者在聆听和说话期间将凝视指向每个AOI的时间比例。
在安静条件下,参与者花显著更多时间看任务材料 compared to their interlocutors [28.9%, t(852) = 19.04, p < 0.0001] or their faces [31.9%, t(852) = 20.98, p < 0.0001]。观察到对话状态的小但显著主效应和对话状态与AOIs之间的大交互效应。事后测试显示,对话状态的效应主要由面部和人员AOIs中的差异驱动。具体地,参与者在聆听期间 compared to talking 显示面部停留时间增加5.7% [t(854) = 3.62, p = 0.0003] 和人员AOI停留时间增加6.5% [t(854) = 4.10, p < 0.0001]。任务材料停留时间在聆听和说话之间无显著差异 [t(854) = ?2.42, p = 0.02]。在噪声条件下,凝视行为显著转移。任务材料停留时间减少16.4% [t(860) = 10.33, p < 0.0001],而凝视交谈者时间增加15.6% [t(860) = ?9.86, p < 0.0001]。结果,在噪声环境中,任务材料和交谈者之间的凝视时间不再有显著差异 [t(852) = ?1.87, p = 0.06]。
我们分析了在聆听和说话的话轮 onset 的凝视行为。参与者显示在话轮 onset 前后略微增加对任务材料的凝视。此外,他们在聆听 onset 后更频繁地看向当前说话者。背景噪声对参与者将凝视指向当前说话者的中位延迟有显著效应 [F(1,126.98) = 45.74, p < 0.001],与安静对话相比,凝视转移在噪声条件下发生早424毫秒。然而,噪声未显著影响凝视延迟变异性,如延迟的 interquartile range (IQR) 测量 [F(1,126.99) = 1.44, p = 0.23]。此外,第一次注视在噪声对话期间更频繁地指向当前说话者14% [F(1,124.33) = 74.33, p < 0.001],与噪声条件下整个对话中凝视交谈者的整体增加一致。
在接话后,说话者在安静和噪声环境中都更频繁地将凝视转移到任务材料。噪声对这些凝视转移的中位延迟 [F(1,129.26) = 19.46, p < 0.001] 和延迟的IQR [F(1,130.14) = 16.26, p < 0.001] 有中等效应。此外,第一次注视指向交谈者的概率在噪声条件下比安静高16% [F(1,126.83) = 47.717, p < 0.001]。总体,凝视模式在噪声对话中与话轮 onset 更同步,表明噪声增加话轮转换期间视觉行为的注意协调。
图5显示了在聆听和说话 offset 的凝视模式。在聆听结束时,参与者将眼凝视从交谈者转移开并朝向任务材料。当参与者接下一个话轮时,他们比另一个听者接话轮时转移凝视晚313毫秒 [F(1, 297.22) = 14.12, p < 0.001],导致凝视与话轮 offset 更好对齐。观察到噪声的小效应 [F(1,300.36) = 5.88, p = 0.02],与安静相比,凝视转移在噪声对话中发生晚246毫秒。此外,发现背景噪声与下一个说话者身份之间的显著交互效应 [F(1,297.22) = 5.88, p = 0.02]。事后测试显示,此交互主要由另一个听者接话轮时的凝视延迟变化驱动 [t(299) = ?3.43, p = 0.0007]。当听者自己接话轮时,噪声条件之间无显著差异 [t(299) = ?0.002, p = 1.00]。
在噪声对话中,聆听结束前的最后一次注视更可能指向当前说话者 [F(1,283.47) = 53.12, p < 0.001],且当参与者即将接下一个话轮时,此可能性略微增加 [F(1, 277.54) = 9.27, p = 0.003]。聆听期间,参与者比另一个听者更多凝视说话者,此效应在噪声条件下更显著 [F(1,285.26) = 46.85, p < 0.001],尤其当听者准备接下一个话轮时 [F(1, 277.54) = 23.01, p < 0.001]。这些发现表明,聆听期间的凝视模式提供关于听者是否准备接下一个话轮的线索。
在说话结束时,参与者增加对交谈者的凝视并减少对任务材料的凝视。观察到指向下一个说话者 compared to the other listener 的凝视转移延迟的小但显著增加 [F(1, 307) = 14.45, p < 0.001]。说话结束前的最后一次注视更频繁地指向将接下一个话轮的交谈者而非继续聆听的交谈者 [F(1,276.28) = 173.50, p < 0.001]。噪声对最后一次注视指向交谈者的可能性有大效应 [F(1,282.11) = 52.78, p < 0.001],反映噪声对话中更关注人的整体趋势。说话者花更多时间看下一个说话者 compared to the other listener [F(1,275.85) = 149.84, p < 0.001],且在噪声条件下凝视交谈者的持续时间整体增加 [F(1,281.10) = 60.26, p < 0.001]。显著交互效应 [F(1,275.85) = 6.09, p = 0.01] 显示,凝视持续时间差异在噪声中更大,为14.4% [t(276) = 10.1, p < 0.001], compared to 9.5% in quiet [t(276) = 7.1, p < 0.001]。这些模式表明,说话者的凝视行为提供关于谁将接下一个话轮的重要线索,凝视动态在噪声对话中更显著和协调。
图6说明了安静和噪声背景条件之间在聆听和说话期间的眼动和瞳孔扩张差异。扫视速率(图6A)在参与者在噪声中对话时 compared to quiet conditions 显著更高 [F(1,272.36) = 13.38, p < 0.001] 且在说话时 compared to listening [F(1,268.74) = 9.19, p = 0.003]。显著交互效应 [F(1,268.74) = 8.90, p = 0.003] 显示在噪声条件下聆听和说话之间的 pronounced difference [t(269) = ?4.16, p < 0.0001], whereas no significant was observed in quiet conditions [t(269) = ?0.03, p = 0.97]。
在平均注视持续时间(图6B)中观察到互补模式,其在说话时 compared to listening 显著减少 [F(1,268.22) = 109.22, p < 0.001] 且在噪声中 compared to quiet conditions [F(1,272.48) = 18.72, p < 0.001]。背景噪声与对话状态之间的显著交互 [F(1,268.22) = 7.12, p = 0.008] 指示注视持续时间在噪声条件下说话时显著减少 [t(270) = 4.95, p < 0.0001]。然而,在噪声与安静对话中聆听期间注视持续时间的减少不显著 [t(270) = 1.20, p = 0.23]。
瞳孔扩张,认知负荷和聆听努力的常见标记,显示基于对话状态无显著效应(图6C,D)。然而,参与者 exhibited an increased average pupil dilation [F(1,291.23) = 11.00, p = 0.001] and maximum pupil dilation [F(1,292.24) = 16.61, p < 0.001] in noisy conditions compared to quiet。虽然这些效应统计显著,效应大小小。
每次对话后收集的主观评分呈现在图7。所有评分受背景噪声存在显著影响。在噪声中对话导致感知聆听努力增加5.4点 [F(1,149) = 732.07, p < 0.001],言语理解减少3.8点 [F(1,149) = 284.32, p < 0.001],说话难度减少2.8点 [F(1,149) = 141.68, p < 0.001],参与度减少1.0点 [F(1,149) = 14.35, p < 0.001],和对话流减少1.9点 [F(1,149) = 83.38, p < 0.001]。
在本研究中,我们调查了与话轮转换相关的眼动行为在面对面沟通中,并检查了背景噪声如何影响此行为。我们的目标是确定噪声诱导的挑战是否改变视觉注意的分配,以及维持对话流所需的认知负荷是否反映在通常与受控实验室设置中聆听困难相关的眼动标记中。我们发现,在挑战性声学条件下,参与者更频繁地将凝视指向他们的交谈者而非任务材料。凝视行为在噪声环境中也与话轮转换动态更紧密对齐,使其更预测下一个说话者。虽然聆听期间凝视专注于说话者的面部,说话与增加的凝视运动相关。先前与认知负荷相关的标记显示要么与预期相反的效应,要么对声学挑战仅小效应大小。主观评分确认更高水平的背景噪声使参与对话更困难,减少对话流和参与度。
在安静设置中,参与者主要将凝视指向任务材料,使用它既准备下一个话轮又支持讨论项目的短期记忆保留。此行为与先前发现一致,个体通过依赖环境中易于获取的视觉信息来卸载认知需求。通过看任务材料,参与者可以减少内部保留信息的需求,从而保存认知资源。然而,随着背景噪声增加和沟通变得更挑战,参与者将凝视转向他们的交谈者,牺牲任务材料提供的记忆支持。此转移表明,在声学挑战条件下,参与者分配更多认知资源给言语理解,并更依赖视觉线索以补偿降解的听觉信息。先前研究报告了类似增加对支持言语理解的线索的视觉注意。例如,在被动聆听任务中,个体在噪声环境中增加对说话者嘴巴的凝视,且在主动二元对话中观察到类似趋势。与Lu等人(2021)相比,他们检查了噪声中三方对话的眼动,本研究发现更显著的凝视转向交谈者。这可能 due to the inclusion of task material in our study, which added a competing area of interest。这些发现强调了凝视行为对视觉场景复杂性和对话背景的敏感性。噪声中增加对视觉线索的依赖也可能帮助解释为什么增强可听性的物理策略——如