编辑推荐:
为解决遥感目标检测依赖大量标注数据、缺乏集成眼动和 EEG 数据研究的问题,研究人员开展了 EEGET-RSOD 数据集研究。他们收集 38 位专家数据,得出数据集可用于提升机器学习模型、理解人类认知过程的结果,对多学科研究意义重大。
在当今科技飞速发展的时代,遥感技术成为人们洞察地球奥秘的 “千里眼”。通过卫星和航空拍摄获取的遥感图像,为我们提供了大量关于地理环境、地表变化等方面的信息。然而,遥感目标检测这一关键环节却面临着诸多挑战。传统的检测方法依赖大量的标注数据进行训练,需要专家耗费大量时间和精力对图像进行人工标注,这不仅效率低下,而且成本高昂。与此同时,虽然深度学习的进步提高了检测模型的能力,但它依然是一个数据驱动的统计学习过程,难以深入理解人类在遥感图像目标检测中的认知机制。为了填补这些空白,北京师范大学的研究人员开展了一项具有创新性的研究。他们致力于构建一个同步脑电图(Electroencephalography,EEG)和眼动追踪数据集(EEGET-RSOD),用于遥感目标检测研究。该研究成果发表在《Scientific Data》上,为相关领域的发展带来了新的曙光。
研究人员主要运用了以下关键技术方法:首先,精心筛选了 40 名潜在参与者,让他们通过遥感图像解译测试,最终确定 38 名符合要求的遥感解译专家参与实验。实验中的刺激图像来自 DIOR 数据集,包括 900 张含飞机的图像和 100 张不含飞机的图像。其次,使用 SMI RED250 眼动仪以 250Hz 的采样率收集眼动数据,用 NE Enobio 32 系统以 500Hz 的采样率采集 EEG 数据。最后,通过键盘输入同步眼动和 EEG 数据,并利用特定公式进行时间校准。
下面来看具体的研究结果:
- 数据记录:该数据集包含原始 EEG 数据、预处理后的 EEG 数据、眼动数据、时间同步数据、注视热图、刺激材料数据和对象标注数据。EEG 数据按参与者 ID 命名并以 EDF + 格式存储,预处理通过 EEGLAB 进行;眼动数据按参与者 ID 保存为 TXT 格式,详细记录了各类眼动信息123。
- 技术验证:
- 眼动验证:从有效采样率、目标检测率、注视持续时间稳定性和注视点分布一致性四个方面评估眼动数据质量。结果显示,多数参与者有效采样率超 90%,平均目标检测率达 90.11%。在注视持续时间和眼跳幅度方面,参与者查看无目标图像时更长、更大;在注视点分布上,随着参与者数量增加,显著性图变化减小并趋于稳定456。
- EEG 验证:利用事件相关电位(ERP)评估 EEG 数据。在 Pz、Cz、Oz通道分别观察到 P300、N1、P1 和 N2 等 ERP 成分,表明刺激引发了参与者相关的认知过程。通过分析额叶通道的 Alpha/Theta 和 Alpha/Beta 比率,发现参与者在查看不同图像时注意力状态无显著差异。此外,基于脑信号对行为进行分类的结果也验证了数据的有效性789。
研究结论与讨论部分指出,EEGET-RSOD 数据集为增强机器学习模型、深化对人类在遥感目标检测中认知过程的理解提供了宝贵资源。不过,该研究也存在一定局限性,如参与者均为遥感专家,研究仅针对飞机检测,实验条件与现实有差距等。尽管如此,这项研究依然意义非凡。它首次提供了同步的遥感图像眼动和 EEG 数据,为跨学科研究搭建了桥梁,促进了地理空间类脑智能和神经认知地理学等领域的发展,为后续研究奠定了坚实基础,有望推动遥感目标检测技术朝着更加智能化、高效化的方向迈进。