《Frontiers in Plant Science》:Deep learning-based methods for phenotypic trait extraction in rice panicles
编辑推荐:
本研究提出了一种整合目标检测、动态深度优先搜索(DFS)修剪与线性回归的深度学习新方法,用于自动化、高通量地提取水稻穗部关键表型性状(穗长、穗粒数、粒长、粒宽、成熟度)。该工作有效解决了水稻育种中传统测量方法效率低下、精度不足的瓶颈,通过构建优化模型OPG-YOLOv8和一站式网络平台,为作物表型组学与智能育种提供了高效、精准的技术工具。
1 引言
水稻是全球广泛种植的粮食作物,其产量和品质性状与穗部表型特征直接相关,如穗长、单穗粒数、粒长、粒宽以及成熟度。这些性状的精准、高效测量是水稻育种研究中的关键步骤。传统的穗部性状测量方法(如使用直尺、游标卡尺手动测量)存在费时费力、易损坏样品、主观误差大等问题。近年来,计算机视觉与人工智能,特别是深度学习技术,已成为作物表型组学领域的变革性解决方案,在种子计数、尺寸测定、穗部分割等任务中展现出巨大潜力。现有研究在无损伤提取穗部性状方面已取得进展,但仍面临诸多挑战。许多方法仅聚焦于单一性状的提取,缺乏对多个关键表型性状的综合性同步分析。此外,多数模型停留在算法层面,缺少一个覆盖从图像采集到数据分析全流程的端到端、自动化集成平台,这限制了其在实际育种工作中的大规模应用。水稻穗部结构在不同品种间差异显著,从紧凑到松散不等,这给设计一个通用、高效、精准的多维表型性状提取模型带来了主要挑战。本研究旨在通过设计一个基于深度学习的综合性方法,并将其封装成易于使用的网络系统,为育种专家提供一站式技术支持,从而真正推进水稻育种的智能化进程。
2 水稻穗部表型性状数据集构建与提取方法
2.1 数据集构建
2.1.1 图像数据采集与处理
研究使用的水稻样本来源于中国农业科学院作物科学研究所。田间数据采集于2024年9月在江西南昌宜春高安基地进行,共从1772份成熟期水稻种质资源中获取了表型数据。使用固定于样本上方30厘米处的智能手机,在LED照明下采集穗部图像,分辨率为3024×4032像素。样本被置于均匀黑色背景上,旁边放置一个直径为30毫米的红色校准板用于像素到物理尺寸的转换,并配有与田间小区编号对应的白色编号牌。所有捕获的图像均经过两名训练有素的研究员进行手动初步筛选,剔除存在严重运动模糊、对焦不良、过曝或欠曝的图像。筛选后,对图像进行裁剪以分离穗部区域,最终得到4700张高质量图像用于后续处理。

2.1.2 水稻穗部性状的人工测量
为确保模型训练和测试的准确性,对部分样本进行了精确的人工测量,为深度学习模型提供真实世界的数据基准。测量内容包括:使用精度为1毫米的直尺测量400个样本的穗长;手动计数600个样本的穗粒数;使用游标卡尺测量240个样本的粒长和粒宽;由三位水稻育种专家对穗部图像进行成熟度评估和3000张图像的穗部类型分类。穗部类型根据籽粒间相互遮挡程度分为三类:“松散”(轻微遮挡)、“正常”(中度遮挡)和“密集”(严重遮挡,外观类似棒状)。

2.1.3 水稻穗部性状数据集的构建
将4700张水稻穗部图像根据具体应用进行划分和标注。其中,1000张图像用于籽粒检测和不同模型的性能评估;3000张用于穗部类型识别;另外2100张人工测量样本图像中,400张用于验证穗长提取算法,660张用于回归建模,240张用于验证粒长粒宽提取算法,1200张用于穗部籽粒成熟度分析。
2.2 水稻穗部表型性状提取方法
为准确、自动地从水稻穗部获取关键表型性状,研究团队开发了一个基于深度学习的综合性流程管道。该管道包括四个主要模块:图像预处理与校准模块、籽粒计数模块、穗长提取模块、以及粒长、粒宽和成熟度提取模块。整体工作流概览从图像采集到最终数据输出分为四个主要阶段:图像采集与预处理、人工智能驱动分析、多性状量化、平台界面与数据导出。

具体的技术实现细节和模型架构在另一图表中详细展示。

2.2.1 用于籽粒检测的OPG-YOLOv8模型
精准检测单个水稻籽粒是进行籽粒计数、尺寸测量和成熟度分析等多重性状提取任务的基础。为实现高精度和高速度的检测,研究提出了一种改进的OPG-YOLOv8检测算法。该算法主要在标准YOLOv8模型的颈部和头部结构上进行优化。具体而言,引入了卷积块注意力模块(CBAM)以抑制浅层特征中的背景噪声,CBAM由通道注意力模块(CAM)和空间注意力模块(SAM)组成,通过选择性加权通道和空间信息,显著增强了对水稻籽粒等小目标的特征表示能力。此外,在颈部引入了更高分辨率的特征图进行多尺度特征融合,以补偿特征传递过程中的信息损失。同时,在头部增加了一个额外的检测头,利用高分辨率特征图进行预测,有效提高了小目标的检测精度。此优化模型为后续所有籽粒层面的表型分析提供了核心引擎。
2.2.2 通过密度分类与回归实现精准计数的两阶段方法
自然条件下穗部籽粒间的相互遮挡是基于目标检测进行精准计数的主要挑战。更密集的穗部会有大量籽粒被遮挡,导致系统性的计数低估。为解决此问题,研究开发了一种集成密度分类与回归建模以修正初始计数的两阶段方法。第一阶段,根据专家评估定义了三个反映籽粒间相互遮挡程度的密度类别:“松散”、“正常”和“密集”,并使用OPG-YOLOv8模型对输入穗部图像进行自动分类,为后续修正步骤提供关键背景信息。第二阶段,利用第一阶段的分类结果,对初始籽粒计数进行针对性修正。首先使用OPG-YOLOv8目标检测模型获得穗部所有可见籽粒的初步预测计数(记为Xi),然后根据穗部的密度类别,选择对应的预先建立的线性回归方程来计算最终的修正粒数(记为Yi)。这些回归模型基于一个专门的子数据集(每类220张,共660张)建立,通过将可见粒数(Xi)与对应的手动实测粒数(真实值)进行最小二乘拟合得到。三类别的回归方程如下:Y1= 1.136X1+ 12.67(松散);Y2= 1.555X2- 6.191(正常);Y3= 1.821X3- 29.2(密集)。该方法允许系统根据穗部结构系统性补偿被遮挡的籽粒,显著提高了整体计数精度。
2.2.3 穗长提取方法
为准确测量穗长,本研究提出了一种基于深度优先搜索(DFS)算法动态修剪策略的穗长提取算法。首先对图像进行灰度化、滤波去噪、阈值分割以分离穗部与背景,并进行形态学闭运算以填充孔洞、连接边缘。随后,使用skimage库中的骨架化功能提取穗部的中轴线。根据标准农艺测量实践,穗长被定义为从穗颈到穗部最远顶端的距离,算法自动将穗颈识别为提取骨架上的最低分叉点。骨架化后,采用DFS修剪算法进行路径规划以描绘穗部主路径。在搜索过程中记录当前路径长度,并与记录的最优长度进行比较,若小于最优长度则继续搜索,若大于或等于则进行剪枝,不再继续该路径的搜索。根据记录的路径信息,可在原图或新图上描绘出穗部主路径,然后基于像素到物理尺寸的转换因子计算实际穗长。
2.2.4 粒长与粒宽提取方法
基于本研究提出的OPG-YOLOv8模型检测到的穗部籽粒位置信息,确定稻穗籽粒的边界框信息,进而提取其长和宽。由于穗部籽粒的遮挡,检测框可能未完全包含籽粒,因此需要对检测结果进行筛选。实验通过反复筛选和验证,仅对置信度阈值大于0.8的稻穗籽粒进一步测量其长和宽。在分割出选定的籽粒后,进行长宽提取。需要指出,初始目标检测模型提供的边界框主要用于定位,不用于直接测量,因为初始边界框有时可能因遮挡或形态变异而未能捕获整个籽粒,从而引入测量误差。为确保高精度测量,本研究采用了更稳健的两步流程:首先,使用初始边界框坐标来隔离包含目标籽粒的感兴趣区域(ROI);其次,在该ROI内执行精确的阈值分割和粒子过滤,以提取籽粒体的精确像素形态;最后,基于此精确分割掩模而非初始检测框计算最小外接矩形。这种基于分割的方法通过系统克服初始检测阶段的潜在误差,确保了最终的长宽测量结果能真实反映籽粒的真实尺寸。
2.2.5 穗部籽粒成熟度提取方法
为客观量化籽粒成熟度,开发了一种基于穗部颜色特征的方法。数字图像中的RGB色彩空间捕捉的是基本的颜色信息,但其感知不均匀,即两个RGB值之间的数值距离并不直接对应于人类感知的色差。为建立一个更稳健、更符合人类感知的度量,设计了一个多步骤工作流程,将初始RGB数据转换为亨特Lab(Hunter Lab)色彩空间,该空间对人类色彩感知大致均匀。首先,对每个检测到的籽粒,从归一化其平均RGB值开始,接着进行伽马校正以更准确地模拟人眼的视觉特性。伽马校正后,将归一化和校正后的RGB值转换为CIE XYZ值。在CIE XYZ色彩空间中,基于获得的XYZ值计算亨特Lab参数。在亨特Lab色彩空间中,L表示明度,反映颜色的亮度;a表示红-绿轴的色度;b表示黄-蓝轴的色度。最后,根据上述数据结果计算黄度值,使用的公式为:YI = (128 × L + 100 × a + 30 × b) / 100。通过此公式,整合了明度(L)和色度(a, b)信息,实现了对颜色中黄色程度的精确量化计算。通过比较水稻育种专家判断的成熟度结果与平均黄度值,本研究建立了明确的水稻成熟阶段分类标准,将成熟度划分为乳熟、蜡熟、完熟和过熟四个阶段。
3 实验结果与分析
3.1 水稻穗部表型性状提取结果评估
OPG-YOLOv8模型在水稻穗部类型预测中表现出色,对第三类(密集)穗部的预测准确率高达96.36%。穗长提取算法在预测长度与实际长度之间表现出强相关性,R
2为0.9583,RMSE为5.69毫米。两阶段籽粒计数方法在三个密度类别中均表现优异,对于“松散”穗部,R
2高达0.9799;对于“正常”和“密集”穗部,R
2值分别保持在0.9551和0.9278的高水平。这些结果表明该方法在克服遮挡导致的计数低估方面非常有效。尽管随着密度增加误差指标(如RMSE)有所上升,但“密集”类别的平均绝对百分比误差(MAPE)仍保持在7.51%的低水平,表明即使在最具挑战性的情况下,模型仍能保持较高的相对准确性。验证穗部性状提取结果的散点图直观展示了预测值与真实值之间的高线性相关性。

3.2 跨区域泛化验证结果
为评估模型在不同地理区域和遗传背景下的泛化能力与稳健性,在一个独立的跨区域验证数据集上进行了测试。该数据集包含来自四川省农业科学院现代农业科技创新示范园的600张穗部图像,未参与模型训练的任何环节。模型在该新数据集上保持了强大的性能和较高的准确性。穗长提取的R2值达到0.9412,与原始验证集(0.9583)相比仅有微小下降,表明测量算法具有很高的稳健性。在关键的籽粒计数任务中,模型平均R2达到0.9255,证实了两阶段计数方法在处理新穗部形态方面的有效性。粒长提取和成熟度分类的指标也保持在高水平。这些结果有力地验证了本研究的表现型模型具有优异的泛化能力,是超越初始训练环境的、更广泛的实际育种应用中可靠且适用的工具。
3.3 籽粒检测模型对比实验
OPG-YOLOv8在目标检测任务中展现了卓越的综合性能。在检测精度方面,其mAP50达到99.10%,超越了YOLOv8、YOLOv7等模型。尽管在R2指标上略低于YOLOv7,但其0.8的得分仍显示出强大的数据拟合能力。在模型复杂度方面,OPG-YOLOv8具有5960万参数和1132亿次浮点运算,表现出相对较低的计算复杂度,在硬件资源利用方面具有优势。其推理速度达到每秒154帧,显著高于其他模型。总体而言,OPG-YOLOv8在准确性、计算复杂度和推理速度之间取得了优异的平衡,在目标检测任务中具有明显优势。
3.4 穗部籽粒成熟度评价实验
基于穗部平均黄度值对水稻籽粒成熟度进行了评估。统计分析了1200张穗部图像样本的平均黄度值。代表性穗部图像及其对应的黄度直方图展示了四个成熟阶段(过熟、完熟、蜡熟、乳熟)的明显差异,证实了黄度指标在表征籽粒成熟进程方面的判别能力。

使用混淆矩阵评估了模型在分类水稻穗部成熟阶段(过熟、完熟、蜡熟、乳熟)方面的性能。分析显示,模型在各阶段的分类准确率存在差异:过熟样本获得183个正确预测(准确率91.5%);完熟样本获得185个正确识别(准确率92.5%);蜡熟样本获得178个正确分类(准确率89.0%);而乳熟样本的准确率最高,达到94.5%。混淆主要发生在相邻的成熟阶段之间,这表明在区分细微的过渡特征方面存在挑战。这些结果验证了模型在成熟阶段识别方面的有效性,同时也为边界案例的优化指明了潜在方向。

3.5 水稻穗部性状精准提取系统的研发
为实现OPG-YOLOv8检测模型和穗部性状提取算法的实际应用,基于Django框架和Python开发了“水稻穗部性状提取系统”。该系统集成了基于网络的界面模块,支持多用户、多角色的远程操作和数据管理。它提供了从数据采集到云端智能分析的一体化工作流程,平均每张图像处理时间在5秒以内。系统可快速、准确地提取关键表型性状,包括穗长、粒长、粒宽、长宽比和成熟阶段。这个搭载了数据驱动表型分析算法的平台,为现代农业育种研究提供了精准高效的技术支持,弥合了先进的计算机视觉模型与实际农学应用之间的鸿沟。

4 讨论
4.1 穗部与籽粒性状提取的准确性及意义
本研究开发的系统在测量关键农艺性状方面表现出高精度。穗长测量为水稻育种者提供了一个筛选高产量潜力基因型的可靠工具。新颖的两阶段籽粒计数方法有效缓解了因严重籽粒遮挡导致的计数低估问题,可极大加速优良基因型的筛选。系统还提供了关于籽粒尺寸和成熟度的宝贵数据。尽管粒长提取令人满意,但精准测量粒宽更具挑战性,这可能源于用二维最小外接矩形表示复杂三维籽粒形状的固有困难。尽管如此,长宽的自动化测量具有很高价值,因为这些性状共同决定了籽粒形状和大小,是影响碾磨产量和消费者偏好的关键品质特征。同样,通过量化黄度指数进行的客观成熟度评估,为育种者提供了一个强大的、数据驱动的工具,用于选择均匀成熟度和优化收获时间,从而最大化籽粒品质和产量。
4.2 OPG-YOLOv8模型的性能与局限性
构成籽粒检测模块核心的OPG-YOLOv8模型,在检测精度和推理速度方面均表现出卓越性能,突显了其在实时或近实时应用中的潜力。然而,这种增强的性能伴随着相对较高的计算资源需求,这对在低功耗的边缘农业设备上部署模型提出了挑战。未来的工作可以探索模型压缩技术,以在不显著损失准确性的情况下创建OPG-YOLOv8的轻量级版本,从而拓宽其适用性。
4.3 迈向集成化与田间就绪的表型分析
当前研究成功展示了多性状提取在单一平台内的集成。然而,每个性状的分析在很大程度上仍然是独立的。一个有前景的未来方向是探索多任务学习框架,其中单个模型被训练用于同时预测所有性状。这种方法可以利用性状之间固有的相关性来提高系统的整体准确性和效率。最终目标是,从受控的实验室环境转向真实世界的田间条件。这将需要在收集多样化的、基于田间的数据集以及开发能够应对可变光照、复杂背景和叶片遮挡等挑战的鲁棒算法方面做出重大努力。整合多模态数据,例如来自三维传感器的深度信息,也可能是克服这些障碍的关键一步。通过应对这些挑战,可以进一步增强这项技术,使其成为强大的决策支持工具,有助于加速改良水稻品种的培育,并为全球粮食安全做出贡献。
5 结论
本研究成功构建了一种基于深度学习的水稻穗部性状精准自动化提取模型,并开发了相应的网络系统。该工作有效满足了水稻育种和生产中对高效、高通量表型分析的关键需求。本研究成果的创新点和结论总结如下:
- 1.
建立了一个高精度的多性状提取流程管道。所提出的深度学习管道在量化关键农艺性状方面表现出强大性能。穗长提取方法达到了0.9583的高R2值。对于籽粒计数,新颖的整合密度分类与回归建模的两阶段方法有效修正了遮挡误差,R2值高达0.9799,相较于直接检测显著提高了准确性。
- 2.
开发了性能卓越的优化目标检测模型(OPG-YOLOv8)。通过集成注意力机制和多尺度融合,OPG-YOLOv8模型在准确性、计算效率和速度之间取得了极佳平衡,优于其他比较模型。这为籽粒层面分析提供了一个稳健且高效的核心引擎。
- 3.
实现了一个集成化、实用化的表型分析系统。将算法封装在用户友好的网络版“水稻穗部性状提取系统”中。该系统将复杂的计算机视觉模型转化为育种者实用的工具,通过提供从图像上传到数据导出的端到端工作流程,弥合了先进研究与实际应用之间的鸿沟。
尽管本研究已达到其主要目标,但未来的工作应侧重于增强模型对复杂田间环境的适应性,并进一步探索性状间的关系,以开发更全面、更普遍适用的表型分析模型。总而言之,这项研究提供了一个强大而高效的工具,可显著推动水稻的智能化和数字化育种进程。