无人机+AI新农业!大豆成熟度精准预测,准确率高达85%,育种效率飙升

B站影视 港台电影 2025-04-09 17:27 1

摘要:植物育种计划需要对成熟天数进行评估和了解,以便在适当的试验中进行适当的选择和安排。大豆育种计划在育种的早期阶段会给试验品种分配相对成熟度等级,以表明其适宜的成熟区域。传统上,对育种品种成熟度评级值的估算是由育种人员人工巡视田间,目测成熟度值。这种方法在很大程度

论文题目:

Soybean Maturity Prediction using 2D Contour Plots from Drone based Time Series Imagery

论文链接:

摘要

植物育种计划需要对成熟天数进行评估和了解,以便在适当的试验中进行适当的选择和安排。大豆育种计划在育种的早期阶段会给试验品种分配相对成熟度等级,以表明其适宜的成熟区域。传统上,对育种品种成熟度评级值的估算是由育种人员人工巡视田间,目测成熟度值。这种方法在很大程度上依赖于专家判断,因此主观性强,需要花费大量的时间和精力。本研究旨在利用基于无人机的时间序列图像,开发一种评估大豆成熟度的机器学习模型。从最早开始成熟的品种开始,每隔三天采集一次图像,直到最后一个品种完全成熟。本试验收集的数据包括22,043块地,收集时间跨度为三年(2021、2022和2023年),代表相对成熟度组1.6-3.9。我们利用从无人机RGB时间序列图像中提取的等高线图像作为神经网络模型的输入。这种等高线图法将每个地块内的时间和空间变化编码成一张图像。对深度学习模型进行了训练,以利用该等高线图预测成熟度等级。该模型在准确性和稳健性方面都有显著提高,准确率高达85%。随着成像时间点数量的减少,我们还对模型的准确性进行了评估,量化了时间分辨率和成熟度预测之间的权衡。该预测模型提供了一种可扩展、客观、高效的作物成熟度评估方法,使表型组学和ML方法能够减少对人工检测和主观评估的依赖。这种方法能在育种计划中自动预测相对成熟度等级,从而节省时间和资源。

引言

大豆作为全球重要作物,种植覆盖1.33亿公顷,其中北美和南美占74%。其成熟度组(MG)划分对育种和产量至关重要,错误评估会导致减产风险。传统目测评估法依赖人工对照商业品种进行主观评分,耗时耗力且易产生误差,尤其在处理数万地块时效率低下。

本研究创新采用无人机(UAS)搭载RGB/多光谱相机和机器学习技术,提出自动化成熟度评级方案。核心突破包括:

数据压缩技术:将连续3年8个时间序列的无人机图像,通过提取色调值生成二维等高线图,将高维数据降维处理,保留完整时空信息;7级分类系统:突破传统4-5阶段分类,采用更精细的成熟度预测模型;植被指数分析:通过过量绿度指数(ExG)追踪大豆衰老过程,发现绿度下降速率与产量的潜在关联;效率优化:确定最少无人机飞行次数(成本效益优化),机器学习模型实现小时级数百公顷评估,较传统方法效率提升90%。

研究成果显著提高育种选择精度,降低50%人工成本,为培育高产品种提供数据支持。该方法通过融合时间序列影像与AI模型,推动农业表型分析进入智能化新阶段,未来可扩展至其他作物成熟度评估。

材料和方法

实地试验和数据收集

本实验所收集的数据来自美国内华达州波恩(Boone)附近的先进大豆育种产量试验(42.020,-93.773,海拔339米)。数据集由无人机系统在三年内从六块田地采集的图像组成。这些图像包括 2021年代表F5和F6代的两块田地(14,665 块地)、2022年代表F6和F7代的两块田地(3,328块地)以及2023年代表F6 和F7代的两块田地(4,050块地)的数据,共计22,043块地。每个小区由两行种植大豆组成,行距为76.2厘米,种距为3.68厘米。不同世代的地块尺寸各不相同:F5代地块长2.13米,小巷长0.91米;F6和F7代地块长5.18米,小巷长0.91米。这些试验使用GPS引导的精确播种机播种,确保了精确的地块定位和位置跟踪。这些试验中的遗传物质既包括优良品种,也包括引种(PI)品种,品种的成熟度组(MG)从MGI中期到MGIII晚期不等。

每年,大豆地块都播种在前一年种植过大量玉米(Zea mays L.)的田块上。采用标准的整地方法。每块田都在播种后一个月使用播种后除草剂。除化学除草外,还进行了人工除草,定期在地块上行走,清除杂草。

相对成熟度 (RM) 评定是通过专家评定员评估获得的。具体做法是在每块田地中种植对照栽培品种,这些品种代表了成熟度较高的市售大豆栽培品种。专家评定员在每个视觉数据收集日对这些对照栽培品种进行监测,以确定最近达到完全成熟的栽培品种。然后,评分员根据大豆新品种与对照栽培品种的物候相似度对其进行RM评分。每隔两三天进行一次观察,以确保准确记录每个大豆新品种从最早到最晚的RM值。这些地块的产量数据是使用Zurn小区联合收割机或Almaco小区联合收割机(Almaco, Nevada, IA, USA)获得的,单位为公吨/公顷(MTH)。图1显示了2021年、2022年和2023年无人机系统飞行采集期间的日最高和最低温度。

无人机系统数据采集

2021年的成像使用的是大疆Matrice 600 Pro(大疆创新,中国深圳),配备大疆Zenmuse X5 RGB摄像机和奥林巴斯M.Zuiko 45mm/1.8镜头(OM Digital Solutions,日本东京新宿)。2022年和2023年使用的成像平台是大疆Inspire 2,配备大疆Zenmuse X5S RGB相机和奥林巴斯M.Zuiko 45mm/1.8镜头。在天气允许的情况下,每隔三天在太阳正午2小时内进行一次无人机飞行。飞行计划使用DroneDeploy(DroneDeploy,美国加利福尼亚州旧金山)创建,正面重叠设置为70%,侧面重叠设置为80%。2021年的飞行高度为60米,地面采样距离 (GSD) 为 0.5厘米/像素。为了在2022年和2023年使用更高分辨率的相机时保持相同的GSD,飞行高度调整为68米。飞行任务在最早成熟的对照栽培品种(MG为1.9)完全成熟之前开始。对每块田都进行了人工勘察,以确定该早熟对照栽培品种开始成熟的时间,这标志着成像飞行任务的开始。飞行一直持续到田间最晚成熟的品种完全成熟为止。通过保留早熟对照品种完全成熟记录日期之前两个飞行日期的数据,确定追溯开始日期。每块田每年总共保留8次飞行。这样可以确保记录最早的RM组品种到最晚的RM组品种。

数据预处理

使用Pix4Dmapper (Pix4D, Prilly, Switzerland) 对无人机系统捕获的每次飞行任务的图像进行处理并拼接成正交合成图。正射影像图使用ArcGIS Pro(ESRI,美国加利福尼亚州雷德兰兹)和Python(Python 软件基金会,2024年)进行进一步处理,在每个田块的正射影像图上叠加网格,将每个地块分割成不同的单元格。对网格进行手动调整,以确保每个小区在各自的单元内精确对齐。对齐后,以PNG格式提取每个时间点的单个小区图像。经过处理后,每个地块都生成了一个文件,其中包含 8 幅图像,每幅图像都与相应的地面实况RM评级相关联。

绿度斜率提取

对于从数据预处理步骤中获得的每个地块,都要计算绿度指数(ExG),这是一种RGB颜色指数。ExG 指数的定义如下:

其中,G、R和B分别代表RGB图像中的绿色、红色和蓝色通道。对每个时间点和田块的所有地块按像素计算ExG值,然后确定每个时间点每个地块的平均ExG值。ExG被广泛用于监测大豆植株生长(Borra-Serrano等人,2020年),是跟踪大豆衰老的一种可行方法。我们特别选择了这一植被指数作为跟踪地块绿度的一种方法。它在区分草地和土壤(Barbosa等人,2019年)以及估算甘蔗产量(Khuimphukhieo等人,2023年)方面也很有用。

随后,确定了每个地块ExG值最大值(TP最大值)和最小值(TP 最小值)对应的时间点。选择这两个时间点是为了接近绿度开始下降和停止下降期间的起点和终点。具体来说,TP最大值代表大豆品系绿度达到最大值(即开始衰老)的时间点,而TP最小值代表大豆品系达到成熟颜色的时间点。我们选择了从TP 最大值到TP最小值的时间点子集进行进一步分析。然后对该子集进行线性回归,得出斜率,代表ExG值随时间的线性变化率。这样做是为了观察不同RM等级之间绿度损失率的差异。该斜率是针对2021年的F6材料、2022年的F6和F7材料以及2023年的F6和F7材料田块中的每个地块计算得出的。图2举例说明了处理前后的地块。

时间序列数据的紧凑表示

利用从大豆成熟度评估中获得的高维时间序列图像数据,我们采用了一种方法来紧凑表示大豆成熟度方面的时间序列数据。

下一节概述了我们的方法,包括图像预处理、特征提取和等高线图生成。这些步骤可确保高维数据集对于ML模型而言既一致又有参考价值。

图像处理

我们首先对原始绘图图像进行预处理,裁剪掉不必要的白边。这种裁剪略微改变了每个地块的大小。然后,使用OpenCV库的调整大小功能将所有图像调整为一致的尺寸(此处为300×1000像素)。这样可以确保每个地块的尺寸一致,从而可以对数据集中的不同地块进行比较。

提取特征

评估大豆成熟度的主要特征是作物的颜色,通过图像中的色调值来表示。随着大豆的成熟,大豆地块的颜色通常会从绿色过渡到黄色再到棕色,这反映了植物生理上的变化。这种生理变化反映在地块图像的色调值变化上,随着地块的成熟,色调值不断降低,从大约85(绿色)降至35(黄色),再降至20(棕色)。为了利用这种对应关系,我们首先将RGB格式转换为等效的HSV图像格式(使用OpenCV的内置例程)。HSV格式中的色调通道主要代表主要波长(颜色),不受强度或亮度变化的影响。由于HSV将色度与亮度分开,因此光照变化主要影响值(亮度)和饱和度(色彩强度)通道,而不是色调。这使得色相在不同的照明条件下相对稳定。因此,在不同光照条件下的实地成像中,色调是衡量色彩信息一致性的可靠指标。有了现成的色调 (H) 通道,我们现在就可以进行色彩分析并跟踪时间变化。我们提取了地块图像中每个像素的颜色分布,从而可以系统地计算出每个色调值的像素数量。通过这一过程,我们获得了每个地块每个时间点的直方图,如图3所示。这种时间序列直方图记录了色调的逐渐变化,因此可以作为成熟度评级的良好指标。

作为表型的色调等值线图

不同时间点的色调直方图被组合成一张三维图(见图 3)。该图包含色调值范围(x轴,0至180)、时间(y轴,用n个时间序列表示)和小区每个时间点上特定色调值对应的像素数(z轴),它编码了大豆小区的时空进展。该三维地块被转换成图像,以便利用基于图像的复杂深度学习架构。这种转换包括将表示像素计数的Z轴替换为彩色地图。这样,像素计数数据在二维等高线图中就被编码为不同的颜色,从而可以更清晰、更容易解释不同时间点的数据。我们使用“Batlow”色图(Crameri等人,2020年)来绘制二维等高线图。这种感知统一的色图可确保将数据失真和视觉误差降至最低,同时保证清晰度。色调值范围通常在0到180之间,但我们的数据集没有显示超过100的值。因此,我们在此色调阈值处裁剪等高线图图像,以消除无关数据区域,将分析和可视化重点放在重要范围上。

图3(右)显示了一个特定大豆地块的代表性色调等高线图像。这幅图表示色调(从左到右的强度变化)如何随时间(从上到下的强度变化)变化,峰值强度从绿色到黄色再到棕色。我们还使用不同数量的时间序列数据创建了这些色调轮廓图。这样我们就可以研究无人机采集时间点数量与成熟度预测之间的权衡。具体来说,我们通过改变时间序列数据子集的数量来创建不同的等值线图:8、6、4和3个时间点。

通过上述过程,我们在2023年共成功生成了3194张二维等高线图图像;在2022年生成了3327张图像;在2021年生成了7974张图像。这些图像是我们模型的输入数据集。因种植误差而缺失行或未出现的地块不在此数据集中使用。这种全面的收集和筛选过程确保了只使用最相关和无偏见的数据,从而提高了我们预测分析的整体准确性和可靠性。

为地块指定类别标签

每个地块都会被人为评为成熟度等级,从1.6到3.9不等。这些评级被分到离散的类别标签中。由于育种计划希望将更多粗分类归入更细的分类类别,我们评估了各种分选策略(表1),以研究多种方案。因此,我们考虑将成熟度评级分为4级、5级和7级。例如,根据表 1 中列出的标准,成熟度值为1.9的地块在分为5个等级时将被归入1级。接下来,我们将针对这些多级分类问题训练分类器。

模型开发和ML管道

数据集平衡与增强

我们观察到数据中存在严重的类不平衡现象。为了解决这个问题,我们首先将数据集分成训练集、验证集和测试集,三者的比例分别为80%、10%和10%。然后,我们在训练数据集上应用标准合成数据生成技术和各种数据增强策略来解决类不平衡问题。众所周知,类不平衡会对模型性能产生不利影响,为了有效解决这一难题,我们采用了合成少数群体过度采样技术(SMOTE)。如图4所示,SMOTE是一种广泛使用的技术,它通过在现有的少数群体实例之间进行插值来生成合成实例。这一过程有助于实现均衡的类分布,加强模型训练并提高准确性。

例如,如图4a所示,一个包含 5 个类别的数据集明显缺乏数据,尤其是标签1和标签5。在这种情况下,应用 SMOTE 技术为数据量较小的类别创建合成数据。结果,如图4b所示,所有类别的数据都平均增加了,这有助于提高模型的学习效率和整体性能。

此外,数据增强技术是根据图像数据的特点专门选择的,图像数据在 x 轴和 y 轴上都有信息值。x轴表示色调范围,y轴表示时间序列数据的顺序。由于我们的数据集具有结构化的性质,传统的增强方法(如裁剪和旋转)可能会扭曲这些轴上有意义的属性,从而导致误导性的训练数据和较差的模型性能。因此,我们选择了颜色抖动和随机屏蔽,这两种技术的侵入性较小,但同样有效,可以在不损害数据完整性的情况下增强模型的泛化能力,如图5(b) 所示。色彩抖动会随机修改图像的亮度、对比度、饱和度和色调,从而使模型能够处理现实世界中可能出现的照明条件和色彩分布的变化。反之,随机遮挡则是指随机遮挡图像的某些部分。这种方法可以模拟实际应用中可能遇到的遮挡和不同程度的可见性,训练模型关注不太明显的特征,从而增强其从不全是或部分可见的数据中归纳的能力。通过在训练数据集上采用这些增强技术(如图 5(b) 所示),我们不仅可以确保模型在更广泛的条件下得到训练,还能提高模型对输入数据变化的鲁棒性。事实证明,这种方法可以提高不同场景下的预测性能,这对于数据可能并不总是完美或完整的领域的应用至关重要(Shorten和Khoshgoftaar,2019年)。

模型训练

我们尝试了各种CNN架构,如ResNet、VGG和MobileNet,由于ResNet34性能优越,我们主要关注ResNet34。我们在训练模型时没有使用ImageNet等数据集预先训练好的权重。这种方法是基于我们的轮廓图像与ImageNet中典型的自然图像之间存在显著差异,这可能会限制预训练权重的有效性。从头开始训练可以让我们的模型学习到特定于我们数据集的特征,从而在预测大豆成熟度方面获得更好的适应性和性能。我们采用了交叉熵损失函数,它特别适用于分类任务(Demirkaya等人,2020年)。该损失函数通过比较预测的类别概率分布和实际分布来衡量模型的性能,从而衡量模型的预测与真实标签的吻合程度。交叉熵损失函数又称对数损失,其定义如下:

其中,yi代表第i 样本的真实标签,yˆi代表第i个类别的预测概率,N代表类别数。当预测概率与实际标签相差甚远时,该损失函数会对错误分类进行更严重的惩罚,从而鼓励模型产生尽可能接近真实标签的概率。

我们的模型训练是在英伟达A100-SXM4-80GB GPU上使用 PyTorch进行的。A100 GPU提供80 GB内存,基于英伟达安培架构。训练环境包括CUDA 11.8版和驱动程序520.61.05版。模型训练的学习率为1e-4,批量大小为32。为确保充分学习和适应数据中的复杂模式,训练持续了200个epoch。

分层和多时态数据建模

我们采用了一种分层分类方法来预测成熟阶段的结构顺序。这种方法不仅通过将各阶段归为更广泛的类别来简化初始分类过程,还能提高区分密切相关阶段的精确度。接下来,我们通过对不同时间序列图像子集的实验,利用多时态数据,旨在评估模型在不同数据可用性下的性能。

分级分类方法:我们的分级分类框架受到了之前利用分级结构来管理类别区分复杂性的研究的启发(Seo和Shin,2019;Naik等人,2017)。在 7 级分类的情况下,我们将七个成熟阶段分为四大类:(1)、(2、3)、(4、5)和(6、7)。最初,该模型将样本归入这些与高级成熟度类别相对应的大类。随后,在这些组内进行的分类侧重于区分更细的阶段。例如,在(2,3)组中,模型确定样本是处于第2阶段还是第3阶段。这种两级分类方法大大提高了分类的准确性和可解释性,降低了每个分类级别所面临的整体复杂性。

多时间数据的利用:我们接下来探讨了不同时间序列数据对模型性能的影响。通过从原始的八个时间序列数据点中选择包含6、4和3幅图像的子集,我们评估了时间观测数据的数量对模型准确划分成熟阶段的能力有何影响。

首先,我们选择了分布在整个时间序列中的图像:

· 6幅图像:第1、2、4、5、7和8个时间序列图像

· 4幅图像:第1、第3、第5和第7时间序列图像

· 3幅图像:第1、第4和第8时间序列图像

其次,我们选择了接近时间序列末尾的图像:

· 6幅图像:第3、4、5、6、7和8时间序列图像

· 4幅图像:第5、6、7和8时间序列图像

· 3幅图像:第6、第7和第8时间序列图像

这项分析帮助我们确定了实现可靠预测所需的最小数据集规模,使我们能够在今后的研究中优化数据收集和处理工作。

Top-2精确度评估

我们还报告了Top-2精确度。这是因为,在基于田间图像进行大豆田间分类的情况下,由于环境条件的多变性和类别之间的模糊界限,诸如 7 个类别这样的详细分类往往会模糊不清。Top-2准确率的计算方法是,将与真实分类最多相差一个等级的错误分类计为正确分类。例如:如果我们的模型预测某个地块属于第3类或第5类,但实际上是第4类地块,那么这两个预测都将被视为 “正确”。这样做的目的是为了评估预测模型在多大程度上能够处理地块可能接近真实类别但被错误分类的情况。这些数据为大豆育种人员提供了实用的分析方法,使他们对模型的能力充满信心,相信模型不会将地块误分得太离谱,即与真实地块相差一个等级以上。

Coovally AI模型训练与应用平台

如果你也想要进行模型训练或模型改进,Coovally平台满足你的要求!

Coovally平台整合了国内外开源社区1000+模型算法各类公开识别数据集,无论是YOLO系列模型还是Transformer系列视觉模型算法,平台全部包含,均可一键下载助力实验研究与产业应用。

而且在该平台上,无需配置环境、修改配置文件等繁琐操作,一键上传数据集,使用模型进行训练与结果预测,全程高速零代码

具体操作步骤可参考:YOLO11全解析:从原理到实战,全流程体验下一代目标检测

平台链接:https://www.coovally.com

如果你想要另外的模型算法数据集,欢迎后台或评论区留言,我们找到后会第一时间与您分享!

结果与讨论

种子产量和绿度损失的数据描述和探讨

我们的数据包括1.6 - 3.9之间的地面实况RM评级。每块田的平均产量为 5.15 MTH(公吨/公顷),其中2021 F5田为0.33-8.41MTH,2021 F6田为4.55 MTH,范围为1.14-7.27 MTH,2022 F6田为4.34 MTH,范围为0.01-8.19 MTH。 2022 F6 油田为4.34 MTH,范围为0.01-8.19 MTH;2022 F7油田为4.50 MTH,范围为 1.12-6.03 MTH;2023 F6油田为5.05 MTH,范围为0.58-7.51 MTH;2023 F7油田为5.43 MTH,范围为3.26-7.30 MTH。图6显示了所有六个油田的RM评级和产量分布。

在研究数据驱动法预测相对成熟度之前,我们研究了每块田每个RM组内绿度损失斜率(由ExG值随时间下降的斜率表示)与种子产量之间的相关性[图10]。这样,我们就可以比较成熟期相近的品种,以确定绿色度损失斜率与种子产量之间的关系。在大多数 RM 组中,绿色度损失斜率值与种子产量之间呈负相关,即绿色度损失斜率越大,产量越高(表 2)。这一趋势在较早的RM组中更为明显,反映出斜率较低(负值)的品种产量较高(图 10)。叶片延迟衰老和光合作用延长与大豆高产有关(Wang 等,2024 年)。

这种关系的一个潜在解释是大豆存在留绿性状。在之前定义的留绿类型中(Thomas和Howarth,2000年),A型描述了一种植物,与典型的非留绿植物相比,它能延迟叶绿素含量的损失并维持更长时间的光合作用。因此,如果两个大豆品种在同一天成熟,绿度损失斜率较高的品种可能会表现出一些留绿特性,并且产量更高,因为它能维持更长时间的光合作用。这种留绿性状可能在一定程度上解释了较陡的失绿斜率与较高种子产量之间的关系。高粱(Jordan等人,2012 年)、小麦(Christopher等人,2008年)和水稻(Ba Hoang和Kobata,2009年)的留绿性状与产量之间存在正相关关系。然而,之前对大豆的研究结果不一,留绿性状与种子产量之间要么没有关联,要么呈负相关。我们的研究包含了22,000个独特的小区数据,使我们能够以更大的样本量来研究性状关系。如前所述,我们的研究是在美国伊利诺伊州中部进行的,历时三年,因此我们在成熟度类别2(RM 2.1-2.3)、3(RM 2.4-2.6)和4(RM 2.7-2.9)中观察到的趋势可能是由于 R7 生长阶段缺乏快速降温,而较晚的RM组(3.0-3.2、3.3-3.5和3.6-3.9)可能有强迫衰老。通过选择绿度损失斜率较陡的品种,育种者可以通过确定开始衰老较晚的品种来提高产量潜力,从而在与衰老较早的品种同时达到完全成熟的情况下保持更长的产量(Fleitas等人,2023年)。总体而言,较陡的失绿斜率与种子产量之间的相关性可作为大豆育种者进行选择的另一个选择标准(Kamal等人,2019年;Wang等人,2021年)。然而,对于光周期敏感的作物,还需要在不同纬度地区进一步开展这方面的研究。

这些发现表明,有必要研究绿度下降率与相对成熟度之间的关系,以及利用无人机系统图像直接预测育种和生产应用中相对成熟度的数据驱动方法的可行性。

绿色度下降率与相对成熟度之间的关系

我们研究了绿度下降率(由 ExG 值随时间下降的斜率表示)与 RM 组之间的关系。该分析针对2021年的F6、2022年的F6和F7材料以及 2023 年的F6 和F7材料进行。

对2021年和2023年绿度损失率的分析(如斜率所示)显示,不同RM等级的趋势一致(图7)。

这些结果表明,较晚RM组的大豆品种比较早RM组的大豆品种表现出更小更陡的绿色度损失斜率,即成熟期较晚的品种比成熟期较早的品种绿色度损失更快。然而,在 2022 F7的田间试验中却没有观察到这种趋势,斜率与 RM 等级之间的关系微乎其微。2022年F7材料的平均ExG线图显示,RM 级较晚的品种仍在经历失绿,尚未完全与RM级较早的品种趋同[图8c]。这与 2021年和2023年的数据形成鲜明对比,在2021年和2023年,所有RM等级似乎都达到了相似的最终ExG值[图 8]。

在2022年的F6试验田中,观察到一种强烈但相反的关系,即早期RM品系的绿度损失斜率更陡。这些结果表明,将颜色变化率(即色调变化)与复杂的机器学习模型相结合,对相对成熟度进行预测是非常有用的。

成熟度分类深度学习架构的模型性能

针对自动化大豆成熟度分类,我们在不同配置下评估了多个预先训练好的神经网络模型,包括 ResNet18、ResNet34、ResNet50、VGG16 和 MobileNet。每个模型都进行了超参数调整,并使用不同年份(2021、2022 和 2023 年)的数据集以及一个综合时间序列数据集 [8个时间点] 进行了训练。此外,还对模型进行了训练,以对四个[1: 1.6-2.0, 2: 2.1-2.3, 3: 2.4-3.2, 4: 3.3-3.9], 五个[0: 1.6-2.0, 1: 2.1-2.3, 2: 2. 4-2.6,3:2.7-3.2,4:3.3-3.9],七个[0:1.6-2.0,1:2.1-2.3,2:2.4-2.6,3:2.7-2.9,4:3.0-3.2,5:3.3-3.5,6:3.6-3.7,7:3.8-3.9]。这样做是为了在育种计划中实际应用,即在创建测试时将相似的成熟度归为一组,以确保根据品种间的相对成熟度进行同类比较。

与其他神经网络模型相比,ResNet34的性能略胜一筹,尤其是在使用综合数据集和跨多个类别配置进行训练时。具体而言,在5类分类中,ResNet34 的准确率达到78.05%,优于GoogleNet (76.61%)、DenseNet (76.96%) 和MobileNet (76.82%)。这表明,ResNet34有效地捕捉到了大豆在多个季节生长变化的细微差别,受益于更广泛的训练数据集,增强了其泛化能力。类别数量的变化使我们能够进一步探索模型复杂性与分类准确性之间的权衡,更多的类别提供了更精细的粒度,但代价是模型复杂性的增加。

不同分类标签的性能

如图9所示,在4级分类中,模型表现出了有效区分较少成熟阶段的能力,且准确率很高。

在使用2021年和2022年的数据时,该模型的准确率最高,达到84%(表 3),这表明该模型在第一套标准下表现出色。此外,在第二套标准(包括 2021年、2022年和2023年的扩展数据集)下,模型保持了79%的准确率。在五级分类中,使用2021年、2022年和2023年的综合数据集,模型的准确率达到78%。当使用相同的数据集进行更详细的7级分类时,准确率为66.5%。因此,对于7类分类,我们采用了分层分类法,以增强模型处理更复杂、更详细的类结构的能力。分层分类方法证明是有效的,提高了模型的性能。具体来说,在7个类别的情况下,分层分类法比不使用分层分类法而直接分为7个类别的准确率提高了约6%。这表明,分层分类法有效简化了详细类别划分的复杂性,使模型更能适应具有挑战性的分类任务。不过,虽然该模型显示出了管理更复杂类别划分的能力,但由于复杂性的增加,分类细节的增加可能会对整体准确性产生负面影响。为了进一步提高性能,提供更大的数据集将有利于训练一个更强大、更通用的模型。

除了标准的准确度指标外,还对top-2准确度进行了评估,以进一步了解模型的预测能力。对于表3中的4类模型,top-2准确率达到了99.1%,这表明真实类别极有可能在模型预测的两个最有可能的类别之内。同样,5类和7类模型的最高2级准确率分别为98.7% 和96.2%。这一指标在详细分类中尤为重要,因为相邻成熟阶段之间的区别可能很微妙,但模型却能在前两个预测中可靠地识别出正确的阶段。它可以防止育种计划在错误分类相对成熟度时出现错误,并在下一季的测试中输入错误的数据。

在各种时间图像子集上的表现

为了探索时间数据的必要性和充分性,我们进行了实验,以确定保持高分类准确性所需的最小时间点图像集。通过将数据集从8幅图像减少到每块地6幅、4幅和3幅图像的子集,我们观察到4个分类(4个类别 - 第1个)的准确率在这些子集中保持稳定(图11a和表 4)。也就是说,通过将无人机飞行次数从 8 次减少到3次,我们仍然可以获得几乎相同的分类性能,实际上将成熟度分类所需的飞行次数减少了一半。

例如,通过使用原始8张时间序列图像中的6张、4张或3张图像子集,我们始终能获得约84%的可比准确率,这表明要保持类似水平的训练和测试性能,并不需要完整的8张时间序列图像集。值得注意的是,使用最后6张时间序列图像的准确率最高,达到88%,甚至超过了使用全部 8 张图像的准确率。同时,由于使用3个时间序列数据就能获得稳定的性能,因此可以估算出获得可靠性能所需的最少时间序列数据数量。这表明,在不影响模型性能的情况下,可以有效地使用减少的图像子集,从而使育种人员能够估算出基于无人机成像所需的最少无人机飞行次数。育种人员可以将所需的飞行次数从八次减少到三次,从而显著提高操作效率和资源利用率。这一结果对利用无人机成像进行成熟度分类的育种计划的运行效率具有重要意义,既能降低成本和简化后勤工作,又不会影响成熟度评估的准确性,从而有利于试验创建和品种选育。

结论

我们介绍了一种利用无人机系统和机器学习远程估计大豆相对成熟度 (RM) 的方法。为此,我们采用了一种新方法,通过创建二维等高线图来跟踪地块随时间变化的绿度,从而为模型训练提供了更有效的数据类型。在预测大豆RM方面,我们的模型准确率高达85%。当我们允许误分类与真实值相差1时,这一数字跃升至99%。我们还表明,只需使用三个时间点,预测准确率就不会明显降低。最后,我们探讨了以ExG值随时间变化的损失为代表的绿度损失率及其与大豆RM 和产量的关系。结果表明,RM较晚的组别往往具有更陡、更负的绿色度损失斜率,而产量往往与绿色度损失斜率呈负相关。

这项工作对大豆育种计划意义重大,因为它可以节省工时,而这些工时现在可以分配到育种计划的其他方面。我们的方法还提供了一种独特的大豆成熟度分类方法。以前的工作往往依赖于简单的二元“成熟 ”与“不成熟 ”分类方案,而我们提供了一种使用多达七个等级的更细致的方法。我们还探索了实现高预测精度所需的理想飞行次数。将飞行次数从八次减少到三次,可以进一步减少成熟度数据收集所需的工时。对于某些大豆育种项目来说,这种时间节省的效果更为明显,因为这些项目可能在一个大区域内拥有数万甚至数十万块地。协调数十名评分员收集每块地的数据是不切实际的。派遣一名无人机驾驶员只需花费很少的时间就能捕捉到相同数量的地块,这使得数据收集工作更加实用,而且不会出现评分者之间或评分者内部的误差。

虽然我们的工作为中西部地区带来了可喜的成果,但仍需进行进一步的实验,以测试我们的模型在不同MG组大豆材料上的稳健性。对于成熟期更早或更晚的MG大豆品系,本实验中使用的二维等高线图中的明显趋势可能会有所不同(正如预期的那样),这就需要从这些大豆品系中获得新的训练和测试数据集。此外,观察到的绿度损失斜率与RM组之间的关系以及绿度损失斜率与产量之间的关系也需要在不同的MG组大豆品系上进行进一步的实验来证实。尤其是在生长季节后期不可能遇到致命霜冻的纬度地区。

来源:小码科普君

相关推荐