來源:賽斯拜克 發(fā)表時間:2023-09-11 瀏覽量:475 作者:awei
本頁面旨在向讀者介紹大豆食心蟲蟲害高光譜相機檢測方法。該方法利用高光譜相機的獨特特性,實現(xiàn)對大豆食心蟲蟲害的準確、高效檢測。
大豆食心蟲蟲害的高光譜相機檢測方法是一種基于高光譜成像技術(shù)的檢測方法。以下是該方法的介紹:
高光譜成像:首先,利用高光譜相機獲取大豆葉片或豆莢的高光譜圖像。高光譜圖像包含了豐富的光譜信息,能夠反映大豆葉片或豆莢的生理和生化特性。
數(shù)據(jù)預(yù)處理:對獲取的高光譜圖像進行預(yù)處理,包括黑白校正、Savitzky-Golay濾波等,以緩解可能出現(xiàn)的漫反射、樣本不均勻等問題。這些預(yù)處理步驟有助于提高數(shù)據(jù)的質(zhì)量和可靠性。
特征提?。翰捎弥鞒煞址治龇ǎ≒CA)等方法對預(yù)處理后的高光譜數(shù)據(jù)進行降維處理,選取貢獻最大的前幾個特征波長,從而降低數(shù)據(jù)的維度,并提取與蟲害相關(guān)的特征。
模型建立與訓(xùn)練:利用提取的特征,建立大豆食心蟲蟲害的檢測模型??梢圆捎脵C器學(xué)習(xí)、深度學(xué)習(xí)等方法進行模型的訓(xùn)練和優(yōu)化,使模型能夠準確識別大豆食心蟲蟲害。
蟲害檢測:將待檢測的大豆葉片或豆莢的高光譜圖像輸入到訓(xùn)練好的模型中,模型會輸出蟲害的存在與否以及蟲害的嚴重程度。
需要注意的是,高光譜相機檢測方法在大豆食心蟲蟲害檢測中的應(yīng)用還需要進一步的研究和優(yōu)化。在實際應(yīng)用中,還需要考慮光照條件、相機參數(shù)設(shè)置、樣本制備等因素對檢測結(jié)果的影響。因此,在實際操作時,建議結(jié)合專業(yè)知識和經(jīng)驗,并根據(jù)具體情況進行適當?shù)恼{(diào)整和改進。
本研究應(yīng)用了400-1000nm的高光譜相機,可采用廣東賽斯拜克科技有限公司產(chǎn)品SP130M進行相關(guān)研究。光譜范圍在400-1000nm,波長分辨率優(yōu)于2.5nm,可達1200個光譜通道。采集速度全譜段可達128FPS,波段選擇后最高3300Hz(支持多區(qū)域波段選擇)。
本研究針對大豆食心蟲蟲害進行無損檢測,應(yīng)用高光譜圖像結(jié)合小樣本元學(xué)習(xí)分類算法,對貯存期的大豆受大豆食心蟲侵蝕程度的無損檢測進行初步研究。本論文只要完成的工作如下∶
(1)提出了基于三維關(guān)系網(wǎng)絡(luò)小樣本元學(xué)習(xí)算法的大豆食心蟲蟲害高光譜檢測方法。本文提出了針對高光譜圖像分類的三維關(guān)系網(wǎng)絡(luò)元學(xué)習(xí)模型(3D-RN),能夠在實驗對象樣本數(shù)量稀少的情況下對高光譜圖像進行分類檢測。本文利用高光譜成像技術(shù)采集含有蟲卵的,含有食心蟲幼蟲的,被啃食的及正常的大豆的高光譜圖像,并對采集得到的高光譜圖像采用黑白校正和Savitzky-Golay(SG)濾波算法預(yù)處理高光譜圖像的光譜信息,在采用主成分分析法(PCA)選取貢獻最大的前9個特征波長從而降低高光譜圖像的維度。通過使用CutMix數(shù)據(jù)增廣方法增加元訓(xùn)練集的數(shù)據(jù),從而增加模型的先驗知識,使得模型性能更優(yōu)。
并將Gradual WarmUp 方法實踐于高光譜圖像分類領(lǐng)域,優(yōu)化了模型的學(xué)習(xí)率,使得模型更加的穩(wěn)定。最后建立模型無關(guān)元學(xué)習(xí)(MAML),匹配網(wǎng)絡(luò)元學(xué)習(xí)(MN),原型網(wǎng)絡(luò)元學(xué)習(xí)(PN)和本文提出的三維關(guān)系網(wǎng)絡(luò)元學(xué)習(xí)(3D-RN)四個小樣本元學(xué)習(xí)算法的大豆食心蟲蟲害程度檢測模型。實驗結(jié)果表明,3D-RN模型表現(xiàn)最好,在學(xué)習(xí)率為0.01,元訓(xùn)練集個任務(wù)數(shù)據(jù)中各類的支撐集數(shù)據(jù)為5的情況下,準確率可達82±2.50%。
?。?)提出了基于 A-ResNet 元學(xué)習(xí)模型的大豆食心蟲蟲害高光譜檢測方法。實驗利用高光譜成像系統(tǒng)采集正常的以及受大豆食心蟲侵害的大豆高光譜圖像,并使用黑白校正,SG平滑方法以及PCA方法預(yù)處理高光譜圖像,并提取圖像的感興趣區(qū)。采用CutMix等方法增加數(shù)據(jù)集樣本量。本文為了進一步提高大豆食心蟲蟲害檢測模型的準確率,針對3D-RN模型的弊端,本文提出了A-ResNet元學(xué)習(xí)模型,該模型將ResNet 網(wǎng)絡(luò)與Attention思想相結(jié)合,獲取更加能夠表述樣本的特征向量以此來提升模型性能。
并舍棄了特征拼接的步驟,減少了模型的運行時間,并且簡化了分類模型,將分類模型設(shè)計為多分類支持向量機,來減少模型中出現(xiàn)的過擬合現(xiàn)象。實驗將A-ResNet元學(xué)習(xí)模型的結(jié)果與MAML、MN、PN 和 3D-RN 模型進行比較。實驗表明,A-ResNet 元學(xué)習(xí)模型在5-shot 情況下的表現(xiàn)最好,準確率達到94.57±0.19%。