應用方向:
高光譜成像技術在醫學診斷領域展現出廣闊的應用前景。高光譜成像能夠在單一圖像中同時獲取組織的空間結構與光譜信息,揭示細胞及組織在不同波段下的微觀光學特征,實現對病變組織的無創、定量識別。其在醫學診斷領域的應用方向主要包括:結直腸息肉及癌前病變的光學診斷,實現內鏡檢查中對腺瘤性與非腫瘤性*肉的實時區分;手術中快速組織鑒別與切緣定位,輔助醫生精準切除病灶;病理切片分析與自動分型等。
背景:
結直腸癌是全球范圍內導致癌癥死亡的第二大原因,其防控關鍵在于早期發現和切除癌前病變——結腸直腸息肉。目前,結腸鏡檢查被認為是預防晚期結直腸癌、降低死亡率的首*方法。然而,在實際檢查中,大多數發現的息肉體積較?。ㄖ睆?–9 mm)或極小(1–5 mm),其中具備高級病理特征或癌變潛能的比例極低。傳統做法是對所有息肉進行切除并行病理檢測,但這種方式增加了成本與工作負擔。為此,提出了基于光學診斷的“切除并丟棄"策略,即利用高精度內鏡成像技術,在內鏡下準確判斷息肉性質,從而省去部分病理檢測。
然而,現有的光學診斷技術(如窄帶成像 NBI、藍光成像 BLI 等)在臨床實踐中仍存在局限:準確性依賴經驗豐富的內鏡醫師,初學者診斷一致性差;同時,人工智能雖已用于輔助息肉識別,但受限于特異性不足、模型可解釋性差及訓練數據異質性大等問題,其推廣仍受阻。
為克服上述困難,本研究引入了高光譜成像技術。該技術將數字成像與光譜分析相結合,可在每個像素層面同時捕獲組織的形態與光譜特征,獲取反映組織生化組成和病理變化的豐富光譜信息。與傳統RGB影像相比,高光譜圖像能揭示肉眼不可見的組織差異,為組織學性質識別和病理分級提供新的依據。
作者信息:彭程,山東大學齊魯醫院
期刊來源:Cancer Medicine
研究內容
本研究旨在開發并驗證一種基于高光譜成像與深度學習(殘差網絡、遷移學習)的結直腸息肉組織分類算法,用于在內鏡檢查中快速區分腫瘤性與非腫瘤性*肉,從而推動人工智能輔助的“切除并丟棄"策略落地,提升診斷準確率并降低醫療成本。
實驗設計
結腸鏡操作過程中,所有息肉首先采用冷圈套器切除(CSP);對于直徑 ≤ 3 mm、CSP 技術難度較大的微小病灶,則以活檢鉗完整鉗除。本研究僅納入息肉<1 cm 的新鮮黏膜標本;為使模型習得更高階的病理特征,另同步采集進展期腫瘤活檢。息肉或病灶一經切除/鉗取,立即按標準化操作以高光譜(HS)相機成像,簡要流程見圖 1A。
高光譜成像數據采集使用的是雙利合譜的GaiaMicro-V10 E-HR設備,其包括GaiaMicro系列高光譜相機、顯微鏡、校準白板、系統保持器和顯微鏡物鏡。Gaia Micro系列包含內置推掃式高光譜相機,可推動空間以獲得高光譜數據立方體。以1101行的空間大小收集圖像,產生960×1101×360(行數×行數×波段數)。
所有結直腸息肉樣本均經福爾馬林固定、石蠟包埋后切片,并用H&E染色。兩名具有豐富經驗的病理學專家依據世界衛生組織結直腸腫瘤分類標準獨立閱片并給出最終診斷。依據美國多學會結直腸癌工作組的共識,樣本被分為非腫瘤性病變與腫瘤性病變兩大類,其中腫瘤性病變進一步細分為非進展性腺瘤和進展性腫瘤。
研究方法
為平衡不同組織學標簽的樣本數量,我們針對每個類別實施數據增強:對每例樣本隨機選取多個視野的高光譜圖像進行擴增。針對高光譜數據維度高、計算量大的難題,我們從原始 高光譜立方體中提取光譜與空間信息,重構為二維(2D)圖像;圖 1B 直觀展示了一維光譜與 2D 圖像的對應關系。每張 HS 圖像經降維后可生成 900 張 2D 圖像。
該研究基于二維卷積神經網絡(2D CNN)訓練模型,用于實現結直腸病變圖像的自動分類。該網絡能夠同時結合樣本的光譜信息與空間信息,對組織特征進行綜合分析。為了克服傳統卷積神經網絡在網絡層數加深時容易出現的梯度消失與網絡退化問題,并進一步提升模型性能,研究中采用了殘差網絡(ResNet)結構。是一種通過對現有模型參數進行微調,使其適應新任務或新數據特征的方法。在本研究中,研究者采用遷移學習策略,將預訓練的ResNet 模型參數作為初始權重進行加載,然后在模型末端添加全連接層,并重新建立網絡的所有層結構,以增強模型對不同病理類型結直腸息肉的識別能力(如圖1B所示)。

圖1 實驗設計與工作流程 (A) 結腸鏡檢查中對新鮮息肉組織進行原位高光譜成像與光譜分析示意圖。(B) 高光譜立方體的光譜-空間特性、立方體向二維圖像的轉換,以及殘差神經網絡模型架構示意。(C) 白光內鏡圖像與 HSI-AI 輔助診斷兩周后內鏡醫師光學診斷能力評估。
為評估內鏡醫師對小及微小結直腸息肉的診斷能力,研究邀請了 4 名資深內鏡醫師(累計 > 2 000 例篩查結腸鏡)與 6 名初級內鏡醫師(累計 200–400 例)參與測試。測試采用問卷形式,基于測試集中病灶的白光內鏡圖像進行判斷。為評價初級內鏡醫師和專家內鏡醫師的輔助診斷效率,分別對影像進行兩次復查,首先對內鏡醫師進行獨立測試,然后在內鏡醫師做出最終診斷前告知HSI-AI模型的預測結果,稱為HSI-AI輔助診斷測試,兩次測試間隔2周的清洗期,并對最終結果進行比較。
通過混淆矩陣(confusion matrix)評估模型的診斷性能。準確率(Accuracy)表示分類模型在所有觀測樣本中正確分類的比例。為全面評價模型性能,還計算了靈敏度(sensitivity)、特異性(specificity)、陽性預測值(PPV)、陰性預測值(NPV),并通過受試者工作特征曲線(ROC curve)及其曲線下面積(AUC)來反映模型的整體診斷能力。次要評價指標包括初級與專家內鏡醫師的診斷表現,以及高光譜人工智能(HSI-AI)模型對其診斷的輔助效率。所有內鏡醫師的診斷指標均以中位數(median)與四分位距(IQR)表示。采用Mann–Whitney U 檢驗比較獨立診斷與 HSI-AI 輔助診斷間的差異,雙側 p 值小于 0.05 被認為具有統計學意義。
結果
共納入 73 名患者的 94 份組織樣本(其中 64 份來自息肉切除術,30 份來自活檢)。病理評估結果顯示:53 份樣本為低級別異型增生的管狀腺瘤(非進展性腺瘤,NAA),28 份為非腫瘤性*肉(NNP),13 份為進展性腫瘤(AN),包括 6 例高級別異型增生的管狀腺瘤、3 例絨毛狀腺瘤及 4 例腺癌。通過數據增強后,共從 161 張高光譜圖像中生成 144,900 張二維圖像,按 6:3:1 的比例劃分為訓練集、測試集與驗證集。
通過比較不同組織類型的典型光譜曲線,發現三類組織(NNP、NAA、AN)在波長 406.9–662.1 nm 范圍內的光譜形狀與峰值大小存在明顯差異。結果顯示,在波長 575 nm 處,三類組織的反射率差異具有高度統計學意義(p < 0.001),說明高光譜成像可有效區分不同組織病理類型。
為驗證數據的可靠性并探究二維圖像數據的相關性,研究進行了兩組模型實驗。在第一組模型中,研究者將二維圖像隨機打亂后進行訓練,不考慮樣本間的個體差異。結果顯示,該模型在各組中均取得較高準確率,訓練集和測試集的 AUC 分別為 0.97 與 0.96,說明同一樣本不同區域的光譜圖像之間具有良好的相關性與一致性(圖 2A)。

圖2 基于高光譜影像的殘差神經網絡自動診斷 (A, B) 神經網絡在非腫瘤息肉 / 非進展期腺瘤 / 進展期腫瘤三分類任務中的訓練、驗證及測試結果。(C, D) 多種神經網絡模型在自動分類任務中的性能對比。
在第二組模型中,研究者以獨立患者為單位進行驗證,將數據按樣本分組后分別打亂并生成二維圖像。若同一樣本生成的二維圖像中有超過 80% 被正確分類,則該樣本判定為預測正確。模型對三類組織(NNP、NAA、AN)的分類結果表現優異,整體準確率達 95.8%,平均 AUC 為 0.97。其中,針對腫瘤性病變(包括 NAA 和 AN)的預測靈敏度為 99.0%,特異性為 96.0%,顯示出該模型在識別腫瘤性與非腫瘤性*肉方面具有*高的診斷潛力。
研究通過評估白光內鏡圖像的診斷表現,比較了AI輔助前后內鏡醫師在區分腫瘤性與非腫瘤性*肉方面的差異。在獨立診斷階段,經驗豐富的專家內鏡醫師對腫瘤性*肉的中位單圖像診斷準確率為 91.1%,而初級醫師僅為 71.4%。在測試集中,HSI-AI模型對每個腫瘤性*肉均進行了分類,僅有一例非進展性腺瘤(NAA)被誤判為進展性腫瘤(AN)。在 HSIAI 模型的輔助下,初級內鏡醫師的總體中位準確率提升至 94.7%,已接近資深醫師水平。自身對照顯示,初級組在 AI 輔助前后的診斷表現差異顯著(p<0.01),而資深組則無統計學差異(p=0.63)。就陰性預測值(NPV)而言,多名初級醫師在 AI 輔助后均超過 90%,符合 PIVI“切除-丟棄"策略要求;初級組整體中位 NPV 由 50.0% 躍升至 88.2%(p=0.013)。其余診斷指標亦獲得全*改善,初級醫師具體數據見圖 3。

圖3 初級內鏡醫師在白光內鏡圖像下,未借助(左)與借助(右)HSI-AI 輔助時,對腫瘤性與非腫瘤性結直腸息肉的診斷性能對比
結論
本研究證實利用高光譜成像(HSI)可在新鮮結腸組織上對結直腸息肉實現腺瘤與非腺瘤的高精度區分,并進一步識別進展期腫瘤。該工具顯著提升了初級內鏡醫師的診斷水平,展現了 AI 輔助診斷與結腸鏡實時同步的潛力。