食管癌嚴重威脅國民身體健康,破解這一難題的關鍵是早診早治,內鏡篩查為早期診斷最重要的手段。人工智能(artificial intelligence,AI)技術的快速發展使得其在消化內鏡領域的應用及研究日益增加,并有望成為內鏡醫師早期診斷食管癌的得力助手。目前,整合多種內鏡模式、具備多種診斷功能的多模態、多功能AI系統在淺表食管鱗狀細胞癌及癌前病變中的應用取得不錯的成果,本文將對其研究進展進行綜述,并對其未來發展方向進行展望。
引用本文: 嚴萍, 袁湘蕾, 張瓊英, 胡兵. 人工智能在淺表食管鱗狀細胞癌及癌前病變內鏡診斷中的應用進展. 中國胸心血管外科臨床雜志, 2022, 29(9): 1217-1222. doi: 10.7507/1007-4848.202203047 復制
食管癌是常見的消化道惡性腫瘤,我國2016年發布的惡性腫瘤發病和死亡報告[1]顯示,其發病率居惡性腫瘤發病的第6位、死亡率居第4位。2020年我國食管癌發病例數和死亡例數約占全世界一半,癌癥負擔是世界平均水平的2倍,嚴重威脅人民生活健康[2]。雖然近年來食管鱗狀細胞癌(鱗癌)發病率有下降趨勢,但其仍是我國食管癌的主要病理類型[3]。進展期食管鱗癌患者經手術等綜合治療后5年生存率不足20%,而淺表食管鱗癌及癌前病變微創治療后5年生存率可達90%以上[4-5]。因此,早發現、早診斷和早治療是降低食管癌患者死亡率并提高生存率的關鍵。
內鏡篩查是早期發現食管鱗癌的重要方式,但病變檢出率受患者配合情況、內鏡醫師操作及診斷水平等多因素影響。據文獻[6]報道,我國淺表食管鱗癌及癌前病變的檢出率不足10%,遠遠低于發達國家。因此,當務之急是探究如何充分利用有限的醫療資源,高效地提高我國食管鱗癌的早診率。
近年來,基于卷積神經網絡(convolutional neural network,CNN)的人工智能(artificial intelligence,AI)技術為解決這一問題提供了新的思路。AI通過學習大量內鏡圖像自動提取疾病特征,并進行特征篩選,從而達到模仿人類認知水平,輔助醫生快速、高效地診斷疾病。目前,AI已在淺表食管鱗癌及癌前病變診斷領域取得了可喜的成績,有望應用到臨床中。本文就AI在淺表食管鱗癌及癌前病變內鏡診斷中的應用和進展進行綜述,并對其未來發展方向做出展望。
1 人工智能簡介
AI的概念在20世紀50年代首次被提及,是通過對人的意識、思維信息過程和智能行為進行模擬、延伸和拓展,以解決較復雜的問題[7]。實現AI的一種方式則是機器學習,即計算機通過學習一批相對應的輸入輸出數據,自動地從這些數據中總結出兩者的內在關系和規律,并得出某種預測模型,進而利用該模型對未知數據進行預測[7]。2016年谷歌公司基于深度學習開發的AlphaGo橫空出世,在全球范圍內引起了廣泛的關注。人工神經網絡是現代深度學習算法完成特征識別最常見的方式之一,旨在模擬人腦神經系統的結構和功能,實現復雜信息的加工、處理、存儲、搜索和推理等任務[8]。CNN是由卷積層和池化層組成,通過卷積層與池化層的疊加實現對輸入數據的特征提取,最后連接全連接層實現分類。CNN的權值共享網絡結構使之更類似于生物神經網絡,減少了權值的數量,降低了網絡模型的復雜度。CNN在圖像處理上有眾多優勢,如能自行提取圖像特征包括顏色、紋理、形狀及圖像的拓撲結構[9],因此CNN是醫學圖像識別領域常用的深度學習算法。
2 人工智能用于內鏡診斷淺表食管鱗癌及癌前病變
2.1 人工智能輔助淺表食管鱗癌及癌前病變檢出
AI用于內鏡診斷淺表食管鱗癌及癌前病變是通過使用專家標注的圖像或視頻數據進行模型訓練。臨床上常用的檢測食管鱗癌的內鏡技術包括白光內鏡(white-light endoscopy,WLE)、窄帶光譜成像技術(narrow-band imaging,NBI)、藍激光成像技術(blue laser imaging,BLI)、碘染色和放大內鏡(magnification endoscopy,ME)。
WLE檢查是篩查食管病變最常用的方法,研究者相繼成功開發了WLE-AI系統用于檢測淺表食管鱗癌。Cai等[10]收集了2 428張和187張WLE圖像分別構建訓練集和測試集,發現AI系統的診斷性能與專家水平相當。在AI系統的輔助下,各級年資醫師的診斷能力均有所提升,突出了AI系統的輔助潛能。Tang等[11]開發的AI系統基于4 002張WLE圖像訓練而成,使用1 033張內部和外部來源的內鏡圖像和14段內鏡視頻進行了驗證。該系統不僅在內部圖像驗證集中檢測淺表食管鱗癌的敏感度達97.9%,在外部圖像測試集中也取得了相媲美的診斷性能,而且準確識別出13段視頻中的淺表食管鱗癌病灶。這些結果顯示出了該系統具備良好的外推適應能力和臨床實際應用可能性。Li等[12]利用4 735張食管NBI內鏡圖像研發了一個檢測淺表食管鱗癌的NBI-AI系統,并使用316張測試圖像比較該系統與Cai等[9]的WLE-AI系統的性能。研究結果顯示,雖然NBI-AI系統的準確性和特異性優于WLE-AI系統,但其敏感性低。如果聯合使用NBI-AI系統和WLE-AI系統,內鏡醫師的診斷水平可顯著提高。因此,相比單一內鏡模式的AI系統,整合多種內鏡技術的多模態AI系統具有更大的臨床應用價值。
Horie等[13]于2019年首次報道了整合WLE和NBI的雙模態AI診斷淺表食管癌系統。該系統使用SSD(Single Shot MultiBox Detector)算法訓練而成。通過對1 118張圖像進行測試分析,可準確識別出98%的淺表食管癌病例,其中7個是<10 mm的早期病變。2020年Ohmori等[14]首次報道了整合WLE、NBI、BLI和ME的多模態AI診斷淺表食管癌系統。該系統基于SSD算法,利用22 562張內鏡圖像構建而成。使用255張WLE圖片、268張非放大NBI和非放大BLI圖片以及204張放大NBI和放大BLI圖片測試系統,結果顯示AI系統僅需22 s即可診斷所有圖像,AI系統在非ME的NBI/BLI圖片中的敏感度高達100%,ME圖片中的敏感度為98%,WLE圖片中的敏感度為90%,均與經驗豐富的內鏡醫師的診斷水平相當。2021年,Yang等[15]報道了集WLE、BLI、碘染色和ME四種模態的AI診斷淺表食管鱗癌系統,該系統由2個不同的神經網絡組成以分別識別非ME圖像和ME圖像,分別采用YOLO V3算法和ResNet V2算法構建而成。使用10 988張和2 309張圖像進行訓練和測試系統,發現低年資醫生的診斷水平可以得到顯著提升。以上兩個研究均是單中心研究,缺乏多中心大樣本數據進行驗證。2022年Yuan等[16]報道了整合WLE、NBI、碘染色和ME的基于YOLO V3算法的多模態AI診斷淺表食管鱗癌及癌前病變系統。該系統由45 770張圖片訓練而成,使用6 075張與訓練集同源的圖片測試AI系統,還使用來自其它4家醫院的2 088張圖片進一步測試系統。研究結果顯示,對于WLE圖片中局限于上皮層的淺表食管鱗癌,AI系統比經驗豐富的內鏡醫師更敏感(90.8% vs. 82.5%)。Ikenoyama等[17]使用6 634張WLE和NBI圖片研發了無需碘染色即可識別斑駁食管的AI系統,從而識別食管癌高危人群,減少碘染色給患者帶來的不適。通過使用667張圖像進行測試,發現AI系統識別斑駁食管的敏感性明顯高于經驗豐富的內鏡醫師。
雖然輔助診斷淺表食管鱗癌及癌前病變的AI系統從單一內鏡模式到多種內鏡模式的發展已取得了驚人的進步,但僅基于靜止圖片的研究難以滿足臨床實踐需求,仍需動態視頻構建和驗證。Fukuda等[18]于2020年首次報道了使用視頻數據構建AI診斷淺表食管鱗癌系統。該系統采用SSD算法,由17 274張視頻幀圖像訓練而成。用144個視頻將AI系統的診斷性能與專家進行比較,發現AI系統在識別可疑病變及區別癌與非癌病變方面的敏感度和準確率均高于專家。2021年Shiroma等[19]收集了8 428張WLE和NBI圖像開發了一個輔助診斷淺表食管鱗癌AI系統,并使用64個慢速視頻和80個高速視頻測試了該系統。研究結果顯示,該系統1 s可識別30幀圖像。Waki等[20]使用17 336張淺表食管鱗癌和1 461 張非癌和正常食管的NBI和BLI圖像,開發了一個輔助檢測淺表食管鱗癌的AI系統,并在視頻模擬下評估其性能。在NBI/BLI上,AI系統的診斷敏感度為85.7%,明顯高于內鏡醫生的敏感度(75.0%)。在WLI上,AI系統檢測敏感度為77.8%。
細胞內鏡是一種新型的放大內鏡,可通過使用亞甲基藍等化合物進行食管黏膜染色,實現實時觀察體內表面上皮細胞。2019年Kumagai等[21]基于GoogLeNet算法構建了一個細胞內鏡下識別淺表食管鱗癌的AI系統。利用4 715張食管細胞內鏡圖像訓練該系統,用1 520張圖像進行測試。AI系統的總體敏感度及準確率分別為92.6%和90.9%,該系統有望輔助內鏡醫師基于細胞內鏡圖像診斷淺表食管鱗癌。
2.2 人工智能輔助淺表食管鱗癌及癌前病變深度和分型預測
食管癌的浸潤深度與淋巴結轉移風險密切相關,也是影響患者治療決策選擇的重要因素。局限于上皮層(epithelium,EP)或固有層(lamina propria,LPM)病變的淋巴結轉移風險幾乎為0%,但浸潤至黏膜肌層(muscularis mucosa,MM)、黏膜下淺層(SM1)、黏膜下深層(SM2)或更深層病變的淋巴結轉移風險分別增加至8%~15%、11%~53%和30%~54%[22-25]。食管EP-LPM病變是內鏡下治療的絕對適應證,MM-SM1病變則是相對適應證,而SM2以深的病變則需手術或放射治療和化學治療[26]。因此,準確判斷食管癌浸潤深度對于避免過度治療、提高患者生活質量至關重要。
Tokai 等[27]使用了1 751張包含WLE和NBI兩種內鏡模式的食管鱗癌圖像,采用SSD算法,開發了可區分EP-SM1病變和SM2~3病變的AI系統。通過291張WLE和NBI 圖像進行測試,AI系統判斷浸潤深度的總體準確性為80.9%,其中EP-SM1病變的診斷敏感度為91.4%,SM2~3病變的診斷準確率為73.3%。明顯高于參與人機對照試驗的12名內鏡醫師(共納入了13名醫生)。WLE和NBI是臨床中最常用的內鏡檢查模式,但有研究表明再聯合放大內鏡可獲得更高的判斷病變浸潤深度的準確性。Nakagawa 等[28]開發了一個可在非放大和放大內鏡模式下區分EP-SM1病變和SM2~3病變的AI系統,該系統由8 660張非放大和5 678張放大的WLE、NBI和BLI圖像訓練而成,僅需29 s即可準確診斷出405張非放大和509張放大圖像上的病灶浸潤深度。AI系統在非放大和放大模式下診斷EP-SM1病變的準確率分別為92.9%和89.7%,診斷SM2~3病變的準確率分別為90.3%和92.3%,診斷性能與16名經驗豐富的內鏡醫師水平相當。Wang等[29]研發的AI系統實現了可在WLE和NBI圖像上準確區分食管低級別上皮內瘤變、高級別上皮內瘤變和鱗癌病變。該AI系統基于936張WLE和NBI圖像,使用SSD算法構建而成。通過對264張圖像進行測試,AI系統在病變檢測和病變浸潤深度預測方面具有良好的診斷性能,其對低級別上皮內瘤變、高級別上皮內瘤變和鱗癌病變的敏感度分別為83.4%、87.2%和98.9%。但上述研究僅限于使用高質量的靜止圖像進行系統的訓練及驗證,而多元化的內鏡視頻數據則能更利于客觀地評估AI系統的性能。Shimamoto 等[30]于2020年首次利用內鏡視頻開發了可區分食管EP-SM1病變和SM2~3病變的AI系統。從909例病理證實食管淺表鱗癌的視頻和靜止圖像中提取了23 977張圖像作為訓練集,從102個非ME和ME視頻中提取WLE圖像和NBI/BLI圖像作為測試集。該AI系統在非放大和放大模式下診斷SM2~3病變的準確率分別為87.3%和89.2%,高于具有長期經驗的14名內鏡專家(84.7% 和 84.4%)。
隨著內鏡技術的日益發展,日本學者[31-32]發現使用放大內鏡觀察食管鱗狀上皮乳頭內毛細血管袢(intrapapillary capillary loops,IPCL)的形態學變化可初步判斷腫瘤浸潤深度。日本食管學會提出的簡化IPCL分型是目前臨床常用的分型方法。在該分型中,A型血管提示正常食管黏膜或低級別上皮內瘤變,B1型、B2型和B3型血管分別提示EP-LPM病變、MM-SM1病變和SM2以深病變。內鏡醫生診斷IPCL分型需具有足夠的經驗且存在一定的主觀性,因此,AI輔助診斷是促進醫生同質化的有效手段。 2019年和2021年Everson 等[33-34]相繼報道了一個二分類診斷IPCL的AI系統。該系統可準確區分A型血管和B型血管,然而因其不能對B型血管的亞型進行分類,在診斷浸潤深度方面作用有限。但上述報道為AI輔助診斷IPCL分型提供了理論依據。我國學者Zhao等[35]首次報道了可準確診斷A型、B1型和B2型血管的AI系統。其準確性優于中級及以下醫生的診斷。但該系統不能識別對診斷食管鱗癌浸潤深度意義重大的B3型血管。Uema 等[36]則基于ResNeXt-101-32x8d算法,利用1 777張包含B1型、B2型和B3型血管的內鏡圖像訓練了一個AI系統。結果顯示,該系統的總體診斷準確性為84.2%,高于8名內鏡醫師的平均診斷水平(77.8%)。
2.3 人工智能輔助淺表食管鱗癌及癌前病變范圍判斷
內鏡檢查聯合組織病理學檢查是診斷早期食管鱗癌病變的常規方法,對病灶進行有效活檢是確保病變不被漏診的關鍵。內鏡下黏膜剝離術是治療早期食管鱗癌病變的首選方式,術前準確評估病灶范圍對內鏡切除治療至關重要。因此,準確判斷病灶范圍對活檢部位的選擇和手術過程的指導意義重大。近年來,四川大學華西醫院胡兵教授團隊致力于研發判斷淺表食管鱗癌及癌前病變邊界的AI系統。2020年Guo等[37]利用6 473張非放大和放大NBI圖像訓練了一個可預測病變性質和病變范圍的AI系統,顯示出了AI系統在判斷淺表食管鱗癌及癌前病變范圍方面與內鏡醫師水平相近。雖然WLE是發現淺表食管鱗癌及癌前病變最常用的篩查技術,但WLE識別食管病變的敏感性差強人意,準確判斷病灶邊界難度更大。2022年Liu等[38]構建了一個可在WLE下準確識別淺表食管鱗癌及癌前病變并勾畫其邊界的AI系統。該系統以YOLACT算法為網絡框架,使用890張來自4家醫院的WLE圖像進行訓練和測試。結果顯示,AI系統診斷淺表食管鱗癌及癌前病變的準確性為84.5%,勾畫病灶邊界的準確性與專家水平相當(98.1% vs. 95.3% ),優于高年資醫生(78.6%)。
3 問題
雖然AI在淺表食管鱗癌及癌前病變內鏡診斷中的應用取得了重大進展,目前仍存在以下局限性:(1)多數研究樣本量少,且只納入了高質量圖像建模,無法完整模擬淺表食管鱗癌及癌前病變的異質性和臨床復雜的場景;(2)多數報道是回顧性研究,存在選擇偏倚,無法體現AI的真實性能;(3)目前對于放大內鏡觀察IPCL形態學的研究較少,僅是區分A型和B型血管,或者單獨研究B型血管的亞型,對同時納入A型血管和B型各個亞型血管的研究尚缺乏;(4)多數研究未評估AI系統對內鏡醫師的輔助作用,且缺乏外部數據驗證AI系統的通用性。因此,需要大量多種內鏡模式的圖像和視頻數據以及不同的AI算法,以實現多功能AI系統的穩健性、通用性及多樣性。還需開展多中心、大樣本臨床研究,為AI系統的轉化應用提供堅實的理論基礎。
4 展望
總的來說,目前所報道的基于深度學習的AI系統對淺表食管鱗癌及癌前病變具有較高的診斷準確性和敏感性。雖然已取得重大突破,但對于AI系統的優化我們寄予更多期望:(1)目前的研究從病變性質的準確判斷、病變深度的初步預測及病變范圍的有效識別等角度不斷深入,未來能否整合為一個多功能AI系統,實現對淺表食管鱗癌及癌前病變的精準診斷;(2)各項研究中內鏡視頻驗證數據相對較少,且使用的視頻數據集時間短且播放速度慢,希望未來能提供更多的視頻數據甚至直接應用于臨床來縮小研究和臨床實踐間的差距;(3)隨著國民的健康意識逐漸增強,健康體檢的人數越來越多,希望未來可以收集從健康黏膜到早期病變黏膜的不同內鏡圖像以研究病變在發生癌變之前的黏膜以及微血管變化,通過大數據的整合,爭取在病變發生早期就可以識別并進行干預。
利益沖突:無。
作者貢獻:嚴萍參與選題和設計,起草、撰寫及修改論文;袁湘蕾參與選題和設計,起草、修改論文;張瓊英參與選題和設計,修改論文;胡兵參與選題和設計,修改論文。
食管癌是常見的消化道惡性腫瘤,我國2016年發布的惡性腫瘤發病和死亡報告[1]顯示,其發病率居惡性腫瘤發病的第6位、死亡率居第4位。2020年我國食管癌發病例數和死亡例數約占全世界一半,癌癥負擔是世界平均水平的2倍,嚴重威脅人民生活健康[2]。雖然近年來食管鱗狀細胞癌(鱗癌)發病率有下降趨勢,但其仍是我國食管癌的主要病理類型[3]。進展期食管鱗癌患者經手術等綜合治療后5年生存率不足20%,而淺表食管鱗癌及癌前病變微創治療后5年生存率可達90%以上[4-5]。因此,早發現、早診斷和早治療是降低食管癌患者死亡率并提高生存率的關鍵。
內鏡篩查是早期發現食管鱗癌的重要方式,但病變檢出率受患者配合情況、內鏡醫師操作及診斷水平等多因素影響。據文獻[6]報道,我國淺表食管鱗癌及癌前病變的檢出率不足10%,遠遠低于發達國家。因此,當務之急是探究如何充分利用有限的醫療資源,高效地提高我國食管鱗癌的早診率。
近年來,基于卷積神經網絡(convolutional neural network,CNN)的人工智能(artificial intelligence,AI)技術為解決這一問題提供了新的思路。AI通過學習大量內鏡圖像自動提取疾病特征,并進行特征篩選,從而達到模仿人類認知水平,輔助醫生快速、高效地診斷疾病。目前,AI已在淺表食管鱗癌及癌前病變診斷領域取得了可喜的成績,有望應用到臨床中。本文就AI在淺表食管鱗癌及癌前病變內鏡診斷中的應用和進展進行綜述,并對其未來發展方向做出展望。
1 人工智能簡介
AI的概念在20世紀50年代首次被提及,是通過對人的意識、思維信息過程和智能行為進行模擬、延伸和拓展,以解決較復雜的問題[7]。實現AI的一種方式則是機器學習,即計算機通過學習一批相對應的輸入輸出數據,自動地從這些數據中總結出兩者的內在關系和規律,并得出某種預測模型,進而利用該模型對未知數據進行預測[7]。2016年谷歌公司基于深度學習開發的AlphaGo橫空出世,在全球范圍內引起了廣泛的關注。人工神經網絡是現代深度學習算法完成特征識別最常見的方式之一,旨在模擬人腦神經系統的結構和功能,實現復雜信息的加工、處理、存儲、搜索和推理等任務[8]。CNN是由卷積層和池化層組成,通過卷積層與池化層的疊加實現對輸入數據的特征提取,最后連接全連接層實現分類。CNN的權值共享網絡結構使之更類似于生物神經網絡,減少了權值的數量,降低了網絡模型的復雜度。CNN在圖像處理上有眾多優勢,如能自行提取圖像特征包括顏色、紋理、形狀及圖像的拓撲結構[9],因此CNN是醫學圖像識別領域常用的深度學習算法。
2 人工智能用于內鏡診斷淺表食管鱗癌及癌前病變
2.1 人工智能輔助淺表食管鱗癌及癌前病變檢出
AI用于內鏡診斷淺表食管鱗癌及癌前病變是通過使用專家標注的圖像或視頻數據進行模型訓練。臨床上常用的檢測食管鱗癌的內鏡技術包括白光內鏡(white-light endoscopy,WLE)、窄帶光譜成像技術(narrow-band imaging,NBI)、藍激光成像技術(blue laser imaging,BLI)、碘染色和放大內鏡(magnification endoscopy,ME)。
WLE檢查是篩查食管病變最常用的方法,研究者相繼成功開發了WLE-AI系統用于檢測淺表食管鱗癌。Cai等[10]收集了2 428張和187張WLE圖像分別構建訓練集和測試集,發現AI系統的診斷性能與專家水平相當。在AI系統的輔助下,各級年資醫師的診斷能力均有所提升,突出了AI系統的輔助潛能。Tang等[11]開發的AI系統基于4 002張WLE圖像訓練而成,使用1 033張內部和外部來源的內鏡圖像和14段內鏡視頻進行了驗證。該系統不僅在內部圖像驗證集中檢測淺表食管鱗癌的敏感度達97.9%,在外部圖像測試集中也取得了相媲美的診斷性能,而且準確識別出13段視頻中的淺表食管鱗癌病灶。這些結果顯示出了該系統具備良好的外推適應能力和臨床實際應用可能性。Li等[12]利用4 735張食管NBI內鏡圖像研發了一個檢測淺表食管鱗癌的NBI-AI系統,并使用316張測試圖像比較該系統與Cai等[9]的WLE-AI系統的性能。研究結果顯示,雖然NBI-AI系統的準確性和特異性優于WLE-AI系統,但其敏感性低。如果聯合使用NBI-AI系統和WLE-AI系統,內鏡醫師的診斷水平可顯著提高。因此,相比單一內鏡模式的AI系統,整合多種內鏡技術的多模態AI系統具有更大的臨床應用價值。
Horie等[13]于2019年首次報道了整合WLE和NBI的雙模態AI診斷淺表食管癌系統。該系統使用SSD(Single Shot MultiBox Detector)算法訓練而成。通過對1 118張圖像進行測試分析,可準確識別出98%的淺表食管癌病例,其中7個是<10 mm的早期病變。2020年Ohmori等[14]首次報道了整合WLE、NBI、BLI和ME的多模態AI診斷淺表食管癌系統。該系統基于SSD算法,利用22 562張內鏡圖像構建而成。使用255張WLE圖片、268張非放大NBI和非放大BLI圖片以及204張放大NBI和放大BLI圖片測試系統,結果顯示AI系統僅需22 s即可診斷所有圖像,AI系統在非ME的NBI/BLI圖片中的敏感度高達100%,ME圖片中的敏感度為98%,WLE圖片中的敏感度為90%,均與經驗豐富的內鏡醫師的診斷水平相當。2021年,Yang等[15]報道了集WLE、BLI、碘染色和ME四種模態的AI診斷淺表食管鱗癌系統,該系統由2個不同的神經網絡組成以分別識別非ME圖像和ME圖像,分別采用YOLO V3算法和ResNet V2算法構建而成。使用10 988張和2 309張圖像進行訓練和測試系統,發現低年資醫生的診斷水平可以得到顯著提升。以上兩個研究均是單中心研究,缺乏多中心大樣本數據進行驗證。2022年Yuan等[16]報道了整合WLE、NBI、碘染色和ME的基于YOLO V3算法的多模態AI診斷淺表食管鱗癌及癌前病變系統。該系統由45 770張圖片訓練而成,使用6 075張與訓練集同源的圖片測試AI系統,還使用來自其它4家醫院的2 088張圖片進一步測試系統。研究結果顯示,對于WLE圖片中局限于上皮層的淺表食管鱗癌,AI系統比經驗豐富的內鏡醫師更敏感(90.8% vs. 82.5%)。Ikenoyama等[17]使用6 634張WLE和NBI圖片研發了無需碘染色即可識別斑駁食管的AI系統,從而識別食管癌高危人群,減少碘染色給患者帶來的不適。通過使用667張圖像進行測試,發現AI系統識別斑駁食管的敏感性明顯高于經驗豐富的內鏡醫師。
雖然輔助診斷淺表食管鱗癌及癌前病變的AI系統從單一內鏡模式到多種內鏡模式的發展已取得了驚人的進步,但僅基于靜止圖片的研究難以滿足臨床實踐需求,仍需動態視頻構建和驗證。Fukuda等[18]于2020年首次報道了使用視頻數據構建AI診斷淺表食管鱗癌系統。該系統采用SSD算法,由17 274張視頻幀圖像訓練而成。用144個視頻將AI系統的診斷性能與專家進行比較,發現AI系統在識別可疑病變及區別癌與非癌病變方面的敏感度和準確率均高于專家。2021年Shiroma等[19]收集了8 428張WLE和NBI圖像開發了一個輔助診斷淺表食管鱗癌AI系統,并使用64個慢速視頻和80個高速視頻測試了該系統。研究結果顯示,該系統1 s可識別30幀圖像。Waki等[20]使用17 336張淺表食管鱗癌和1 461 張非癌和正常食管的NBI和BLI圖像,開發了一個輔助檢測淺表食管鱗癌的AI系統,并在視頻模擬下評估其性能。在NBI/BLI上,AI系統的診斷敏感度為85.7%,明顯高于內鏡醫生的敏感度(75.0%)。在WLI上,AI系統檢測敏感度為77.8%。
細胞內鏡是一種新型的放大內鏡,可通過使用亞甲基藍等化合物進行食管黏膜染色,實現實時觀察體內表面上皮細胞。2019年Kumagai等[21]基于GoogLeNet算法構建了一個細胞內鏡下識別淺表食管鱗癌的AI系統。利用4 715張食管細胞內鏡圖像訓練該系統,用1 520張圖像進行測試。AI系統的總體敏感度及準確率分別為92.6%和90.9%,該系統有望輔助內鏡醫師基于細胞內鏡圖像診斷淺表食管鱗癌。
2.2 人工智能輔助淺表食管鱗癌及癌前病變深度和分型預測
食管癌的浸潤深度與淋巴結轉移風險密切相關,也是影響患者治療決策選擇的重要因素。局限于上皮層(epithelium,EP)或固有層(lamina propria,LPM)病變的淋巴結轉移風險幾乎為0%,但浸潤至黏膜肌層(muscularis mucosa,MM)、黏膜下淺層(SM1)、黏膜下深層(SM2)或更深層病變的淋巴結轉移風險分別增加至8%~15%、11%~53%和30%~54%[22-25]。食管EP-LPM病變是內鏡下治療的絕對適應證,MM-SM1病變則是相對適應證,而SM2以深的病變則需手術或放射治療和化學治療[26]。因此,準確判斷食管癌浸潤深度對于避免過度治療、提高患者生活質量至關重要。
Tokai 等[27]使用了1 751張包含WLE和NBI兩種內鏡模式的食管鱗癌圖像,采用SSD算法,開發了可區分EP-SM1病變和SM2~3病變的AI系統。通過291張WLE和NBI 圖像進行測試,AI系統判斷浸潤深度的總體準確性為80.9%,其中EP-SM1病變的診斷敏感度為91.4%,SM2~3病變的診斷準確率為73.3%。明顯高于參與人機對照試驗的12名內鏡醫師(共納入了13名醫生)。WLE和NBI是臨床中最常用的內鏡檢查模式,但有研究表明再聯合放大內鏡可獲得更高的判斷病變浸潤深度的準確性。Nakagawa 等[28]開發了一個可在非放大和放大內鏡模式下區分EP-SM1病變和SM2~3病變的AI系統,該系統由8 660張非放大和5 678張放大的WLE、NBI和BLI圖像訓練而成,僅需29 s即可準確診斷出405張非放大和509張放大圖像上的病灶浸潤深度。AI系統在非放大和放大模式下診斷EP-SM1病變的準確率分別為92.9%和89.7%,診斷SM2~3病變的準確率分別為90.3%和92.3%,診斷性能與16名經驗豐富的內鏡醫師水平相當。Wang等[29]研發的AI系統實現了可在WLE和NBI圖像上準確區分食管低級別上皮內瘤變、高級別上皮內瘤變和鱗癌病變。該AI系統基于936張WLE和NBI圖像,使用SSD算法構建而成。通過對264張圖像進行測試,AI系統在病變檢測和病變浸潤深度預測方面具有良好的診斷性能,其對低級別上皮內瘤變、高級別上皮內瘤變和鱗癌病變的敏感度分別為83.4%、87.2%和98.9%。但上述研究僅限于使用高質量的靜止圖像進行系統的訓練及驗證,而多元化的內鏡視頻數據則能更利于客觀地評估AI系統的性能。Shimamoto 等[30]于2020年首次利用內鏡視頻開發了可區分食管EP-SM1病變和SM2~3病變的AI系統。從909例病理證實食管淺表鱗癌的視頻和靜止圖像中提取了23 977張圖像作為訓練集,從102個非ME和ME視頻中提取WLE圖像和NBI/BLI圖像作為測試集。該AI系統在非放大和放大模式下診斷SM2~3病變的準確率分別為87.3%和89.2%,高于具有長期經驗的14名內鏡專家(84.7% 和 84.4%)。
隨著內鏡技術的日益發展,日本學者[31-32]發現使用放大內鏡觀察食管鱗狀上皮乳頭內毛細血管袢(intrapapillary capillary loops,IPCL)的形態學變化可初步判斷腫瘤浸潤深度。日本食管學會提出的簡化IPCL分型是目前臨床常用的分型方法。在該分型中,A型血管提示正常食管黏膜或低級別上皮內瘤變,B1型、B2型和B3型血管分別提示EP-LPM病變、MM-SM1病變和SM2以深病變。內鏡醫生診斷IPCL分型需具有足夠的經驗且存在一定的主觀性,因此,AI輔助診斷是促進醫生同質化的有效手段。 2019年和2021年Everson 等[33-34]相繼報道了一個二分類診斷IPCL的AI系統。該系統可準確區分A型血管和B型血管,然而因其不能對B型血管的亞型進行分類,在診斷浸潤深度方面作用有限。但上述報道為AI輔助診斷IPCL分型提供了理論依據。我國學者Zhao等[35]首次報道了可準確診斷A型、B1型和B2型血管的AI系統。其準確性優于中級及以下醫生的診斷。但該系統不能識別對診斷食管鱗癌浸潤深度意義重大的B3型血管。Uema 等[36]則基于ResNeXt-101-32x8d算法,利用1 777張包含B1型、B2型和B3型血管的內鏡圖像訓練了一個AI系統。結果顯示,該系統的總體診斷準確性為84.2%,高于8名內鏡醫師的平均診斷水平(77.8%)。
2.3 人工智能輔助淺表食管鱗癌及癌前病變范圍判斷
內鏡檢查聯合組織病理學檢查是診斷早期食管鱗癌病變的常規方法,對病灶進行有效活檢是確保病變不被漏診的關鍵。內鏡下黏膜剝離術是治療早期食管鱗癌病變的首選方式,術前準確評估病灶范圍對內鏡切除治療至關重要。因此,準確判斷病灶范圍對活檢部位的選擇和手術過程的指導意義重大。近年來,四川大學華西醫院胡兵教授團隊致力于研發判斷淺表食管鱗癌及癌前病變邊界的AI系統。2020年Guo等[37]利用6 473張非放大和放大NBI圖像訓練了一個可預測病變性質和病變范圍的AI系統,顯示出了AI系統在判斷淺表食管鱗癌及癌前病變范圍方面與內鏡醫師水平相近。雖然WLE是發現淺表食管鱗癌及癌前病變最常用的篩查技術,但WLE識別食管病變的敏感性差強人意,準確判斷病灶邊界難度更大。2022年Liu等[38]構建了一個可在WLE下準確識別淺表食管鱗癌及癌前病變并勾畫其邊界的AI系統。該系統以YOLACT算法為網絡框架,使用890張來自4家醫院的WLE圖像進行訓練和測試。結果顯示,AI系統診斷淺表食管鱗癌及癌前病變的準確性為84.5%,勾畫病灶邊界的準確性與專家水平相當(98.1% vs. 95.3% ),優于高年資醫生(78.6%)。
3 問題
雖然AI在淺表食管鱗癌及癌前病變內鏡診斷中的應用取得了重大進展,目前仍存在以下局限性:(1)多數研究樣本量少,且只納入了高質量圖像建模,無法完整模擬淺表食管鱗癌及癌前病變的異質性和臨床復雜的場景;(2)多數報道是回顧性研究,存在選擇偏倚,無法體現AI的真實性能;(3)目前對于放大內鏡觀察IPCL形態學的研究較少,僅是區分A型和B型血管,或者單獨研究B型血管的亞型,對同時納入A型血管和B型各個亞型血管的研究尚缺乏;(4)多數研究未評估AI系統對內鏡醫師的輔助作用,且缺乏外部數據驗證AI系統的通用性。因此,需要大量多種內鏡模式的圖像和視頻數據以及不同的AI算法,以實現多功能AI系統的穩健性、通用性及多樣性。還需開展多中心、大樣本臨床研究,為AI系統的轉化應用提供堅實的理論基礎。
4 展望
總的來說,目前所報道的基于深度學習的AI系統對淺表食管鱗癌及癌前病變具有較高的診斷準確性和敏感性。雖然已取得重大突破,但對于AI系統的優化我們寄予更多期望:(1)目前的研究從病變性質的準確判斷、病變深度的初步預測及病變范圍的有效識別等角度不斷深入,未來能否整合為一個多功能AI系統,實現對淺表食管鱗癌及癌前病變的精準診斷;(2)各項研究中內鏡視頻驗證數據相對較少,且使用的視頻數據集時間短且播放速度慢,希望未來能提供更多的視頻數據甚至直接應用于臨床來縮小研究和臨床實踐間的差距;(3)隨著國民的健康意識逐漸增強,健康體檢的人數越來越多,希望未來可以收集從健康黏膜到早期病變黏膜的不同內鏡圖像以研究病變在發生癌變之前的黏膜以及微血管變化,通過大數據的整合,爭取在病變發生早期就可以識別并進行干預。
利益沖突:無。
作者貢獻:嚴萍參與選題和設計,起草、撰寫及修改論文;袁湘蕾參與選題和設計,起草、修改論文;張瓊英參與選題和設計,修改論文;胡兵參與選題和設計,修改論文。