利用超聲心動圖進行心室分割能夠獲得心室容積參數,對評價心功能有重要意義。但超聲圖像有噪聲大、難以分割等特點,僅僅靠人工對目標區域進行手動分割工作量巨大,且目前自動分割技術尚無法保證分割精度。針對這些問題,本文提出了一種全新的算法框架對心室結構進行了分割提取。首先,采用更快速的基于區域的卷積神經網絡目標檢測算法對目標區域進行定位,得到感興趣區域;然后使用 K 均值(K-means)算法對目標區域進行初始聚類;接著使用一種自適應核函數帶寬的均值漂移(mean shift)算法進行分割;最后采用種子填充算法提取目標區域。該算法結構實現了自動提取分割目標區域,免去了人工定位的過程。實驗表明,在定量評價標準下,這種分割框架能夠對目標區域進行精確的提取,同時提出的自適應均值漂移算法較傳統固定帶寬均值漂移算法更穩定,且分割效果更好。研究結果顯示,本文所述方法有助于實現超聲心動圖左心室切面的自動分割。
針對自動檢測醫學圖像中指定目標時存在的問題,提出了一種基于深度學習自動檢測目標位置和估計對象姿態的算法。該算法基于區域深度卷積神經網絡和目標結構的先驗知識,采用區域生成候選框網絡、感興趣區域池化策略,引入包括分類損失、邊框位置回歸定位損失和像平面內朝向損失的多任務損失函數,近似優化一個端到端的有監督定位網絡,能快速地對醫學圖像中目標自動定位,有效地為下一步的分割和參數自動提取提供定位結果。并在超聲心動圖左心室檢測中提出利用檢測額外標記點(二尖瓣環、心內膜墊和心尖),能高效地對左心室朝向姿態進行估計。為了驗證算法的魯棒性和有效性,實驗數據選取經食管超聲心動圖和核磁共振圖像。實驗結果表明算法是快速、精確和有效的。
將深度學習算法應用于核磁共振(MR)圖像分割時,必需以大量經標注后圖像作為訓練集的數據支撐。然而,MR圖像的特殊性導致采集大量的圖像數據較困難,制作大量的標注數據成本高。為降低MR圖像分割對大量標注數據的依賴,本文提出了一種用于小樣本MR圖像分割的元U型網絡(Meta-UNet),能夠利用少量的圖像標注數據完成MR圖像分割任務,并獲得良好的分割結果。其具體操作為:通過引入空洞卷積對U型網絡(U-Net)進行改進,增加網絡模型感受野從而提高模型對不同尺度目標的靈敏度;通過引入注意力機制提高模型對不同尺度目標的適應性;通過引入元學習機制,并采用復合損失函數對模型訓練進行良好的監督和有效的引導。本文利用提出的Meta-UNet模型,在不同分割任務上進行訓練,然后用訓練好的模型在全新的分割任務上進行評估,實現了目標圖像的高精度分割。新的分割方法比起常用的無監督醫學圖像配準分割方法——體素變形網絡(VoxelMorph)、數據增強醫學圖像分割方法——轉換學習數據增強模型(DataAug)和基于標簽轉移的醫學圖像分割方法——標簽轉移網絡(LT-Net)三種模型平均戴斯相似性系數(DSC)有一定提高。實驗結果顯示,本文所提方法利用少量樣本即可有效地進行MR圖像分割,今后可為臨床診斷和治療提供可靠輔助。
肝細胞癌(HCC)是最常見的肝臟惡性腫瘤,其中HCC分割和病理分化程度預測是手術治療和預后評估過程中的兩個重要任務。現有方法通常獨立地解決這兩個問題,沒有考慮兩個任務的相關性。本文提出了一種多任務學習模型,旨在同時完成分割任務和病理分化程度分類任務。本文所提模型由分割子網和分類子網構成:在分類子網中提出了一種多尺度特征融合方法來提高分類精度;在分割子網中設計了一種邊界感知注意力,用于解決腫瘤過分割問題。本文采用動態權重平均多任務損失,使模型在兩個任務中同時獲得最優的性能。研究結果顯示,本文方法在295例HCC患者上的實驗結果均優于其它多任務學習方法,在分割任務上戴斯相似系數(Dice)為(83.9 ± 0.88)%,同時在分類任務上的平均召回率為(86.08 ± 0.83)%,F1分數為(80.05 ± 1.7)%。該結果表明,本文提出的多任務學習方法能夠同時較好地完成分類任務和分割任務,可為HCC患者的臨床診斷和治療提供理論參考。
最近,深度學習在醫學圖像任務中取得了令人矚目的成果。然而,這種方法通常需要大規模的標注數據,而醫學圖像的標注成本較高,因此如何從有限的標注數據中進行高效學習是一個難題。目前,常用的兩種方法是遷移學習和自監督學習,然而這兩種方法在多模態醫學圖像中的研究卻很少,因此本研究提出了一種多模態醫學圖像對比學習方法。該方法將同一患者不同模態的圖像作為正樣本,有效增加訓練過程中的正樣本數量,有助于模型充分學習病灶在不同模態圖像上的相似性和差異性,從而提高模型對醫學圖像的理解能力和診斷準確率。常用的數據增強方法并不適合多模態圖像,因此本文提出了一種域自適應反標準化方法,借助目標域的統計信息對源域圖像進行轉換。本研究以兩個不同的多模態醫學圖像分類任務對本文方法展開驗證:在微血管浸潤識別任務中,本文方法獲得了(74.79 ± 0.74)%的準確率和(78.37 ± 1.94)%的F1分數,相比其它較為熟知的學習方法有所提升;對于腦腫瘤病理分級任務,本文方法也取得了明顯的改進。結果表明,本文方法在多模態醫學圖像數據上取得了良好的結果,可為多模態醫學圖像的預訓練提供一種參考方案。