針對結腸息肉圖像分割時空間歸納偏差和全局上下文信息的有效表示缺失,導致邊緣細節信息丟失和病變區域誤分割等問題,提出一種融合Transformer和跨級相位感知的結腸息肉分割方法。該方法一是從變換的全局特征角度出發,運用分層Transformer編碼器逐層提取病變區域的語義信息和空間細節;二是通過相位感知融合模塊(PAFM)捕獲各階段跨層次交互信息,有效聚合多尺度上下文信息;三是設計位置導向功能模塊(POF)有效整合全局與局部特征信息,填補語義空白,抑制背景噪聲;四是利用殘差軸反向注意力模塊(RA-IA)來提升網絡對邊緣像素點的識別能力。在公共數據集CVC-ClinicDB、Kvasir、CVC-ColonDB和EITS上進行實驗測試,其Dice相似性系數分別為94.04%、92.04%、80.78%和76.80%,平均交并比分別為89.31%、86.81%、73.55%和69.10%。仿真實驗結果表明,本文提出的方法能有效地分割結腸息肉圖像,為結直腸息肉的診斷提供了新窗口。
針對現有視網膜血管分割算法存在主血管末端易斷裂、中心黃斑和視盤邊界易誤分割等問題,本文提出一種融合血管輪廓信息與條件生成對抗網絡的視網膜血管分割算法。首先,采用非均勻光照移除和主成分分析處理眼底圖像,增強血管與背景的對比度,并獲得特征信息豐富的單尺度灰度圖像。其次,將集成了帶偏移量的深度可分離卷積和擠壓激勵(SE)模塊的密集塊同時運用到編碼器和解碼器,緩解梯度消失和梯度爆炸,同時使得網絡專注于學習目標的特征信息。然后,引入輪廓損失函數,提升網絡對血管信息和輪廓信息的辨識能力。最后,在 DRIVE 與 STARE 數據集上分別進行實驗,受試者曲線值分別達到 0.982 5 和 0.987 4,準確率分別達到 0.967 7 和 0.975 6。實驗結果表明,本文提出的算法能夠準確辨別輪廓與血管,減少血管斷裂,在臨床眼科疾病診斷中具有一定的應用價值。