勾畫危及器官是放射治療中的重要環節。目前人工勾畫的方式依賴于醫生的知識和經驗,非常耗時且難以保證勾畫準確性、一致性和重復性。為此,本研究提出一種深度卷積神經網絡,用于頭頸部危及器官的自動和精確勾畫。研究回顧了 496 例鼻咽癌患者數據,隨機選擇 376 例用于訓練集,60 例用于驗證集,60 例作為測試集。使用三維(3D)U-NET 深度卷積神經網絡結構,結合 Dice Loss 和 Generalized Dice Loss 兩種損失函數訓練頭頸部危及器官自動勾畫深度卷積神經網絡模型,評估參數為 Dice 相似性系數和 Jaccard 距離。19 種危及器官 Dice 相似性指數平均達到 0.91,Jaccard 距離平均值為 0.15。研究結果顯示基于 3D U-NET 深度卷積神經網絡結合 Dice 損失函數可以較好地應用于頭頸部危及器官的自動勾畫。
引用本文: 戴相昆, 王小深, 杜樂輝, 馬娜, 徐壽平, 蔡博寧, 王樹鑫, 王忠國, 曲寶林. 基于三維 U-NET 深度卷積神經網絡的頭頸部危及器官的自動勾畫. 生物醫學工程學雜志, 2020, 37(1): 136-141. doi: 10.7507/1001-5515.201903052 復制
引言
目前人工智能在放射治療危及器官(organ at risk,OAR)自動分割方面的應用發展較快,特別是基于深度學習方法在圖像分割中的應用[1-3]。通常臨床工作中危及器官勾畫主要由醫師手工完成,勾畫質量和效率受人為因素影響較大。隨著圖像處理技術的快速發展,多種商業軟件均推出自動勾畫功能并投入臨床使用,但大多基于灰度值分割、邊緣檢測、圖譜庫等方法進行自動分割。基于灰度值或邊緣檢測方法受到灰度值變化的影響,特別對于灰度梯度不明顯的相鄰器官其分割結果不夠理想;基于圖譜方法實現圖像自動分割依賴于圖譜庫中的數據質量,同樣存在危及器官和周圍組織邊界不明顯時效果不夠理想的現象,并且基于圖譜庫的算法自動分割運行時間較長[4-8]。
近年隨著全卷積神經網絡(full convolutional neural network,FCN)的出現[9],基于深度卷積神經網絡(deep convolutional neural network,DCNN)進行靶區及危及器官自動分割的研究越來越多,且在靶區及危及器官方面均能夠得到較為理想的檢測和分割效果[10-18]。本研究使用三維(three-dimensional,3D)U-NET DCNN 結合 Dice Loss function 和 Generalized Dice Loss function 兩種損失函數[19]構造新的損失函數訓練 DCNN 模型,對頭頸部腫瘤患者 19 種危及器官進行自動分割并驗證分割精度,以期實現頭頸部危及器官的快速精確分割。
1 資料與方法
1.1 數據獲取
回顧查找 2014 年 6 月—2019 年 4 月我科同一主診組收治鼻咽癌患者 496 例,每例患者圖像均包含從顱頂到第八胸椎范圍,掃描層厚為 3 mm,所有患者數據均進行脫敏處理。患者計算機斷層掃描(computed tomography,CT)圖像危及器官包含:左右眼球、左右視神經、左右晶體、左右內耳、左右顳頜關節、左右腮腺、左右頜下腺、腦干、脊髓、甲狀腺、喉-食管-氣管聯合(L-E-T)以及口腔。其中 106 例患者存在器官缺失,主要缺失器官為左右頜下腺以及甲狀腺。圖像分辨率為 512 × 512。本研究按照留出法隨機劃分,訓練集為 376 例,驗證集 60 例,測試集 60 例。因本研究數據中有 106 例存在器官缺失,所以訓練集比例較高,分配比例接近 8∶1∶1。
1.2 損失函數定義
如圖 1 所示,使用 3D U-NET DCNN 網絡結構進行神經網絡模型訓練,結合 Dice Loss 和 Generalized Dice Loss 兩種損失函數[20]定義相應損失函數。其中訓練損失函數為:

conv:進行一次卷積運算;BN:進行一次批標準化;Elu:使用該激活函數進行一次數據處理;transposed conv:進行一次上采樣卷積運算;concat:將兩層融合
Figure1. The structure of 3D U-NET deep convolutional neural networkconv: a convolution operation is performed; BN: a batch normalization process on the data is performed; Elu: a layer data process using the Elu function is performed; transposed conv: a transposed convolution operation is performed; concat: the two layers are merged
![]() |
式中 gnv 為對應危及器官的 mask 數值,pnv 為對應危及器官預測的 mask 數值,兩者取值均為 0 和 1,wn 為對應危及器官的權重,on 為標識危及器官的缺失,患者圖像中存在某個危及器官為 1,缺失則為 0,N = 19,V 為對應危及器官體素個數,wn 為對應危及器官的前景權重系數,,wbn 為對應危及器官的背景權重系數,
,ε 則是為了避免分母為 0,本研究中 ε = 1 × 10?5。
對應驗證集的損失函數計算方法為:
![]() |
式中 為對應危及器官的體素預測所得數值,本研究中由于訓練模型最后一層使用 Sigmoid 函數,預測所得 pnv 取值區間為
,因此研究定義參數 α = 0.5,當 pnv > α,則
,否則
。
1.3 圖像預處理
訓練集及驗證集在建立模型之前均進行相關圖像預處理,包括:圖像像素值歸一到 0 到 1,大小歸一到 384 voxles × 384 voxles × 384 voxles,并且對 X、Y 方向進行裁剪到 240 pixels × 208 pixels。
1.4 Mask 獲取
Mask 通過讀取 RTStructure 文件中危及器官勾畫輪廓的位置坐標,而后生成對應于 CT 圖像矩陣的三維矩陣,將 19 個危及器官對應的 Mask 矩陣同樣進行裁剪處理得到 240 × 208 × 384 × 19 的四維矩陣為目標值。
1.5 深度卷積神經網絡結構
神經網絡模型在訓練中使用卷積核大小為 3 × 3 × 3,步長為 1,使用最大池化方法(max pool),激活函數為 ,每次卷積后均進行批標準化(batch normalization,BN);反向卷積使用卷積核大小為 2 × 2 × 2,步長為 2。最后一層使用 Sigmoid 函數,且數值大于 0.5 標注為對應危及器官。
1.6 評價方法
測試集評價指標為 Dice 相似性指數(Dice similarity coefficient,DSC)和 Jaccard 距離。其中 Dice 相似性指數表示為:
![]() |
Jaccard 距離表示為:
![]() |
其中 A 為原始勾畫,B 為自動勾畫。DSC 結果越接近 1 表明兩種勾畫重疊程度越高,若 DSC = 1 則表明兩種勾畫完全重疊;DJaccard 結果越接近 0 表明兩種勾畫重疊程度越高,若 DJaccard = 0 則表明兩種勾畫完全重疊。
1.7 橫向比較
將本研究 19 種危及器官自動勾畫所得結果與 Zhu 等[18]的研究結果進行了比較。Zhu 等[18]使用 Dice Loss function 和 focal loss function 結合的損失函數,在頭頸部小器官自動勾畫中獲得較為理想的勾畫結果,因此選取該研究結果與本研究結果進行比對具有一定參考意義。
1.8 硬件配置
本研究模型訓練使用硬件為我院高性能科研服務器,內含 4 臺計算服務器,每臺計算服務器配置為兩塊 Intel Xeon Gold 6130 CPU 和 8 塊 NVIDIA Tesla P100 GPU。
2 結果
使用訓練完成的神經網絡模型對 60 例測試集進行危及器官自動分割,并計算不同危及器官自動分割與人工勾畫的 DSC 值及 Jaccard 距離,所得結果如表 1 所示。



將本研究所得結果與 Zhu 等[18]的研究結果進行比較。本研究中包含 19 種頭頸部危及器官自動分割結果,Zhu 等[18]研究中自動分割危及器官種類為 7 種,所以選取兩組研究中共有的危及器官自動分割結果進行比較,結果如圖 2 所示。

本研究結果還表明,自動勾畫結果與手動勾畫器官的位置差異較小,如圖 3 所示。

3 討論與結論
腫瘤患者危及器官勾畫是放射治療流程中的重要環節,通常由放療醫師手動完成。醫師手動勾畫危及器官的精度與勾畫者的經驗等因素相關,并且需要耗費大量人力。研究表明危及器官勾畫的精確性可能會對療效和危及器官的并發癥發生率產生影響[21]。
隨著計算機和圖像處理技術的發展,出現了多種圖像自動分割算法。目前臨床中常用的危及器官自動勾畫軟件多采用基于灰度分布的區域分割或圖譜庫等自動勾畫方法。Sims 等[5]使用基于圖譜庫的 ISOgrayTM第三方系統進行頭頸部器官的自動勾畫,并且與兩種勾畫標準進行比較,平均 DSC 值分別為 0.68 ± 0.25 和 0.82 ± 0.13;Young 等[6]研究使用圖譜庫的方法進行盆腔淋巴引流區的自動勾畫,與三位醫師手動勾畫結果對比,平均 DSC 值為 0.80 ± 0.02;同樣 Fritscher 等[7]的研究結果顯示左右腮腺及腦干的 DSC 值分別為 0.84、0.81 和 0.86。上述研究發現這些算法在臨床應用中仍然存在一些問題,例如基于灰度分布的區域分割方法對于 CT 影像中灰度值較為接近的區域分割效果較差,而基于圖譜庫模板的算法則對模板質量要求較高,實際應用中難以完全達到臨床需求,通常還需進行大量人為修正[22-24]。
人工智能在放射治療中的應用逐漸廣泛,目前應用較多的領域是放射治療自動計劃和危及器官的自動分割[25-27]。基于神經網絡的深度學習方法具備自動學習特征并可以進行多個層次特征識別,可以較好地應用于醫學圖像的自動分割。Roth 等[10,13]使用神經網絡訓練模型,對肝臟、脾臟和胰腺的自動分割精度 DSC 平均值能夠達到 0.822。在腹部危及器官方面 Gibson 等[16]使用 Dense V-Net 網絡結構自動分割的 DSC 值明顯優于使用圖譜庫的結果。門闊等[17]利用 DDNN 對頭頸部危及器官進行自動分割,9 種危及器官包括腦干、脊髓、左腮腺、右腮腺、左顳葉、右顳葉、甲狀腺、喉、氣管,所有危及器官自動分割的 DSC 數值均在 0.70 以上,平均值為 0.81。
U-NET 神經網絡架構較為成熟,2D U-NET DCNN 最先用于醫學細胞分割,并且能夠得到較好的分割結果[28]。本研究使用 3D U-NET DCNN 對頭頸部 19 種危及器官同時進行自動分割,取得了較為理想的結果。19 種危及器官 DSC 值在 0.86~0.95 之間,平均值達到 0.91,Jaccard 距離平均值為 0.15,其中左右晶體以及左右視神經等小器官自動分割的 DSC 值也在 0.85 以上。同時我們將本研究的自動分割結果與 Zhu 等[18]的研究結果進行了比較,結果顯示本文提出的 3D U-NET DCNN 結合 Dice 損失函數修正的方法在頭頸部危及器官自動分割中具有一定優勢。
頭頸部危及器官的自動勾畫難點在于存在晶狀體和視神經等小體積危及器官。由于 DCNN 結構中存在多次的卷積和池化過程,因此容易引起小體積危及器官信息的丟失。目前提高小體積危及器官的自動分割精度主要通過兩種方法:一是增加訓練樣本數量;二是通過修改損失函數。Sudre 等[20]研究提出的 Generalized Dice Loss function 對于小體積危及器官模型訓練具有一定優勢;Ren 等[29]提出的通過建立個體化的危及器官訓練模型也能夠提高模型精度;此外,Zhu 等[18]使用 Dice Loss function 和 focal loss function 結合的損失函數,在頭頸部小體積危及器官自動分割中獲得較為理想的勾畫結果。本研究基于 3D U-NET 網絡結構,結合 Dice Loss function 和 Generalized Dice Loss function 兩種損失函數構造新的損失函數,進行 DCNN 模型的訓練,針對小體積危及器官在 DCNN 模型訓練過程中增加其相關權重,取得了較為理想的自動分割結果。
本研究訓練集和驗證集中樣本存在部分危及器官缺失情況,且訓練所得的深度學習模型能夠同時勾畫 19 個危及器官,因此為了解決訓練樣本中危及器官缺失的情況,在損失函數中添加了 on 參數。此參數目的在于統計某個樣本中真實存在的勾畫數量,若存在危及器官 n 則 on = 1,否則 on = 0。N = 19,若 19 個危及器官均實際存在,則
,以此解決訓練樣本中可能存在的危及器官缺失情況。
本研究模型訓練使用硬件配置較高,因此訓練速度較快,并且單例患者 CT 數據自動分割時間在 20 s 以內,較人工勾畫效率有了極大提高。
綜上所述,使用傳統的 3D U-NET DCNN 結構,通過對訓練損失函數的修改與優化,能夠得到精度較高的 DCNN 模型用于頭頸部危及器官的自動勾畫。
利益沖突聲明:本文全體作者均聲明不存在利益沖突。
引言
目前人工智能在放射治療危及器官(organ at risk,OAR)自動分割方面的應用發展較快,特別是基于深度學習方法在圖像分割中的應用[1-3]。通常臨床工作中危及器官勾畫主要由醫師手工完成,勾畫質量和效率受人為因素影響較大。隨著圖像處理技術的快速發展,多種商業軟件均推出自動勾畫功能并投入臨床使用,但大多基于灰度值分割、邊緣檢測、圖譜庫等方法進行自動分割。基于灰度值或邊緣檢測方法受到灰度值變化的影響,特別對于灰度梯度不明顯的相鄰器官其分割結果不夠理想;基于圖譜方法實現圖像自動分割依賴于圖譜庫中的數據質量,同樣存在危及器官和周圍組織邊界不明顯時效果不夠理想的現象,并且基于圖譜庫的算法自動分割運行時間較長[4-8]。
近年隨著全卷積神經網絡(full convolutional neural network,FCN)的出現[9],基于深度卷積神經網絡(deep convolutional neural network,DCNN)進行靶區及危及器官自動分割的研究越來越多,且在靶區及危及器官方面均能夠得到較為理想的檢測和分割效果[10-18]。本研究使用三維(three-dimensional,3D)U-NET DCNN 結合 Dice Loss function 和 Generalized Dice Loss function 兩種損失函數[19]構造新的損失函數訓練 DCNN 模型,對頭頸部腫瘤患者 19 種危及器官進行自動分割并驗證分割精度,以期實現頭頸部危及器官的快速精確分割。
1 資料與方法
1.1 數據獲取
回顧查找 2014 年 6 月—2019 年 4 月我科同一主診組收治鼻咽癌患者 496 例,每例患者圖像均包含從顱頂到第八胸椎范圍,掃描層厚為 3 mm,所有患者數據均進行脫敏處理。患者計算機斷層掃描(computed tomography,CT)圖像危及器官包含:左右眼球、左右視神經、左右晶體、左右內耳、左右顳頜關節、左右腮腺、左右頜下腺、腦干、脊髓、甲狀腺、喉-食管-氣管聯合(L-E-T)以及口腔。其中 106 例患者存在器官缺失,主要缺失器官為左右頜下腺以及甲狀腺。圖像分辨率為 512 × 512。本研究按照留出法隨機劃分,訓練集為 376 例,驗證集 60 例,測試集 60 例。因本研究數據中有 106 例存在器官缺失,所以訓練集比例較高,分配比例接近 8∶1∶1。
1.2 損失函數定義
如圖 1 所示,使用 3D U-NET DCNN 網絡結構進行神經網絡模型訓練,結合 Dice Loss 和 Generalized Dice Loss 兩種損失函數[20]定義相應損失函數。其中訓練損失函數為:

conv:進行一次卷積運算;BN:進行一次批標準化;Elu:使用該激活函數進行一次數據處理;transposed conv:進行一次上采樣卷積運算;concat:將兩層融合
Figure1. The structure of 3D U-NET deep convolutional neural networkconv: a convolution operation is performed; BN: a batch normalization process on the data is performed; Elu: a layer data process using the Elu function is performed; transposed conv: a transposed convolution operation is performed; concat: the two layers are merged
![]() |
式中 gnv 為對應危及器官的 mask 數值,pnv 為對應危及器官預測的 mask 數值,兩者取值均為 0 和 1,wn 為對應危及器官的權重,on 為標識危及器官的缺失,患者圖像中存在某個危及器官為 1,缺失則為 0,N = 19,V 為對應危及器官體素個數,wn 為對應危及器官的前景權重系數,,wbn 為對應危及器官的背景權重系數,
,ε 則是為了避免分母為 0,本研究中 ε = 1 × 10?5。
對應驗證集的損失函數計算方法為:
![]() |
式中 為對應危及器官的體素預測所得數值,本研究中由于訓練模型最后一層使用 Sigmoid 函數,預測所得 pnv 取值區間為
,因此研究定義參數 α = 0.5,當 pnv > α,則
,否則
。
1.3 圖像預處理
訓練集及驗證集在建立模型之前均進行相關圖像預處理,包括:圖像像素值歸一到 0 到 1,大小歸一到 384 voxles × 384 voxles × 384 voxles,并且對 X、Y 方向進行裁剪到 240 pixels × 208 pixels。
1.4 Mask 獲取
Mask 通過讀取 RTStructure 文件中危及器官勾畫輪廓的位置坐標,而后生成對應于 CT 圖像矩陣的三維矩陣,將 19 個危及器官對應的 Mask 矩陣同樣進行裁剪處理得到 240 × 208 × 384 × 19 的四維矩陣為目標值。
1.5 深度卷積神經網絡結構
神經網絡模型在訓練中使用卷積核大小為 3 × 3 × 3,步長為 1,使用最大池化方法(max pool),激活函數為 ,每次卷積后均進行批標準化(batch normalization,BN);反向卷積使用卷積核大小為 2 × 2 × 2,步長為 2。最后一層使用 Sigmoid 函數,且數值大于 0.5 標注為對應危及器官。
1.6 評價方法
測試集評價指標為 Dice 相似性指數(Dice similarity coefficient,DSC)和 Jaccard 距離。其中 Dice 相似性指數表示為:
![]() |
Jaccard 距離表示為:
![]() |
其中 A 為原始勾畫,B 為自動勾畫。DSC 結果越接近 1 表明兩種勾畫重疊程度越高,若 DSC = 1 則表明兩種勾畫完全重疊;DJaccard 結果越接近 0 表明兩種勾畫重疊程度越高,若 DJaccard = 0 則表明兩種勾畫完全重疊。
1.7 橫向比較
將本研究 19 種危及器官自動勾畫所得結果與 Zhu 等[18]的研究結果進行了比較。Zhu 等[18]使用 Dice Loss function 和 focal loss function 結合的損失函數,在頭頸部小器官自動勾畫中獲得較為理想的勾畫結果,因此選取該研究結果與本研究結果進行比對具有一定參考意義。
1.8 硬件配置
本研究模型訓練使用硬件為我院高性能科研服務器,內含 4 臺計算服務器,每臺計算服務器配置為兩塊 Intel Xeon Gold 6130 CPU 和 8 塊 NVIDIA Tesla P100 GPU。
2 結果
使用訓練完成的神經網絡模型對 60 例測試集進行危及器官自動分割,并計算不同危及器官自動分割與人工勾畫的 DSC 值及 Jaccard 距離,所得結果如表 1 所示。



將本研究所得結果與 Zhu 等[18]的研究結果進行比較。本研究中包含 19 種頭頸部危及器官自動分割結果,Zhu 等[18]研究中自動分割危及器官種類為 7 種,所以選取兩組研究中共有的危及器官自動分割結果進行比較,結果如圖 2 所示。

本研究結果還表明,自動勾畫結果與手動勾畫器官的位置差異較小,如圖 3 所示。

3 討論與結論
腫瘤患者危及器官勾畫是放射治療流程中的重要環節,通常由放療醫師手動完成。醫師手動勾畫危及器官的精度與勾畫者的經驗等因素相關,并且需要耗費大量人力。研究表明危及器官勾畫的精確性可能會對療效和危及器官的并發癥發生率產生影響[21]。
隨著計算機和圖像處理技術的發展,出現了多種圖像自動分割算法。目前臨床中常用的危及器官自動勾畫軟件多采用基于灰度分布的區域分割或圖譜庫等自動勾畫方法。Sims 等[5]使用基于圖譜庫的 ISOgrayTM第三方系統進行頭頸部器官的自動勾畫,并且與兩種勾畫標準進行比較,平均 DSC 值分別為 0.68 ± 0.25 和 0.82 ± 0.13;Young 等[6]研究使用圖譜庫的方法進行盆腔淋巴引流區的自動勾畫,與三位醫師手動勾畫結果對比,平均 DSC 值為 0.80 ± 0.02;同樣 Fritscher 等[7]的研究結果顯示左右腮腺及腦干的 DSC 值分別為 0.84、0.81 和 0.86。上述研究發現這些算法在臨床應用中仍然存在一些問題,例如基于灰度分布的區域分割方法對于 CT 影像中灰度值較為接近的區域分割效果較差,而基于圖譜庫模板的算法則對模板質量要求較高,實際應用中難以完全達到臨床需求,通常還需進行大量人為修正[22-24]。
人工智能在放射治療中的應用逐漸廣泛,目前應用較多的領域是放射治療自動計劃和危及器官的自動分割[25-27]。基于神經網絡的深度學習方法具備自動學習特征并可以進行多個層次特征識別,可以較好地應用于醫學圖像的自動分割。Roth 等[10,13]使用神經網絡訓練模型,對肝臟、脾臟和胰腺的自動分割精度 DSC 平均值能夠達到 0.822。在腹部危及器官方面 Gibson 等[16]使用 Dense V-Net 網絡結構自動分割的 DSC 值明顯優于使用圖譜庫的結果。門闊等[17]利用 DDNN 對頭頸部危及器官進行自動分割,9 種危及器官包括腦干、脊髓、左腮腺、右腮腺、左顳葉、右顳葉、甲狀腺、喉、氣管,所有危及器官自動分割的 DSC 數值均在 0.70 以上,平均值為 0.81。
U-NET 神經網絡架構較為成熟,2D U-NET DCNN 最先用于醫學細胞分割,并且能夠得到較好的分割結果[28]。本研究使用 3D U-NET DCNN 對頭頸部 19 種危及器官同時進行自動分割,取得了較為理想的結果。19 種危及器官 DSC 值在 0.86~0.95 之間,平均值達到 0.91,Jaccard 距離平均值為 0.15,其中左右晶體以及左右視神經等小器官自動分割的 DSC 值也在 0.85 以上。同時我們將本研究的自動分割結果與 Zhu 等[18]的研究結果進行了比較,結果顯示本文提出的 3D U-NET DCNN 結合 Dice 損失函數修正的方法在頭頸部危及器官自動分割中具有一定優勢。
頭頸部危及器官的自動勾畫難點在于存在晶狀體和視神經等小體積危及器官。由于 DCNN 結構中存在多次的卷積和池化過程,因此容易引起小體積危及器官信息的丟失。目前提高小體積危及器官的自動分割精度主要通過兩種方法:一是增加訓練樣本數量;二是通過修改損失函數。Sudre 等[20]研究提出的 Generalized Dice Loss function 對于小體積危及器官模型訓練具有一定優勢;Ren 等[29]提出的通過建立個體化的危及器官訓練模型也能夠提高模型精度;此外,Zhu 等[18]使用 Dice Loss function 和 focal loss function 結合的損失函數,在頭頸部小體積危及器官自動分割中獲得較為理想的勾畫結果。本研究基于 3D U-NET 網絡結構,結合 Dice Loss function 和 Generalized Dice Loss function 兩種損失函數構造新的損失函數,進行 DCNN 模型的訓練,針對小體積危及器官在 DCNN 模型訓練過程中增加其相關權重,取得了較為理想的自動分割結果。
本研究訓練集和驗證集中樣本存在部分危及器官缺失情況,且訓練所得的深度學習模型能夠同時勾畫 19 個危及器官,因此為了解決訓練樣本中危及器官缺失的情況,在損失函數中添加了 on 參數。此參數目的在于統計某個樣本中真實存在的勾畫數量,若存在危及器官 n 則 on = 1,否則 on = 0。N = 19,若 19 個危及器官均實際存在,則
,以此解決訓練樣本中可能存在的危及器官缺失情況。
本研究模型訓練使用硬件配置較高,因此訓練速度較快,并且單例患者 CT 數據自動分割時間在 20 s 以內,較人工勾畫效率有了極大提高。
綜上所述,使用傳統的 3D U-NET DCNN 結構,通過對訓練損失函數的修改與優化,能夠得到精度較高的 DCNN 模型用于頭頸部危及器官的自動勾畫。
利益沖突聲明:本文全體作者均聲明不存在利益沖突。