心肺復(fù)蘇模型

新聞分類

用來(lái)3D MRI和CT掃描的深度學(xué)習(xí)模型總結(jié)

用來(lái)3D MRI和CT掃描的深度學(xué)習(xí)模型總結(jié)

發(fā)布日期:2023-08-19 作者:康為 點(diǎn)擊:

醫(yī)學(xué)成像信息與其余咱們平常圖片的最大差別之一是它們?cè)S多全是3D的,例如在處置DICOM系列信息時(shí)特別這樣。DICOM圖片由許多的2D切片構(gòu)成了1個(gè)掃描或肌體的特定部分。

那么怎樣為這種信息建立深度學(xué)習(xí)解決計(jì)劃呢?在本文中將向您簡(jiǎn)介6種神經(jīng)網(wǎng)絡(luò)架構(gòu),可以應(yīng)用它們來(lái)訓(xùn)練3D醫(yī)療信息上的深度學(xué)習(xí)模型。3 d U-Net

U-Net系統(tǒng)構(gòu)造是一類強(qiáng)大的醫(yī)學(xué)圖片分割模型。3D U-Net將經(jīng)典的U-Net模型擴(kuò)展到3D分割。它由編碼(下采樣)路徑妥協(xié)碼(上采樣)路徑構(gòu)成。

編碼路徑捕捉輸入圖片中的上下文,而解碼路徑容許準(zhǔn)確定位。3D U-Net在處置體積圖片的3D特征方面十分有效。


1.jpg


V-Net架構(gòu)是另一類用來(lái)體積圖片分割的3D卷積神經(jīng)網(wǎng)絡(luò)。與U-Net相似,V-Net有1個(gè)編碼器-解碼器架構(gòu),但它應(yīng)用全辨別率3D卷積,因此它比U-Net計(jì)算本錢更高。


2.jpg


它應(yīng)用一系列帶有殘差連通的3D卷積層。該模型是端到端訓(xùn)練的,可以一次處置全部3D圖片。


3.jpg


EfficientNet3D

這是對(duì)EfficientNet架構(gòu)的3D改善,它不像U-Net或V-Net那樣常用來(lái)3D分割,但假設(shè)計(jì)算資源有限,它是可以參考的,由于它在計(jì)算本錢和功能之間的優(yōu)良衡量。




這是U-Net的一類變體,它含蓋了1個(gè)注重力體制,容許網(wǎng)絡(luò)將注重力集中在與手頭任務(wù)更有關(guān)的圖片的某類部分。


5.jpg


這是1個(gè)應(yīng)用雙路徑的3D CNN,1個(gè)是常態(tài)辨別率,另1個(gè)是下采樣輸入,如此可以結(jié)合局部和更大的上下文數(shù)據(jù)。


6.jpg


總結(jié)

本文中,咱們簡(jiǎn)介了醫(yī)學(xué)成像領(lǐng)域在處置3D MRI和CT掃描時(shí)應(yīng)用的許多深度學(xué)習(xí)模型。這類神經(jīng)網(wǎng)絡(luò)被設(shè)計(jì)拿來(lái)接收3D信息作為輸入,以學(xué)習(xí)DICOM系列肌體特定部位的高難性。

下列是本文一切模型設(shè)計(jì)的論文,假設(shè)你感興致,可以直接查閱論文了解更全面的數(shù)據(jù)

[1] 3D U-Net: Learning Dense Volumetric Segmentation from Sparse Annotation

[2] V-Net: Fully Convolutional Neural Networks for Volumetric Medical Image Segmentation

[3] Deep learning-based metal artifact reduction in PET/CT imaging

[4] A modified 3D EfficientNet for the classification of Alzheimer’s disease using structural magnetic resonance images

[5] Attention U-Net: Learning Where to Look for the Pancreas

[6] DeepMedic for Brain Tumor Segmentation

作家:Nour Islam Mokhtari



本文網(wǎng)址:http://www.sem136.com/news/2737.html

相關(guān)標(biāo)簽:掘的醫(yī)學(xué)類文物,制造標(biāo)本模型等

最近瀏覽:

相關(guān)產(chǎn)品:

在線客服
分享