日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 人工智能 > pytorch >内容正文

pytorch

Nature论文解读:深度学习助力毫秒之间识别癌细胞

發(fā)布時(shí)間:2024/10/8 pytorch 114 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Nature论文解读:深度学习助力毫秒之间识别癌细胞 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

論文動(dòng)機(jī)


流式細(xì)胞儀作為一種生物醫(yī)學(xué)診斷技術(shù),可以準(zhǔn)確測(cè)量細(xì)胞特性。當(dāng)前儀器已經(jīng)實(shí)現(xiàn)了細(xì)胞的分類識(shí)別,但由于數(shù)據(jù)處理耗時(shí)的問(wèn)題,尚不能對(duì)細(xì)胞進(jìn)行實(shí)時(shí)分選。
基于之前的工作,本文作者提出采用深度學(xué)習(xí)來(lái)解決這一問(wèn)題,在流式細(xì)胞儀的組成——激光信號(hào)上直接進(jìn)行處理,省略了其他技術(shù)中費(fèi)時(shí)的操作。該儀器可以在幾毫秒之內(nèi)檢測(cè)出癌細(xì)胞,比之前的方法快數(shù)百倍。用這樣的速度,可以在細(xì)胞檢測(cè)后立刻將癌細(xì)胞從血液中分離出去,預(yù)防癌癥轉(zhuǎn)移。



技術(shù)方法


深度學(xué)習(xí)


深度學(xué)習(xí)屬于機(jī)器學(xué)習(xí),是一種采用大量數(shù)據(jù)來(lái)訓(xùn)練算法的人工智能。在深度學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)算法用來(lái)模擬人的大腦工作。與其他機(jī)器學(xué)習(xí)類型相比,深度學(xué)習(xí)被證明在識(shí)別和生成圖像、語(yǔ)音、音樂(lè)和影像上尤為有效。


論文采用基于 VGGNet 的卷積網(wǎng)絡(luò)模型來(lái)進(jìn)行細(xì)胞檢測(cè)和識(shí)別。實(shí)驗(yàn)所采用的目標(biāo)細(xì)胞為 T 淋巴雜交瘤細(xì)胞(OT-II)和人的結(jié)直腸癌細(xì)胞(SW-480),數(shù)據(jù)的準(zhǔn)備過(guò)程以及模型架構(gòu)如下圖所示:


包含細(xì)胞信息的數(shù)據(jù)由高速 ADC 進(jìn)行采集,每個(gè)波形數(shù)據(jù)先切割成 100 個(gè)小的波形片段,各片段之間的重疊率為 50%。?通過(guò)進(jìn)一步處理,使得每個(gè)片段包含完整的脈沖。接著,將這些波形片段轉(zhuǎn)換為二維陣列,使得波形分析的過(guò)程類似于采用卷積網(wǎng)絡(luò)進(jìn)行圖像識(shí)別。經(jīng)過(guò)處理的波形片段分別是攜帶 SW-480 細(xì)胞、OT-II 細(xì)胞以及不攜帶細(xì)胞信息的空白片段。他們被隨機(jī)打亂后分成三個(gè)數(shù)據(jù)子集:訓(xùn)練集(占比 80%),驗(yàn)證集(占比 10%)和測(cè)試集(10%),并且三個(gè)子集之間沒(méi)有交集。每次訓(xùn)練只有一部分?jǐn)?shù)據(jù)(batch)參與。

深度神經(jīng)網(wǎng)絡(luò)模型由 16 個(gè)卷積層組成,其步長(zhǎng)為 1,kernal 大小為 3 × 3,生成的特征圖像深度從 16 增加到 64 個(gè)輸出通道。在各個(gè)卷積層之間,采用窗口大小為 2 × 2 的最大池化層來(lái)進(jìn)行降采樣。?最后一個(gè)卷積層的輸出被平鋪為一維數(shù)據(jù)后進(jìn)入三個(gè)全連接層:前兩個(gè)有 1024 個(gè)節(jié)點(diǎn),第三個(gè)有 64 個(gè)節(jié)點(diǎn)。并且采用 dropout 進(jìn)行正則化,以及用 Adam 優(yōu)化器來(lái)更新參數(shù)。

時(shí)域拉伸

光時(shí)域拉伸技術(shù)是 UCLA 發(fā)明的超高速測(cè)量技術(shù)。它采用超短激光來(lái)實(shí)現(xiàn) 1Tbit / s 的數(shù)據(jù)采樣速度,比目前最快的微處理器速度還要快上 1000 倍。這個(gè)技術(shù)幫助科學(xué)家們發(fā)現(xiàn)了激光物理中的罕見(jiàn)現(xiàn)象,發(fā)明了新型的生物醫(yī)療儀器,如 3D 顯微鏡,光譜儀等。

論文中,采用時(shí)域拉伸成像系統(tǒng)快速捕獲高通量細(xì)胞的空間信息。首先通過(guò)光脈沖線性掃描目標(biāo)細(xì)胞,并將細(xì)胞的特征編碼到這些光脈沖的光譜中,然后讓脈沖在色散光纖中拉伸,并將光譜映射到時(shí)域上,最后由光電探測(cè)器捕獲這些脈沖序列并轉(zhuǎn)換為數(shù)字波形后,直接通過(guò)神經(jīng)網(wǎng)絡(luò)進(jìn)行分析。


結(jié)果分析


在每個(gè) epoch 中,對(duì)訓(xùn)練集和驗(yàn)證集的性能進(jìn)行評(píng)估,結(jié)果如下圖所示。比較每個(gè)類別的分類性能,發(fā)現(xiàn)在第一個(gè)訓(xùn)練 epoch 結(jié)束時(shí)就可以成功識(shí)別出 SW-480 細(xì)胞和 OT-II 細(xì)胞。訓(xùn)練和驗(yàn)證的 F1 score 不斷增大,在大約 60 個(gè) epoch 處達(dá)到最大值。并且,模型的泛化性能好。

下圖分析了分類器的輸出性能,將模型用于測(cè)試集,得到的結(jié)果分別通過(guò) ROC 曲線和 PR 曲線來(lái)呈現(xiàn)。從圖中可以看出,該分類器無(wú)論是從靈敏度/特異性,還是精確率/召回率上來(lái)看,均表現(xiàn)出良好的性能,且可靠性高。



應(yīng)用:深度流式細(xì)胞儀


下圖展示了深度流式細(xì)胞儀的工作機(jī)制。首先,微流體通道采用流體動(dòng)力學(xué)聚焦機(jī)制,使得目標(biāo)細(xì)胞對(duì)準(zhǔn)光學(xué)相機(jī)的視場(chǎng)中心。然后基于時(shí)域拉伸成像的光學(xué)相機(jī)捕獲高速流動(dòng)的無(wú)標(biāo)記的細(xì)胞信息,輸出波形直接傳遞到已經(jīng)訓(xùn)練好的深度神經(jīng)網(wǎng)絡(luò),進(jìn)行在線實(shí)時(shí)細(xì)胞分析,在細(xì)胞到達(dá)分選器之前給出準(zhǔn)確的分類結(jié)果。不同類型的細(xì)胞將被賦予不同的極性電荷,使得它們被分選到不同的收集管中。

除了時(shí)域拉伸成像信號(hào)外,深度流式細(xì)胞儀還可以應(yīng)用于其他傳感器如 CMOS 或 CCD,PMTs 和光電二極管所捕獲的信號(hào)。


亮點(diǎn)


論文所提出的深度卷積網(wǎng)絡(luò)能夠直接對(duì)流式細(xì)胞儀中輸出的一維時(shí)間序列波形進(jìn)行訓(xùn)練,自動(dòng)提取數(shù)據(jù)特征,省去了圖像合成和手動(dòng)特征提取這些耗時(shí)的步驟,大幅縮短了細(xì)胞分析的整體用時(shí)。并且,直接對(duì)原始波形進(jìn)行訓(xùn)練,可以挖掘出數(shù)據(jù)中更多的隱藏信息,從而獲得更準(zhǔn)確的細(xì)胞分類結(jié)果。

此外,由于采用了 NVidia 公司提供的 GPU,模型的處理時(shí)間(訓(xùn)練好的模型推斷單個(gè)細(xì)胞樣本的時(shí)間)可以進(jìn)一步縮短,采用不同處理器的耗時(shí)對(duì)比如下表所示:

總結(jié)

本文提出了一種深度卷積神經(jīng)網(wǎng)絡(luò),可以直接處理流式細(xì)胞儀的波形數(shù)據(jù),從而快速識(shí)別細(xì)胞。這個(gè)系統(tǒng)在不到幾毫秒的時(shí)間內(nèi)便可實(shí)現(xiàn)細(xì)胞的精確分類,為實(shí)時(shí)的無(wú)標(biāo)記細(xì)胞分選打開(kāi)了新的途徑。

點(diǎn)擊以下標(biāo)題查看更多往期內(nèi)容:?

#投 稿 通 道#

?讓你的論文被更多人看到?


如何才能讓更多的優(yōu)質(zhì)內(nèi)容以更短路徑到達(dá)讀者群體,縮短讀者尋找優(yōu)質(zhì)內(nèi)容的成本呢?答案就是:你不認(rèn)識(shí)的人。

總有一些你不認(rèn)識(shí)的人,知道你想知道的東西。PaperWeekly 或許可以成為一座橋梁,促使不同背景、不同方向的學(xué)者和學(xué)術(shù)靈感相互碰撞,迸發(fā)出更多的可能性。?

PaperWeekly 鼓勵(lì)高校實(shí)驗(yàn)室或個(gè)人,在我們的平臺(tái)上分享各類優(yōu)質(zhì)內(nèi)容,可以是最新論文解讀,也可以是學(xué)習(xí)心得技術(shù)干貨。我們的目的只有一個(gè),讓知識(shí)真正流動(dòng)起來(lái)。

??來(lái)稿標(biāo)準(zhǔn):

? 稿件確系個(gè)人原創(chuàng)作品,來(lái)稿需注明作者個(gè)人信息(姓名+學(xué)校/工作單位+學(xué)歷/職位+研究方向)?

? 如果文章并非首發(fā),請(qǐng)?jiān)谕陡鍟r(shí)提醒并附上所有已發(fā)布鏈接?

? PaperWeekly 默認(rèn)每篇文章都是首發(fā),均會(huì)添加“原創(chuàng)”標(biāo)志

? 投稿郵箱:

? 投稿郵箱:hr@paperweekly.site?

? 所有文章配圖,請(qǐng)單獨(dú)在附件中發(fā)送?

? 請(qǐng)留下即時(shí)聯(lián)系方式(微信或手機(jī)),以便我們?cè)诰庉嫲l(fā)布時(shí)和作者溝通

?

現(xiàn)在,在「知乎」也能找到我們了

進(jìn)入知乎首頁(yè)搜索「PaperWeekly」

點(diǎn)擊「關(guān)注」訂閱我們的專欄吧

關(guān)于PaperWeekly

PaperWeekly 是一個(gè)推薦、解讀、討論、報(bào)道人工智能前沿論文成果的學(xué)術(shù)平臺(tái)。如果你研究或從事 AI 領(lǐng)域,歡迎在公眾號(hào)后臺(tái)點(diǎn)擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。

▽ 點(diǎn)擊 |?閱讀原文?| 下載論文

總結(jié)

以上是生活随笔為你收集整理的Nature论文解读:深度学习助力毫秒之间识别癌细胞的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。