首頁 > 新聞資訊 >  業内事(shì)态

熒光标記再見,AI不用(yòng)染色也(yě)能(néng)看(kàn)見

浏覽次數:      2021年04月28日

模型可僅通過光學顯微鏡圖像就預測出細胞結構的位置,而無需具有毒性的熒光标記物。


    一直以來(lái),來(lái)自(zì)華盛頓西雅圖艾倫細胞科學研究所的定量細胞生物學家、副總監Susanne Rafelski和(hé)她(tā)同事(shì)都有一個看(kàn)起來(lái)很(hěn)簡單的目标:“我們希望能(néng)夠标記細胞中多種不同的内部結構,而且是在活細胞裏進行3D的結構标記。”


    這(zhè)一目标通常依賴于熒光顯微鏡來(lái)實現(xiàn),但(dàn)問題是可用(yòng)的染料數量有限,不足以完成對(duì)所有種類的細胞結構進行标記。同時(shí),熒光染料和(hé)試劑不僅昂貴、操作(zuò)複雜(zá),着色過程也(yě)對(duì)活細胞有害。當光激活這(zhè)些(xiē)熒光物質時(shí),成像細胞的異常活躍會(huì)損害細胞。“無論哪個角度來(lái)說,熒光顯微都是耗費很(hěn)大(dà)的方式”,同在西雅圖艾倫研究所的腦(nǎo)科學中心顯微學家Forrest Collman說。當Collman和(hé)同事(shì)嘗試使用(yòng)3種不同顔色來(lái)拍(pāi)攝3D延時(shí)視(shì)頻時(shí),結果令人十分震驚。Collman回憶道(dào):“你(nǐ)就眼睜睜的看(kàn)着這(zhè)些(xiē)細胞在你(nǐ)面前凋零。

image.png

插圖:Project Twin

    而另一方面,基于投射白(bái)光進行成像的亮(liàng)視(shì)野顯微鏡并不依賴标記物,從(cóng)而避免了(le)熒光顯微鏡存在的一系列問題。但(dàn)這(zhè)種顯微鏡對(duì)比度較低(dī),大(dà)多數細胞結構無法看(kàn)出。Rafelski團隊需要結合兩種成像方式的優勢,科學家們不禁在想,人工(gōng)智能(néng)是否可以在亮(liàng)視(shì)野顯微鏡的基礎上(shàng),通過一種類似“虛拟染色”的過程,預測出細胞通過熒光标記出結構形态呢(ne)?2017年,Rafelski當時(shí)的同事(shì),機器學習科學家Gregory Johnson提出了(le)這(zhè)麽個解決方案,他(tā)想利用(yòng)一種稱爲深度學習的AI模型,從(cóng)亮(liàng)視(shì)野顯微鏡的非染色圖像中識别出肉眼難以觀測的細胞結構。


    “天啊,這(zhè)居然能(néng)成,”Rafelski離開(kāi)了(le)幾個月,回來(lái)工(gōng)作(zuò)時(shí)Johnson告訴她(tā)自(zì)己搞定了(le)。在非熒光标記的細胞圖像上(shàng)應用(yòng)深度學習算(suàn)法,艾倫研究所的團隊在一段3D視(shì)頻中呈現(xiàn)了(le)細胞核内的DNA和(hé)精細結構,以及細胞膜和(hé)線粒體[1]


    “這(zhè)些(xiē)模型可以‘看(kàn)’到(dào)人類看(kàn)不到(dào)的結構”,英國鄧迪大(dà)學的計(jì)量細胞生物學家Jason Swedlow說。他(tā)說,我們的眼睛并不适應捕捉細微的結構,或諸如光學顯微鏡下(xià)的灰度模式,我們不是這(zhè)麽演化的,“你(nǐ)的眼睛是爲了(le)發現(xiàn)老(lǎo)虎獅子和(hé)樹之類的東西


    在過去幾年裏,AI領域的科學家們設計(jì)出了(le)多種系統來(lái)抽取這(zhè)些(xiē)模式。模型利用(yòng)亮(liàng)視(shì)場顯微數據和(hé)與之精确對(duì)應的熒光标記數據來(lái)訓練模型,但(dàn)這(zhè)些(xiē)模型在處理(lǐ)數據的維度上(shàng)略微不同,一些(xiē)用(yòng)作(zuò)2D圖像,另一些(xiē)用(yòng)于3D;一些(xiē)用(yòng)于近似細胞結構、一些(xiē)則能(néng)生成足以亂真的顯微圖像。


    澳大(dà)利亞布裏斯班轉化研究院的顯微設備主管Mark Scott說:“這(zhè)代表了(le)目前所能(néng)達到(dào)的最前沿水(shuǐ)平。”而現(xiàn)在需要生物學家與AI程序員合作(zuò),測試和(hé)改進這(zhè)些(xiē)技術在真實環境中的應用(yòng)能(néng)力。


高(gāo)速發展的領域

    加州大(dà)學神經科學家Steven Finkbeiner,以及同在舊金(jīn)山的格萊斯頓研究所,利用(yòng)機器人顯微鏡對(duì)細胞進行了(le)長達一年的追蹤。在10年代前期,他(tā)的團隊每天已經能(néng)夠積累TB級的數據。這(zhè)一研究吸引了(le)谷歌研究者的注意,并抛出了(le)合作(zuò)的橄榄枝。Finkbeiner建議(yì)可以利用(yòng)深度學習來(lái)從(cóng)圖像中尋找人看(kàn)不見的細胞結構特征。


    深度學習利用(yòng)計(jì)算(suàn)機内部的節點進行層次堆疊模拟人腦(nǎo)内部的神經連接過程。首先節點間的鏈接權重被随機初始化,所以計(jì)算(suàn)機隻是在猜;随着訓練過程的深入計(jì)算(suàn)機可以逐漸調節這(zhè)些(xiē)權重或參數,直到(dào)越來(lái)越對(duì)。


    Finkbeiner的團隊曾訓練了(le)一個可以從(cóng)2D圖像中識别出神經元的模型,然後是挑出細胞核并判斷細胞是否還有活性[2]。Finkbeiner說:“這(zhè)一項目的主要意義在于向科學家表明(míng),圖像數據裏包含着的信息,可能(néng)比他(tā)們以爲的多得多。”團隊将這(zhè)一技術稱爲“矽标記”in silico labelling)


    但(dàn)這(zhè)一方法無法識别出運動神經元,可能(néng)由于未标記細胞中沒有任何信息可以表示出運動神經元的獨特性質。Collman表示,這(zhè)一技術隻能(néng)在有AI可識别的視(shì)覺線索時(shí)有效,例如膜與周圍結構具有不同的折射率,從(cóng)而産生了(le)不同的對(duì)比度信息,使得這(zhè)一結構可以被AI預測。


    Collman,Johnson和(hé)他(tā)們在艾倫研究所的同事(shì)們,利用(yòng)一種不同的神經網絡來(lái)解決Rafelski提出的問題,在一種名爲U-Net的網絡結構上(shàng)構建了(le)系統,U-Net是被研發用(yòng)于處理(lǐ)生物圖像的。與Finkbeiner等人的方法不同,艾倫研究所的模型使用(yòng)3D顯微圖像。一些(xiē)科學家日常會(huì)用(yòng)到(dào)這(zhè)一模型,例如在染色質組織學中識别出細胞核标記。


    在伊利諾伊大(dà)學香槟分校,物理(lǐ)學家Gabriel Popescu同樣利用(yòng)深度學習,尋求一個基礎顯微問題的答(dá)案:一個細胞是死是活?這(zhè)一工(gōng)作(zuò)可能(néng)比聽起來(lái)要困難許多,因爲測試細胞活性需要借助毒性化學物質,這(zhè)種矛盾的過程就像用(yòng)刀(dāo)捅開(kāi)病人的動脈來(lái)觀察是否活着一樣。


    Popescu和(hé)同事(shì)将這(zhè)一研究稱爲PICS:基于計(jì)算(suàn)特性的相位成像(phase imaging with computational specificity)Popescu使用(yòng)這(zhè)一技術在活細胞中識别細胞質和(hé)細胞核,并計(jì)算(suàn)其質量随時(shí)間的變化[3]。 他(tā)說,這(zhè)些(xiē)标記準确地表明(míng)了(le)細胞的生長和(hé)活力。


    PICS系統包含基于U-Net的軟件系統和(hé)顯微鏡硬件,整套系統無縫集成,而無需拍(pāi)攝圖像後訓練機器進行處理(lǐ)。當用(yòng)戶拍(pāi)攝好(hǎo)白(bái)光圖像後,模型僅僅需要65毫秒就能(néng)預測出細胞對(duì)應的熒光标記結構。


    其他(tā)的研究團隊還使用(yòng)不同種類的機器學習算(suàn)法。例如,華盛頓的美(měi)國天主教大(dà)學的一個團隊利用(yòng)叫GAN的神經網絡,從(cóng)相襯光學顯微鏡識别圖像中識别細胞核[4]GAN是一種生成對(duì)抗網絡,包含兩個不同的模型,其中生成器用(yòng)于預測出熒光标記圖像,而判别器則用(yòng)于判定生成的圖像是否是赝品。爲了(le)躲過判别器的鑒别,生成器需要不斷改進以生成盡量真實準确的結果,如果判别器在一半情況下(xià)被騙過,生成器就是在進行可信的預測。這(zhè)一項目的工(gōng)程師Lin-Ching Chang表示:“甚至人類也(yě)無法區(qū)分生成樣本的真假了(le)。”

藥物發現(xiàn)

    熒光标記預測技術也(yě)在進入制藥行業。瑞典哥(gē)德堡阿斯利康的藥理(lǐ)學家Alan Sabirsh一直緻力于研究脂肪細胞在疾病和(hé)藥物代謝(xiè)中的作(zuò)用(yòng)。Sabirsh和(hé)阿斯利康聯合了(le)瑞典國家人工(gōng)智能(néng)應用(yòng)中心舉辦了(le)一場脂肪細胞成像挑戰賽,要求參賽者從(cóng)未标記顯微圖中識别出細胞核、細胞質和(hé)脂肪滴。最終5000美(měi)元的獎金(jīn)被Ankit Gupta、 Håkan Wieslander團隊獲取,他(tā)們是瑞典烏普薩拉大(dà)學研究圖像處理(lǐ)技術的兩名博士生。


    與Chang和(hé)同事(shì)一樣,這(zhè)一團隊選擇利用(yòng)GAN來(lái)識别脂肪滴。針對(duì)細胞核則使用(yòng)了(le)另一種方法LUPT(learning using privileged information,利用(yòng)特權信息的學習),爲機器的學習過程帶來(lái)額外(wài)的幫助。該團隊使用(yòng)了(le)進一步的圖像處理(lǐ)技術,來(lái)識别标準訓練圖像對(duì)中的細胞核。一旦模型訓練完成,它就可以僅僅基于光學顯微鏡圖像來(lái)預測細胞核了(le)[5]


    Gupta說,雖然生成的圖像并不完美(měi),真實的熒光染色可以比模型預測結果提供更多細胞核與細胞質的細節但(dàn)對(duì)于Sabirsh來(lái)說已經足夠了(le),他(tā)已經開(kāi)始将這(zhè)些(xiē)代碼應用(yòng)于機器人顯微鏡的實驗中,并期望開(kāi)發出新的療法。


在多個技術原型驗證後,這(zhè)一技術已經度過了(le)蹒跚學步階段,更多的研究者開(kāi)始嘗試這(zhè)一技術。Swedlow說:“我們正在學習行走,以及行走的意義所在。”


    例如,我們需要明(míng)确這(zhè)一方法在白(bái)光成像中何時(shí)是有效的、而何時(shí)又應該避免使用(yòng)這(zhè)一技術。麻省理(lǐ)工(gōng)大(dà)學博德學院成像平台高(gāo)級總監Anne Carpenter說,嘗試分割細胞内部細胞器和(hé)結構也(yě)許是一個很(hěn)好(hǎo)的應用(yòng),因爲錯誤并不會(huì)顯著影響到(dào)下(xià)遊任務的結果。不過,她(tā)對(duì)預測實驗結果抱有審慎的态度,因爲機器可能(néng)隻在可控條件下(xià),依賴一種結構預測另一種。“但(dàn)在生物學中,我們常常尋找的就是例外(wài)。”Carpenter說。


Popescu說,目前來(lái)說,至少科學家們已經能(néng)夠利用(yòng)标準的熒光染色來(lái)确認模型的關鍵預測是否正确。新墨西哥(gē)州立大(dà)學電子工(gōng)程師Laura Boucheron補充說,最好(hǎo)尋求一位相關領域的專家進行合作(zuò),“運行并良好(hǎo)使用(yòng)這(zhè)些(xiē)模型,需要大(dà)量重要的計(jì)算(suàn)機專業知(zhī)識


    雖然一些(xiē)模型隻使用(yòng)了(le)少量的圖像進行訓練,但(dàn)Boucheron認爲數據量越大(dà)越好(hǎo)。比利時(shí)根特大(dà)學VIB炎症研究中心的計(jì)算(suàn)生物學家Yvan Saeys認爲,幾百甚至上(shàng)千的數據通常是必須的,如果你(nǐ)需要模型在多種細胞類型上(shàng)或者來(lái)自(zì)不同顯微鏡設置下(xià)能(néng)有效運行,需要在訓練數據中涵蓋足夠多樣性的圖像。


    但(dàn)Boucheron提醒,大(dà)體量的訓練需要擁有多個圖形處理(lǐ)單元超級計(jì)算(suàn)機,訓練上(shàng)數周時(shí)間。但(dàn)一旦模型訓練完成,預測模型就可以在筆(bǐ)記本甚至手機端運行。


    對(duì)于很(hěn)多研究者而言,如果未來(lái)再也(yě)無需承受細胞染色的繁雜(zá)之苦,這(zhè)樣一次性的投資是值得的。Finkbeiner說:“如果你(nǐ)可以拍(pāi)攝未染色的細胞圖像,并且擁有已經訓練好(hǎo)的預測模型,那就意味着你(nǐ)基本上(shàng)能(néng)免花(huā)費獲得所有信息了(le)。”

參考文(wén)獻:

1. Ounkomol, C., Seshamani, S., Maleckar, M. M., Collman, F. & Johnson, G. R. Nature Meth. 15, 917–920 (2018). 

2. Christiansen, E. M. et al. Cell 173, 792–803 (2018). 

3. Kandel, M. E. et al. Nature Commun. 11, 6256 (2020). 

4. Nguyen, T. C. et al. J. Biomed. Opt. 25, 096009 (2020).

5. Wieslander, H., Gupta, A., Bergman, E., Hallström, E. & Harrison, P. J. Preprint at bioRxiv https://doi.org/10.1101/2021.01.18.427121 (2021).


原文(wén)以AI spots cell structures that humans can’t标題發表在2021年3月30日的《自(zì)然》的技術特寫版塊上(shàng) 原文(wén)鏈接 https://mp.weixin.qq.com/s/YIr19hw-38skvWNpoY-bPg