
【環球新聞報訊】近日,澳門科技大學醫學院副院長兼創新工程學院副院長張康講座教授聯合中國科學院深圳先進技術研究院王珊珊教授等多家研究團隊,在生物醫學工程領域頂級期刊Nature Biomedical Engineering(影響因子26.7)發表重要研究成果,提出了一種能夠在無需任何人工標註病灶並自動學習影像特徵及輸出診斷的人工智能模型——AFLoc。這一成果被認為為醫學影像人工智能擺脫「依賴大規模人工標註」的長期瓶頸提供了全新的解決方案。

在臨床工作中,一張醫學影像往往包含大量關鍵診斷信息。但在傳統AI訓練中,醫生需要在成千上萬張影像上手工圈出病灶,既耗時耗力,也嚴重限制了醫學影像AI在真實醫院中的推廣。為此,研究團隊提出一個關鍵問題:是否可以在不依賴顯式標註的情況下,讓AI自己逐步學會「哪裡可能是病灶」?

研究人員設計了AFLoc模型,採用類似「看圖讀報告」的學習方式。訓練過程中,模型同時接收兩類信息:一是胸片、眼底影像或組織病理切片等醫學影像本身,二是醫生撰寫的對應臨床報告。通過反復對照學習,模型逐漸建立起臨床描述與圖像區域之間的關聯,理解報告中的疾病提示大致對應影像中的哪些位置,從而在沒有人工提前標註的情況下,也能夠自動定位潛在病灶區域。為系統評估AFLoc的性能,研究團隊在胸部X光、眼底影像和組織病理三類典型影像模態上開展了實驗。結果顯示,在涵蓋肺炎、胸腔積液、氣胸等34種常見胸部疾病、涉及多個公開數據集的測試中,AFLoc在多項病灶定位指標上優於現有方法,並在部分任務中達到甚至超越人類專家水平。在眼底和病理影像任務中,AFLoc同樣表現出穩定而可靠的定位能力。值得注意的是,AFLoc不僅能夠進行病灶定位,還展現出突出的疾病分類能力。即使在「零樣本分類」條件下———也就是沒有專門針對新任務進行標註訓練的情況下———該模型在胸片、眼底和組織病理數據上的總體表現仍優於多種主流模型,尤其在視網膜病變診斷中,還超過了部分依賴人工標註進行微調的模型。
研究團隊認為,AFLoc顯著降低了醫學影像AI對大規模手工標註數據的依賴,提升了數據利用效率與模型泛化能力,為醫學影像人工智能從傳統監督學習邁向更具智能化的自監督學習提供了重要技術路徑。這一框架有望推動構建更加通用、可推廣、低成本的影像智能診斷系統。
本研究是張康講座教授團隊在醫學人工智能領域取得的又一標誌性成果。該團隊長期聚焦人工智能與醫學的交叉融合,其工作涵蓋從醫學圖像分析、自然語言處理、多模態融合、疾病預後預測等臨床輔助應用,到衰老機制、藥物發現等前沿基礎研究。相關成果已多次發表於《細胞》、Nature Medicine等頂級期刊。同時,團隊還積極參與國際協作,與哈佛大學等世界著名機構共同發起成立「國際醫療數字孿生聯盟」並發佈相關白皮書,持續推動智能醫療的創新發展。
該研究工作獲得澳門科學技術發展基金多項支持(項目編號:0007/2020/AFJ, 0070/2020/A2, 0003/2021/AKP)。
文章連結:https://www.nature.com/articles/s41551-025-01574-7

微信扫一扫打赏
