原始文章

這項研究介紹了口腔癌注意網路(OCANet),一個基於U-Net的模型,專注於改善口腔鱗狀細胞癌的分割。OCANet利用局部和全局注意機制,能捕捉複雜的癌症模式,並結合大型語言模型增強可解釋性。其關鍵組件包括通道和空間注意融合、擠壓與激勵區塊等,提升特徵提取和分割效果。OCANet在多個數據集上表現優異,準確率和Dice相似係數均高,顯示出強大的泛化能力,成為癌症診斷中的重要工具。 PubMed DOI


站上相關主題文章列表

這項研究評估了NotebookLM這款檢索增強生成大型語言模型(RAG-LLM)在肺癌分期中的有效性。透過整合日本肺癌分期指引的可靠外部知識,NotebookLM在100個虛構案例中達到86%的診斷準確率,表現優於金標準的GPT-4 Omni,後者在提供外部知識時準確率僅39%。NotebookLM在定位參考資料方面也表現出色,準確率高達95%。研究顯示,NotebookLM在臨床影像診斷中具備更高的可靠性與實用性,特別是在放射學領域。 PubMed DOI

肺癌,特別是非小細胞肺癌(NSCLC),對健康影響深遠,超過60%的患者需接受放射治療。及時治療能提高生存率,因此準確的腫瘤分割至關重要。傳統手動分割耗時且可能延誤治療。雖然已有深度學習模型,但假陽性率高。為解決此問題,我們開發了EXACT-Net,這是一個自動分割模型,結合電子健康紀錄(EHR)和預訓練的大型語言模型(LLM),有效減少假陽性,專注於真陽性結節。根據十名NSCLC患者的CT掃描數據,我們的方法成功檢測結節增長250%,顯示整合視覺與語言信息能顯著提升模型性能,為醫學影像的多模態AI應用開創新局。 PubMed DOI

這項研究探討六種多模態大型語言模型(MLLMs)在解讀喉癌手術影像的有效性。研究分析了50位病人的169張影像,提出1084個臨床問題來評估模型表現,並由兩位醫師獨立評估。結果顯示,Claude 3.5 Sonnet的準確率最高,達79.43%。不同影像類型及商業模型與開源模型之間的表現差異明顯,最佳商業模型的表現比其他模型高出19個百分點。研究指出,雖然MLLMs在手術決策支持上有潛力,但仍需針對特定需求進行開發,並整合進臨床流程。未來應著重於利用多中心數據集來創建專門針對喉癌的MLLMs。 PubMed DOI

這項研究評估了具影像識別功能的 ChatGPT 4.0 在診斷鱗狀細胞癌 (SCC) 和白斑病的能力,分析了 45 張影像。結果顯示,ChatGPT 4.0 能準確識別白斑病,但對 SCC 的診斷能力有限,需結合臨床病史才能提高準確性。僅依臨床病史時,白斑病和部分 SCC 的誤分類情況明顯。整體而言,雖然在白斑病檢測上有潛力,但對於口腔及咽喉部的 SCC 診斷仍不可靠,未來技術進步可能改善其臨床應用。 PubMed DOI

子宮頸癌是全球健康的重要議題,尤其在資源有限的地區。這項研究探討大型語言模型(LLMs)在子宮頸癌管理中的潛力,評估了九個模型的準確性和可解釋性。結果顯示,ChatGPT-4.0 Turbo表現最佳,得分為2.67,顯示其在提供可靠回應方面的有效性。研究還利用LIME增強模型的可解釋性,對醫療專業人員建立信任至關重要。雖然專有模型表現良好,但醫學專用模型的表現未如預期,未來仍需進一步研究以了解LLM在醫療中的應用。 PubMed DOI

這項研究提出了一種創新的方法,利用深度學習技術(特別是Yolov8框架)來早期檢測和分割腦腫瘤,達到超過98%的準確率。透過微調和智能計算單元,腫瘤邊緣的分割精度超過99%,且分割時間少於一秒,表現優於現有方法。此外,研究還結合多種分類器和數據融合技術,提升腫瘤分類及預測患者壽命的能力。整體而言,這項研究為醫學影像領域提供了重要貢獻,改善了腦腫瘤的檢測與分類。 PubMed DOI

本研究針對肝癌診斷提出一個結合大型與小型模型的輔助工具,旨在提升基層醫療醫生的診斷能力。透過開發更準確的肝腫瘤與血管分割模型,並整合患者醫療紀錄,這個框架能有效改善影像分析的準確性。結果顯示,小型模型在分割表現上有所提升,而大型模型則在醫生評估中獲得更高分數。此研究不僅優化了診斷過程,還增強了模型的可靠性與可解釋性,減少了錯誤推理的情況。 PubMed DOI

這項研究發現,開源大型語言模型(LLMs)能準確從電子病歷的病理報告中,萃取癌症和異型增生等重要診斷,連複雜案例也適用。只用簡單「是/否」提示,在美國退伍軍人健康管理局資料庫中,診斷準確率超過93%。這方法不但省資源、設定簡單,還能大規模應用,對臨床和研究都很有幫助。 PubMed DOI

PathSAM 把 Segment Anything Model(SAM)用在口腔癌病理影像上,能有效處理影像複雜和變異大的問題。在 ORCA 和 OCDC 兩大資料集上,PathSAM 的準確度和細緻度都勝過傳統方法。結合大型語言模型後,分割結果更清楚易懂,不只協助醫師判讀,也讓醫病溝通更順利,是很有潛力的醫療診斷工具。 PubMed

這項研究比較三款主流視覺生成式AI(GPT-4o、Claude-3.5-Sonnet、Gemini-1.5-Pro)在辨識與分級肺腺癌組織學型態的表現。結果發現,Claude-3.5-Sonnet的分級準確率最高,穩定性也不錯,且結合臨床資料後,預後預測效果佳。整體來說,生成式AI,尤其是Claude-3.5-Sonnet,對肺腺癌病理評估和預後有很大幫助。 PubMed DOI