原始文章

這項研究開發的RiskGPT模型,結合臨床風險因子和影像特徵,能更準確診斷非高風險族群的肝細胞癌。和一般GPT模型比起來,RiskGPT在準確率、敏感度和特異度都明顯提升,顯示把風險係數納入GPT模型,有助於提升診斷效果。 PubMed DOI


站上相關主題文章列表

這項研究探討大型語言模型(LLMs)與對比增強超聲肝臟影像報告系統(CEUS LI-RADS)結合,對高風險患者診斷小型肝細胞癌(sHCC)的效果。研究涵蓋403名未治療的高風險患者,評估的LLMs包括ChatGPT-4.0等。結果顯示,ChatGPT-4.0在CEUS LI-RADS分類上表現優於其他模型,且在檢測sHCC的敏感性上也優於ChatGPT-4o。整體而言,研究建議ChatGPT-4.0結合CEUS LI-RADS,可能成為診斷sHCC的有效工具。 PubMed DOI

這項研究評估了兩個大型語言模型(LLMs),ERNIE Bot 和 ChatGPT,在回答肝癌介入放射學問題的有效性,特別是針對經動脈化療栓塞(TACE)和肝動脈灌注化療(HAIC)。共設計38個問題,由10位專業人士評估兩者的回答。結果顯示,ERNIE Bot 在中文環境中表現較佳,而 ChatGPT 在英文環境中更優。研究強調根據語言選擇合適的 LLM 以提供準確的治療資訊,但也指出兩者都需人工審查以確保資訊可靠性。 PubMed DOI

肝脂肪變性(脂肪肝)是嚴重肝臟疾病的前兆,會增加健康風險。這項研究探討大型語言模型(LLMs)在急診影像報告中識別肝脂肪變性的潛力。研究分析了200名成人的CT掃描,使用三種Azure OpenAI模型(ChatGPT 3.5、4和4o)進行檢測。結果顯示,這些模型的準確率高達96.2%至98.8%,且評估者間的可靠性極高。研究認為,LLMs能有效識別影像報告中的異常,對早期疾病介入有重要意義,並簡化電子病歷分析過程。 PubMed DOI

這項研究評估了GPT-4和GPT-4o在根據TI-RADS指引識別甲狀腺結節特徵的表現,使用了202張超音波影像。結果顯示,GPT-4在大多數類別中具高特異性但低敏感性,對低風險結節的敏感性僅25%,而高風險結節的敏感性為75%。雖然在識別平滑邊緣方面表現較好,但在其他特徵上則不理想。整體來看,這些模型在臨床應用前仍需改進和驗證。 PubMed DOI

這項研究發現,ChatGPT-4-vision 能用數位肝臟切片影像判讀MASH肝纖維化分期,表現接近專業病理醫師。給予範例影像後,準確率最高達88%,尤其在辨識晚期纖維化(F4)更突出。分期結果也和膠原蛋白測量高度相關,顯示大型語言模型有潛力協助病理診斷。 PubMed DOI

這項研究發現,ChatGPT-4o在診斷肝臟局部病灶時,表現大致和資淺放射科醫師差不多,但還是比不上有經驗的醫師。把ChatGPT-4o加入診斷流程,也沒明顯提升醫師的診斷表現。總結來說,目前大型語言模型對診斷這類疾病的幫助有限,準確度還有待加強。 PubMed DOI

這項研究發現,結合多種大型語言模型(如Gemini-GPT)在預測肝細胞癌免疫治療反應上,表現和資深醫師差不多,甚至比資淺醫師更好。不過,模型的敏感度還是比資深醫師低。整體來說,這些AI工具未來有機會協助醫師做臨床決策。 PubMed DOI

這項研究發現,ChatGPT-4能用於肝臟超音波影像分析,準確率達76%、敏感度83%,表現接近傳統軟體,但分析速度快40%。雖然診斷準確率還有進步空間,但展現出AI自動化醫學影像分析的潛力。 PubMed DOI

這項回溯性研究發現,ChatGPT-4在解讀乳房超音波報告並用BI-RADS分類結節時,表現比資淺放射科醫師更好,和資深醫師差不多。它預測惡性腫瘤的準確度高(AUC 0.82,準確率80.63%,敏感度90.56%,特異度73.51%)。若把ChatGPT-4納入影像判讀流程,能進一步提升醫師診斷準確率,減少不同醫師間的判讀差異。 PubMed DOI

這項研究用88份真實MRI肝臟病灶報告,測試多款大型語言模型的分類能力。結果發現,Claude 3.5 Sonnet準確率最高,勝過GPT-4o等其他模型。雖然LLM有潛力協助醫療診斷,但臨床應用前還需更多驗證,嚴謹測試也很重要。 PubMed DOI