原始文章

這項研究比較七款主流多模態大型語言模型在診斷皮膚病的表現,GPT-4o準確率最高達67.8%。不同疾病和圖片的診斷準確度差異大,有些圖片所有模型都誤判。部分模型遇到敏感圖片會拒絕診斷。整體來說,這些模型在皮膚科影像判讀有潛力,但目前還有不少限制,未來需結合臨床資料才能更可靠。 PubMed DOI


站上相關主題文章列表

LLMs在醫學診斷上有潛力,尤其在皮膚科。SkinGPT-4結合視覺轉換器和LLM,訓練過大量數據後,能準確診斷皮膚問題。已通過真實案例驗證,可提供互動治療建議。 PubMed DOI

最近在人工智慧(AI)和大型語言模型(LLMs)方面的進展,特別是在皮膚科,顯示出良好的潛力。本研究比較了Claude 3 Opus和ChatGPT(GPT-4)在分析皮膚鏡影像以檢測黑色素瘤的表現。結果顯示,Claude 3 Opus在惡性區分上表現較佳,敏感度和特異度均高於ChatGPT。雖然兩者在診斷上有其潛力,但仍存在錯誤,強調了AI與臨床醫生合作的重要性,以開發更可靠的診斷工具。 PubMed DOI

這項研究探討了多模態大型語言模型(LLMs),特別是GPT-4o和Claude Sonnet 3.5,如何結合文本與視覺資訊進行醫療診斷。研究在120個臨床案例中進行測試,結果顯示在只有文本的情況下,GPT-4o的準確率為70.8%,遠超醫生的39.5%。當加入圖片時,所有參與者的表現都有提升,尤其是醫生的準確率增幅最明顯。GPT-4o在有圖片的情況下達到84.5%,而醫生則為78.8%。這顯示LLMs在視覺數據處理上仍需加強,以達到人類醫生的表現。 PubMed DOI

這項研究探討大型語言模型(LLMs),如ChatGPT和Microsoft Bing Chat,在皮膚科、性病學和麻風問題上的回答效果。研究比較了這些AI模型與12位研究所學生的準確性,並評估了人工幻覺的情況。 研究於2023年8月進行,包含60個問題。結果顯示,Bing Chat的表現最佳,平均正確率為78.2%,ChatGPT為59.8%,人類受訪者則為43%。Bing Chat在簡單和中等難度問題上表現更佳,而ChatGPT在較難問題上較強。研究指出,儘管LLMs表現優於人類,但在某些領域準確性仍不足,需制定規範以防止濫用。 PubMed DOI

這項研究評估了多模態大型語言模型(LLMs)在識別皮膚疾病的應用,並檢視性別和年齡的偏見。研究中使用了ChatGPT-4和LLaVA-1.6,結果顯示它們的準確率和F1分數超過了多個深度學習模型,但仍低於最佳的視覺變壓器模型。值得注意的是,ChatGPT-4和LLaVA-1.6在性別和年齡方面沒有偏見,顯示出在皮膚科應用中的潛力。未來需進一步研究以確保這些模型在醫療中的可靠性與公平性。 PubMed DOI

這篇論文針對大型語言模型在皮膚科的應用進行全面評估,探討如何整合各種病人數據,如人口統計、臨床影像、醫療訪談和基因資訊。論文強調這些模型能提升診斷準確性、治療建議及病人教育。透過回顧現有研究,旨在識別主要挑戰並探索未來機會,最終目標是改善病人健康結果及與醫療提供者的互動。 PubMed DOI

這項研究發現,GPT-4V在診斷皮膚病時,單用文字的準確率很高(89%),只看圖片就明顯下降(54%),圖片加文字也沒更好。治療建議方面,GPT-4V表現不錯但還沒達到專家水準,圖片加文字時最好。整體來說,GPT-4V適合當輔助工具,尤其擅長處理文字,但圖片判讀和多模態整合還需加強。 PubMed DOI

這項研究發現,GPT-4.o 在診斷角膜疾病的準確率最高(80%),但還是比不上人類角膜專科醫師(92.5%)。雖然 GPT-4.o 等大型語言模型有潛力,但在複雜病例上表現不穩定,目前只能當作輔助工具,臨床決策還是得靠專家判斷。 PubMed DOI

這項研究發現,雖然像Gemini 1.5和GPT-4o這類具電腦視覺功能的大型語言模型表現不錯,但在診斷口腔扁平苔癬時,整體表現還是比傳統CNN差。目前CNN仍是臨床OLP影像診斷的首選,LLMs還不適合直接應用於臨床。 PubMed DOI

這項研究比較五款主流大型語言模型解讀胸部CT報告的能力,發現GPT-4表現最佳,尤其在選擇題上最準確。微調後的GPT-3.5-Turbo也有明顯進步。整體來說,選擇題比開放式問答更容易答對。不同疾病和器官系統的結果有差異。結果顯示,優化後的AI模型有助於提升胸部CT解讀,對外科手術規劃很有幫助。 PubMed DOI