原始文章

這項研究發現,GPT-4.o 在診斷角膜疾病的準確率最高(80%),但還是比不上人類角膜專科醫師(92.5%)。雖然 GPT-4.o 等大型語言模型有潛力,但在複雜病例上表現不穩定,目前只能當作輔助工具,臨床決策還是得靠專家判斷。 PubMed DOI


站上相關主題文章列表

這項研究評估了五個大型語言模型(LLMs)在回答眼表疾病相關問題的表現,包括ChatGPT-4、ChatGPT-3.5、Claude 2、PaLM2和SenseNova。研究團隊設計了100道單選題,涵蓋角膜炎等主題。結果顯示,ChatGPT-4的準確性和可信度最佳,成功率為59%,但仍有28%的錯誤率。PaLM2在答案準確性上表現良好,相關係數達0.8。整體而言,這些模型在醫學教育和臨床實踐中展現了潛力,特別是ChatGPT-4的表現尤為突出。 PubMed DOI

這項研究評估了三個大型語言模型(LLMs)—ChatGPT-4o、Google Gemini 1.5 Pro 和 Microsoft Copilot Pro—在回答葡萄膜炎和眼部炎症問題的表現,並與眼科醫生進行比較。研究隨機選取100個問題,結果顯示LLMs的正確回答率為80%至81%,而眼科醫生為72%。儘管LLMs的準確率較高,但統計分析顯示它們之間及與人類醫生之間並無顯著差異,因此無法證明LLMs在此領域的優越性。 PubMed DOI

這項研究回顧了大型語言模型(LLMs)在眼科的應用,特別是高排名期刊的相關文章,共分析了101篇研究,主要來自美國、英國和加拿大。研究指出,LLMs在醫學教育、臨床協助、研究及病人教育中有顯著貢獻,但也引發了對表現不一致、偏見及倫理問題的擔憂。作者強調持續改進AI的重要性,並呼籲建立倫理指導方針及跨學科合作,以應對這些挑戰,展現LLMs在眼科的潛力與限制。 PubMed DOI

這項研究評估了先進的大型語言模型(LLMs),如GPT-4、GPT-4o和Llama-3-70b,作為急診眼科決策支持工具的效果,並與認證眼科醫生的表現進行比較。研究使用了73個匿名急診案例,兩位專家眼科醫生對診斷和治療計畫進行評分。結果顯示,人類專家的平均得分為3.72,GPT-4為3.52,Llama-3-70b為3.48,而GPT-4o得分最低,為3.20。研究建議LLMs在急診眼科中具備有效的決策支持潛力。 PubMed DOI

這項研究評估了流行的視覺大型語言模型(VLLMs),特別是OpenAI的GPT-4V和Google的Gemini,對於從視網膜影像中識別眼病的表現。研究使用了44張來自新加坡眼病流行病學研究的視網膜照片。結果顯示,GPT-4V在預設模式下的檢測準確率最高,達97.1%,但所有模型在提供診斷描述的質量上普遍較差。研究強調了專業VLLMs在醫療領域的必要性,以及人類監督在臨床眼科中的重要性。 PubMed DOI

這項研究發現,GPT-4在診斷複雜眼科病例時,如果只有圖片沒文字,準確率會明顯下降;但有圖片說明時,表現就會提升。整體來說,GPT-4的表現和部分眼科醫師差不多,但還不及最頂尖的專家。顯示它目前在眼科影像判讀上還有進步空間,但未來有潛力成為臨床輔助工具。 PubMed DOI

這項研究比較七款主流多模態大型語言模型在診斷皮膚病的表現,GPT-4o準確率最高達67.8%。不同疾病和圖片的診斷準確度差異大,有些圖片所有模型都誤判。部分模型遇到敏感圖片會拒絕診斷。整體來說,這些模型在皮膚科影像判讀有潛力,但目前還有不少限制,未來需結合臨床資料才能更可靠。 PubMed DOI

這項研究發現,GPT-4o 和 o1-preview 這兩款大型語言模型在放射科專科考試的表現比人類還要好,特別是在難題和鑑別度高的題目上,推理方式也很接近人類。結果顯示,這些先進模型未來有機會協助醫學考題的設計和標準化。 PubMed DOI

這項研究發現,雖然像Gemini 1.5和GPT-4o這類具電腦視覺功能的大型語言模型表現不錯,但在診斷口腔扁平苔癬時,整體表現還是比傳統CNN差。目前CNN仍是臨床OLP影像診斷的首選,LLMs還不適合直接應用於臨床。 PubMed DOI

研究發現,ChatGPT在診斷50個口腔病灶案例時,準確度和專業醫師差不多,表現比Microsoft Copilot好。兩種AI都有潛力協助牙醫臨床診斷,尤其是ChatGPT表現最突出。 PubMed DOI