原始文章

這項研究評估了兩個大型語言模型,ChatGPT-4 和 Google Gemini,針對視網膜脫落問題的可讀性和準確性。分析了13個不同難度的問題,並由十位專家評分。結果顯示,Google Gemini 較易理解,但 ChatGPT-4 在正確答案上表現更佳,尤其是困難問題。ChatGPT-4 在八個問題上優於 Google Gemini,且在簡單和困難問題上都獲得更高評分。整體而言,這兩個 AI 工具有效提供準確的醫療資訊,建議可增強醫療護理。 PubMed DOI


站上相關主題文章列表

對於早產兒視網膜病變(ROP)相關問題,經評估後發現ChatGPT-4表現最好,回答最準確可靠;BingAI和Gemini在不同方面也有優勢。ChatGPT-4雖然用詞較複雜,但提供詳盡可信賴的回答。總括而言,這些模型通常提供正確資訊。 PubMed DOI

這項研究系統性評估了兩個語言學習模型,ChatGPT-4.0 和 Google Bard 的 Gemini Advanced,在眼科問題的回答表現。使用眼科知識評估計畫的題庫,測試了260道選擇題。結果顯示,ChatGPT-4.0 在文字問題上的準確率為57.14%,高於 Gemini Advanced 的46.72%;在簡單問題上,ChatGPT-4.0 得分68.99%,而 Gemini Advanced 為49.61%。在圖像問題上,ChatGPT-4.0 的正確率為39.58%,Gemini Advanced 為33.33%。研究結論認為,ChatGPT-4.0 在眼科選擇題上表現較佳,顯示其在醫學教育中的潛力,但仍需進一步評估其可靠性。 PubMed DOI

本研究評估了六款流行聊天機器人(ChatGPT-3.5、ChatGPT-4.0、Gemini、Copilot、Chatsonic 和 Perplexity)在提供圓錐角膜資訊的可靠性。使用 mDISCERN 和全球質量評分(GQS)指標進行評估,結果顯示大部分網站的責任性較低,且可讀性普遍偏高。Gemini 和 Copilot 的表現最佳,顯示出較高的可靠性和質量,但仍需改善以符合病人的健康素養需求。 PubMed DOI

一項研究評估了聊天機器人GPT-4o和Gemini Advanced在視網膜疾病診斷的能力,分析了50個OCT/OCTA案例。結果顯示,ChatGPT-4o正確診斷了31個案例(62%),明顯優於Gemini Advanced的16個(p=0.0048)。Gemini Advanced在24%的案例中未能提供回應,且兩者都經常誤診黃斑水腫。ChatGPT-4o在外科視網膜問題和醫療視網膜疾病的診斷準確率較高。總體而言,ChatGPT-4o在影像診斷上表現更佳,但仍有改進空間。 PubMed DOI

這項研究評估了四款大型語言模型(LLM)聊天機器人對屈光手術常見問題的回答適當性與可讀性。經驗豐富的屈光外科醫生評估了答案的正確性,並用五種指標測量可讀性。結果顯示,ChatGPT 3.5 正確率為 45%,ChatGPT 4.0 為 52.5%,Gemini 表現最佳,達 87.5%,Copilot 則為 60%。所有機器人的可讀性都很困難,理解需具大學學位。儘管如此,Gemini 提供的答案最為適當,且可讀性較佳。總體而言,這些聊天機器人仍可能產生不當回應,且閱讀上有挑戰。 PubMed DOI

這項研究評估了三個大型語言模型(LLMs)—ChatGPT-4.0、Google Gemini 和 Microsoft Copilot—在回答屈光手術相關問題的效果。兩位眼科醫生使用5點李克特量表評分25個常見問題的回答。結果顯示,ChatGPT-4.0的得分高於Microsoft Copilot,但與Google Gemini無顯著差異。根據DISCERN量表,ChatGPT-4.0的可靠性得分最高,但可讀性得分最低,顯示其答案對病人來說較為複雜。總體而言,ChatGPT-4.0提供了更準確的信息,但理解上較為困難。 PubMed DOI

這項研究評估了三個大型語言模型(LLMs)—ChatGPT-4o、Google Gemini 1.5 Pro 和 Microsoft Copilot Pro—在回答葡萄膜炎和眼部炎症問題的表現,並與眼科醫生進行比較。研究隨機選取100個問題,結果顯示LLMs的正確回答率為80%至81%,而眼科醫生為72%。儘管LLMs的準確率較高,但統計分析顯示它們之間及與人類醫生之間並無顯著差異,因此無法證明LLMs在此領域的優越性。 PubMed DOI

這項研究評估了大型語言模型(LLMs),特別是Gemini 2.0 Advanced和ChatGPT-4o,在回答巴西眼科醫學考試中與白內障相關問題的準確性。分析了221道選擇題,結果顯示Gemini的準確率為85.45%和80.91%,而ChatGPT的得分為80.00%和84.09%。評估者之間的協議程度中等,Gemini的Cohen's kappa值為0.514,ChatGPT為0.431。整體而言,這兩個模型展現了高準確性,顯示出在醫學教育上的潛力,但仍需進一步改進和驗證。 PubMed DOI

這項研究評估了大型語言模型ChatGPT-4o對圓錐角膜相關問題的回答準確性與可讀性。研究中,兩位眼科醫生對ChatGPT-4o的30個回答進行評分,結果顯示平均準確性為4.48分,評分一致性良好。然而,回答的可讀性較高,SMOG分數為15.49,FKGL為14.95,FRE為27.41,顯示一般民眾理解上有困難。雖然ChatGPT-4o的回答準確,但語言複雜性可能影響理解,建議未來改進以提升可及性。 PubMed DOI

研究比較了ChatGPT、Google Gemini和Microsoft Copilot在小兒眼科選擇題的表現,Copilot正確率最高(74%),也最容易閱讀。雖然這些AI對學習有幫助,但答案不一定完全正確,使用時還是要多加留意。 PubMed DOI