原始文章

本研究評估了六款流行聊天機器人(ChatGPT-3.5、ChatGPT-4.0、Gemini、Copilot、Chatsonic 和 Perplexity)在提供圓錐角膜資訊的可靠性。使用 mDISCERN 和全球質量評分(GQS)指標進行評估,結果顯示大部分網站的責任性較低,且可讀性普遍偏高。Gemini 和 Copilot 的表現最佳,顯示出較高的可靠性和質量,但仍需改善以符合病人的健康素養需求。 PubMed DOI


站上相關主題文章列表

這項研究評估了兩個大型語言模型,ChatGPT-4 和 Google Gemini,針對視網膜脫落問題的可讀性和準確性。分析了13個不同難度的問題,並由十位專家評分。結果顯示,Google Gemini 較易理解,但 ChatGPT-4 在正確答案上表現更佳,尤其是困難問題。ChatGPT-4 在八個問題上優於 Google Gemini,且在簡單和困難問題上都獲得更高評分。整體而言,這兩個 AI 工具有效提供準確的醫療資訊,建議可增強醫療護理。 PubMed DOI

這項研究評估了四款大型語言模型(LLM)聊天機器人對屈光手術常見問題的回答適當性與可讀性。經驗豐富的屈光外科醫生評估了答案的正確性,並用五種指標測量可讀性。結果顯示,ChatGPT 3.5 正確率為 45%,ChatGPT 4.0 為 52.5%,Gemini 表現最佳,達 87.5%,Copilot 則為 60%。所有機器人的可讀性都很困難,理解需具大學學位。儘管如此,Gemini 提供的答案最為適當,且可讀性較佳。總體而言,這些聊天機器人仍可能產生不當回應,且閱讀上有挑戰。 PubMed DOI

這項研究評估了 ChatGPT、Bard 和 Copilot 在回答圓錐角膜患者問題的效果,並與美國眼科學會(AAO)網站進行比較。研究分析了二十個問題的準確性、可理解性、可行性和可讀性。結果顯示,Bard 在準確性和可理解性上表現最佳,超過了 ChatGPT、Copilot 和 AAO 網站;而 Bard 和 ChatGPT 的回應在可行性上也優於 AAO 網站,但 AAO 的可讀性得分較高。整體而言,研究指出聊天機器人能有效支持圓錐角膜患者教育,可能減少不必要的就診,並提升患者認知。 PubMed DOI

這項研究評估了三個大型語言模型(LLMs)—ChatGPT-4.0、Google Gemini 和 Microsoft Copilot—在回答屈光手術相關問題的效果。兩位眼科醫生使用5點李克特量表評分25個常見問題的回答。結果顯示,ChatGPT-4.0的得分高於Microsoft Copilot,但與Google Gemini無顯著差異。根據DISCERN量表,ChatGPT-4.0的可靠性得分最高,但可讀性得分最低,顯示其答案對病人來說較為複雜。總體而言,ChatGPT-4.0提供了更準確的信息,但理解上較為困難。 PubMed DOI

這項研究評估了七款熱門聊天機器人生成的白內障手術病人資訊手冊的品質,包括Bing AI、ChatGPT 3.5、ChatGPT 4、ChatSonic、Google Bard、Perplexity和Pi。研究發現,ChatSonic的回應品質最佳,其次是Bing AI和Perplexity,而ChatGPT 3.5的表現最差,還包含錯誤資訊。Bing AI、ChatSonic和Perplexity提供了可靠的參考資料,顯示出在醫療資訊提供上,聊天機器人的品質和可靠性差異明顯,特別是ChatSonic在眼科病人教育方面的潛力。 PubMed DOI

這項研究評估了三個大型語言模型(LLMs)—ChatGPT-4o、Google Gemini 1.5 Pro 和 Microsoft Copilot Pro—在回答葡萄膜炎和眼部炎症問題的表現,並與眼科醫生進行比較。研究隨機選取100個問題,結果顯示LLMs的正確回答率為80%至81%,而眼科醫生為72%。儘管LLMs的準確率較高,但統計分析顯示它們之間及與人類醫生之間並無顯著差異,因此無法證明LLMs在此領域的優越性。 PubMed DOI

這項研究評估了大型語言模型ChatGPT-4o對圓錐角膜相關問題的回答準確性與可讀性。研究中,兩位眼科醫生對ChatGPT-4o的30個回答進行評分,結果顯示平均準確性為4.48分,評分一致性良好。然而,回答的可讀性較高,SMOG分數為15.49,FKGL為14.95,FRE為27.41,顯示一般民眾理解上有困難。雖然ChatGPT-4o的回答準確,但語言複雜性可能影響理解,建議未來改進以提升可及性。 PubMed DOI

春季角結膜炎(VKC)是一種常見的過敏性眼病,病人教育對於管理此病至關重要。研究評估了 Google Gemini Advanced 聊天機器人在回答與 VKC 相關問題的準確性和可靠性。結果顯示,該 AI 工具的回應準確率高達86.4%,且評估者間一致性良好(Cronbach's alpha = 0.92)。雖然在一般查詢中表現優異,但在複雜治療指導上仍需改進。總體而言,Google Gemini Advanced 是一個可靠的病人教育工具,但專家監督仍然重要,未來需進一步研究以提升其臨床應用能力。 PubMed DOI

研究比較了ChatGPT、Google Gemini和Microsoft Copilot在小兒眼科選擇題的表現,Copilot正確率最高(74%),也最容易閱讀。雖然這些AI對學習有幫助,但答案不一定完全正確,使用時還是要多加留意。 PubMed DOI

AI聊天機器人(如ChatGPT-3.5、Gemini、Llama)提供的乾眼症資訊,正確度和易懂度跟美國眼科醫學會(AAO)官網差不多。Gemini說明最容易理解,AAO內容最容易閱讀。雖然AI回答語言較複雜,對部分病患來說可能較難懂,但整體資訊正確且安全。AI可作為病患衛教輔助,但不能取代醫師,未來應加強易讀性。 PubMed DOI