原始文章

AI聊天機器人(如ChatGPT-3.5、Gemini、Llama)提供的乾眼症資訊,正確度和易懂度跟美國眼科醫學會(AAO)官網差不多。Gemini說明最容易理解,AAO內容最容易閱讀。雖然AI回答語言較複雜,對部分病患來說可能較難懂,但整體資訊正確且安全。AI可作為病患衛教輔助,但不能取代醫師,未來應加強易讀性。 PubMed DOI


站上相關主題文章列表

斜視是常見的眼科疾病,病人教育對於知情決策很重要。本研究比較了三個AI聊天機器人(ChatGPT、Bard、Copilot)和一個可靠網站(AAPOS)在回答斜視相關問題的表現。結果顯示,AAPOS在準確性上表現最佳,其次是Bard、Copilot和ChatGPT。Bard在可理解性和可行性方面得分最高,而AAPOS則在可讀性上最容易理解。情感分析顯示,Bard和Copilot在病人教育上有潛力,但AAPOS在準確性和可讀性上仍優於這些聊天機器人。 PubMed DOI

本研究評估了六款流行聊天機器人(ChatGPT-3.5、ChatGPT-4.0、Gemini、Copilot、Chatsonic 和 Perplexity)在提供圓錐角膜資訊的可靠性。使用 mDISCERN 和全球質量評分(GQS)指標進行評估,結果顯示大部分網站的責任性較低,且可讀性普遍偏高。Gemini 和 Copilot 的表現最佳,顯示出較高的可靠性和質量,但仍需改善以符合病人的健康素養需求。 PubMed DOI

這項研究評估了四款大型語言模型(LLM)聊天機器人對屈光手術常見問題的回答適當性與可讀性。經驗豐富的屈光外科醫生評估了答案的正確性,並用五種指標測量可讀性。結果顯示,ChatGPT 3.5 正確率為 45%,ChatGPT 4.0 為 52.5%,Gemini 表現最佳,達 87.5%,Copilot 則為 60%。所有機器人的可讀性都很困難,理解需具大學學位。儘管如此,Gemini 提供的答案最為適當,且可讀性較佳。總體而言,這些聊天機器人仍可能產生不當回應,且閱讀上有挑戰。 PubMed DOI

這項研究評估了AI聊天機器人ChatGPT-4和Google Gemini在鼻竇炎患者教育的有效性。研究人員提出109個問題,涵蓋一般知識、診斷、治療、手術和併發症,並由專業耳鼻喉科醫生評估回答。結果顯示,ChatGPT-4在診斷方面表現優異,獲得滿分,而Google Gemini在治療類別中則有較多不準確的回答。整體來看,ChatGPT-4在準確性和全面性上明顯優於Google Gemini。 PubMed DOI

這項研究評估了 ChatGPT、Bard 和 Copilot 在回答圓錐角膜患者問題的效果,並與美國眼科學會(AAO)網站進行比較。研究分析了二十個問題的準確性、可理解性、可行性和可讀性。結果顯示,Bard 在準確性和可理解性上表現最佳,超過了 ChatGPT、Copilot 和 AAO 網站;而 Bard 和 ChatGPT 的回應在可行性上也優於 AAO 網站,但 AAO 的可讀性得分較高。整體而言,研究指出聊天機器人能有效支持圓錐角膜患者教育,可能減少不必要的就診,並提升患者認知。 PubMed DOI

這項研究評估了七款熱門聊天機器人生成的白內障手術病人資訊手冊的品質,包括Bing AI、ChatGPT 3.5、ChatGPT 4、ChatSonic、Google Bard、Perplexity和Pi。研究發現,ChatSonic的回應品質最佳,其次是Bing AI和Perplexity,而ChatGPT 3.5的表現最差,還包含錯誤資訊。Bing AI、ChatSonic和Perplexity提供了可靠的參考資料,顯示出在醫療資訊提供上,聊天機器人的品質和可靠性差異明顯,特別是ChatSonic在眼科病人教育方面的潛力。 PubMed DOI

春季角結膜炎(VKC)是一種常見的過敏性眼病,病人教育對於管理此病至關重要。研究評估了 Google Gemini Advanced 聊天機器人在回答與 VKC 相關問題的準確性和可靠性。結果顯示,該 AI 工具的回應準確率高達86.4%,且評估者間一致性良好(Cronbach's alpha = 0.92)。雖然在一般查詢中表現優異,但在複雜治療指導上仍需改進。總體而言,Google Gemini Advanced 是一個可靠的病人教育工具,但專家監督仍然重要,未來需進一步研究以提升其臨床應用能力。 PubMed DOI

這項研究發現,ChatGPT 3.5回答牙髓病痛問題時,內容較完整可靠,但用詞偏難懂;Gemini則較易讀,但資訊不夠完整、可靠性較低。總結來說,AI雖能輔助衛教,仍需專業人員把關,確保資訊正確又好懂。 PubMed DOI

眼科醫師能針對眼瞼炎提供最專業的診斷與建議,特別是複雜個案。AI像GPT-4o等雖能回答基本問題,但遇到細節或特殊情況就有限。AI適合用來輔助衛教,但不能取代醫師的臨床判斷。 PubMed DOI

ChatGPT4 和 Perplexity AI 回答乾眼症常見問題的表現差不多,整體品質中等,各方面分數也有落差。ChatGPT4 在提出研究點子上稍微優秀。這兩款 AI 也許能在門診協助病患衛教,但還是需要專家把關,且在研究點子或文獻搜尋方面都不太可靠。 PubMed DOI