原始文章

眼科醫師能針對眼瞼炎提供最專業的診斷與建議,特別是複雜個案。AI像GPT-4o等雖能回答基本問題,但遇到細節或特殊情況就有限。AI適合用來輔助衛教,但不能取代醫師的臨床判斷。 PubMed DOI


站上相關主題文章列表

這項研究評估了兩個大型語言模型,ChatGPT-4 和 Google Gemini,針對視網膜脫落問題的可讀性和準確性。分析了13個不同難度的問題,並由十位專家評分。結果顯示,Google Gemini 較易理解,但 ChatGPT-4 在正確答案上表現更佳,尤其是困難問題。ChatGPT-4 在八個問題上優於 Google Gemini,且在簡單和困難問題上都獲得更高評分。整體而言,這兩個 AI 工具有效提供準確的醫療資訊,建議可增強醫療護理。 PubMed DOI

這項研究比較了GPT-4和眼科醫生對眼科手術問題的回應可讀性。研究隨機選取200個問題,發現GPT-4使用的複雜詞彙比例較高(24.42%),而醫生則為17.76%。兩者的平均句子字數相似,但GPT-4的回應被評為更高的年級水平,顯示其內容較複雜。兩者都需至少12年級的教育才能理解,超過了國立衛生研究院建議的六到七年級水平。這強調了健康資訊可及性的重要性,尤其是AI工具在患者教育中的應用。 PubMed DOI

這項研究評估了三個大型語言模型(LLMs)—ChatGPT-4o、Google Gemini 1.5 Pro 和 Microsoft Copilot Pro—在回答葡萄膜炎和眼部炎症問題的表現,並與眼科醫生進行比較。研究隨機選取100個問題,結果顯示LLMs的正確回答率為80%至81%,而眼科醫生為72%。儘管LLMs的準確率較高,但統計分析顯示它們之間及與人類醫生之間並無顯著差異,因此無法證明LLMs在此領域的優越性。 PubMed DOI

春季角結膜炎(VKC)是一種常見的過敏性眼病,病人教育對於管理此病至關重要。研究評估了 Google Gemini Advanced 聊天機器人在回答與 VKC 相關問題的準確性和可靠性。結果顯示,該 AI 工具的回應準確率高達86.4%,且評估者間一致性良好(Cronbach's alpha = 0.92)。雖然在一般查詢中表現優異,但在複雜治療指導上仍需改進。總體而言,Google Gemini Advanced 是一個可靠的病人教育工具,但專家監督仍然重要,未來需進一步研究以提升其臨床應用能力。 PubMed DOI

本研究評估了ChatGPT-4在眼科診所對病人訊息的分流效果,並與眼科住院醫師進行比較。分析139則訊息後,發現MD與GPT-4在診所建議上的一致性為64.7%,而在分流緊急性上為60.4%。GPT-4在93.5%的案例中提供的緊急性建議與MD相符或更早。結果顯示,GPT-4能支持醫生的判斷,減輕工作負擔,並改善病人護理,但無法完全取代醫生的角色。整合AI有助於提升服務質量與病人結果。 PubMed DOI

這項研究發現,ChatGPT-4在回答角膜潰瘍相關問題時,對於危險因子、症狀和治療等主題表現不錯,但在分類、檢查和臨床徵象方面較弱。大多數答案被評為良好或可接受,但專家評分有些差異。整體來說,ChatGPT-4在眼科教育有潛力,但還需要加強準確度和一致性。 PubMed DOI

研究比較了ChatGPT、Google Gemini和Microsoft Copilot在小兒眼科選擇題的表現,Copilot正確率最高(74%),也最容易閱讀。雖然這些AI對學習有幫助,但答案不一定完全正確,使用時還是要多加留意。 PubMed DOI

這項研究發現,ChatGPT回答眼瞼手術常見問題時,內容大致正確且有幫助,但用詞偏高中程度,部分病患可能覺得難懂。不同問題類型的可讀性差不多。總結來說,ChatGPT能提供實用資訊,但答案不一定完全正確,也未必人人都看得懂。 PubMed DOI

AI聊天機器人(如ChatGPT-3.5、Gemini、Llama)提供的乾眼症資訊,正確度和易懂度跟美國眼科醫學會(AAO)官網差不多。Gemini說明最容易理解,AAO內容最容易閱讀。雖然AI回答語言較複雜,對部分病患來說可能較難懂,但整體資訊正確且安全。AI可作為病患衛教輔助,但不能取代醫師,未來應加強易讀性。 PubMed DOI

ChatGPT4 和 Perplexity AI 回答乾眼症常見問題的表現差不多,整體品質中等,各方面分數也有落差。ChatGPT4 在提出研究點子上稍微優秀。這兩款 AI 也許能在門診協助病患衛教,但還是需要專家把關,且在研究點子或文獻搜尋方面都不太可靠。 PubMed DOI