原始文章

本研究評估了ChatGPT-4在眼科診所對病人訊息的分流效果,並與眼科住院醫師進行比較。分析139則訊息後,發現MD與GPT-4在診所建議上的一致性為64.7%,而在分流緊急性上為60.4%。GPT-4在93.5%的案例中提供的緊急性建議與MD相符或更早。結果顯示,GPT-4能支持醫生的判斷,減輕工作負擔,並改善病人護理,但無法完全取代醫生的角色。整合AI有助於提升服務質量與病人結果。 PubMed DOI


站上相關主題文章列表

這項研究評估了多種大型語言模型(LLMs)在處理眼科緊急情況的表現,並與英國國民健康服務(NHS)111的系統進行比較。研究涵蓋21個緊急情境問題,測試的模型包括ChatGPT-3.5、Google Bard、Bing Chat和ChatGPT-4.0。結果顯示,93%的LLM回應至少得分為「良好」,顯示它們提供的資訊正確且無重大錯誤。整體來看,這些模型在提供即時資訊和指導方面,顯示出作為有效工具的潛力,能提升患者護理及醫療可及性。 PubMed DOI

這項研究評估了ChatGPT在分析葡萄膜黑色素瘤患者案例並提供治療建議的能力。研究回顧了40名患者的案例,發現ChatGPT的手術建議準確性為55%,排除眼球摘除後提高至75%。與三位專家的建議一致性分別為50%、55%和57%,在排除眼球摘除後則提升至70%至75%。雖然ChatGPT在簡單案例中表現不錯,但在處理更複雜的情況時仍有其限制,顯示出需要更全面的患者評估。 PubMed DOI

一項針對眼科醫生的調查顯示,對AI聊天機器人ChatGPT的接受度逐漸提高。199名參與的眼科外科醫生中,約三分之二擁有超過15年經驗,116位曾使用ChatGPT。使用者普遍認為AI在眼科有助於早期疾病檢測和病人監測等,但對於責任、隱私和診斷準確性等問題仍有顧慮。整體來看,雖然對AI的接受度上升,但仍需人類監督以解決隱私和工作取代的擔憂。 PubMed DOI

這項研究評估了多種人工智慧模型在眼科疾病診斷的表現,包括DeepSeek。研究分析了53份來自愛荷華大學的病例報告,並將其輸入四個AI系統進行比較。結果顯示,ChatGPT-01的準確率最高,達84.9%,特別是在神經眼科方面表現優異。DeepSeek和ChatGPT-4.0的準確率約79.2%,而Qwens最低,僅64.2%。研究強調AI在眼科的輔助潛力,並建議結合人類專家的判斷以提升診斷準確性。 PubMed DOI

本研究評估了ChatGPT在眼科領域撰寫科學引言的能力,並與經驗豐富的眼科醫師進行比較。十位專家在不知情的情況下評估了ChatGPT和人類撰寫的引言,準確率為57.7%。錯誤分類率在不同子專科中差異顯著,眼整形的錯誤率最高。評估指標顯示,ChatGPT生成的引言與人類撰寫的並無顯著差異,近一半的引言無法區分。這顯示ChatGPT在眼科科學內容生成上有顯著進步,未來應探討其在學術寫作中的潛力與倫理影響。 PubMed DOI

這項研究發現,GPT-4在診斷複雜眼科病例時,如果只有圖片沒文字,準確率會明顯下降;但有圖片說明時,表現就會提升。整體來說,GPT-4的表現和部分眼科醫師差不多,但還不及最頂尖的專家。顯示它目前在眼科影像判讀上還有進步空間,但未來有潛力成為臨床輔助工具。 PubMed DOI

這項研究發現,ChatGPT-4在回答角膜潰瘍相關問題時,對於危險因子、症狀和治療等主題表現不錯,但在分類、檢查和臨床徵象方面較弱。大多數答案被評為良好或可接受,但專家評分有些差異。整體來說,ChatGPT-4在眼科教育有潛力,但還需要加強準確度和一致性。 PubMed DOI

研究發現,ChatGPT-4在回答西班牙MIR考試的眼科題目時,正確率高達90.2%,和眼科專業人員的答案一致率也有86.41%。在專業人員監督下,ChatGPT-4能有效協助解決臨床與理論問題,有助於提升病患照護流程。 PubMed DOI

這項研究用ChatGPT打造的聊天機器人,測試100個假設眼科急診案例,分級結果和三位資深眼科醫師高度一致(Cohen’s kappa約0.74–0.75),整體一致性也很高(Fleiss’ kappa = 0.79),和醫師表現沒顯著差異。顯示AI聊天機器人在眼科急診分級上,準確度可媲美專業醫師,有望成為急診分級的輔助工具。 PubMed DOI

這項研究用22個神經眼科病例,比較ChatGPT(GPT-3.5和GPT-4)和兩位專科醫師的診斷能力。GPT-3.5正確率59%,GPT-4有82%,醫師則是86%。GPT-4的表現已經接近專科醫師,顯示AI有潛力協助診斷複雜眼腦疾病,尤其在缺乏專科醫師的地區。不過,臨床應用前還需要更多驗證安全性與可靠性。 PubMed DOI