原始文章

本研究評估了ChatGPT在分析青光眼患者案例及建議手術治療的能力。對60例手術案例進行回顧性分析,結果顯示ChatGPT的建議準確率為78%,在普通案例中表現良好,與專家建議相近。然而,在挑戰性案例中準確率下降至65%,顯示其在複雜情境下的局限性。總體而言,ChatGPT在普通案例中能提供合理的治療計畫,但在處理更具挑戰性的情況時仍需謹慎。 PubMed DOI


站上相關主題文章列表

這項研究比較了Google和ChatGPT在回答眼部整形手術常見問題的準確性和可讀性,並評估ChatGPT製作客製化病患教育材料的能力。結果顯示,ChatGPT的回答可讀性較高,平均年級水平為15.6,顯著高於Google的10.0。準確性方面,ChatGPT達93%,也優於Google的78%。此外,ChatGPT能有效調整內容至較低的閱讀水平,仍保持準確性。總體來看,ChatGPT在提供準確資訊和病患教育方面展現出良好潛力,有助於提升病患對眼科護理的理解。 PubMed DOI

人工智慧(AI)如ChatGPT-4正在改變醫療保健,特別是在脊椎轉移的治療決策上。本研究評估了ChatGPT-4在五個脊椎轉移案例中的表現,並與五位經驗豐富的脊椎外科醫生進行比較。結果顯示,ChatGPT的建議在73%的案例中與醫生一致,但多數建議偏向一般性,缺乏具體臨床指導。這顯示出AI在複雜醫療決策中的潛力與限制,未來需進一步研究以提升其應用效果。 PubMed DOI

這項研究評估了ChatGPT(包含GPT-3.5和GPT-4)在診斷神經眼科疾病的準確性,使用了22個病例。結果顯示,GPT-3.5的正確診斷率為59%,而GPT-4提升至82%。相比之下,兩位神經眼科醫生的準確率為86%。GPT-4與專家的協議程度優於GPT-3.5,顯示出其在臨床診斷上的潛力,但仍需進一步研究以了解其在資源有限的環境中的應用。 PubMed DOI

這項研究評估了ChatGPT在分析葡萄膜黑色素瘤患者案例並提供治療建議的能力。研究回顧了40名患者的案例,發現ChatGPT的手術建議準確性為55%,排除眼球摘除後提高至75%。與三位專家的建議一致性分別為50%、55%和57%,在排除眼球摘除後則提升至70%至75%。雖然ChatGPT在簡單案例中表現不錯,但在處理更複雜的情況時仍有其限制,顯示出需要更全面的患者評估。 PubMed DOI

這項研究評估了ChatGPT-4在解讀視野測試的有效性,對於診斷青光眼等眼科疾病非常重要。分析了30份視野測試報告,結果顯示ChatGPT-4在識別測試名稱、模式和全球視野指數方面表現優異,準確率分別為100%、90%和96.7%。不過,在解讀偏差圖和灰階圖的準確率較低,分別為66.7%和30%。此外,正確分類測試為「正常」或提出診斷建議的成功率僅有33.3%。這顯示出ChatGPT-4在數據解讀上有潛力,但在複雜的視覺解釋和診斷建議上仍有待加強。 PubMed DOI

這項研究評估了ChatGPT-4和Bing Chat對34個青光眼常見問題的回應,重點在適當性、準確性和可讀性。結果顯示,ChatGPT-4的適當回應比例為88.2%,高於Bing Chat的79.2%。兩者在準確性上差異不大,ChatGPT-4略高(3.86),Bing Chat為3.70。可讀性方面,兩者的回應對一般美國成年人來說都較難理解,ChatGPT-4的字數平均為316.5,明顯高於Bing Chat的61.6字。總體而言,雖然兩者都提供適當回應,但ChatGPT-4的回應較複雜且可讀性較低。 PubMed DOI

本研究評估了ChatGPT在眼科領域撰寫科學引言的能力,並與經驗豐富的眼科醫師進行比較。十位專家在不知情的情況下評估了ChatGPT和人類撰寫的引言,準確率為57.7%。錯誤分類率在不同子專科中差異顯著,眼整形的錯誤率最高。評估指標顯示,ChatGPT生成的引言與人類撰寫的並無顯著差異,近一半的引言無法區分。這顯示ChatGPT在眼科科學內容生成上有顯著進步,未來應探討其在學術寫作中的潛力與倫理影響。 PubMed DOI

這項研究發現,ChatGPT在判斷疑似馬尾症候群(CES)是否需緊急手術時,和脊椎多專科團隊有88.7%的高一致率。雖然ChatGPT有時較常建議手術,但差異不顯著。專家之間本身也有意見分歧。整體來說,ChatGPT未來有機會成為急診CES決策的輔助工具,但還需要更多驗證。 PubMed DOI

這項研究發現,ChatGPT-4.0在回答人工水晶體相關問題時,對簡單題目的準確率很高,但遇到難題時表現就明顯下滑。經過六個月,回答內容變得更長、更精確,評分也有提升。簡單問題的再現性很好,但複雜問題的一致性還有待加強。整體來說,ChatGPT-4.0在醫療資訊領域有潛力,但要更可靠還需要再優化。 PubMed DOI

這項研究用22個神經眼科病例,比較ChatGPT(GPT-3.5和GPT-4)和兩位專科醫師的診斷能力。GPT-3.5正確率59%,GPT-4有82%,醫師則是86%。GPT-4的表現已經接近專科醫師,顯示AI有潛力協助診斷複雜眼腦疾病,尤其在缺乏專科醫師的地區。不過,臨床應用前還需要更多驗證安全性與可靠性。 PubMed DOI