原始文章

這項研究評估了ChatGPT(4.0版)在生成與常見視網膜疾病相關回應的表現,依據美國眼科醫學會的指導方針進行。研究包含130個問題,涵蓋12個領域,專家評估回應的相關性和準確性。結果顯示,ChatGPT的平均得分為4.9分,與指導方針高度一致,但外科管理得分最低。回應可讀性較低,需大學以上理解能力,且在診斷和治療選擇上有錯誤。整體而言,雖然顯示潛力,但仍需臨床醫師監督及改進。 PubMed DOI


站上相關主題文章列表

研究發現ChatGPT-4提供的玻璃體視網膜手術資訊準確但難懂,建議不完全依賴AI。需加強專業領域資訊的可信度與易讀性,並了解AI在健康建議上的限制。 PubMed DOI

基礎模型是先進的人工智慧技術,透過大量資料訓練後,再微調以應用在不同任務,像是文字生成。研究評估了ChatGPT在眼科問題上的應用,發現ChatGPT Plus在眼科考試問題上有較好的表現。研究結果指出,專業領域的訓練有助於提升準確性,尤其在較簡單的問題上表現更佳。 PubMed DOI

研究發現ChatGPT 4.0在眼科問題回答上表現優秀,專家高度肯定。這個模型適合大學生或研究生使用,具有高可靠性和複雜性。雖然在眼科教育和臨床應用有潛力,但仍需提升準確性和涵蓋範圍,特別是在視覺數據解釋方面。 PubMed DOI

研究比較了ChatGPT-3.5和ChatGPT-4.0在回答眼科問題時的表現。結果顯示,GPT-4.0比GPT-3.5好,但兩者在準確性上有限制,尤其是面對複雜問題時。雖然ChatGPT有潛力,但要成為眼科教育工具,仍需進一步改進。 PubMed DOI

研究評估AI聊天機器人(ChatGPT)在眼科領域提供資訊的準確性,結果顯示77.5%回答得分≥1,但有22.5%回答≤-1,部分可能有害建議。ChatGPT可作為患者教育工具,但資訊目前不完整或不正確,仍需人類醫療監督。 PubMed DOI

研究發現ChatGPT在中文眼底螢光素Angiography報告中表現不如眼科醫師,但推理能力強且錯誤率低。眼科醫師認為使用英文提示更準確。研究指出ChatGPT在不同語言提示下表現有差異,雖有應用潛力,但在眼科臨床仍需改進。 PubMed DOI

研究發現ChatGPT在臨床玻璃體視網膜情境中,83%回答正確,但只有52.5%全面。它主要用真實資料,有時會虛構。不同主題準確度不同,有時回答可能有危險。總體而言,ChatGPT表現準確,但全面性有限。 PubMed DOI

這項研究評估了大型語言模型(LLM)ChatGPT 在青光眼領域的表現。研究人員提出了24個臨床問題,並由三位專家評分。結果顯示,ChatGPT的平均得分為3.29,整體表現良好,但有29.2%的回應得分低於3分。經過自我修正後,得分從2.96提升至3.58,滿分回應比例也從30.6%增至57.1%。這顯示ChatGPT在青光眼領域有潛力,但仍需更多研究來驗證其應用。 PubMed DOI

這項研究評估了ChatGPT對家長詢問兒童眼科和斜視問題的回答準確性。分析了817個問題,結果顯示78.09%的回答完全正確,19.09%正確但不完整,只有2.81%部分不正確,且沒有完全錯誤的回答。平均可讀性分數為14.49,超過成人的標準,這引發了一些擔憂。儘管可讀性有待改善,研究仍顯示ChatGPT能提供準確可靠的資訊,顯示其在醫療領域的潛力。 PubMed DOI

這項研究評估了ChatGPT對眼科病人問題的回答準確性和重現性。研究人員從美國眼科學會的「詢問眼科醫生」頁面收集了150個問題,經過兩位眼科醫生的精煉,最終有117個問題輸入ChatGPT。結果顯示,ChatGPT對59.8%的問題提供了全面回答,且在91.5%的問題上保持一致性。雖然其準確性和重現性中等,但應視為健康資訊的輔助來源,而非專業醫療建議的替代品,未來仍需進一步研究以評估其可靠性。 PubMed DOI