原始文章

這項研究評估了ChatGPT對眼科病人問題的回答準確性和重現性。研究人員從美國眼科學會的「詢問眼科醫生」頁面收集了150個問題,經過兩位眼科醫生的精煉,最終有117個問題輸入ChatGPT。結果顯示,ChatGPT對59.8%的問題提供了全面回答,且在91.5%的問題上保持一致性。雖然其準確性和重現性中等,但應視為健康資訊的輔助來源,而非專業醫療建議的替代品,未來仍需進一步研究以評估其可靠性。 PubMed DOI


站上相關主題文章列表

基礎模型是先進的人工智慧技術,透過大量資料訓練後,再微調以應用在不同任務,像是文字生成。研究評估了ChatGPT在眼科問題上的應用,發現ChatGPT Plus在眼科考試問題上有較好的表現。研究結果指出,專業領域的訓練有助於提升準確性,尤其在較簡單的問題上表現更佳。 PubMed DOI

研究比較AI聊天機器人(ChatGPT)和眼科醫師建議的品質,發現機器人回答常被誤認為人類,準確率約61.3%。機器人答案通常適當,與人類無明顯差異。未來研究將探討患者對AI輔助眼科醫師的態度,評估AI答案清晰度和可接受性,確保在醫療環境中道德安全使用AI模型。 PubMed DOI

研究發現ChatGPT 4.0在眼科問題回答上表現優秀,專家高度肯定。這個模型適合大學生或研究生使用,具有高可靠性和複雜性。雖然在眼科教育和臨床應用有潛力,但仍需提升準確性和涵蓋範圍,特別是在視覺數據解釋方面。 PubMed DOI

研究比較了ChatGPT-3.5和ChatGPT-4.0在回答眼科問題時的表現。結果顯示,GPT-4.0比GPT-3.5好,但兩者在準確性上有限制,尤其是面對複雜問題時。雖然ChatGPT有潛力,但要成為眼科教育工具,仍需進一步改進。 PubMed DOI

研究評估AI聊天機器人(ChatGPT)在眼科領域提供資訊的準確性,結果顯示77.5%回答得分≥1,但有22.5%回答≤-1,部分可能有害建議。ChatGPT可作為患者教育工具,但資訊目前不完整或不正確,仍需人類醫療監督。 PubMed DOI

研究發現ChatGPT對青光眼相關知識表現準確。比較眼科網站、社群媒體及歐洲青光眼學會指南,發現ChatGPT在一般知識、診斷、治療及預防方面表現優異。尤其根據歐洲青光眼學會指南,ChatGPT回答大部分問題都正確。 PubMed DOI

研究評估ChatGPT在回答美國整形外科學會眼瞼下垂指引臨床問題的表現,英文正確率61.3%,優於日文。提供答案、證據、建議和參考文獻。雖有潛力,但需專業醫學知識補充。研究觀察性,受權威監督。 PubMed DOI

這項研究評估了大型語言模型(LLM)ChatGPT 在青光眼領域的表現。研究人員提出了24個臨床問題,並由三位專家評分。結果顯示,ChatGPT的平均得分為3.29,整體表現良好,但有29.2%的回應得分低於3分。經過自我修正後,得分從2.96提升至3.58,滿分回應比例也從30.6%增至57.1%。這顯示ChatGPT在青光眼領域有潛力,但仍需更多研究來驗證其應用。 PubMed DOI

這項研究評估了ChatGPT(4.0版)在生成與常見視網膜疾病相關回應的表現,依據美國眼科醫學會的指導方針進行。研究包含130個問題,涵蓋12個領域,專家評估回應的相關性和準確性。結果顯示,ChatGPT的平均得分為4.9分,與指導方針高度一致,但外科管理得分最低。回應可讀性較低,需大學以上理解能力,且在診斷和治療選擇上有錯誤。整體而言,雖然顯示潛力,但仍需臨床醫師監督及改進。 PubMed DOI

這項研究評估了ChatGPT對家長詢問兒童眼科和斜視問題的回答準確性。分析了817個問題,結果顯示78.09%的回答完全正確,19.09%正確但不完整,只有2.81%部分不正確,且沒有完全錯誤的回答。平均可讀性分數為14.49,超過成人的標準,這引發了一些擔憂。儘管可讀性有待改善,研究仍顯示ChatGPT能提供準確可靠的資訊,顯示其在醫療領域的潛力。 PubMed DOI