原始文章

這項研究評估了ChatGPT在回答「住院醫師訓練發展考試」問題的表現,並與眼科住院醫師進行比較。ChatGPT回答75個問題中正確37個,成功率53.62%。不同主題表現差異大,晶狀體與白內障準確率最高(77.77%),小兒眼科與斜視最低(0.00%)。789名住院醫師整體準確率50.37%,隨年級提升而增加。ChatGPT在住院醫師中排名第292位,且隨問題難度增加準確率下降。其回答可讀性較低,顯示內容難以理解。總體來看,ChatGPT表現不如三年級住院醫師,但未來可能隨數據增多而改善。 PubMed DOI


站上相關主題文章列表

研究發現ChatGPT在眼科醫學問題上表現不錯,但在視網膜和玻璃體方面稍差。它能解釋答案,2023年2月正確率提升至58%,獨立問題也有54%正確率。雖然人工智慧有潛力,但在醫學考試準備上或許還有限制。 PubMed DOI

基礎模型是先進的人工智慧技術,透過大量資料訓練後,再微調以應用在不同任務,像是文字生成。研究評估了ChatGPT在眼科問題上的應用,發現ChatGPT Plus在眼科考試問題上有較好的表現。研究結果指出,專業領域的訓練有助於提升準確性,尤其在較簡單的問題上表現更佳。 PubMed DOI

研究使用日本眼科醫學考試問題測試ChatGPT在眼科領域表現,結果顯示ChatGPT-4比3.5更準確,前者在少提示下約46%正確,接近考生70%。在眼瞼整形、眼眶和眼部腫瘤表現最佳,小兒眼科最差。研究建議ChatGPT可成為日本眼科醫學寶貴工具。 PubMed DOI

這個研究評估了ChatGPT在眼科診斷準確性方面的表現,並將其與住院醫師和主治醫師進行比較。當僅基於病患病史進行診斷時,ChatGPT的準確率低於住院醫師和主治醫師,但當包含臨床檢查結果時,其表現有所改善。ChatGPT在完成任務方面比住院醫師和主治醫師更快。 PubMed DOI

研究比較了ChatGPT-3.5和ChatGPT-4.0在回答眼科問題時的表現。結果顯示,GPT-4.0比GPT-3.5好,但兩者在準確性上有限制,尤其是面對複雜問題時。雖然ChatGPT有潛力,但要成為眼科教育工具,仍需進一步改進。 PubMed DOI

研究評估AI聊天機器人(ChatGPT)在眼科領域提供資訊的準確性,結果顯示77.5%回答得分≥1,但有22.5%回答≤-1,部分可能有害建議。ChatGPT可作為患者教育工具,但資訊目前不完整或不正確,仍需人類醫療監督。 PubMed DOI

這項研究評估了ChatGPT(4.0版)在生成與常見視網膜疾病相關回應的表現,依據美國眼科醫學會的指導方針進行。研究包含130個問題,涵蓋12個領域,專家評估回應的相關性和準確性。結果顯示,ChatGPT的平均得分為4.9分,與指導方針高度一致,但外科管理得分最低。回應可讀性較低,需大學以上理解能力,且在診斷和治療選擇上有錯誤。整體而言,雖然顯示潛力,但仍需臨床醫師監督及改進。 PubMed DOI

這項研究評估了ChatGPT對眼科病人問題的回答準確性和重現性。研究人員從美國眼科學會的「詢問眼科醫生」頁面收集了150個問題,經過兩位眼科醫生的精煉,最終有117個問題輸入ChatGPT。結果顯示,ChatGPT對59.8%的問題提供了全面回答,且在91.5%的問題上保持一致性。雖然其準確性和重現性中等,但應視為健康資訊的輔助來源,而非專業醫療建議的替代品,未來仍需進一步研究以評估其可靠性。 PubMed DOI

這項研究評估了ChatGPT在眼科臨床評估中的表現,目的是檢視其準確性及眼科醫生是否能辨識其生成的回應。研究中,16位眼科醫生參與,ChatGPT在17個案例中準確識別了15個主要診斷(88.2%)。醫生們在13個案例中以77.9%的準確率辨識出回應作者,信心評分為3.6。醫生指出ChatGPT的回應較為一般,常有不相關資訊及句法模式。結論認為,雖然ChatGPT顯示潛力,但在臨床應用前仍需進一步評估。 PubMed DOI

這項研究探討了AI聊天機器人GPT-3.5和GPT-4.0在眼科門診註冊及診斷眼病的有效性。研究分析了208個臨床檔案,結果顯示: 1. **註冊建議**:GPT-3.5(63.5%)、GPT-4.0(77.9%)和住院醫師(69.2%)的準確性相似,無顯著差異。 2. **診斷準確性**:GPT-4.0和住院醫師在有病史及檢查的檔案中表現優於GPT-3.5。 3. **錯誤診斷**:GPT-4.0的錯誤診斷較少,顯示出精確度提升。 4. **整體表現**:GPT-4.0在鑑別診斷上接近住院醫師,顯示其潛在應用價值。 結論認為,AI聊天機器人有助於提升眼科病人註冊,但需進一步驗證其在診斷中的應用。 PubMed DOI