原始文章

本研究評估了ChatGPT在眼科領域撰寫科學引言的能力,並與經驗豐富的眼科醫師進行比較。十位專家在不知情的情況下評估了ChatGPT和人類撰寫的引言,準確率為57.7%。錯誤分類率在不同子專科中差異顯著,眼整形的錯誤率最高。評估指標顯示,ChatGPT生成的引言與人類撰寫的並無顯著差異,近一半的引言無法區分。這顯示ChatGPT在眼科科學內容生成上有顯著進步,未來應探討其在學術寫作中的潛力與倫理影響。 PubMed DOI


站上相關主題文章列表

研究發現ChatGPT 4.0在眼科問題回答上表現優秀,專家高度肯定。這個模型適合大學生或研究生使用,具有高可靠性和複雜性。雖然在眼科教育和臨床應用有潛力,但仍需提升準確性和涵蓋範圍,特別是在視覺數據解釋方面。 PubMed DOI

研究比較了ChatGPT-3.5和ChatGPT-4.0在回答眼科問題時的表現。結果顯示,GPT-4.0比GPT-3.5好,但兩者在準確性上有限制,尤其是面對複雜問題時。雖然ChatGPT有潛力,但要成為眼科教育工具,仍需進一步改進。 PubMed DOI

研究評估AI聊天機器人(ChatGPT)在眼科領域提供資訊的準確性,結果顯示77.5%回答得分≥1,但有22.5%回答≤-1,部分可能有害建議。ChatGPT可作為患者教育工具,但資訊目前不完整或不正確,仍需人類醫療監督。 PubMed DOI

最新研究指出,人工智慧聊天機器人ChatGPT在眼科領域有潛力,可提升患者和醫師的教育水準、研究效率和行政工作。ChatGPT能準確提供眼科建議,但需注意風險,如提供不正確資訊、依賴過時數據和倫理問題。儘管ChatGPT有助於眼科保健,仍需在人類監督下使用。 PubMed DOI

這項研究評估了ChatGPT(4.0版)在生成與常見視網膜疾病相關回應的表現,依據美國眼科醫學會的指導方針進行。研究包含130個問題,涵蓋12個領域,專家評估回應的相關性和準確性。結果顯示,ChatGPT的平均得分為4.9分,與指導方針高度一致,但外科管理得分最低。回應可讀性較低,需大學以上理解能力,且在診斷和治療選擇上有錯誤。整體而言,雖然顯示潛力,但仍需臨床醫師監督及改進。 PubMed DOI

這項研究評估了ChatGPT對眼科病人問題的回答準確性和重現性。研究人員從美國眼科學會的「詢問眼科醫生」頁面收集了150個問題,經過兩位眼科醫生的精煉,最終有117個問題輸入ChatGPT。結果顯示,ChatGPT對59.8%的問題提供了全面回答,且在91.5%的問題上保持一致性。雖然其準確性和重現性中等,但應視為健康資訊的輔助來源,而非專業醫療建議的替代品,未來仍需進一步研究以評估其可靠性。 PubMed DOI

這項研究評估了ChatGPT在眼科臨床評估中的表現,目的是檢視其準確性及眼科醫生是否能辨識其生成的回應。研究中,16位眼科醫生參與,ChatGPT在17個案例中準確識別了15個主要診斷(88.2%)。醫生們在13個案例中以77.9%的準確率辨識出回應作者,信心評分為3.6。醫生指出ChatGPT的回應較為一般,常有不相關資訊及句法模式。結論認為,雖然ChatGPT顯示潛力,但在臨床應用前仍需進一步評估。 PubMed DOI

這項研究評估了ChatGPT在回答「住院醫師訓練發展考試」問題的表現,並與眼科住院醫師進行比較。ChatGPT回答75個問題中正確37個,成功率53.62%。不同主題表現差異大,晶狀體與白內障準確率最高(77.77%),小兒眼科與斜視最低(0.00%)。789名住院醫師整體準確率50.37%,隨年級提升而增加。ChatGPT在住院醫師中排名第292位,且隨問題難度增加準確率下降。其回答可讀性較低,顯示內容難以理解。總體來看,ChatGPT表現不如三年級住院醫師,但未來可能隨數據增多而改善。 PubMed DOI

這項研究探討了AI聊天機器人GPT-3.5和GPT-4.0在眼科門診註冊及診斷眼病的有效性。研究分析了208個臨床檔案,結果顯示: 1. **註冊建議**:GPT-3.5(63.5%)、GPT-4.0(77.9%)和住院醫師(69.2%)的準確性相似,無顯著差異。 2. **診斷準確性**:GPT-4.0和住院醫師在有病史及檢查的檔案中表現優於GPT-3.5。 3. **錯誤診斷**:GPT-4.0的錯誤診斷較少,顯示出精確度提升。 4. **整體表現**:GPT-4.0在鑑別診斷上接近住院醫師,顯示其潛在應用價值。 結論認為,AI聊天機器人有助於提升眼科病人註冊,但需進一步驗證其在診斷中的應用。 PubMed DOI

在眼科領域的研究中,OpenAI 的 ChatGPT 在回答病人常見問題上表現優於 Google 的 Bard (Gemini Pro)。一位資深眼科醫生選了 20 個問題,八位專家對回答進行評估,結果顯示 ChatGPT 在準確性、全面性和清晰度上均高於 Bard,分別得分 4.0、4.5 和 5.0,而 Bard 則為 3.0、3.0 和 4.0,差異具統計意義 (p < 0.001)。這顯示 AI 聊天機器人雖然能提供準確清晰的回答,但仍需進一步研究以提升其醫療工具的可靠性。 PubMed DOI