原始文章

這項研究探討了AI聊天機器人GPT-3.5和GPT-4.0在眼科門診註冊及診斷眼病的有效性。研究分析了208個臨床檔案,結果顯示: 1. **註冊建議**:GPT-3.5(63.5%)、GPT-4.0(77.9%)和住院醫師(69.2%)的準確性相似,無顯著差異。 2. **診斷準確性**:GPT-4.0和住院醫師在有病史及檢查的檔案中表現優於GPT-3.5。 3. **錯誤診斷**:GPT-4.0的錯誤診斷較少,顯示出精確度提升。 4. **整體表現**:GPT-4.0在鑑別診斷上接近住院醫師,顯示其潛在應用價值。 結論認為,AI聊天機器人有助於提升眼科病人註冊,但需進一步驗證其在診斷中的應用。 PubMed DOI


站上相關主題文章列表

研究發現,使用GPT-4模型的ChatGPT在辨識眼科疾病上表現良好,與眼科實習醫生相當,沒有重大錯誤。相對地,Bing Chat表現較差,容易高估疾病的緊急性。然而,仍需進一步研究以確保AI聊天機器人在眼科問題上的安全性和有效性。 PubMed DOI

研究比較了ChatGPT-4和ChatGPT-3.5在眼科考試上的表現,結果發現ChatGPT-4表現較佳,顯示ChatGPT-4可能在眼科教育和臨床決策上有幫助。未來研究應進一步改進AI模型,並探索如何有效整合AI到醫學教育和臨床實踐中。 PubMed DOI

研究比較了大型語言模型ChatGPT和眼科住院醫師在診斷青光眼的能力,發現ChatGPT在診斷青光眼方面表現相當甚至更好。經進一步發展,ChatGPT有潛力應用於臨床,快速且客觀地診斷青光眼患者。 PubMed DOI

研究比較了ChatGPT-3.5和ChatGPT-4.0在眼科病例上的表現,結果顯示ChatGPT-4.0在神經眼科病例中表現更好。ChatGPT-4.0處理圖像和簡單問題更出色,回答也更為簡潔。研究指出像ChatGPT-4.0這樣的人工智慧模型對提升眼科診斷和醫學教育有潛力。 PubMed DOI

研究比較了ChatGPT-3.5和ChatGPT-4.0在回答眼科問題時的表現。結果顯示,GPT-4.0比GPT-3.5好,但兩者在準確性上有限制,尤其是面對複雜問題時。雖然ChatGPT有潛力,但要成為眼科教育工具,仍需進一步改進。 PubMed DOI

研究比較了ChatGPT-4.0和ChatGPT-3.5在角膜眼疾病診斷上的表現,發現ChatGPT-4.0在臨床診斷上比ChatGPT-3.5更準確,但仍不及人類專家。結合人工智慧和臨床專業知識,可最大程度發揮人工智慧在眼科護理的潛力。 PubMed DOI

在這個研究中,AI聊天機器人被測試其根據患者的症狀進行分類和診斷眼科疾病的能力。聊天機器人在分類方面表現較好,GPT-4的表現優於Bard。增加更多描述詞可以提高兩種聊天機器人的診斷準確性。儘管聊天機器人在分類方面可能有用,但並不能取代專業醫學評估。 PubMed DOI

這項研究評估了ChatGPT 3.5和4.0版本在診斷青光眼方面的能力,使用了眼壓治療研究的數據。研究涵蓋1585名受試者的3170隻眼睛,並將臨床參數轉換為文本進行分析。結果顯示,ChatGPT 3.5的準確率為66%,而4.0則提升至87%。雖然4.0的整體準確率較高,但3.5在檢測青光眼的敏感性上表現更佳。這顯示ChatGPT在評估眼壓高的眼病上具有潛力,未來的多模態模型可能進一步提升診斷準確性。 PubMed DOI

這項研究評估了ChatGPT在眼科臨床評估中的表現,目的是檢視其準確性及眼科醫生是否能辨識其生成的回應。研究中,16位眼科醫生參與,ChatGPT在17個案例中準確識別了15個主要診斷(88.2%)。醫生們在13個案例中以77.9%的準確率辨識出回應作者,信心評分為3.6。醫生指出ChatGPT的回應較為一般,常有不相關資訊及句法模式。結論認為,雖然ChatGPT顯示潛力,但在臨床應用前仍需進一步評估。 PubMed DOI

這項研究評估了ChatGPT在回答「住院醫師訓練發展考試」問題的表現,並與眼科住院醫師進行比較。ChatGPT回答75個問題中正確37個,成功率53.62%。不同主題表現差異大,晶狀體與白內障準確率最高(77.77%),小兒眼科與斜視最低(0.00%)。789名住院醫師整體準確率50.37%,隨年級提升而增加。ChatGPT在住院醫師中排名第292位,且隨問題難度增加準確率下降。其回答可讀性較低,顯示內容難以理解。總體來看,ChatGPT表現不如三年級住院醫師,但未來可能隨數據增多而改善。 PubMed DOI