原始文章

在2023年9月,OpenAI推出了能分析圖像的GPT-4 Vision聊天機器人。一項研究測試了它在解讀神經眼科圖像的準確性,特別是Hess屏幕圖和自動視野圖。結果顯示,它在5道Hess問題中正確識別2道,在5道視野問題中正確識別3道。不過,質性分析指出它的解讀有缺陷,例如錯誤識別側別,並混淆生理盲點與中央暗點。總體來看,GPT-4 Vision在眼科圖像解讀上的表現不穩定,顯示其圖像識別能力仍需進一步提升。 PubMed DOI


站上相關主題文章列表

這項研究評估了兩個ChatGPT模型(GPT-3.5和GPT-4)以及專業的眼科醫生在回答眼科問題時的表現。GPT-4在大多數類別中表現優於GPT-3.5和人類專業人士,顯示出更高的準確性。研究結果表明,像GPT-4這樣的先進對話式人工智慧系統可能是醫學教育和實踐中有價值的工具。 PubMed DOI

研究比較了ChatGPT-3.5和ChatGPT-4.0在眼科病例上的表現,結果顯示ChatGPT-4.0在神經眼科病例中表現更好。ChatGPT-4.0處理圖像和簡單問題更出色,回答也更為簡潔。研究指出像ChatGPT-4.0這樣的人工智慧模型對提升眼科診斷和醫學教育有潛力。 PubMed DOI

研究發現ChatGPT 4.0在眼科問題回答上表現優秀,專家高度肯定。這個模型適合大學生或研究生使用,具有高可靠性和複雜性。雖然在眼科教育和臨床應用有潛力,但仍需提升準確性和涵蓋範圍,特別是在視覺數據解釋方面。 PubMed DOI

研究比較了ChatGPT-3.5和ChatGPT-4.0在回答眼科問題時的表現。結果顯示,GPT-4.0比GPT-3.5好,但兩者在準確性上有限制,尤其是面對複雜問題時。雖然ChatGPT有潛力,但要成為眼科教育工具,仍需進一步改進。 PubMed DOI

研究評估AI聊天機器人(ChatGPT)在眼科領域提供資訊的準確性,結果顯示77.5%回答得分≥1,但有22.5%回答≤-1,部分可能有害建議。ChatGPT可作為患者教育工具,但資訊目前不完整或不正確,仍需人類醫療監督。 PubMed DOI

研究發現ChatGPT-4在眼科影像解釋上表現良好,準確率達70%,尤其擅長視網膜問題。在非影像問題上表現更佳,但在不同眼科領域的表現有差異。建議在醫學領域應適當整合這類聊天機器人,雖然在回答眼科問題方面有潛力,但在非影像問題上表現更出色。 PubMed DOI

研究評估了基於GPT-4V的聊天機器人在解釋眼科條件的眼部多模態影像表現。測試結果顯示在準確性、可用性和安全性方面表現不盡相同。雖然在燈裂影像表現不錯,但眼底攝影表現較差。總體而言,聊天機器人能正確識別影像模式,但在病變檢測、診斷和決策支持方面有待提升。研究結論指出,GPT-4V尚不適用於眼科臨床決策,並提出改進多模態模型的建議。 PubMed DOI

這項研究評估了ChatGPT在眼科臨床評估中的表現,目的是檢視其準確性及眼科醫生是否能辨識其生成的回應。研究中,16位眼科醫生參與,ChatGPT在17個案例中準確識別了15個主要診斷(88.2%)。醫生們在13個案例中以77.9%的準確率辨識出回應作者,信心評分為3.6。醫生指出ChatGPT的回應較為一般,常有不相關資訊及句法模式。結論認為,雖然ChatGPT顯示潛力,但在臨床應用前仍需進一步評估。 PubMed DOI

這項研究評估了ChatGPT在回答「住院醫師訓練發展考試」問題的表現,並與眼科住院醫師進行比較。ChatGPT回答75個問題中正確37個,成功率53.62%。不同主題表現差異大,晶狀體與白內障準確率最高(77.77%),小兒眼科與斜視最低(0.00%)。789名住院醫師整體準確率50.37%,隨年級提升而增加。ChatGPT在住院醫師中排名第292位,且隨問題難度增加準確率下降。其回答可讀性較低,顯示內容難以理解。總體來看,ChatGPT表現不如三年級住院醫師,但未來可能隨數據增多而改善。 PubMed DOI

這項研究探討了AI聊天機器人GPT-3.5和GPT-4.0在眼科門診註冊及診斷眼病的有效性。研究分析了208個臨床檔案,結果顯示: 1. **註冊建議**:GPT-3.5(63.5%)、GPT-4.0(77.9%)和住院醫師(69.2%)的準確性相似,無顯著差異。 2. **診斷準確性**:GPT-4.0和住院醫師在有病史及檢查的檔案中表現優於GPT-3.5。 3. **錯誤診斷**:GPT-4.0的錯誤診斷較少,顯示出精確度提升。 4. **整體表現**:GPT-4.0在鑑別診斷上接近住院醫師,顯示其潛在應用價值。 結論認為,AI聊天機器人有助於提升眼科病人註冊,但需進一步驗證其在診斷中的應用。 PubMed DOI