原始文章

這項研究評估了ChatGPT在分類微創青光眼手術(MIGS)相關電子健康紀錄中的出血事件(HE)的有效性。主要發現包括: 1. **分類準確性**:ChatGPT在HE類型分類上表現優異,Cohen's Kappa值為0.93,精確度-召回曲線下面積為0.968。 2. **HE發生率**:術後第1天,goniotomy眼睛67.8%出現HE,SCS眼睛為25.2%。 3. **HE解決情況**:術後第1週,goniotomy眼睛43.4%仍有HE,1個月後降至13.3%。 4. **風險因素**:goniotomy角度越大,HE風險越高。 結論指出,ChatGPT能準確分類EHR數據,對未來研究和臨床決策有幫助。HE雖常見,但通常會自我解決。 PubMed DOI


站上相關主題文章列表

研究測試了ChatGPT在生成眼科手術摘要和記錄的能力。外科醫生評估了其準確性、特定性、通用文本、錯誤及承認能力。ChatGPT根據質量調整回應,幾秒內提供詳細摘要。儘管有通用文本,但包含藥物和指示細節。手術記錄需更精煉。ChatGPT承認錯誤並更正,提高回應準確性。總結來說,ChatGPT有潛力快速生成眼科報告,培訓和驗證或許對醫療有正面影響。 PubMed DOI

研究比較了大型語言模型ChatGPT和眼科住院醫師在診斷青光眼的能力,發現ChatGPT在診斷青光眼方面表現相當甚至更好。經進一步發展,ChatGPT有潛力應用於臨床,快速且客觀地診斷青光眼患者。 PubMed DOI

最新研究發現,人工智慧如ChatGPT-4在屈光手術領域有潛力,可幫助分類患者。研究顯示ChatGPT-4與醫師的判斷相當一致,但仍有限制,如樣本量小、依賴單一評定者及輸出變異性。未來需進一步研究,確保大型語言模型如ChatGPT-4在醫療決策中的準確性與適用性。 PubMed DOI

研究比較了三個大型語言模型(ChatGPT-3.5、ChatGPT-4和Google Gemini)在分析視網膜脫落病例並提出手術計劃的表現。經過50個病例的分析後發現,ChatGPT-4與專家外科醫師的意見最接近,ChatGPT-3.5次之,Google Gemini表現最差。ChatGPT模型也獲得了比Google Gemini更高的全球品質分數。ChatGPT-4是唯一建議採用聯合晶體玻璃切割手術方法的模型。總體而言,ChatGPT模型提供了比Google Gemini更準確和精確的建議。 PubMed DOI

研究比較了ChatGPT-4和Google Gemini在分析青光眼病例描述及提出手術計劃的表現。ChatGPT-4在與專家一致性和回應品質方面表現較佳,尤其在複雜病例中。兩者常建議小梁切除術。總體而言,ChatGPT-4在分析青光眼手術病例方面表現良好,Google Gemini則在回答問題上有限制。 PubMed DOI

研究評估 ChatGPT 利用眼壓治療研究數據預測青光眼轉變能力。使用參與者參數轉換成 ChatGPT 文本查詢,ChatGPT4.0 預測準確率達75%,AUC為0.67,敏感度56%,特異度78%,加權 F1 分數0.77,優於ChatGPT3.5。研究顯示大型語言模型如ChatGPT在青光眼研究和臨床護理有潛力,尤其是結合眼科學和多模態數據、主動學習技術。 PubMed DOI

這項研究評估了大型語言模型(LLM)ChatGPT 在青光眼領域的表現。研究人員提出了24個臨床問題,並由三位專家評分。結果顯示,ChatGPT的平均得分為3.29,整體表現良好,但有29.2%的回應得分低於3分。經過自我修正後,得分從2.96提升至3.58,滿分回應比例也從30.6%增至57.1%。這顯示ChatGPT在青光眼領域有潛力,但仍需更多研究來驗證其應用。 PubMed DOI

這項研究評估了ChatGPT(4.0版)在生成與常見視網膜疾病相關回應的表現,依據美國眼科醫學會的指導方針進行。研究包含130個問題,涵蓋12個領域,專家評估回應的相關性和準確性。結果顯示,ChatGPT的平均得分為4.9分,與指導方針高度一致,但外科管理得分最低。回應可讀性較低,需大學以上理解能力,且在診斷和治療選擇上有錯誤。整體而言,雖然顯示潛力,但仍需臨床醫師監督及改進。 PubMed DOI

這項研究評估了ChatGPT 3.5和4.0版本在診斷青光眼方面的能力,使用了眼壓治療研究的數據。研究涵蓋1585名受試者的3170隻眼睛,並將臨床參數轉換為文本進行分析。結果顯示,ChatGPT 3.5的準確率為66%,而4.0則提升至87%。雖然4.0的整體準確率較高,但3.5在檢測青光眼的敏感性上表現更佳。這顯示ChatGPT在評估眼壓高的眼病上具有潛力,未來的多模態模型可能進一步提升診斷準確性。 PubMed DOI

這項研究評估了ChatGPT在眼科臨床評估中的表現,目的是檢視其準確性及眼科醫生是否能辨識其生成的回應。研究中,16位眼科醫生參與,ChatGPT在17個案例中準確識別了15個主要診斷(88.2%)。醫生們在13個案例中以77.9%的準確率辨識出回應作者,信心評分為3.6。醫生指出ChatGPT的回應較為一般,常有不相關資訊及句法模式。結論認為,雖然ChatGPT顯示潛力,但在臨床應用前仍需進一步評估。 PubMed DOI