原始文章

這項研究評估了ChatGPT在分析葡萄膜黑色素瘤患者案例並提供治療建議的能力。研究回顧了40名患者的案例,發現ChatGPT的手術建議準確性為55%,排除眼球摘除後提高至75%。與三位專家的建議一致性分別為50%、55%和57%,在排除眼球摘除後則提升至70%至75%。雖然ChatGPT在簡單案例中表現不錯,但在處理更複雜的情況時仍有其限制,顯示出需要更全面的患者評估。 PubMed DOI


站上相關主題文章列表

人工智慧(AI)如ChatGPT-4正在改變醫療保健,特別是在脊椎轉移的治療決策上。本研究評估了ChatGPT-4在五個脊椎轉移案例中的表現,並與五位經驗豐富的脊椎外科醫生進行比較。結果顯示,ChatGPT的建議在73%的案例中與醫生一致,但多數建議偏向一般性,缺乏具體臨床指導。這顯示出AI在複雜醫療決策中的潛力與限制,未來需進一步研究以提升其應用效果。 PubMed DOI

這項研究評估了ChatGPT(包含GPT-3.5和GPT-4)在診斷神經眼科疾病的準確性,使用了22個病例。結果顯示,GPT-3.5的正確診斷率為59%,而GPT-4提升至82%。相比之下,兩位神經眼科醫生的準確率為86%。GPT-4與專家的協議程度優於GPT-3.5,顯示出其在臨床診斷上的潛力,但仍需進一步研究以了解其在資源有限的環境中的應用。 PubMed DOI

這項研究評估了ChatGPT-4o在多學科肉瘤腫瘤委員會中的決策支持效果。研究設計了五個病患案例,並由專家小組評估AI的建議。專家根據理解能力、治療建議、術後護理等五個類別進行評分,結果顯示ChatGPT-4o的平均分數為3.76,外科專業得分最高(4.48),而放射腫瘤科得分較低。研究指出,雖然ChatGPT-4o在外科決策上有潛力,但在其他領域仍需改進,臨床醫師應了解其優缺點,以便更好地應用於臨床。 PubMed DOI

這項研究評估了ChatGPT-4o在識別MRI影像及診斷腦腫瘤的表現,並與經驗豐富的放射科醫師進行比較。研究涵蓋46名腦腫瘤患者的術前MRI影像。結果顯示,ChatGPT-4o識別病變的準確率為95.7%,但在定位病變和區分腦外、腦內病變方面表現不佳。其診斷成功率僅為56.8%,遠低於放射科醫師的90.9-93.2%。雖然ChatGPT-4o在某些特徵識別上表現良好,但在診斷上仍需改進,未來有潛力成為放射科醫師的輔助工具。 PubMed DOI

本研究評估了ChatGPT在分析青光眼患者案例及建議手術治療的能力。對60例手術案例進行回顧性分析,結果顯示ChatGPT的建議準確率為78%,在普通案例中表現良好,與專家建議相近。然而,在挑戰性案例中準確率下降至65%,顯示其在複雜情境下的局限性。總體而言,ChatGPT在普通案例中能提供合理的治療計畫,但在處理更具挑戰性的情況時仍需謹慎。 PubMed DOI

本研究評估了ChatGPT在眼科領域撰寫科學引言的能力,並與經驗豐富的眼科醫師進行比較。十位專家在不知情的情況下評估了ChatGPT和人類撰寫的引言,準確率為57.7%。錯誤分類率在不同子專科中差異顯著,眼整形的錯誤率最高。評估指標顯示,ChatGPT生成的引言與人類撰寫的並無顯著差異,近一半的引言無法區分。這顯示ChatGPT在眼科科學內容生成上有顯著進步,未來應探討其在學術寫作中的潛力與倫理影響。 PubMed DOI

這項研究發現,ChatGPT-4在回答角膜潰瘍相關問題時,對於危險因子、症狀和治療等主題表現不錯,但在分類、檢查和臨床徵象方面較弱。大多數答案被評為良好或可接受,但專家評分有些差異。整體來說,ChatGPT-4在眼科教育有潛力,但還需要加強準確度和一致性。 PubMed DOI

這項研究發現,ChatGPT-4和4O在放射腫瘤科的文字型臨床問題上表現不錯,能提供實用建議,但遇到複雜或技術性高的情境就不太可靠。特別是在判讀鼻咽癌MRI影像時,ChatGPT-4O完全無法正確分期。總結來說,ChatGPT適合輔助一般臨床決策,但影像判讀還不行,使用時要特別小心。 PubMed DOI

這項研究發現,ChatGPT-4在建議原發性喉癌治療時,有72%和多專科腫瘤團隊(MDT)決策完全一致,且沒有明顯錯誤。其準確度和病人特徵無明顯關聯。未來若再優化,ChatGPT-4有機會成為醫師管理喉癌的好幫手。 PubMed DOI

這項研究用22個神經眼科病例,比較ChatGPT(GPT-3.5和GPT-4)和兩位專科醫師的診斷能力。GPT-3.5正確率59%,GPT-4有82%,醫師則是86%。GPT-4的表現已經接近專科醫師,顯示AI有潛力協助診斷複雜眼腦疾病,尤其在缺乏專科醫師的地區。不過,臨床應用前還需要更多驗證安全性與可靠性。 PubMed DOI