原始文章

這項研究發現,ChatGPT-3.5在診斷和建議治療複雜低鈉血症案例時,表現還是不如臨床醫師,且診斷和建議常有不足。雖然2024年版本有些微進步,甚至在部分案例中比多數醫師更能發現罕見疾病,但整體來說,免費版ChatGPT-3.5在這類困難醫療問題上還不夠可靠,建議民眾參考時要特別謹慎。 PubMed DOI


站上相關主題文章列表

研究評估了ChatGPT在處理細菌感染和抗生素敏感性相關問題以及臨床案例中的效果。結果顯示ChatGPT在回答理論問題表現不錯,但在臨床案例管理上有限制,例如識別抗藥機制和抗生素處方。ChatGPT可作為醫學教育和分析工具,但不宜取代專家諮詢在複雜決策中的重要性。 PubMed DOI

這項研究評估了ChatGPT-4在住院神經科的診斷準確性,並與顧問神經科醫師進行比較。研究使用Epic電子健康紀錄的病人數據,CG4為51位病人生成了初步診斷和治療計畫。結果顯示,CG4的平均得分為2.57,顧問醫師為2.75,整體成功率相近(CG4為96.1%,顧問醫師為94.1%)。雖然顧問醫師的全面診斷可能性略高,但CG4仍被視為神經科有價值的診斷工具。未來需進一步研究以驗證這些結果。 PubMed DOI

這項研究評估了ChatGPT(包含GPT-3.5和GPT-4)在診斷神經眼科疾病的準確性,使用了22個病例。結果顯示,GPT-3.5的正確診斷率為59%,而GPT-4提升至82%。相比之下,兩位神經眼科醫生的準確率為86%。GPT-4與專家的協議程度優於GPT-3.5,顯示出其在臨床診斷上的潛力,但仍需進一步研究以了解其在資源有限的環境中的應用。 PubMed DOI

本研究探討ChatGPT在簡化腎小球疾病治療資訊的能力,幫助患者更易理解。針對67種腎小球疾病,使用兩種問題類型進行測試。結果顯示,普通解釋的可讀性為高中水平,調整後可讀性改善至中學水平,且可理解性顯著提升。然而,針對特定閱讀水平的準確性較低。總體而言,ChatGPT在提升資訊可讀性方面潛力大,但需進一步研究以確保內容的全面性及倫理使用。 PubMed DOI

這項研究評估了AI模型ChatGPT-4在解讀動脈血氣(ABG)結果的有效性,並與經驗豐富的麻醉醫師進行比較。研究分析了400個重症監護病房的ABG樣本,結果顯示ChatGPT-4在大多數參數上準確度高,像是pH值、氧合、鈉和氯的準確度達100%。不過,血紅素和膽紅素的準確度較低,且有時會建議不必要的碳酸氫鹽治療,顯示在酸鹼平衡的判斷上仍需改進。總體來看,ChatGPT-4在ABG解讀上有潛力,但複雜的代謝標記仍需臨床醫師的監督。未來應加強AI對細微代謝數據的解讀能力,以確保臨床安全。 PubMed DOI

本研究評估ChatGPT 4 Omni在診斷神經認知障礙的準確性,並與早期版本比較。研究分為兩部分,第一部分分析其與臨床醫生的診斷一致性,涉及12,922名老年人,結果顯示有一定的關聯性,但準確性仍不足以獨立使用。第二部分則使用537名老年人的數據,未顯示顯著一致性。結論指出,雖然ChatGPT 4 Omni有潛力,但仍需改進與訓練,以提升其在臨床中的應用效果。 PubMed DOI

這項回顧性研究評估了不同ChatGPT模型(如GPT-3.5、GPT-4等)在預測急診病人診斷的表現。研究針對30名病人,發現GPT-3.5在前三名鑑別診斷的準確率高達80%,但主要診斷的準確率僅47.8%。較新的模型如chatgpt-4o-latest在主要診斷的準確率提升至60%。要求模型提供推理過程也有助於改善表現。不過,所有模型在處理非典型案例時仍面臨挑戰,顯示其在急診環境中的應用限制。 PubMed DOI

ChatGPT 在解讀動脈血液氣體分析(ABG)時,對常見急診案例的表現和醫師相當接近,但遇到中毒或混合型酸鹼失衡時準確度就明顯下降。不過,它給的臨床建議都算安全,適合當作輔助工具,但還是不能完全取代專業醫師判斷。 PubMed DOI

這次比較發現,GPT-4o 能整合複雜臨床資訊,給出詳細診斷和治療建議,明顯優於 1970 年的 CAL AI 只能提供基本指引。這凸顯 AI 在醫療分析上的進步,但 AI 仍有侷限,應作為醫師的輔助工具,而非完全取代臨床判斷。 PubMed DOI

這項研究用22個神經眼科病例,比較ChatGPT(GPT-3.5和GPT-4)和兩位專科醫師的診斷能力。GPT-3.5正確率59%,GPT-4有82%,醫師則是86%。GPT-4的表現已經接近專科醫師,顯示AI有潛力協助診斷複雜眼腦疾病,尤其在缺乏專科醫師的地區。不過,臨床應用前還需要更多驗證安全性與可靠性。 PubMed DOI