原始文章

這項研究探討了ChatGPT的預測能力,特別是GPT-3.5-turbo和GPT-4,針對韓國敗血症聯盟數據庫的數據,預測成人ICU患者的院內死亡率。研究分析了4,786名患者的7天死亡率和4,025名患者的30天死亡率。結果顯示,GPT-4在7天死亡率的預測上表現較佳,AUROC達0.70-0.83,而GPT-3.5則為0.51-0.70。對於30天死亡率,GPT-4的AUROC範圍為0.51-0.59,顯示出一定的預測潛力。 PubMed DOI


站上相關主題文章列表

研究比較了ChatGPT的GPT-3.5和GPT-4模型在解答韓國外科醫師考試問題時的表現,結果顯示GPT-4準確率高達76.4%,明顯勝過GPT-3.5的46.8%。GPT-4在各專業領域都表現穩定,但仍需搭配人類專業知識和判斷力。 PubMed DOI

研究使用OpenAI的ChatGPT探討如何協助醫護人員根據患者檢驗結果製作醫療報告。ChatGPT簡化了報告生成過程,提供針對患者護理的建議。研究呈現了一位31歲男性患者的病例,展示ChatGPT根據檢驗結果提供生活方式調整和醫療治療建議的能力。比較ChatGPT和線上醫生諮詢系統的建議,突顯ChatGPT持續產生準確且臨床相關的醫療報告的潛力。 PubMed DOI

新冠疫情對全球造成巨大衝擊,顯示準確及時的訊息至關重要。OpenAI的ChatGPT AI機器人提供文本內容和R代碼,對分析COVID-19數據相當有幫助。研究指出使用ChatGPT監控疫情,展現其在情感分析、信息提取和預測模型方面的能力。應用ChatGPT建議的模型預測意大利每日COVID-19死亡人數,ARIMA模型顯示比隨機森林和Prophet更準確。這研究強調了ChatGPT在疫情監測和決策上的潛力,凸顯了運用人工智慧應對公共緊急情況的重要性,為未來相關研究奠定基礎。 PubMed DOI

大數據技術進步對臨床帶來新可能性。像ChatGPT這樣的語言模型可在醫學情境中應用,尤其在危重病醫學。模型可優化治療、教學和研究,用於診斷、預測風險和管理病歷。但需注意限制和道德問題。ChatGPT或許未來在危重病醫學扮演重要角色,但應結合臨床專業知識,做出準確決策。 PubMed DOI

研究比較了ChatGPT、人類醫師和標準評分系統在預測創傷性腦損傷後結果的能力。結果顯示ChatGPT對於預測6個月後結果有高敏感性,但特異性較低,準確性也不如人類醫師和標準評分系統。因此,ChatGPT可能不適合用於預測TBI結果。 PubMed DOI

研究發現ChatGPT在心臟衰竭問答方面表現優異,GPT-4回答準確全面,GPT-3.5表現也不錯。這些模型展現高度可信度,可能成為心臟衰竭患者重要資源,但仍需進一步驗證確保安全公平。 PubMed DOI

研究評估ChatGPT在預測HFNC治療後48小時是否需氣管插管的準確性,並與專科醫師及非專科醫師比較。使用71位接受HFNC治療的成年患者數據建立預測問卷。結果顯示,GPT-4.0在預測插管風險方面精確度為76.1%,特異度為78.6%,靈敏度為75.4%,與專科醫師相當。GPT-4.0的AUC為0.821,優於非專科醫師,顯示其在準確預測HFNC治療後插管風險方面有潛力。 PubMed DOI

研究比較了ChatGPT、GPT-3.5和GPT-4在急診科環境中的診斷能力。結果顯示,GPT-4在內科緊急情況的診斷上比GPT-3.5和住院醫師表現更好,尤其在心血管、內分泌和消化系統疾病方面。這顯示GPT-4有潛力成為急診科中有用的診斷工具。 PubMed DOI

研究評估了大型語言模型在醫療保健領域的應用,尤其是在改善患者護理方面。使用MIMIC-III數據庫的電子健康記錄,測試了這些模型在識別特定疾病患者方面的效能。GPT-4在辨識COPD、CKD、PBC和Cancer Cachexia患者方面表現優異,而ChatGPT和LLaMA3則稍遜。儘管LLMs有潛力,但在臨床應用前仍需解決錯誤、解釋不足和倫理問題。進一步研究將有助於提升模型訓練和設計,以更好地應用於醫療保健。 PubMed DOI

本研究比較了兩個版本的ChatGPT(3.5和4.0)在生成重症醫療建議的能力。結果顯示,ChatGPT 4.0在適當性上得分顯著高於3.5,但在一致性和可讀性方面差異不大。兩個版本都會產生錯誤資訊,顯示在缺乏專業知識的情況下使用這些工具的風險。這強調了臨床醫師需了解LLM的優缺點,以確保在重症醫療中安全有效地使用這些工具。研究已註冊於 https://osf.io/8chj7/。 PubMed DOI