原始文章

這項研究探討生成式人工智慧,特別是像ChatGPT這樣的大型語言模型(LLMs),如何為從急診部轉至家庭的病人創建個性化的出院指示。研究發現,傳統出院指示常常耗時且缺乏個性化,因此使用GPT-4生成了五個虛構急診案例的出院指示。調查結果顯示,受訪者對GPT生成的指示評價較高,特別是在回診注意事項上,顯示LLMs能提升出院指示的清晰度和相關性,並改善醫療文檔流程,減輕醫療人員負擔。 PubMed DOI


站上相關主題文章列表

研究發現,使用大型語言模型(LLM)轉換出院摘要為病人友善的語言,提升了易讀性。然而,除了可讀性外,還需注意準確性和安全性問題。在實際應用前,仍需醫師審查以確保資訊正確無誤。 PubMed DOI

研究指出,在小兒急診醫學中使用ChatGPT 4.0版本進行臨床文件記錄,可以節省時間減少工作量,尤其是在複雜的註記上。雖然對於簡單的註記影響不大,但參與者對ChatGPT生成的手交接摘要和家庭信件持正面評價。大部分臨床醫師支持將這些工具納入實務,但也提出了一些擔憂和建議。總的來說,小兒急診醫學主治醫師認為ChatGPT是有價值的工具,能夠提供高品質的摘要。 PubMed DOI

研究比較了GPT-4和GPT-3.5-turbo在寫急診科出院摘要時的表現。結果顯示,雖然GPT-4通常寫得準確,但還是會出現錯誤,像是漏掉重要臨床資訊或加入幻覺。醫師了解這些錯誤很重要,可以檢查並修正內容,確保患者安全。 PubMed DOI

研究發現GPT-4生成的兒科急診病例出院指示,在英文比西班牙文更詳細,但易讀性沒有差異。GPT-4能生成易讀指示並調整閱讀水平,但仍需進一步研究改善其在不同語言表現,減少語言和閱讀水平對健康差異的影響。 PubMed DOI

這項研究評估了GPT-4在泌尿科門診生成出院信件的效果,並與初級醫師進行比較。出院信件對於護理連續性很重要,但撰寫過程常常耗時。研究中,GPT-4根據五個虛構的電子病歷撰寫信件,並由初級醫師用問卷評估其質量。結果顯示,GPT-4在資訊提供上表現優於初級醫師,且沒有產生虛假信息。雖然在清晰度和滿意度上無顯著差異,但GPT-4的信件質量與人類相當。整體而言,GPT-4可望提升醫療文檔的效率與一致性。 PubMed DOI

這項研究探討了大型語言模型(LLMs),特別是ChatGPT-4.0,對於三級醫療機構病人投訴的回應效果。研究比較了ChatGPT與病人關係部門的回應,結果顯示87.2%到97.3%的受訪者更偏好ChatGPT的回應,且其在適當性、同理心等方面得分較高。ChatGPT的回應平均較長,且與高得分有關。研究顯示,ChatGPT能有效提升病人投訴的解決效果,未來可進一步探討AI在醫療系統中的應用潛力。 PubMed DOI

這項研究評估了人工智慧生成語言模型(GLMs),特別是ChatGPT-3.5和GPT-4,如何根據病人教育水平調整醫療資訊,這對解決低健康素養問題很重要。研究使用第二型糖尿病和高血壓的案例,分析生成內容的可讀性。結果顯示,GPT-3.5的可讀性僅符合學士學位水平,而GPT-4則能適應多數群體的需求。這兩個模型在可讀性上有顯著差異,顯示GLMs能調整醫療文本的複雜性,但仍需進一步研究以提升其個性化調整能力。 PubMed DOI

這項研究探討大型語言模型(LLMs)在生成重症監護病房(ICU)病人出院摘要的表現,分析了匿名臨床筆記。三個模型中,GPT-4 API的表現最佳,準確識別41.5%的關鍵臨床事件,ChatGPT和Llama 2則分別為19.2%和16.5%。雖然GPT-4在資訊組織和清晰度上表現優異,但仍有小錯誤,且所有模型在敘事連貫性和重要數據的捕捉上存在挑戰。總體來看,這些LLM在生成出院摘要上有潛力,但仍需改進。 PubMed DOI

在急診部門,快速且準確的診斷對病人結果和醫療效率非常重要。本研究評估了ChatGPT-3.5和ChatGPT-4在根據急診入院前24小時的電子健康紀錄生成鑑別診斷清單的表現。結果顯示,兩者在預測身體系統層級的診斷上都相當準確,GPT-4稍優於GPT-3.5,但在具體診斷類別上表現不一,精確度較低。值得注意的是,GPT-4在幾個關鍵類別中展現了更高的準確性,顯示其在處理複雜臨床情況上的優勢。 PubMed DOI

這項研究探討使用 GPT-3.5 生成醫療文件並附上 ICD-10 代碼,以增強低資源標籤數據。研究人員從 MIMIC-IV 數據集中生成了 9,606 份出院摘要,專注於不常見的代碼,並將這些數據與基線訓練集結合,創建增強數據集來訓練神經編碼模型。結果顯示,雖然數據增強略微降低整體模型表現,但對生成代碼的表現有所提升。儘管 GPT-3.5 能識別 ICD-10 代碼,但在處理真實數據時仍面臨挑戰,生成文件在多樣性和深度上需改進。 PubMed DOI