原始文章

自然語言處理(NLP)在放射學等領域展現了將非結構化數據轉為結構化格式的潛力,但隱私問題使得數據集獲取困難。我們的目標是利用大型語言模型(LLMs)從救護人員與病人對話中提取醫療資訊,以填寫緊急應變程序表格。為此,我們開發了一個流程,使用"Zephyr-7b-beta"生成初步對話,再用GPT-4 Turbo進行精煉。初步結果顯示,"Zephyr-7b-beta"的準確率為94%,但經過精煉後略降至87%。這些結果顯示LLMs在醫療對話生成中的潛力與挑戰。 PubMed DOI


站上相關主題文章列表

研究評估了大型語言模型在醫療保健領域的應用,尤其是在改善患者護理方面。使用MIMIC-III數據庫的電子健康記錄,測試了這些模型在識別特定疾病患者方面的效能。GPT-4在辨識COPD、CKD、PBC和Cancer Cachexia患者方面表現優異,而ChatGPT和LLaMA3則稍遜。儘管LLMs有潛力,但在臨床應用前仍需解決錯誤、解釋不足和倫理問題。進一步研究將有助於提升模型訓練和設計,以更好地應用於醫療保健。 PubMed DOI

這項研究探討大型語言模型(LLMs)在生成重症監護病房(ICU)病人出院摘要的表現,分析了匿名臨床筆記。三個模型中,GPT-4 API的表現最佳,準確識別41.5%的關鍵臨床事件,ChatGPT和Llama 2則分別為19.2%和16.5%。雖然GPT-4在資訊組織和清晰度上表現優異,但仍有小錯誤,且所有模型在敘事連貫性和重要數據的捕捉上存在挑戰。總體來看,這些LLM在生成出院摘要上有潛力,但仍需改進。 PubMed DOI

這篇論文探討大型語言模型(LLMs)在電腦媒介臨床諮詢中的應用潛力,涉及醫生、電子健康紀錄(EHR)系統和病人。儘管自然語言處理(NLP)已有進展,但EHR中的自由文本數據尚未被充分利用。LLMs擅長理解和生成自然語言,能有效處理臨床對話。論文建議透過針對特定任務的預訓練和微調,醫療提供者可利用自由文本來識別病人安全問題、支持診斷,並改善臨床互動。作者認為,微調的LLMs結合提示工程,能提升初級護理諮詢的效率與效果。 PubMed DOI

這篇文章探討了人工智慧,特別是像ChatGPT這樣的大型語言模型在急診醫學和重症護理中的重要角色。它提到ChatGPT在診斷支持、臨床文檔和病人溝通等方面的應用,並指出其表現可與人類專業人士媲美。文章也強調了它在臨床決策和藥物選擇中的潛力,能提升病人護理品質。不過,將這些模型應用於醫療也帶來法律、倫理和隱私等問題,需持續研究和監管以確保其負責任的使用。 PubMed DOI

這項研究系統性回顧了生成性大型語言模型(LLMs)在臨床環境,特別是電子健康紀錄(EHRs)的應用。儘管自然語言處理技術進步,LLMs在臨床實踐中的整合仍有限,面臨多重挑戰。研究分析了自2023年以來的76篇相關文獻,發現包括提示工程的使用、少數多模態數據的應用、評估指標的多樣性,以及臨床決策中的偏見和幻覺等問題。未來需改進計算技術和標準化評估,以提升LLMs在醫療中的可靠性。總之,LLMs在病人護理上有潛力,但仍需克服重大障礙。 PubMed DOI

隨著醫療保健對先進分析的需求增加,合成健康數據的使用變得愈加重要,尤其是在獲取真實健康數據的挑戰下。大型語言模型(LLMs)的進展為生成合成健康數據提供了新機會,但也帶來潛在風險。本文綜述了合成健康數據生成(SHDG)及LLM的研究,探討生成對抗網絡等機器學習模型的現狀與局限性。SHDG面臨的挑戰包括評估指標、數據效率、健康公平等,雖然LLMs在某些方面顯示潛力,但深入研究其優缺點仍然至關重要。 PubMed DOI

這項研究探討大型語言模型(LLM)生成的急診醫學交接筆記,針對從急診轉入住院的病人進行。研究在紐約長老會/威爾康奈爾醫學中心進行,分析了1,600份病人紀錄。結果顯示,LLM生成的筆記在詞彙和細節上優於醫生撰寫的筆記,但在實用性和病人安全性方面略遜於醫生的評估。這強調了在臨床使用LLM時,醫生參與的重要性,並提供了評估病人安全的框架。 PubMed DOI

這項研究探討使用OpenAI的GPT-4o生成合成臨床數據,以解決隱私法規和數據稀缺的問題。研究分為兩個階段:第一階段根據13個臨床參數創建了6,166個案例的結構化數據集,數據合理且準確;第二階段則利用真實的圍手術期數據集VitalDB生成數據,結果顯示92.31%的參數與VitalDB相似,且大多數參數間無顯著差異。研究顯示GPT-4o能有效生成反映實際臨床數據的合成數據,未來應進一步提高數據真實性並探索大型語言模型的潛力。 PubMed DOI

這項研究評估了GPT-4和BioMistral 7B兩個大型語言模型在回答罕見疾病病人詢問的表現,並與醫生的回應進行比較。結果顯示,GPT-4的表現優於醫生和BioMistral 7B,回應被認為正確且具同理心。BioMistral 7B的回應則部分正確,而醫生的表現介於兩者之間。專家指出,雖然LLMs能減輕醫生負擔,但仍需嚴格驗證其可靠性。GPT-4在溝通上表現佳,但需注意回應的變異性和準確性。 PubMed DOI

這項研究探討大型語言模型(LLMs)在疾病風險評估中的應用,特別是對COVID-19嚴重程度的預測。與傳統機器學習方法不同,LLMs透過對話式人工智慧實現即時、無需編碼的風險評估。研究比較了LLaMA2-7b和Flan-T5-xl等預訓練模型與傳統分類器的表現,發現LLMs在低數據環境中表現優異,能有效處理非結構化輸入,並提供個性化見解,顯示其在臨床環境中的潛力。 PubMed DOI