原始文章

這項研究提出了一種新方法,利用MIMIC-IV出院記錄來創建機器生成的醫學指令數據集,目的是微調專注於醫學的語言模型。研究團隊開發了包含指令和格式化為JSONL的出院記錄的大型文本數據集,經過三個關鍵階段的處理,最終得到51,385組有效數據,平均ROUGE分數為0.185。評估顯示,GPT-3.5的有效性率達88.0%,接近人類標註者的88.5%。這項研究顯示了自動化創建醫學自然語言處理數據集的潛力。 PubMed DOI


站上相關主題文章列表

在自然語言處理(NLP)訓練中,擁有有語義標註的文本數據集很關鍵。建立自訂數據集對特定任務非常重要,尤其是在醫學數據處理等非英語語言中。建議使用預先訓練的大型語言模型來提升訓練效率。我們透過建立德語文本的醫學命名實體識別(NER)模型自訂數據集GPTNERMED來展示這一點。可在 https://github.com/frankkramer-lab/GPTNERMED 找到更多資訊。 PubMed DOI

一項新研究介紹了一個名為GatorTronGPT的語言模型,專門針對醫療保健領域的生物醫學自然語言處理進行訓練。這個模型能生成合成文本,有助於提升NLP模型的效能。研究結果顯示,GatorTronGPT生成的文本在可讀性和臨床相關性上與人類生成的文本相當。這項研究強調了在醫學研究和醫療保健領域運用大型語言模型的潛力和挑戰。 PubMed DOI

大型語言模型(LLMs)如ChatGPT被用來幫忙填表格等任務,尤其在整理癌症病歷時。一項研究使用ChatGPT 4.0從醫療報告中提取數據,顯示效率和成本效益皆有潛力。但仍需人類監督和整合現有工具以達最佳效果。生成式人工智能在處理腫瘤文檔上有潛力,但實際應用需謹慎評估人機互動。 PubMed DOI

研究比較了用語言模型訓練的分類器在合成與真實臨床註記上的表現,以辨識急性腎衰竭。結果顯示,使用這兩種訓練數據在檢測急性腎衰竭時表現相似,顯示合成數據可能已足夠,不需從受保護健康資訊中取得訓練數據。 PubMed DOI

醫療專家不足是個大問題,但機器學習可輔助篩檢和診斷。建立龐大且具代表性的資料集成本高,因此使用大型語言模型生成自閉症相關行為的合成範例。目標是透過標記符合自閉症標準的行為提高模型準確性。評估顯示,合成資料有高比例的正確行為範例-標記對。增加資料集可提高召回率,但會降低精確度。未來研究將探討合成資料特徵對機器學習結果的影響。 PubMed DOI

這個研究使用了一個名為BioInstruct的數據集,來提升生物醫學自然語言處理的大型語言模型表現。結果顯示,透過結合指導數據和多任務學習,以及有效微調參數,模型在各種BioNLP任務上有顯著改善。指導調整後的模型在生物醫學領域表現優異,尤其在相關任務微調時。BioInstruct數據集對提升BioNLP應用有重要價值。 PubMed DOI

這項研究探討生成式人工智慧,特別是像ChatGPT這樣的大型語言模型(LLMs),如何為從急診部轉至家庭的病人創建個性化的出院指示。研究發現,傳統出院指示常常耗時且缺乏個性化,因此使用GPT-4生成了五個虛構急診案例的出院指示。調查結果顯示,受訪者對GPT生成的指示評價較高,特別是在回診注意事項上,顯示LLMs能提升出院指示的清晰度和相關性,並改善醫療文檔流程,減輕醫療人員負擔。 PubMed DOI

這項研究探討大型語言模型(LLMs)在生成重症監護病房(ICU)病人出院摘要的表現,分析了匿名臨床筆記。三個模型中,GPT-4 API的表現最佳,準確識別41.5%的關鍵臨床事件,ChatGPT和Llama 2則分別為19.2%和16.5%。雖然GPT-4在資訊組織和清晰度上表現優異,但仍有小錯誤,且所有模型在敘事連貫性和重要數據的捕捉上存在挑戰。總體來看,這些LLM在生成出院摘要上有潛力,但仍需改進。 PubMed DOI

這項研究探討使用 GPT-3.5 生成醫療文件並附上 ICD-10 代碼,以增強低資源標籤數據。研究人員從 MIMIC-IV 數據集中生成了 9,606 份出院摘要,專注於不常見的代碼,並將這些數據與基線訓練集結合,創建增強數據集來訓練神經編碼模型。結果顯示,雖然數據增強略微降低整體模型表現,但對生成代碼的表現有所提升。儘管 GPT-3.5 能識別 ICD-10 代碼,但在處理真實數據時仍面臨挑戰,生成文件在多樣性和深度上需改進。 PubMed DOI

這項初步研究探討了大型語言模型(LLM),特別是LLaMA3,如何從三級醫院的出院摘要中提取中風審核數據。研究分析了一個月內的中風住院病人出院摘要,成功提取144個數據點,LLM的準確率高達93.8%(135個正確)。結果顯示,LLM能有效提升中風審核數據的收集效率,並建議進一步研究以優化LLM與醫療專業人員的合作。 PubMed DOI