原始文章

這項研究探討了開源大型語言模型(LLMs),如LLaMA和Alpaca,在早期COVID-19疫情期間的醫院員工調查中進行數據增強。研究分為兩步:首先用LLM生成合成數據,然後用三種分類器對這些數據進行主題分類。最佳結果來自LLaMA 7B,設定溫度0.7,生成100個合成數據點,結合RoBERTa進行分類,平均AUC達0.87。結果顯示,開源LLM能顯著提升醫療領域小型數據集的文本分類表現,並強調隱私與倫理考量的重要性,指向未來醫學教育和病人護理的研究方向。 PubMed DOI


站上相關主題文章列表

醫療專家不足是個大問題,但機器學習可輔助篩檢和診斷。建立龐大且具代表性的資料集成本高,因此使用大型語言模型生成自閉症相關行為的合成範例。目標是透過標記符合自閉症標準的行為提高模型準確性。評估顯示,合成資料有高比例的正確行為範例-標記對。增加資料集可提高召回率,但會降低精確度。未來研究將探討合成資料特徵對機器學習結果的影響。 PubMed DOI

這項研究評估大型語言模型(LLMs)在社交媒體健康相關文本分類的表現,並比較了不同模型的效果。結果顯示,基於人類標註數據的模型如RoBERTa和BERTweet表現優於基於GPT-3.5和GPT-4的模型。雖然LLM可用於數據增強,但僅依賴LLM標註數據訓練效果不佳。研究指出,LLM作為零樣本分類器能有效減少假陰性,並減輕手動標註負擔,顯示其在特定領域自然語言處理的潛力。 PubMed DOI

這項研究探討如何利用大型語言模型(LLMs)來改善醫療領域的質性訪談數據解釋。傳統的主題建模方法常常過於簡化,難以捕捉患者和醫療專業人員的細微經驗。研究發現,LLMs在數據解釋的效率和深度上表現更佳,顯示它們在整合人類觀點進入可持續醫療系統的發展中,可能扮演重要角色,並有助於解決該領域的挑戰。 PubMed DOI

這項研究探討生成性大型語言模型(LLMs)在分析公共健康相關社交媒體內容的可行性,特別是疫苗言論。研究發現,LLMs通常能有效識別人類專家所關注的主題,且錯誤信息出現率較低。雖然LLMs的分析深度不及人類專家,但專家認為其生成的主題仍然合理且相關。總體來看,LLMs在處理健康相關社交媒體內容方面展現出顯著潛力,未來可能有助於公共健康策略的制定與社區關注的理解。 PubMed DOI

這項研究系統性回顧了生成性大型語言模型(LLMs)在臨床環境,特別是電子健康紀錄(EHRs)的應用。儘管自然語言處理技術進步,LLMs在臨床實踐中的整合仍有限,面臨多重挑戰。研究分析了自2023年以來的76篇相關文獻,發現包括提示工程的使用、少數多模態數據的應用、評估指標的多樣性,以及臨床決策中的偏見和幻覺等問題。未來需改進計算技術和標準化評估,以提升LLMs在醫療中的可靠性。總之,LLMs在病人護理上有潛力,但仍需克服重大障礙。 PubMed DOI

這項研究探討大型語言模型(LLMs)在分析社交媒體貼文,評估公眾對疫苗接種態度的應用。研究人員比較了不同LLMs的表現,包括GPT模型和開源替代品,並與基於規則的情感分析工具進行對比。結果顯示,使用表現最佳的LLMs進行少量提示能獲得最佳效果,而其他方法則有較高的誤分類風險。研究強調LLMs在公共衛生領域的潛力,建議將其納入公共衛生監測,以提升對健康政策公眾意見的評估能力。 PubMed DOI

隨著醫療保健對先進分析的需求增加,合成健康數據的使用變得愈加重要,尤其是在獲取真實健康數據的挑戰下。大型語言模型(LLMs)的進展為生成合成健康數據提供了新機會,但也帶來潛在風險。本文綜述了合成健康數據生成(SHDG)及LLM的研究,探討生成對抗網絡等機器學習模型的現狀與局限性。SHDG面臨的挑戰包括評估指標、數據效率、健康公平等,雖然LLMs在某些方面顯示潛力,但深入研究其優缺點仍然至關重要。 PubMed DOI

這項研究探討如何利用大型語言模型(LLMs)生成內容為基礎的反饋,以提升Progress Test Medizin考試的反饋效果,超越單純的數字分數。研究比較了兩個受歡迎的LLM在生成相關見解上的表現,並調查醫療從業人員和教育工作者對LLM能力及其反饋實用性的看法。結果顯示兩者表現相似,其中一個付費的稍優,另一個則免費。參與者認為反饋相關,並願意未來使用LLM。研究結論指出,雖然LLM生成的反饋不完美,但仍可作為傳統數字反饋的有價值補充。 PubMed DOI

最近的研究顯示大型語言模型(LLMs)在自然語言處理,特別是遠程醫療中有很大潛力。研究比較了GPT-3.5、GPT-4和LLaMA 2在醫療諮詢摘要的表現。結果顯示,LLaMA2-7B在n-gram精確度上表現最佳,而GPT-4在語義準確性和可讀性上優於其他模型。所有模型在總結能力上相似,但GPT-4在內容理解和結構上稍有優勢,顯示其生成病人友好摘要的潛力。研究也探討了使用LLMs的潛在風險與限制。 PubMed DOI

自然語言處理(NLP)在放射學等領域展現了將非結構化數據轉為結構化格式的潛力,但隱私問題使得數據集獲取困難。我們的目標是利用大型語言模型(LLMs)從救護人員與病人對話中提取醫療資訊,以填寫緊急應變程序表格。為此,我們開發了一個流程,使用"Zephyr-7b-beta"生成初步對話,再用GPT-4 Turbo進行精煉。初步結果顯示,"Zephyr-7b-beta"的準確率為94%,但經過精煉後略降至87%。這些結果顯示LLMs在醫療對話生成中的潛力與挑戰。 PubMed DOI