原始文章

這項研究開發了一個名為藥學實踐研究領域分類器(PPRDC),用來將藥學實踐教職員的出版物分為臨床、教育、社會與行政,以及基礎與轉譯四個領域。研究分析了2018至2021年間的1,000篇摘要,並微調了多個BERT模型。PPRDC在各項分類指標上表現優異,F1分數達89.4,並在重現性上獲得完美評價(Cohen's kappa = 1.0)。這項成果不僅提升了分類效率,還對文獻計量學研究有重要貢獻,幫助作者和編輯做出更好的期刊選擇。 PubMed DOI


站上相關主題文章列表

研究提出一種方法,從藥品標籤中提取藥物資訊,強化藥物術語。比較各種NER模型,找出最適合提取藥物資訊的模型。使用規則關係提取算法和藥物搜尋方法建立藥物知識圖,並與術語伺服器中的藥物匹配。結果顯示BERT-CRF模型在NER方面表現最佳,藥物搜尋方法匹配準確率達77%。建議將此模型應用為網路服務,改善醫療藥物管理。 PubMed DOI

像客製化的大型語言模型DELSTAR這樣的人工智慧技術,在臨床藥學研究中具有巨大潛力,可以識別和總結與藥物相關的資訊。這有助於制定更全面的處方指引,改進實踐支援應用程式,提高患者安全性。然而,確保人工智慧技術的準確和穩健使用將是一項挑戰。 PubMed DOI

這篇論文討論了在生物醫學領域中處理自然語言的挑戰,特別是分類二元關係。作者評估了不同方法,像是微調BERT模型和生成式LLM,並檢視它們在不同情境下的表現。他們引入了一個新的生物醫學文本數據集,以協助研究關係分類。研究結果顯示這個任務對人類和模型都具有挑戰性,基於BERT的模型在某些領域表現優異,而LLM在其他領域表現良好。然而,這些模型仍無法達到人類水準,強調了高品質訓練數據和領域特定微調的重要性。 PubMed DOI

這項研究評估大型語言模型(LLMs)在社交媒體健康相關文本分類的表現,並比較了不同模型的效果。結果顯示,基於人類標註數據的模型如RoBERTa和BERTweet表現優於基於GPT-3.5和GPT-4的模型。雖然LLM可用於數據增強,但僅依賴LLM標註數據訓練效果不佳。研究指出,LLM作為零樣本分類器能有效減少假陰性,並減輕手動標註負擔,顯示其在特定領域自然語言處理的潛力。 PubMed DOI

這項研究強調在醫療照護中評估健康社會決定因素(SDoH)的重要性,以改善病患照護並縮小健康差距。研究探討了電子健康紀錄(EHRs)中SDoH數據不足的挑戰,主要因為缺乏標準化的診斷代碼。研究團隊使用大型語言模型(如BERT和RoBERTa)來分類無家可歸、食物不安全和家庭暴力等SDoH概念,並創建合成訓練數據集。結果顯示,這些模型能有效提取SDoH資訊,幫助醫療提供者識別高風險病患,進而實施針對性干預,支持減少健康差距的努力。 PubMed DOI

這項研究旨在提升隨機對照試驗(RCT)出版物的報告品質,透過開發文本分類模型來檢視對CONSORT檢查表的遵循情況。研究使用了標註37個CONSORT項目的語料庫,訓練了多種模型,包括微調的PubMedBERT和BioGPT。主要發現顯示,微調的PubMedBERT模型在句子層級的微F1分數達0.71,文章層級為0.90。數據增強的影響有限,且針對方法的模型表現較佳。整體而言,這些模型能有效支持期刊編輯,改善RCT出版物的遵循情況。 PubMed DOI

不良藥物事件(ADEs)對住院率影響顯著,且與高發病率和死亡率相關。傳統的藥物安全監測依賴於不良事件報告系統,但社交媒體如X(前身為Twitter)提供了有價值的患者見解。本研究探討使用大型語言模型(LLMs)進行ADE分類,結果顯示RoBERTa-large模型表現最佳,F1指標達0.8,微調後的ChatGPT則為0.75。特徵分析顯示某些術語在識別ADE中至關重要,顯示LLMs在藥物安全監測中的潛力。 PubMed DOI

這項研究評估了三種大型語言模型(LLMs)—GPT-3.5、GPT-4和Chatsonic—在北美藥師執照考試(NAPLEX)練習題上的表現。結果顯示,GPT-4的準確率最高,McGraw Hill題組達87%,RxPrep題組達83.5%。相比之下,GPT-3.5和Chatsonic的表現較差,尤其在選擇所有正確答案的問題上。GPT-4在不良藥物反應(ADR)問題上表現特別優異,顯示其在藥學教育中的潛在應用價值。 PubMed DOI

這項研究探討了訓練大型語言模型(LLMs)來根據美國住院醫師教育認證委員會(ACGME)的標準分類受訓者的反饋。研究發現,雖然複雜的模型未必能提高分類準確率,但較小的模型如BERT-mini在性能上與FastText相當,且在個人設備上部署時更具優勢,能提升速度和數據隱私。這項研究有助於理解如何有效整合LLMs於醫學教育中。 PubMed DOI

本研究評估三種大型語言模型(LLMs)在心血管藥物開發文獻篩選中的有效性,重點包括: 1. **表現**:分析每個LLM在識別和總結心血管藥物相關文獻的能力。 2. **成本**:探討使用這些LLMs的財務影響,並與傳統文獻回顧方法比較時間和資源的節省。 3. **提示工程權衡**:研究不同提示設計對模型輸出的影響,及其對文獻篩選效率的影響。 本研究旨在揭示LLMs在心血管藥物開發中的潛力,促進更明智的決策和加速新療法上市。 PubMed DOI