原始文章

這項研究探討如何透過指令調整來提升大型語言模型(LLMs)在生物醫學自然語言處理任務的表現,像是命名實體識別(NER)、關係提取(RE)和醫學自然語言推理(NLI)。研究團隊使用約20萬個專注於指令的樣本來訓練模型,目的是達到與BioBERT和BioClinicalBERT等專門模型相當的效果。他們還分析了數據集的組成對模型表現的影響,並希望分享研究結果、代碼和模型,以促進該領域的進一步發展。 PubMed DOI


站上相關主題文章列表

這篇論文評估了大型語言模型(LLMs)在各種生物醫學任務上的表現,發現即使在較小的生物醫學數據集上沒有進行特定微調,LLMs 也能表現良好。雖然LLMs 在所有任務上可能不如專門的生物醫學模型表現優秀,但它們展現了在具有有限標註數據的生物醫學任務中作為有用工具的潛力。 PubMed DOI

大型語言模型在處理自然語言方面有很大潛力,特別是在文本生成、推理和少樣本學習方面表現優秀。然而,在生物醫學領域的命名實體識別方面,LLMs效果不如專門調校的模型好。為了解決這問題,開發了一種新的基於指令的學習方法,創建了BioNER-LLaMA。測試結果顯示,BioNER-LLaMA在生物醫學NER任務中表現優於GPT-4,與專門模型相當。這種方法有潛力提升LLMs在生物醫學和健康領域的競爭力,值得進一步研究。 PubMed DOI

生成式大型語言模型(LLMs)是先進的神經網絡模型,透過大量數據和高效運算,在自然語言處理領域取得成功。這篇由AMIA NLP工作組撰寫的文章探討了在NLP應用中整合LLMs的機會、挑戰和最佳實踐,特別針對生物醫學信息學。強調讓臨床醫生和研究人員能輕鬆使用LLMs,解決文本中的虛假資訊和數據污染問題。文章回顧了LLMs的微調和評估趨勢,強調新技術可應對生物醫學NLP挑戰。 PubMed DOI

未來醫療保健可能運用大型語言模型(LLMs),如OpenAI的自定義生成式預訓練變壓器(GPTs),調整以應用於眼科學領域。探討了調整LLMs、自定義GPTs,以及眼科學中的應用案例,如教育工具、臨床支援工具和管理策略摘要工具。強調了自定義調整的重要性、評估回應方法,並解決了隱私和責任問題。討論了這些模型在眼科教育和臨床實踐中的潛力。 PubMed DOI

這個研究使用了一個名為BioInstruct的數據集,來提升生物醫學自然語言處理的大型語言模型表現。結果顯示,透過結合指導數據和多任務學習,以及有效微調參數,模型在各種BioNLP任務上有顯著改善。指導調整後的模型在生物醫學領域表現優異,尤其在相關任務微調時。BioInstruct數據集對提升BioNLP應用有重要價值。 PubMed DOI

大型語言模型(LLMs)透過互動式學習,可改善醫學生的生物信息學教育。提供程式碼範本、解釋編碼元素、幫助解決錯誤,提升教育成果。LLMs在醫學研究中的應用已有案例。但內容可靠性需驗證。結合LLMs與傳統教學,有助醫學生應對生物信息學挑戰。 PubMed DOI

這項研究探討了訓練大型語言模型(LLMs)來根據美國住院醫師教育認證委員會(ACGME)的標準分類受訓者的反饋。研究發現,雖然複雜的模型未必能提高分類準確率,但較小的模型如BERT-mini在性能上與FastText相當,且在個人設備上部署時更具優勢,能提升速度和數據隱私。這項研究有助於理解如何有效整合LLMs於醫學教育中。 PubMed DOI

這項研究探討如何將大型語言模型(LLMs)整合進證據基礎醫學(EBM),以自動化任務如證據檢索和傳播,來提升臨床決策。研究比較了七個LLMs的表現,結果顯示這些模型在理解和總結方面表現優異,知識引導的提示也顯著提升了效果。不過,在命名實體識別和事實準確性上仍面臨挑戰,需要進一步研究和質量控制才能應用於臨床。研究結果和代碼已在GitHub上公開。 PubMed DOI

這項研究探討大型語言模型(LLMs)在中文生物醫學命名實體識別(BNER)任務的表現,這領域的研究相對較少。作者評估了多個LLMs,包括ChatGLM2-6B、GLM-130B、GPT-3.5和GPT-4,使用真實的中文電子病歷數據集及公共數據集。結果顯示,雖然LLMs在零樣本和少樣本情境下有潛力,但經過指令微調後表現顯著提升。特別是微調後的ChatGLM2-6B在真實數據集上超越了專門模型,而GPT-3.5在CCKS2017數據集上表現最佳,但仍未超過頂尖專業模型DGAN。這是首個評估LLMs在中文BNER任務的研究,顯示其潛力並為未來應用提供指導。 PubMed DOI

這項研究探討了基於Transformer的預訓練大型語言模型(LLMs)在生物醫學領域的適應性與表現,特別針對自然語言推理(NLI)和命名實體識別(NER)兩個任務。研究旨在了解模型在這些任務上的表現與其捕捉資訊的能力之間的關係。分析了編碼器和解碼器基礎的LLMs的內部編碼及注意力機制,並比較了不同數據量微調前後的效果。結果顯示,模型的有效性與其內部機制中的特定模式有關,並提供了LLMs在生物醫學領域如何處理知識的見解。研究源代碼已在GitHub上公開。 PubMed DOI