作者針對大型語言模型在醫療自然語言理解表現不佳,提出統一提示格式、多元醫療指令微調資料集,並以BioMistral微調成BioMistral-NLU。該模型在零樣本下於多項醫療NLU基準測試勝過原始BioMistral及ChatGPT、GPT-4等,證明多元任務指令微調能有效提升泛化能力。 PubMed
這項研究發現,結合 soft prompt-based learning 和大型語言模型(像 GatorTronGPT),能大幅提升從不同醫院和疾病的臨床文本中萃取社會健康決定因素(SDoH)的效果。經過 prompt-tuning 的 GatorTronGPT,F1 分數最高比傳統 fine-tuned 模型多出 21.8%,顯示它在跨領域應用上表現更好。 PubMed