原始文章

這項研究提出了一個新框架,結合本體知識與抽象文本摘要,提升新聞文章的摘要質量與相關性。傳統的提取式摘要常常內容過於一般化且不準確,因為缺乏專業知識。這個新方法透過本體知識微調摘要過程,產生更準確且具上下文的摘要。評估結果顯示,這個框架的表現超越了BART、BERT和GPT-3.5,ROUGE-1分數提高5.1%,ROUGE-L改善9.8%。整體來看,將本體見解融入摘要過程是一個有效的策略,能生成高質量的新聞摘要。 PubMed DOI


站上相關主題文章列表

OpenMedLM是一個開源的醫學語言模型,在醫學基準測試中表現優異,且無需大量微調。透過提示策略,OpenMedLM在三個醫學語言模型基準測試中取得領先地位,超越其他模型。這顯示開源基礎模型在提升醫療任務表現方面具有潛力,同時也凸顯提示工程對於醫學應用中易用的語言模型的重要性。 PubMed DOI

從生物醫學文獻中提取準確資訊相當複雜,因為這個領域跨學科且術語專業。早期的自然語言處理(NLP)方法常常無法掌握語言的細微差別,導致錯誤答案。隨著變壓器模型的出現,大型語言模型(LLMs)在問答任務中表現改善,但仍面臨挑戰,經常產生「幻覺」信息。我們的研究透過增強檢索架構來提升LLMs在生物醫學問答中的表現,並開發了問答機器人WeiseEule,強調用戶查詢信號的重要性,改善了回應的準確性和相關性。 PubMed DOI

這項研究評估了六種不同的少量樣本提示方法,針對大型語言模型在Spider4SPARQL基準測試中的表現,該測試專注於複雜的SPARQL知識圖譜問答。實驗分為兩組,第一組檢視基於樣本數量或類型的提示方法,第二組則探討如何透過LLM生成的解釋來優化提示。結果顯示,商業模型在KGQA的準確率不超過51%,顯示處理複雜查詢的挑戰。最有效的方法是結合簡單提示與本體,並使用五個隨機樣本。 PubMed DOI

資訊保障和網路安全隨著科技進步和威脅複雜化而不斷演變。本研究利用大型語言模型和自然語言處理技術,分析1967年至2024年的文獻,資料來自62,000多份Scopus文件。研究分為兩個階段:主題檢測和自動摘要,並針對不同時間區間進行分析。結果顯示,綜合方法在關鍵字定義任務中有顯著改進,生成的摘要在多項指標上表現優異,並保持書目參考的邏輯完整性,突顯資訊保障的焦點轉變及未來趨勢。 PubMed DOI

這篇論文提出一種全新的 soft prompt-tuning 方法,專門用來分類醫療短文本,像是對話紀錄或線上諮詢。透過自動產生模板和擴充標籤詞彙,能更精準處理醫療術語和複雜單位。實驗證明,這方法不只提升分類準確率,也讓結果更容易理解,有效解決醫療短文本分類的難題。 PubMed DOI

研究發現,先把每份臨床紀錄各自摘要,再合併生成出院摘要(先摘要再提示),比直接合併所有紀錄來得更完整、正確,內容也不會變冗長。這種方法有望協助自動化出院摘要撰寫,減輕醫師工作壓力。 PubMed DOI

這項研究發現,用結構化提示雖然能讓八款大型語言模型產生更貼近臨床需求的摘要,但也更容易出現錯誤和偏誤。沒有任何模型能穩定產出臨床可用的摘要,因此各機構還是要自行把關,確保摘要內容正確無誤。 PubMed DOI

這項研究發現,結合 soft prompt-based learning 和大型語言模型(像 GatorTronGPT),能大幅提升從不同醫院和疾病的臨床文本中萃取社會健康決定因素(SDoH)的效果。經過 prompt-tuning 的 GatorTronGPT,F1 分數最高比傳統 fine-tuned 模型多出 21.8%,顯示它在跨領域應用上表現更好。 PubMed

這篇研究發現,大型語言模型在沒經過特別訓練下,結合檢索增強生成(RAG)和提示工程,能有效自動摘要專業資訊,表現不錯。不過,還是會遇到像網頁爬蟲限制和偶爾誤解任務等問題,未來還需要進一步優化。 PubMed

**重點摘要:** 這項研究顯示,使用 prompt-tuning 搭配大型臨床語言模型(GatorTronGPT)可以有效地摘要醫師與病患之間的對話,不僅表現優於以往經過 fine-tune 的模型,而且更有效率,因為不需要更新模型的參數。 PubMed