原始文章

資訊保障和網路安全隨著科技進步和威脅複雜化而不斷演變。本研究利用大型語言模型和自然語言處理技術,分析1967年至2024年的文獻,資料來自62,000多份Scopus文件。研究分為兩個階段:主題檢測和自動摘要,並針對不同時間區間進行分析。結果顯示,綜合方法在關鍵字定義任務中有顯著改進,生成的摘要在多項指標上表現優異,並保持書目參考的邏輯完整性,突顯資訊保障的焦點轉變及未來趨勢。 PubMed DOI


站上相關主題文章列表

從生物醫學文獻中提取準確資訊相當複雜,因為這個領域跨學科且術語專業。早期的自然語言處理(NLP)方法常常無法掌握語言的細微差別,導致錯誤答案。隨著變壓器模型的出現,大型語言模型(LLMs)在問答任務中表現改善,但仍面臨挑戰,經常產生「幻覺」信息。我們的研究透過增強檢索架構來提升LLMs在生物醫學問答中的表現,並開發了問答機器人WeiseEule,強調用戶查詢信號的重要性,改善了回應的準確性和相關性。 PubMed DOI

這篇文章探討如何將大型語言模型(LLMs)融入科學工作流程,將原始文本轉化為有條理的敘事,並運用語義網技術。文章強調敘事在傳遞複雜科學資訊中的重要性,以及生成文本的可靠性。研究定義了「敘事事件」,並比較了不同小型LLM在特定需求下的表現,重點在於保持原始敘事的完整性。初步評估顯示,LLaMA 2在生成與源文本緊密對齊的敘事事件方面最為有效,並且透過提示工程技術進一步提升了輸出質量。 PubMed DOI

隨著科學文章數量快速增加,如何組織和提取資訊成為一大挑戰,顯示出自動化的必要性。本研究探討利用大型語言模型(如OpenAI的GPT-4.0)來提取科學文獻中的關鍵洞察。我們開發了名為ArticleLLM的系統,透過手動基準微調來提升模型表現,並採用多演員LLM策略,結合多個微調模型的優勢,增強提取效果。本研究顯示LLMs在關鍵洞察提取上的潛力,並強調協作微調的好處,有助於提升學術文獻調查與知識發現的效率。 PubMed DOI

這篇論文介紹了一種新的網路安全異常檢測方法,叫做「透過引導提示的表格異常檢測」(TAD-GP)。它使用了一個擁有70億參數的開源大型語言模型,並結合了多種創新策略,如數據樣本引入和思考鏈推理。實驗結果顯示,這個方法在三個數據集上F1分數顯著提升,分別增加了79.31%、97.96%和59.09%。特別是較小的TAD-GP模型在性能上超越了大型模型,顯示出在資源有限環境中的有效性,適合私有部署,填補了網路安全異常檢測的重要空白。 PubMed DOI

這項研究提出了一個新框架,結合本體知識與抽象文本摘要,提升新聞文章的摘要質量與相關性。傳統的提取式摘要常常內容過於一般化且不準確,因為缺乏專業知識。這個新方法透過本體知識微調摘要過程,產生更準確且具上下文的摘要。評估結果顯示,這個框架的表現超越了BART、BERT和GPT-3.5,ROUGE-1分數提高5.1%,ROUGE-L改善9.8%。整體來看,將本體見解融入摘要過程是一個有效的策略,能生成高質量的新聞摘要。 PubMed DOI

大型語言模型(LLMs),像是ChatGPT,已經徹底改變了學術界的科學寫作與研究,提供了全方位的支援。生成式人工智慧(GAI)工具在假設形成、方法設計、數據分析到手稿準備等各階段都有所改善。這篇評論專注於LLMs在血液學研究中的應用,特別提到提示工程和檢索增強生成(RAG)框架等技術。這些技術能幫助研究人員創造更準確的內容,並降低錯誤資訊的風險。儘管GAI工具提升了研究質量,但也強調了科學誠信、倫理考量及隱私保護的重要性。 PubMed DOI

這項研究解決了社群媒體上IoC分類缺乏高品質標註資料的問題,透過微調GPT-3.5來產生擬真合成資料集。用這些資料訓練模型,準確率最高達82%,證明微調後的LLM能有效生成有用的資安資料,提升IoC分類表現,對資安領域很有幫助。 PubMed DOI

這項研究發現,用結構化提示雖然能讓八款大型語言模型產生更貼近臨床需求的摘要,但也更容易出現錯誤和偏誤。沒有任何模型能穩定產出臨床可用的摘要,因此各機構還是要自行把關,確保摘要內容正確無誤。 PubMed DOI

這篇研究發現,大型語言模型在沒經過特別訓練下,結合檢索增強生成(RAG)和提示工程,能有效自動摘要專業資訊,表現不錯。不過,還是會遇到像網頁爬蟲限制和偶爾誤解任務等問題,未來還需要進一步優化。 PubMed

這篇論文探討用大型語言模型從非結構化或半結構化文本中自動擷取感測器資料,並強調設計精確提示語讓模型輸出標準 JSON 格式。實驗發現 GPT-4 效果最好,但資料結構明確時,開源模型表現也不差。小型模型處理自由文本較弱,但對表格資料還行;大型模型則更穩定可靠。 PubMed DOI