原始文章

這篇論文介紹了一種新的網路安全異常檢測方法,叫做「透過引導提示的表格異常檢測」(TAD-GP)。它使用了一個擁有70億參數的開源大型語言模型,並結合了多種創新策略,如數據樣本引入和思考鏈推理。實驗結果顯示,這個方法在三個數據集上F1分數顯著提升,分別增加了79.31%、97.96%和59.09%。特別是較小的TAD-GP模型在性能上超越了大型模型,顯示出在資源有限環境中的有效性,適合私有部署,填補了網路安全異常檢測的重要空白。 PubMed DOI


站上相關主題文章列表

大型語言模型(LLMs)雖然在文本生成和對話式AI上帶來革命,但也伴隨著安全風險,如越獄攻擊,可能被惡意利用來散播錯誤資訊。為了解決這些問題,Prompt Guarding(Prompt-G)利用向量資料庫和嵌入技術來評估生成文本的可信度,並即時檢測有害內容。經過分析自我提醒攻擊的數據集,Prompt-G 成功降低了越獄攻擊的成功率至 2.08%。該模型的源代碼可在這裡找到:https://doi.org/10.5281/zenodo.13501821。 PubMed DOI

這篇論文探討Android惡意軟體檢測的挑戰,特別是因為Android系統普及和隱私問題導致的流量數據不足。它提出了一個名為Syn-detect的兩步驟智慧感知模型,利用大型語言模型(LLMs)來生成和分類網路流量中的惡意軟體。 首先,使用GPT-2生成合成的TCP惡意流量數據,然後用微調過的BERT模型進行分類。Syn-detect在CIC-AndMal2017和CIC-AAGM2017數據集上表現優異,準確率分別達99.8%和99.3%,顯示出其在行動安全上的有效性。 PubMed DOI

隨著網路威脅越來越複雜,安全運營中心(SOCs)需要更先進的工具來應對事件。我們開發了安全事件回應助手(SERC),幫助分析師更有效地處理安全漏洞。SERC結合了檢索增強生成(RAG)方法和大型語言模型(LLM)來指導事件回應。透過Wazuh這個開源SIEM平台,SERC能即時收集安全事件數據,並從事件回應知識、MITRE ATT&CK框架及NIST網路安全框架中提取見解,提升對手識別與風險管理的準確性。研究顯示,結合結構化威脅情報與AI模型能有效應對當前的網路安全挑戰。 PubMed DOI

Rodriguez-Nava 等人進行了一項概念驗證研究,探討如何利用安全的大型語言模型(LLM)來獲得醫療數據的批准。他們的研究專注於回顧性識別中心靜脈導管相關血流感染(CLABSIs),這是一種特定的醫療相關感染(HAI),並使用真實病人的數據進行監測。研究結果顯示,LLMs 有潛力顯著提升 HAI 監測的效率,並能部分自動化或簡化這個過程。 PubMed DOI

資訊保障和網路安全隨著科技進步和威脅複雜化而不斷演變。本研究利用大型語言模型和自然語言處理技術,分析1967年至2024年的文獻,資料來自62,000多份Scopus文件。研究分為兩個階段:主題檢測和自動摘要,並針對不同時間區間進行分析。結果顯示,綜合方法在關鍵字定義任務中有顯著改進,生成的摘要在多項指標上表現優異,並保持書目參考的邏輯完整性,突顯資訊保障的焦點轉變及未來趨勢。 PubMed DOI

大型語言模型(LLMs)雖然受到廣泛關注,但其潛在的濫用風險也令人擔憂,特別是越獄提示(jailbreak prompts)這類攻擊。雖然LLMs會定期更新安全措施,但惡意用戶常隱藏成功的提示,讓識別漏洞變得困難。為了解決這個問題,我們提出了JailbreakHunter,一個視覺分析工具,能夠識別對話數據中的越獄提示。它包含三個分析層級,幫助用戶了解對話分佈、追蹤進展及探索提示的相似性,顯示出增強LLM互動中越獄提示檢測的潛力。 PubMed DOI

這篇評論探討生成式AI和大型語言模型如何協助保護像能源、水資源、運輸等重要基礎設施,免於網路攻擊。內容涵蓋信任、隱私、韌性等挑戰,並回顧AI資安表現的評估標準,也討論Agentic AI主動防禦的應用,最後提出整合AI強化資安的發展方向。 PubMed DOI

這項研究解決了社群媒體上IoC分類缺乏高品質標註資料的問題,透過微調GPT-3.5來產生擬真合成資料集。用這些資料訓練模型,準確率最高達82%,證明微調後的LLM能有效生成有用的資安資料,提升IoC分類表現,對資安領域很有幫助。 PubMed DOI

這項研究發現,經LoRA微調的LLaMA 3.2 1B-Instruct輕量級大型語言模型,在偵測物聯網糖尿病管理裝置異常行為時,準確率高達99.91%,且完全沒有誤報,表現比其他模型更好。結果證明LLM能有效提升醫療裝置的資安與可靠性,對醫療照護很有幫助。 PubMed DOI

這篇論文探討用大型語言模型從非結構化或半結構化文本中自動擷取感測器資料,並強調設計精確提示語讓模型輸出標準 JSON 格式。實驗發現 GPT-4 效果最好,但資料結構明確時,開源模型表現也不差。小型模型處理自由文本較弱,但對表格資料還行;大型模型則更穩定可靠。 PubMed DOI