原始文章

ACBreaker 是一套用大型語言模型(LLM)協助找出物聯網裝置網頁介面存取控制漏洞的新方法。它會先把韌體程式碼拆成小區塊,再用 LLM 萃取裝置細節,最後結合模糊測試來找漏洞。實測 11 款裝置,發現 39 個新漏洞,部分還拿到 CVE 編號。 PubMed DOI


站上相關主題文章列表

大型語言模型(LLMs)雖然在文本生成和對話式AI上帶來革命,但也伴隨著安全風險,如越獄攻擊,可能被惡意利用來散播錯誤資訊。為了解決這些問題,Prompt Guarding(Prompt-G)利用向量資料庫和嵌入技術來評估生成文本的可信度,並即時檢測有害內容。經過分析自我提醒攻擊的數據集,Prompt-G 成功降低了越獄攻擊的成功率至 2.08%。該模型的源代碼可在這裡找到:https://doi.org/10.5281/zenodo.13501821。 PubMed DOI

這篇論文介紹了一種新的網路安全異常檢測方法,叫做「透過引導提示的表格異常檢測」(TAD-GP)。它使用了一個擁有70億參數的開源大型語言模型,並結合了多種創新策略,如數據樣本引入和思考鏈推理。實驗結果顯示,這個方法在三個數據集上F1分數顯著提升,分別增加了79.31%、97.96%和59.09%。特別是較小的TAD-GP模型在性能上超越了大型模型,顯示出在資源有限環境中的有效性,適合私有部署,填補了網路安全異常檢測的重要空白。 PubMed DOI

這項研究指出醫療領域的視覺語言模型(VLMs)存在重大安全漏洞,容易受到提示注入攻擊。這些攻擊能在不接觸內部參數的情況下,生成有害資訊。研究評估了四個先進的VLMs,發現它們皆有脆弱性,尤其是將微妙提示嵌入醫學影像中,可能導致難以察覺的有害輸出。這對VLMs在臨床上的安全使用構成風險,顯示在廣泛應用前需制定相應的防範措施。 PubMed DOI

這篇文章全面回顧了語言模型中的後門攻擊及其對策,填補了自然語言處理領域的一個重要空白。隨著語言模型在第三方平台的普及,後門攻擊的風險也增加。文章將攻擊分為三類:對預訓練模型微調的攻擊、對最終模型訓練的攻擊,以及對大型語言模型的攻擊。對策則分為樣本檢查和模型檢查,並分析其優缺點。最後,文章強調未來研究的重點,呼籲發展更有效的防禦措施。 PubMed DOI

這篇評論探討生成式AI和大型語言模型如何協助保護像能源、水資源、運輸等重要基礎設施,免於網路攻擊。內容涵蓋信任、隱私、韌性等挑戰,並回顧AI資安表現的評估標準,也討論Agentic AI主動防禦的應用,最後提出整合AI強化資安的發展方向。 PubMed DOI

這項研究解決了社群媒體上IoC分類缺乏高品質標註資料的問題,透過微調GPT-3.5來產生擬真合成資料集。用這些資料訓練模型,準確率最高達82%,證明微調後的LLM能有效生成有用的資安資料,提升IoC分類表現,對資安領域很有幫助。 PubMed DOI

大型語言模型在醫療應用潛力大,但也帶來資安風險,像是病患隱私外洩、資料被竄改等。文章強調,開發和部署時一定要落實資安措施,才能保障病患資料安全。 PubMed DOI

這篇研究發現,像 BioGPT 這類臨床大型語言模型,因為訓練資料可能被操控,容易遭到資料投毒攻擊。實驗證明,LLM 的輸出真的會被影響,提醒醫療現場要特別小心,使用 LLM 時要更謹慎負責。 PubMed

這篇論文介紹一套由大型語言模型協助的分析框架,專門用來研究如何繞過LLM安全限制的jailbreak攻擊。作者開發了JailbreakLens視覺化工具,能自動評估攻擊成效、分析提示特徵,並協助優化攻擊方式。這套系統能提升安全評估效率,幫助找出模型弱點,並已獲專家肯定。 PubMed DOI

這項研究發現,經LoRA微調的LLaMA 3.2 1B-Instruct輕量級大型語言模型,在偵測物聯網糖尿病管理裝置異常行為時,準確率高達99.91%,且完全沒有誤報,表現比其他模型更好。結果證明LLM能有效提升醫療裝置的資安與可靠性,對醫療照護很有幫助。 PubMed DOI