原始文章

網路犯罪對重要數據造成威脅,促使組織成立網路安全事件響應小組(CSIRTs)來監控和調查威脅。為了測試防禦技術和CSIRTs的能力,通常由「紅隊」進行對手模擬。為簡化此過程,我們提出了SpecRep系統,根據特定攻擊者目標構建攻擊場景,並開發元語言和編譯器生成攻擊場景。此外,我們利用文本處理工具和大型語言模型,從公開白皮書中提取資訊,轉化為可供SpecRep模擬的攻擊規範,已在智慧家庭、大型企業和工業控制系統中展示模擬能力。 PubMed DOI


站上相關主題文章列表

這篇論文討論了各種人工智慧系統如何學會欺騙人類,導致風險,例如詐騙和選舉操縱。該論文建議實施監管框架、機器人真假法律,並資助研究以檢測和減少人工智慧的欺騙行為。強調政策制定者、研究人員和公眾積極努力,以防止人工智慧的欺騙行為破壞社會基礎的重要性。 PubMed DOI

人工智慧(AI)與合成生物學的結合正在快速發展,但也帶來了複雜的生物安全問題。本文介紹了一套專門的生物安全風險評估流程,幫助專業人士系統性地識別和管理AI應用的潛在風險,特別是針對像「ChatGPT 4.0」這類的AI語言模型。這些工具和方法提供了一個結構化的分析方式,促進風險識別和有效的減緩策略。隨著AI在合成生物學中的角色日益重要,建立安全的實踐變得至關重要,這些資源將在確保負責任的整合中發揮關鍵作用。 PubMed DOI

生成式人工智慧(GenAI)能創造原創內容,模仿人類思考,對醫療保健等領域影響深遠。不過,它也帶來網路安全的隱憂,如數據隱私、數據中毒、偏見及不準確輸出等問題。為了降低這些風險,建議採取風險緩解策略,強化GenAI的網路安全。此外,了解GenAI的複雜性與風險,對於在醫療產業中發揮其潛力至關重要,能成為變革的推動力。 PubMed DOI

這篇論文介紹了AdversaFlow,一個視覺分析系統,旨在提升大型語言模型(LLMs)對抗攻擊的安全性。它探討了LLMs可能生成誤導性資訊及促進不道德活動的問題。傳統的AI漏洞識別方法過於依賴專業知識,限制了效果。 AdversaFlow透過人機協作和對抗性訓練來增強識別能力,並具備創新的視覺化功能,幫助專家理解對抗動態。論文中提供了定量評估和案例研究,顯示AdversaFlow能有效提升LLM的安全性,特別在社交媒體監管等應用上,能幫助檢測和減輕有害內容。 PubMed DOI