原始文章

CIPHER是一款專為滲透測試設計的AI語言模型,旨在協助網路安全領域的專業人士,特別是初學者。它基於300多個高品質資源進行訓練,並採用FARR流程來提升自動化滲透測試的準確性。CIPHER在性能評估中表現優於其他開源模型,尤其在複雜的環境中更顯優勢,顯示出大型語言模型在滲透測試中的局限性。透過進一步擴展和精煉基準,CIPHER的效能還有望持續提升。 PubMed DOI


站上相關主題文章列表

這份研究探討了在學術寫作中使用像是ChatGPT這樣的先進人工智慧模型的好處和風險,強調了道德考量以及對真實性和可信度的潛在影響。儘管這些工具可以提升效率,但也引起了一些擔憂。研究建議進行全面討論和道德考量,主張人類智慧和批判性思維在學術工作中的重要性。 PubMed DOI

AI聊天機器人如ChatGPT和Google Bard運用人工智慧和自然語言處理,可改善病人護理和公共衛生。但因處理敏感資訊,引發資安疑慮。本文探討AI聊天機器人的安全問題,提出保護健康數據的建議,特別針對ChatGPT。討論了降低風險的關鍵因素,以及AI聊天機器人在醫療保健中的政策挑戰。 PubMed DOI

傳統CAPTCHA已不再有效,新方法利用人類分析師創建基於圖像處理和因果推理的自由回答問題來識別機器人。然而,這方法效率低下。新研究提出基於心理研究的自動化機器人篩選問題,測試結果顯示效果優於reCAPTCHA V3。 PubMed DOI

這篇評論探討了在醫療領域使用像 ChatGPT 這類 AI 模型進行寫作輔助所面臨的倫理問題。儘管技術先進,但仍有不準確、缺乏上下文理解等問題。此外,隱私、數據安全、透明度、偏見和著作權等議題也令人擔憂。評論強調遵循規範和透明度的重要性,若能妥善管理這些挑戰,AI 模型將能在寫作上提供有價值的支持。 PubMed DOI

生成式人工智慧(GenAI)能創造原創內容,模仿人類思考,對醫療保健等領域影響深遠。不過,它也帶來網路安全的隱憂,如數據隱私、數據中毒、偏見及不準確輸出等問題。為了降低這些風險,建議採取風險緩解策略,強化GenAI的網路安全。此外,了解GenAI的複雜性與風險,對於在醫療產業中發揮其潛力至關重要,能成為變革的推動力。 PubMed DOI

網路犯罪對重要數據造成威脅,促使組織成立網路安全事件響應小組(CSIRTs)來監控和調查威脅。為了測試防禦技術和CSIRTs的能力,通常由「紅隊」進行對手模擬。為簡化此過程,我們提出了SpecRep系統,根據特定攻擊者目標構建攻擊場景,並開發元語言和編譯器生成攻擊場景。此外,我們利用文本處理工具和大型語言模型,從公開白皮書中提取資訊,轉化為可供SpecRep模擬的攻擊規範,已在智慧家庭、大型企業和工業控制系統中展示模擬能力。 PubMed DOI

這篇論文介紹了AdversaFlow,一個視覺分析系統,旨在提升大型語言模型(LLMs)對抗攻擊的安全性。它探討了LLMs可能生成誤導性資訊及促進不道德活動的問題。傳統的AI漏洞識別方法過於依賴專業知識,限制了效果。 AdversaFlow透過人機協作和對抗性訓練來增強識別能力,並具備創新的視覺化功能,幫助專家理解對抗動態。論文中提供了定量評估和案例研究,顯示AdversaFlow能有效提升LLM的安全性,特別在社交媒體監管等應用上,能幫助檢測和減輕有害內容。 PubMed DOI

這項研究探討人工智慧、大數據分析與網路安全的交集,特別是如何透過創新方法增強安全性與隱私。研究強調自然語言處理在提升資訊安全的潛力,並評估平衡數據效用與個人隱私的技術。重要貢獻是提出一種新穎的惡意軟體檢測方法,利用深度學習技術,將惡意檔案轉換為灰階圖像進行分析,達到99.86%的檢測準確率。研究結果顯示深度學習在揭示複雜系統隱藏模式的有效性,推進計算安全領域的發展。 PubMed DOI

最近大型語言模型(如ChatGPT和Bard)在教育領域的應用引發了對學術論文寫作潛在濫用的擔憂。本研究探討這些模型是否能生成關於醫學生個人經歷和倫理困境的非結構性論文,並檢視其是否能與人類作品區分。 研究團隊收集了47篇學生的原創論文,並利用這些內容生成相同數量的AI論文。分析結果顯示,AI生成的論文在情感和分析思維的語言使用上較學生作品更為頻繁。儘管存在語言特徵的差異,兩個LLMs在反映學生對倫理困境的經歷方面均表現出高度有效性。 PubMed DOI

這篇摘要強調生成式人工智慧和大型語言模型在醫療保健中的重要性,指出它們能提升病人護理、研究及行政效率。不過,這些技術也帶來了安全和倫理挑戰,需採取全面措施以保障數據隱私和倫理使用。提出的AI醫療聊天機器人部署流程,專注於隱私保護技術和持續安全評估,以建立醫療應用中的信任與韌性。這種方法對於在敏感環境中最大化AI的好處並降低風險至關重要。 PubMed DOI