原始文章

大型語言模型(LLMs)能生成類似人類的高品質文本,對資訊生態系統影響深遠。為了防止濫用,水印技術可用於識別合成文本,但因質量和檢測性等挑戰,尚未普遍應用。這篇論文介紹了SynthID-Text,一種專為生產設計的水印方案,能在不影響文本質量的情況下,實現高檢測準確率。實驗顯示,SynthID-Text在可檢測性上優於其他方法,並保持LLM性能,作者希望能推動水印技術的發展,促進負責任的LLM使用。 PubMed DOI


站上相關主題文章列表

討論使用GPT-3訓練自己寫作,創造AUTOGEN,提升學術散文和創意生成。不同AUTOGEN展現出比基礎模型更好的品質和創意。倫理考量包括提高生產力、減少多樣性、侵犯隱私和抄襲風險。共同作者或多來源訓練模型的所有權問題變複雜。在學術寫作中,保持原始材料的獨特性是重要的倫理議題。文章也探討了技術問題和整合AUTOGEN與其他模型的好處。總的來說,個性化語言模型像AUTOGEN提供了學術增強潛力,但必須處理倫理問題。 PubMed DOI

近期大型語言模型如ChatGPT的快速進展引起了對其對學術誠信的擔憂。最新更新整合了DALL-E 3的圖像生成功能,擴大了對生物醫學研究中視覺證據的風險。測試顯示,ChatGPT能生成實驗結果圖像,雖有限制,但仍存在風險。應立即採取行動,如限制實驗圖像生成、開發檢測工具,並在生成的圖像上加入「隱形水印」,以確保負責任地使用人工智慧於學術研究和科學誠信。 PubMed DOI

大型語言模型(LLM)如ChatGPT或Gemini具有強大的推理和問答能力,但可能產生虛假輸出。這可能對各領域應用造成問題,如製造虛假法律先例或散佈虛假新聞。為提升誠實性,研究者致力於開發檢測虛假輸出的方法,著重於評估不確定性以檢測不正確回應。這種方法可用於識別新情況中的不可靠輸出,幫助用戶警惕LLM的潛在風險,並拓展新應用。 PubMed DOI

大型語言模型如GPT-4、Bard和Claude,透過高效的文本處理能力,改變醫學等領域的學術寫作。雖然這些模型能生成類似人類內容,有助於文獻回顧和假設制定,但人工智慧生成內容的準確性引發道德疑慮。本文討論LLMs對醫學寫作的影響、道德挑戰,以及辨識人工智慧生成文本的方法,同時思考LLMs在學術出版和醫學領域的未來。 PubMed DOI

LLMs在社交網絡中可能造假,影響社會。為了解決問題,提出一方法模擬和量化LLMs散播虛假資訊情況。考慮個人行為、網絡結構和社群關係等因素。透過真實數據和不同情境評估,協助制定對抗LLMs散播虛假資訊策略。 PubMed DOI

這項研究探討了 COVID-19 疫情期間攻擊性語言的增加,並利用機器學習技術來解決這個問題。研究建立了一個檢測和轉化中文仇恨言論的框架,並編制了包含 30 個疫情相關術語的數據集。開發的兩層檢測模型準確率分別為 94.42% 和 81.48%。結合生成式 AI 和 LDA 主題模型,提升了改寫效率,並有效減少敵意,保持核心意義。這種方法提供建設性的改寫建議,促進積極公共討論,幫助遏制仇恨言論。 PubMed DOI

這篇論文介紹了AdversaFlow,一個視覺分析系統,旨在提升大型語言模型(LLMs)對抗攻擊的安全性。它探討了LLMs可能生成誤導性資訊及促進不道德活動的問題。傳統的AI漏洞識別方法過於依賴專業知識,限制了效果。 AdversaFlow透過人機協作和對抗性訓練來增強識別能力,並具備創新的視覺化功能,幫助專家理解對抗動態。論文中提供了定量評估和案例研究,顯示AdversaFlow能有效提升LLM的安全性,特別在社交媒體監管等應用上,能幫助檢測和減輕有害內容。 PubMed DOI

您的分析顯示人類撰寫的新聞與大型語言模型(LLMs)生成的內容有明顯差異。主要發現包括: 1. **語言變異性**:人類文本在句子長度和詞彙多樣性上更豐富,LLM則較一致。 2. **句法結構**:人類使用較短的成分和更優化的依賴距離。 3. **情感語調**:人類文本表達更強烈的負面情緒,LLM則較少快樂情感。 4. **毒性與客觀性**:LLM的毒性隨模型增大而增加,顯示更客觀的語言特徵。 5. **代名詞使用**:LLM使用的代名詞較多,反映敘事風格差異。 6. **偏見**:兩者均顯示性別歧視,LLM往往放大這種偏見。 7. **比較差異**:人類與LLM文本的差異更明顯。 總體而言,這些發現突顯了人類寫作與AI生成內容的獨特特徵。 PubMed DOI

對於大型語言模型(LLMs)可能擴散錯誤資訊的擔憂是合理的,因為這些模型生成的內容難以與可信來源區分,容易造成真實與虛假資訊的混淆。這可能導致錯誤資訊的強化,讓人們難以辨別事實。 使用者互動和分享這些內容,可能形成反饋循環,進一步鞏固錯誤資訊。這樣的情況可能影響民主過程、信任機構,甚至造成社會分裂。因此,推廣媒體素養、批判性思維及事實查核機制非常重要。同時,提升LLMs訓練和資訊來源的透明度,能減少錯誤資訊的風險,確保科技能增進我們對現實的理解。 PubMed DOI

這項研究探討大型語言模型(LLMs)在分析社交媒體貼文,評估公眾對疫苗接種態度的應用。研究人員比較了不同LLMs的表現,包括GPT模型和開源替代品,並與基於規則的情感分析工具進行對比。結果顯示,使用表現最佳的LLMs進行少量提示能獲得最佳效果,而其他方法則有較高的誤分類風險。研究強調LLMs在公共衛生領域的潛力,建議將其納入公共衛生監測,以提升對健康政策公眾意見的評估能力。 PubMed DOI