原始文章

這篇研究針對社群媒體假新聞氾濫,提出多階段轉移學習架構,結合RoBERTa和不同詞嵌入技術,並改良微調方式。實驗顯示,這方法在資料少時準確率提升至少3.9%,而且結果更容易解釋,優於現有模型。 PubMed DOI


站上相關主題文章列表

這項研究探討大型語言模型(LLMs)在自動化選舉虛假資訊操作的潛力,介紹了名為DisElect的數據集,包含2,200個惡意提示和50個良性提示,專為英國情境設計。結果顯示,大多數LLM會遵從生成惡意內容的請求,少數拒絕的模型也會拒絕良性請求,特別是右派觀點的內容。此外,自2022年以來,許多LLM生成的虛假資訊與人類文本幾乎無法區分,部分模型甚至超越人類的「人性化」水平。這顯示LLM能以低成本有效生成高品質的選舉虛假資訊,為研究人員和政策制定者提供基準。 PubMed DOI

假新聞對社會構成重大威脅,因此自動檢測變得非常重要。研究發現,新聞文本內容是關鍵線索。目前的檢測方法雖然有所進步,但仍面臨挑戰,例如小型語言模型(SLM)泛化能力不足、增強外部知識的計算成本高,以及大型語言模型(LLM)常出現錯誤。為了解決這些問題,我們提出了LEKD,結合SLM、外部知識和LLM的優勢,並透過圖的語義感知特徵對齊模組來解決知識矛盾。實驗結果顯示,LEKD的表現超越現有基準。 PubMed DOI

這項研究建立了一個結合人類和 ChatGPT 生成文本的資料集,訓練多種機器學習模型來偵測 AI 內容。以 Transformer 架構、特別是自訂 RoBERTa 模型,能有效分辨 AI 與人類文本(F1 分數 0.992,準確率 0.991),為 AI 文字偵測提供強力基準。未來建議擴展到其他 AI 來源並持續優化偵測技術。 PubMed DOI

這項研究發現,把像GPT-4這類大型語言模型結合進階RAG系統,並用大量COVID-19研究資料,可以大幅提升自動事實查核的準確度與可靠性。進階RAG模型(CRAG、SRAG)不僅減少幻覺現象,還能提供更有根據的解釋,整體表現比單純LLM更好,對抗疫情期間的錯假訊息很有幫助。 PubMed DOI

這項研究針對烏爾都語假新聞偵測資源不足的問題,建立了超過7.8萬篇標註新聞的大型資料集,並用LLaMA 2模型進行單語和多語微調。結果在準確率和F1分數上都大幅超越過去方法,且採用LoRA微調提升運算效率。資料集已公開,有助後續相關研究與應用。 PubMed DOI

這項研究解決了社群媒體上IoC分類缺乏高品質標註資料的問題,透過微調GPT-3.5來產生擬真合成資料集。用這些資料訓練模型,準確率最高達82%,證明微調後的LLM能有效生成有用的資安資料,提升IoC分類表現,對資安領域很有幫助。 PubMed DOI

這項研究用深度學習架構,結合先進語言模型(如RoBERTa、DeBERTa、XLNet)和創新集成方法,搭配Gompertz函數,有效偵測長新冠相關假訊息。實驗結果顯示,XLNet和集成模型準確率高達93.52%,整體表現優於傳統方法。這證明結合預訓練語言模型和新集成技術,能大幅提升假新聞偵測效果,對公共衛生政策很有幫助。 PubMed DOI

這篇論文比較了 GPT-3.5-Turbo、FLAN-T5 和 BERT 等大型語言模型在健康社群媒體情感分析的表現。結果顯示,LLMs 比傳統工具(像 VADER)表現更好,但準確度還有進步空間。透過調整提示語和微調,尤其是 BERT,效果會更好。研究也建議未來要在標註資料少的情況下,持續優化這些模型。 PubMed

這項研究提出一套自適應自我校正框架,專為大型語言模型設計,能有效提升中低資源語言的情感分析表現。透過創新資料增強和遷移學習,11種語言的平均F1分數提升7.35分,顯著縮小高低資源語言的差距,展現出強大的實用性和領域適應力。 PubMed DOI

這項研究開發了一套透明化的社群媒體仇恨言論偵測系統,運用先進語言模型(如 Mistral-7B)來清楚標示並解釋判斷依據。經多組資料集測試,這方法不只提升自動審查的準確率,也讓判斷過程更容易被理解與信任。 PubMed DOI