原始文章

假新聞對社會構成重大威脅,因此自動檢測變得非常重要。研究發現,新聞文本內容是關鍵線索。目前的檢測方法雖然有所進步,但仍面臨挑戰,例如小型語言模型(SLM)泛化能力不足、增強外部知識的計算成本高,以及大型語言模型(LLM)常出現錯誤。為了解決這些問題,我們提出了LEKD,結合SLM、外部知識和LLM的優勢,並透過圖的語義感知特徵對齊模組來解決知識矛盾。實驗結果顯示,LEKD的表現超越現有基準。 PubMed DOI


站上相關主題文章列表

知識圖譜(KGs)改變了知識的表現方式,將實體及其關係以圖形結構組織,提升了推薦系統和問答系統的效能。像是Expert.AI的Sensigrafo,專注於透過機器導向的詞彙來增進自然語言理解。不過,維護知識圖譜仍然面臨挑戰,通常需要手動輸入。近期大型語言模型(LLMs)的進展,為自動化知識圖譜的豐富提供了新機會,本文探討了基於LLM的最新技術,並針對數據質量、經濟性、隱私等問題提供見解。 PubMed DOI

立場檢測是自然語言處理中的關鍵任務,能識別作者對特定議題的觀點,對社會科學研究及應用相當重要。傳統方法多依賴維基百科數據,但因文章質量不一,效果不穩定。為解決此問題,我們利用大型語言模型(LLMs)進行立場檢測,並提出推理蒸餾方法,將LLMs的推理能力轉移至更小型的語言模型(SLMs),提升效率而不影響性能。我們的LOGIC模型在VAST數據集上表現優異,超越了GPT-3.5 Turbo和GPT-4 Turbo等先進模型。 PubMed DOI

這項研究探討如何利用大型語言模型(LLMs)來提升自然語言處理中的文本相似性理解。研究中,微調後的LLaMA模型(70億參數)在F1分數上達到84.9%,超越了先前的Siamese卷積神經網絡(82.02%)。此外,700億參數的LLaMA3.1模型也表現不俗,F1分數為74.4%。這顯示微調LLMs對特定任務的有效性,並建議可應用於履歷與職位匹配及學術投稿審稿人識別等領域。 PubMed DOI

這篇論文介紹了Pastel,一種利用大型語言模型(LLMs)進行錯誤資訊檢測的弱監督方法。它成功解決了高準確度提取器訓練的挑戰,並克服了缺乏大型標註數據集的問題。Pastel的表現顯著提升,超越了零樣本真實性檢測38.3%,並達到依賴人類監督的系統86.7%的性能。在跨領域情境中,表現也超過了監督模型63%。研究還發現19個可信度信號中,有12個與內容真實性有強烈關聯,某些信號在特定領域效果更佳。補充材料可在線查閱。 PubMed DOI

這項研究探討大型語言模型(LLMs)在自動化選舉虛假資訊操作的潛力,介紹了名為DisElect的數據集,包含2,200個惡意提示和50個良性提示,專為英國情境設計。結果顯示,大多數LLM會遵從生成惡意內容的請求,少數拒絕的模型也會拒絕良性請求,特別是右派觀點的內容。此外,自2022年以來,許多LLM生成的虛假資訊與人類文本幾乎無法區分,部分模型甚至超越人類的「人性化」水平。這顯示LLM能以低成本有效生成高品質的選舉虛假資訊,為研究人員和政策制定者提供基準。 PubMed DOI

這項研究分析了七種大型語言模型(LLMs)在潛在內容分析的有效性,並與人類標註者進行比較。研究涵蓋情感、政治傾向、情感強度和諷刺檢測。結果顯示,無論是人類還是LLMs,在情感和政治分析上表現一致,LLMs的可靠性通常超過人類。不過,人類在情感強度評分上較高,兩者在諷刺檢測上都面臨挑戰。總體來看,LLMs,特別是GPT-4,能有效模仿人類的分析能力,但人類專業知識仍然重要。 PubMed DOI

傳統自動作文評分系統只看單字和句子,無法掌握文章結構和語意。我們提出結合多層次語言特徵的混合模型,利用大型語言模型提升作文連貫性和品質評估。實驗證明,我們的方法比現有技術更準確,有助提升學生寫作評量的公正性與精確度。 PubMed DOI

這項研究針對烏爾都語假新聞偵測資源不足的問題,建立了超過7.8萬篇標註新聞的大型資料集,並用LLaMA 2模型進行單語和多語微調。結果在準確率和F1分數上都大幅超越過去方法,且採用LoRA微調提升運算效率。資料集已公開,有助後續相關研究與應用。 PubMed DOI

從電子健康紀錄擷取健康社會決定因素很難,因為資料多是非結構化且類別不均。作者把UMLS語意知識結合進大型語言模型,來產生更多訓練資料,特別補足資料較少的類別。這方法能提升模型擷取SDoH資訊的效果,並已在MIMIC-SDoH資料集上驗證有效。 PubMed

這篇研究針對社群媒體假新聞氾濫,提出多階段轉移學習架構,結合RoBERTa和不同詞嵌入技術,並改良微調方式。實驗顯示,這方法在資料少時準確率提升至少3.9%,而且結果更容易解釋,優於現有模型。 PubMed DOI