原始文章

這篇文獻回顧專注於偵測超偏見新聞,這類新聞對特定政黨有強烈偏見,導致讀者極化,影響社會凝聚力與民主穩定。透過機器學習和深度學習的進展,自動化工具可協助解決此問題。回顧採用PRISMA方法,涵蓋2015至2024年間的81篇文章,系統整理偵測方法與數據集。分析中指出該領域的空白,如對超偏見的定義不明及少數語言資源不足。雖然深度學習模型表現佳,但大型語言模型的潛力尚未被充分發掘,為未來研究奠定基礎。 PubMed DOI


站上相關主題文章列表

研究探討在資源有限且複雜話題如移民的情境下,使用大型語言模型進行立場檢測的挑戰。結果顯示,像GPT-3.5這樣的模型在無需標註數據的情況下,能達到監督式模型相近的準確度,成為文本分類的簡單、經濟替代。研究也展示了自動立場檢測在分析愛沙尼亞媒體新聞趨勢的應用價值。 PubMed DOI

您的分析指出大型語言模型(LLMs)中存在的政治偏見問題。透過對24個對話型LLM進行測試,發現它們在政治問題上主要偏向左派觀點。雖然五個基礎模型的表現不佳,但這也讓結果的可靠性受到質疑。此外,研究顯示LLMs可以透過有監督的微調受到特定政治取向影響,這對公共話語的塑造有重要意義。這些潛在的偏見可能影響社會認知與決策,因此在開發和使用LLMs時,必須仔細考量其政治影響。 PubMed DOI

這項研究探討了 COVID-19 疫情期間攻擊性語言的增加,並利用機器學習技術來解決這個問題。研究建立了一個檢測和轉化中文仇恨言論的框架,並編制了包含 30 個疫情相關術語的數據集。開發的兩層檢測模型準確率分別為 94.42% 和 81.48%。結合生成式 AI 和 LDA 主題模型,提升了改寫效率,並有效減少敵意,保持核心意義。這種方法提供建設性的改寫建議,促進積極公共討論,幫助遏制仇恨言論。 PubMed DOI

數位時代讓全球溝通變得更方便,但也帶來假新聞的問題,這些虛假資訊扭曲真相,影響社會和諧及公共輿論。因此,假新聞的檢測成為重要研究領域。本文介紹了一個新框架——生成雙向編碼器表示法(GBERT),結合了GPT和BERT的優勢,專門用於假新聞分類。經過微調後,該框架在兩個數據集上表現出色,準確率達95.30%,顯示出其在對抗錯誤資訊方面的潛力。 PubMed DOI

這項研究分析了大型語言模型(LLMs),特別是GPT模型,在政治偏見和不一致性方面的表現,針對美國和中國的政治議題進行比較。結果顯示,這些模型對中國的政治知識和態度不一致性較高,中文模型對中國的負面評價較少,而英語模型則批評較多。這種差異主要源於審查制度和地緣政治緊張,而非模型本身的問題。此外,兩種模型都顯示出對各自國家的「內群體偏見」,這些發現強調了在極化的全球環境中,資訊傳播的重要性。 PubMed DOI

假新聞檢測在資訊時代愈加重要,但現有方法多依賴小型語言模型,對專業新聞表現不佳。為了解決這個問題,我們提出FND-LLM框架,結合小型與大型語言模型,強化多模態假新聞檢測。框架包含文本特徵、視覺語義、視覺篡改、共同注意網絡、跨模態特徵及大型語言模型分支。實驗結果顯示,FND-LLM在Weibo、Gossipcop和Politifact數據集上的準確率分別提升0.7%、6.8%和1.3%。 PubMed DOI

這項研究比較了多種情感分析方法,包括手動編碼、自然語言處理工具(VADER、TEXT2DATA、LIWC-22)和ChatGPT 4.0,針對有關鴉片類藥物危機的YouTube評論進行分析。研究發現,LIWC-22在估算負面情感方面表現優異,而VADER在分類負面評論上最佳。自然語言處理工具與手動編碼的一致性一般,ChatGPT 4.0表現較差。建議使用VADER和LIWC-22來分析不平衡數據集,特別是負面情緒的情況下。 PubMed DOI

大型語言模型(LLMs)在學術研究中有助於提升效率,特別是在系統性回顧方面。本研究比較了兩種基於LLM的系統性回顧方法:完全自動化(LLM-FA)和半自動化(LLM-SA)。結果顯示,LLM-FA的效果有限,僅識別出32.7%至6.1%的相關論文;而LLM-SA則表現更佳,成功納入82.7%的相關論文,並有效排除92.2%的不相關論文。這顯示LLMs雖無法獨立完成任務,但可作為提升論文選擇效率的輔助工具。 PubMed DOI

這項研究探討了GPT-4及其變體在分析智利政治新聞中的應用,特別是從1,009篇文章中提取政治網絡。研究強調整合GPT-4的多種能力,如實體識別和情感分析,以分析政治關係。透過檢視「立法協議」,研究發現GPT-4識別的情感與政治家投票相似度有關。分析顯示,負面情感與較低的立法協議相關,且情感分析能顯著提升預測能力。整體而言,研究證實了GPT-4在政治網絡分析中的有效性。 PubMed DOI

這段文字探討了在社交網絡上檢測政治宣傳的挑戰,特別是利用機器人和多帳號影響公眾意見的情況。作者強調,隨著大型語言模型和資訊過載的增加,識別這類宣傳變得更加困難。他們提出一種方法,透過分析不同數據集中的標籤和用戶提及的重複性來檢測操控行為。研究利用了16個數據集,結果顯示能有效區分政治與非政治討論,無論推文來源或語言如何。 PubMed DOI