原始文章

這篇文獻回顧專注於偵測超偏見新聞,這類新聞對特定政黨有強烈偏見,導致讀者極化,影響社會凝聚力與民主穩定。透過機器學習和深度學習的進展,自動化工具可協助解決此問題。回顧採用PRISMA方法,涵蓋2015至2024年間的81篇文章,系統整理偵測方法與數據集。分析中指出該領域的空白,如對超偏見的定義不明及少數語言資源不足。雖然深度學習模型表現佳,但大型語言模型的潛力尚未被充分發掘,為未來研究奠定基礎。 PubMed DOI


站上相關主題文章列表

這項研究比較了多種情感分析方法,包括手動編碼、自然語言處理工具(VADER、TEXT2DATA、LIWC-22)和ChatGPT 4.0,針對有關鴉片類藥物危機的YouTube評論進行分析。研究發現,LIWC-22在估算負面情感方面表現優異,而VADER在分類負面評論上最佳。自然語言處理工具與手動編碼的一致性一般,ChatGPT 4.0表現較差。建議使用VADER和LIWC-22來分析不平衡數據集,特別是負面情緒的情況下。 PubMed DOI

大型語言模型(LLMs)在學術研究中有助於提升效率,特別是在系統性回顧方面。本研究比較了兩種基於LLM的系統性回顧方法:完全自動化(LLM-FA)和半自動化(LLM-SA)。結果顯示,LLM-FA的效果有限,僅識別出32.7%至6.1%的相關論文;而LLM-SA則表現更佳,成功納入82.7%的相關論文,並有效排除92.2%的不相關論文。這顯示LLMs雖無法獨立完成任務,但可作為提升論文選擇效率的輔助工具。 PubMed DOI

這項研究探討了GPT-4及其變體在分析智利政治新聞中的應用,特別是從1,009篇文章中提取政治網絡。研究強調整合GPT-4的多種能力,如實體識別和情感分析,以分析政治關係。透過檢視「立法協議」,研究發現GPT-4識別的情感與政治家投票相似度有關。分析顯示,負面情感與較低的立法協議相關,且情感分析能顯著提升預測能力。整體而言,研究證實了GPT-4在政治網絡分析中的有效性。 PubMed DOI

這段文字探討了在社交網絡上檢測政治宣傳的挑戰,特別是利用機器人和多帳號影響公眾意見的情況。作者強調,隨著大型語言模型和資訊過載的增加,識別這類宣傳變得更加困難。他們提出一種方法,透過分析不同數據集中的標籤和用戶提及的重複性來檢測操控行為。研究利用了16個數據集,結果顯示能有效區分政治與非政治討論,無論推文來源或語言如何。 PubMed DOI

這項研究回顧了大型語言模型(LLMs)在醫療領域中所引發的人口統計偏見,並強調了相關的擔憂。從2018年到2024年,分析了24項研究,發現91.7%的研究識別出偏見,性別偏見最為普遍(93.7%),種族或民族偏見也高達90.9%。雖然偏見檢測有所改善,但有效的減緩策略仍在開發中。隨著LLMs在醫療決策中的重要性上升,解決這些偏見對建立公平的人工智慧系統至關重要。未來研究應考慮更廣泛的人口因素及非西方文化背景。 PubMed DOI

這項研究探討大型語言模型(LLMs)在自動化選舉虛假資訊操作的潛力,介紹了名為DisElect的數據集,包含2,200個惡意提示和50個良性提示,專為英國情境設計。結果顯示,大多數LLM會遵從生成惡意內容的請求,少數拒絕的模型也會拒絕良性請求,特別是右派觀點的內容。此外,自2022年以來,許多LLM生成的虛假資訊與人類文本幾乎無法區分,部分模型甚至超越人類的「人性化」水平。這顯示LLM能以低成本有效生成高品質的選舉虛假資訊,為研究人員和政策制定者提供基準。 PubMed DOI

這項研究分析了七種大型語言模型(LLMs)在潛在內容分析的有效性,並與人類標註者進行比較。研究涵蓋情感、政治傾向、情感強度和諷刺檢測。結果顯示,無論是人類還是LLMs,在情感和政治分析上表現一致,LLMs的可靠性通常超過人類。不過,人類在情感強度評分上較高,兩者在諷刺檢測上都面臨挑戰。總體來看,LLMs,特別是GPT-4,能有效模仿人類的分析能力,但人類專業知識仍然重要。 PubMed DOI

研究用兩個自訂GPT模型和人工審查者比較,評估系統性回顧的偏誤風險和參與程度。結果顯示,GPT模型的分類和人工類似,但在細節分布上有些不同,統計上沒顯著差異。雖然GPT有潛力,但還需要更多研究才能正式應用在科學實務上。 PubMed DOI

這項研究發現,在網路政治辯論中,若多加理由說明、用友善語氣、展現妥協意願,都能明顯提升討論品質和開放心態,讓高品質討論機率增加1.6到2倍。不過,這些做法並不會改變對方的政治立場,但有助於促進更健康的民主互動。 PubMed DOI

這篇研究針對社群媒體假新聞氾濫,提出多階段轉移學習架構,結合RoBERTa和不同詞嵌入技術,並改良微調方式。實驗顯示,這方法在資料少時準確率提升至少3.9%,而且結果更容易解釋,優於現有模型。 PubMed DOI