原始文章

這項研究開發了一套透明化的社群媒體仇恨言論偵測系統,運用先進語言模型(如 Mistral-7B)來清楚標示並解釋判斷依據。經多組資料集測試,這方法不只提升自動審查的準確率,也讓判斷過程更容易被理解與信任。 PubMed DOI


站上相關主題文章列表

立場檢測是自然語言處理中的關鍵任務,能識別作者對特定議題的觀點,對社會科學研究及應用相當重要。傳統方法多依賴維基百科數據,但因文章質量不一,效果不穩定。為解決此問題,我們利用大型語言模型(LLMs)進行立場檢測,並提出推理蒸餾方法,將LLMs的推理能力轉移至更小型的語言模型(SLMs),提升效率而不影響性能。我們的LOGIC模型在VAST數據集上表現優異,超越了GPT-3.5 Turbo和GPT-4 Turbo等先進模型。 PubMed DOI

在數位時代,確保兒童接觸適合他們發展的內容非常重要。隨著自動化文本生成技術的進步,對於有效過濾和分類兒童內容的需求也在增加。本研究透過微調語言模型Mistral和Zephyr,並使用BERT分類器來評估兒童故事的適宜性。結果顯示,微調後的模型在生成內容上達到了更高的評分,且BERT分類器在識別不當內容方面表現優異。這項研究對教育科技和家長控制系統具有重要意義,提供了一種確保兒童接觸安全且啟發性內容的方法。 PubMed DOI

這項研究探討如何利用大型語言模型(LLM)分析媒體對中國的態度,以香港的《東方日報》為例。研究強調分析媒體數據集對理解公眾意見的重要性,並指出傳統方法常忽略隱性態度。研究使用Martin和White的框架來分類態度,並運用Meta的開源Llama2(13b)模型進行分析,針對40,000條與中國相關的表達進行量化。結果顯示,LLM能有效識別顯性和隱性態度,準確率約80%,與人類編碼者相當。研究也討論了實施過程中的挑戰及其解決策略。 PubMed DOI

這篇論文探討大型語言模型(LLMs)如ChatGPT在編輯用戶生成內容(UGC)時的意外影響,特別是情感變化。分析氣候變遷推文後發現,LLMs重述的推文通常情感更中立,這可能扭曲依賴UGC的研究結果。為了應對這些偏見,論文提出兩種策略:一是使用預測模型識別原始情感,二是微調LLMs以更好地對齊人類情感。整體而言,研究強調了LLMs對UGC情感的影響,並提供減少偏見的實用方法,確保情感分析的可靠性。 PubMed DOI

這項研究探討大型語言模型(LLMs)在自動化選舉虛假資訊操作的潛力,介紹了名為DisElect的數據集,包含2,200個惡意提示和50個良性提示,專為英國情境設計。結果顯示,大多數LLM會遵從生成惡意內容的請求,少數拒絕的模型也會拒絕良性請求,特別是右派觀點的內容。此外,自2022年以來,許多LLM生成的虛假資訊與人類文本幾乎無法區分,部分模型甚至超越人類的「人性化」水平。這顯示LLM能以低成本有效生成高品質的選舉虛假資訊,為研究人員和政策制定者提供基準。 PubMed DOI

這項研究分析了七種大型語言模型(LLMs)在潛在內容分析的有效性,並與人類標註者進行比較。研究涵蓋情感、政治傾向、情感強度和諷刺檢測。結果顯示,無論是人類還是LLMs,在情感和政治分析上表現一致,LLMs的可靠性通常超過人類。不過,人類在情感強度評分上較高,兩者在諷刺檢測上都面臨挑戰。總體來看,LLMs,特別是GPT-4,能有效模仿人類的分析能力,但人類專業知識仍然重要。 PubMed DOI

隨著Midjourney和DALL·E 3等文本生成圖像模型的興起,內容創作方式發生了變化,但也帶來了倫理問題,特別是開源模型被濫用的風險。為了解決這些問題,我們提出了Ethical-Lens框架,旨在確保這些工具的使用符合道德標準,而不需改變模型本身。Ethical-Lens透過優化用戶輸入和修正模型輸出來解決毒性和偏見問題。我們的實驗顯示,Ethical-Lens能提升對齊能力,並在圖像生成品質上達到或超越商業模型的水準,顯示其在推動開源工具負責任發展的潛力。 PubMed DOI

這篇論文探討大型語言模型(LLMs)中的社會偏見問題,提出一個新框架,將偏見檢測視為假設檢驗。虛無假設表示沒有隱性偏見,並使用二元選擇問題來評估開源和專有LLMs的偏見。研究涵蓋ChatGPT、DeepSeek-V3和Llama-3.1-70B等模型,使用的數據集包括BBQ和CrowS-Pairs。結果顯示,貝葉斯因子能更有效地量化偏見,並且LLMs在英法數據集中的偏見行為通常一致,微小變異可能源於文化差異。 PubMed DOI

這篇論文提出 ExDoRA 框架,透過挑選最相關又多元的 few-shot 範例,結合 LLM 產生的文字解釋,能有效提升 LLM 在新任務上的表現。應用於對話式憂鬱症偵測時,ExDoRA 不僅能穩定給出高品質解釋,還大幅提升召回率和 F1 分數,展現其在數位心理健康篩檢的潛力。 PubMed DOI

這篇研究針對社群媒體假新聞氾濫,提出多階段轉移學習架構,結合RoBERTa和不同詞嵌入技術,並改良微調方式。實驗顯示,這方法在資料少時準確率提升至少3.9%,而且結果更容易解釋,優於現有模型。 PubMed DOI