原始文章

假新聞對社會構成重大威脅,因此自動檢測變得非常重要。研究發現,新聞文本內容是關鍵線索。目前的檢測方法雖然有所進步,但仍面臨挑戰,例如小型語言模型(SLM)泛化能力不足、增強外部知識的計算成本高,以及大型語言模型(LLM)常出現錯誤。為了解決這些問題,我們提出了LEKD,結合SLM、外部知識和LLM的優勢,並透過圖的語義感知特徵對齊模組來解決知識矛盾。實驗結果顯示,LEKD的表現超越現有基準。 PubMed DOI


站上相關主題文章列表

LLMs如ChatGPT和Med-PaLM在醫學問答表現優秀,但在非英語環境面臨挑戰。KFE框架提升中文醫學表現,整合臨床知識。像ChatGPT和GPT-4在CNMLE-2022有顯著進步,超越人類並通過考試。研究指出結合醫學知識與LLMs的情境學習有效,可橋接全球醫療語言障礙,減少不平等。 PubMed DOI

數位時代讓全球溝通變得更方便,但也帶來假新聞的問題,這些虛假資訊扭曲真相,影響社會和諧及公共輿論。因此,假新聞的檢測成為重要研究領域。本文介紹了一個新框架——生成雙向編碼器表示法(GBERT),結合了GPT和BERT的優勢,專門用於假新聞分類。經過微調後,該框架在兩個數據集上表現出色,準確率達95.30%,顯示出其在對抗錯誤資訊方面的潛力。 PubMed DOI

知識圖譜(KGs)改變了知識的表現方式,將實體及其關係以圖形結構組織,提升了推薦系統和問答系統的效能。像是Expert.AI的Sensigrafo,專注於透過機器導向的詞彙來增進自然語言理解。不過,維護知識圖譜仍然面臨挑戰,通常需要手動輸入。近期大型語言模型(LLMs)的進展,為自動化知識圖譜的豐富提供了新機會,本文探討了基於LLM的最新技術,並針對數據質量、經濟性、隱私等問題提供見解。 PubMed DOI

這篇論文提出了一個評估大型語言模型(LLMs)在生物醫學知識編碼的框架,特別針對抗生素研究。框架分為三個步驟:流暢性、提示對齊和語義一致性,並評估事實知識和回應的具體性。研究涵蓋了ChatGPT、GPT-4和Llama 2等十一個模型,透過生成化合物定義和確定化合物與真菌關係的任務進行評估。結果顯示,雖然流暢性有所提升,但事實準確性仍有待加強,對LLMs作為生物醫學知識庫的可靠性提出了疑慮,並強調需要更系統的評估方法。 PubMed DOI

對於大型語言模型(LLMs)可能擴散錯誤資訊的擔憂是合理的,因為這些模型生成的內容難以與可信來源區分,容易造成真實與虛假資訊的混淆。這可能導致錯誤資訊的強化,讓人們難以辨別事實。 使用者互動和分享這些內容,可能形成反饋循環,進一步鞏固錯誤資訊。這樣的情況可能影響民主過程、信任機構,甚至造成社會分裂。因此,推廣媒體素養、批判性思維及事實查核機制非常重要。同時,提升LLMs訓練和資訊來源的透明度,能減少錯誤資訊的風險,確保科技能增進我們對現實的理解。 PubMed DOI

假新聞檢測在資訊時代愈加重要,但現有方法多依賴小型語言模型,對專業新聞表現不佳。為了解決這個問題,我們提出FND-LLM框架,結合小型與大型語言模型,強化多模態假新聞檢測。框架包含文本特徵、視覺語義、視覺篡改、共同注意網絡、跨模態特徵及大型語言模型分支。實驗結果顯示,FND-LLM在Weibo、Gossipcop和Politifact數據集上的準確率分別提升0.7%、6.8%和1.3%。 PubMed DOI

這項研究探討大型語言模型(LLM)在事實查核方面對政治新聞標題的影響。雖然該模型在識別虛假標題的準確率高達90%,但並未顯著提升參與者的辨識能力或分享準確新聞的意圖。相對而言,人類生成的查核更有效。此外,AI查核可能導致對真實標題的信念下降,對虛假標題的信念上升。總之,雖然AI能協助查核,但錯誤標記也可能帶來風險,需謹慎應用並制定相關政策。 PubMed DOI

立場檢測是自然語言處理中的關鍵任務,能識別作者對特定議題的觀點,對社會科學研究及應用相當重要。傳統方法多依賴維基百科數據,但因文章質量不一,效果不穩定。為解決此問題,我們利用大型語言模型(LLMs)進行立場檢測,並提出推理蒸餾方法,將LLMs的推理能力轉移至更小型的語言模型(SLMs),提升效率而不影響性能。我們的LOGIC模型在VAST數據集上表現優異,超越了GPT-3.5 Turbo和GPT-4 Turbo等先進模型。 PubMed DOI

CKLE框架利用多模態電子健康紀錄(EHR)和大型語言模型(LLM),解決重症監護病房(ICU)健康事件預測的挑戰。傳統方法多集中於單一數據模態,限制了預測效果。CKLE透過提煉LLM知識,整合多種數據類型,提升預測準確性。面對LLM僅限文本數據及醫療隱私問題,CKLE採用提示學習和跨模態知識蒸餾,並在心臟衰竭和高血壓預測中顯著提高4.48%準確率,顯示出良好的臨床應用潛力。 PubMed DOI

這篇論文介紹了Pastel,一種利用大型語言模型(LLMs)進行錯誤資訊檢測的弱監督方法。它成功解決了高準確度提取器訓練的挑戰,並克服了缺乏大型標註數據集的問題。Pastel的表現顯著提升,超越了零樣本真實性檢測38.3%,並達到依賴人類監督的系統86.7%的性能。在跨領域情境中,表現也超過了監督模型63%。研究還發現19個可信度信號中,有12個與內容真實性有強烈關聯,某些信號在特定領域效果更佳。補充材料可在線查閱。 PubMed DOI