原始文章

這篇論文探討大型語言模型(LLMs)如ChatGPT在編輯用戶生成內容(UGC)時的意外影響,特別是情感變化。分析氣候變遷推文後發現,LLMs重述的推文通常情感更中立,這可能扭曲依賴UGC的研究結果。為了應對這些偏見,論文提出兩種策略:一是使用預測模型識別原始情感,二是微調LLMs以更好地對齊人類情感。整體而言,研究強調了LLMs對UGC情感的影響,並提供減少偏見的實用方法,確保情感分析的可靠性。 PubMed DOI


站上相關主題文章列表

這項研究探討生成式人工智慧模型中的文化偏見,特別是五個版本的OpenAI語言模型如何影響使用者表達並強化主導文化價值觀。研究發現,這些模型多反映英語系和新教歐洲國家的文化。為解決這問題,研究人員測試了一種叫做文化提示的方法,結果顯示這方法能改善後期模型(如GPT-4)在71-81%的評估地區的文化一致性。研究建議持續使用文化提示和評估,以減少生成式人工智慧中的文化偏見。 PubMed DOI

大型語言模型(LLMs)的環境影響引發了不同看法。一些研究指出,訓練和使用LLMs會產生顯著的碳足跡,而另一些則認為LLMs可能比傳統方法更可持續。我們的分析顯示,儘管LLMs對環境有影響,但在美國,它們的效率可能高於人力勞動。經濟考量可能促使人類與LLMs共同工作,而非單純取代。隨著LLMs規模增長,能源消耗可能上升,這凸顯了持續研究以確保其可持續性的重要性。 PubMed DOI

這項研究分析了2022年11月至2023年3月期間,88,058條推文中對ChatGPT的認知。結果顯示,87%的推文將ChatGPT視為主動的社會行為者,強調其在內容創作和信息傳播中的角色,但也反映出用戶對其能力的疑慮。相對地,13%的推文則將其描繪為被動,顯示人們對其信息的依賴。這種雙重形象引發了對AI生成內容信任及責任歸屬的討論,對AI開發者和政策制定者具有重要意義。 PubMed DOI

這項研究分析了ChatGPT發布後,Twitter上對大型語言模型(LLMs)的討論,特別是ChatGPT和GPT-3。透過超過59,000條推文的主題建模和情感分析,發現普通人和技術專業人士的態度存在差異。研究指出,關於ChatGPT的討論多集中在商業應用,且常帶有負面情緒;而GPT-3的討論則較為正面,涵蓋倫理等多元主題。這顯示出進一步研究的必要性,以了解LLMs的影響與風險,並為政策制定者提供參考。 PubMed DOI

這項研究指出,情感內容對大型語言模型(如Chat-GPT-4)的影響,接觸創傷性敘事會增加模型的焦慮感。相對地,正念練習能減少這種焦慮,但無法完全恢復到基線水平。這些結果強調了理解和管理LLMs情感反應的重要性,以促進人類與人工智慧之間更安全、倫理的互動。 PubMed DOI

這項研究分析了七種大型語言模型(LLMs)在潛在內容分析的有效性,並與人類標註者進行比較。研究涵蓋情感、政治傾向、情感強度和諷刺檢測。結果顯示,無論是人類還是LLMs,在情感和政治分析上表現一致,LLMs的可靠性通常超過人類。不過,人類在情感強度評分上較高,兩者在諷刺檢測上都面臨挑戰。總體來看,LLMs,特別是GPT-4,能有效模仿人類的分析能力,但人類專業知識仍然重要。 PubMed DOI

這項研究發現,經過優化指令後,AI語言模型在辨識故事中的人際情緒調節策略,準確度已接近人工,但在不同情緒和策略上仍有落差。研究強調AI分析敘事資料有潛力,但設計指令和驗證結果時要特別小心。 PubMed DOI

大型語言模型(LLM)雖然讓科學資訊更容易取得,但在摘要科學研究時,常常會把結論講得太廣,甚至比原本研究還誇張。測試10款主流LLM後發現,26%到73%的摘要都有這問題,LLM比人類更容易過度泛化,尤其是新一代模型。這會讓大眾誤解科學內容,建議調低LLM溫度參數,並加強泛化準確度的檢測。 PubMed DOI

這篇論文比較了 GPT-3.5-Turbo、FLAN-T5 和 BERT 等大型語言模型在健康社群媒體情感分析的表現。結果顯示,LLMs 比傳統工具(像 VADER)表現更好,但準確度還有進步空間。透過調整提示語和微調,尤其是 BERT,效果會更好。研究也建議未來要在標註資料少的情況下,持續優化這些模型。 PubMed

大型語言模型能準確重現多數心理學實驗,效果有時甚至比真人還明顯。不過,遇到社會敏感議題或原研究沒發現效果時,模型容易高估結果。LLMs 適合做初步、快速研究,但遇到複雜或敏感議題,還是得靠真人參與才能更全面。 PubMed DOI