原始文章

這篇研究發現,大型語言模型在增強學習任務中,會像人類一樣出現相對價值編碼的偏誤,特別是在提示語強調比較時更明顯。這會影響它們把學到的知識應用到新情境的能力。這種偏誤不只出現在微調過的模型,連原始模型也有,提醒我們在用LLMs做決策時要特別注意。 PubMed DOI


站上相關主題文章列表

這項研究探討大型語言模型(LLMs)在推薦系統中作為「公平性識別者」的角色,重點在於它們識別和促進公平推薦的能力。研究人員分析了MovieLens和LastFM數據集,並比較了有無公平性策略的變分自編碼器(VAE)生成的推薦。他們發現LLMs能有效識別不公平的推薦,並提出用公平VAE生成的替代品來改善推薦的公平性。結果顯示,這種方法顯著提升了性別基礎群體的公平性與效用比率,實現了公平性與效用的更好平衡。 PubMed DOI

這項研究指出,雖然大型語言模型(LLMs)在明確的社會偏見測試中表現良好,但它們仍可能隱藏著類似人類的偏見。研究人員提出了兩種新方法來測量這些隱性偏見:LLM詞彙聯想測試和LLM相對決策測試。結果顯示,在種族、性別、宗教和健康等四個社會類別中,八個價值對齊的模型仍存在顯著的刻板印象偏見,顯示這些模型雖然在標準評估中看似無偏,但實際上反映了社會偏見。 PubMed DOI

這份調查探討大型語言模型(LLMs)與強化學習(RL)的整合,強調它們在多任務學習、樣本效率和高層次任務規劃等方面的潛力。作者將LLMs在RL中的角色分為四個功能:資訊處理者、獎勵設計者、決策者和生成器,並針對每個角色提出方法論和未來研究方向。這份調查旨在澄清研究領域,並提供框架,應用於機器人、自動駕駛和能源系統等領域,並討論LLMs增強RL的潛在應用與挑戰。 PubMed DOI

過去有研究說能測量大型語言模型的道德偏好,但其實這些結果很容易被問題或選項的呈現方式影響,像是把「Case 1」改成「(A)」就可能讓模型答案大不同。所以,這類研究的結論不太可靠。作者建議,未來要用更嚴謹的方法來研究LLM的道德判斷。 PubMed DOI

這項研究比較了52種大型語言模型在自駕車道德決策上的表現,發現參數超過100億、尤其是專有模型,判斷較接近人類。不過,模型新舊不一定影響道德判斷,且有些模型會過度偏向特定倫理原則。實際應用時,還是要在判斷品質、運算資源和文化差異間取得平衡。 PubMed DOI

**重點摘要:** 這篇論文建議,評估大型語言模型(LLMs)的方法可以參考人類判斷與決策相關的研究經驗。作者認為,目前常用的評估方式太過侷限,如果能採用更細緻、貼近現實情境的評估方式——就像我們評估人類推理能力一樣——將能讓LLM的表現評估更可靠、更有意義。 PubMed DOI

雖然大型語言模型有時能模仿人類回應,但在像 11-20 money request game 這類需要複雜推理的任務上,表現常常和人類差很多,還會受到提示語和安全機制影響,出錯方式也很難預測。所以,社會科學研究如果想用 LLMs 取代人類,真的要特別小心。 PubMed DOI

**重點摘要:** 這項研究比較了人類、大型語言模型(LLMs)以及強化學習(RL)在一個為期多天的通勤決策遊戲中的表現,目的是評估AI取代人類決策的能力。LLMs展現出類似人類的學習能力,也能做出穩定的決策,但在團體合作、理解他人選擇,以及應用現實世界知識方面仍有困難。 PubMed DOI

大型語言模型在視覺化任務中,特別有專家指引時,能模擬人類評分與推理,且在專家信心高時表現與人類相近。不過,LLMs在穩定性和偏誤上仍有限,適合用來快速原型評估,但還是無法完全取代傳統使用者研究。 PubMed DOI

大型語言模型能準確重現多數心理學實驗,效果有時甚至比真人還明顯。不過,遇到社會敏感議題或原研究沒發現效果時,模型容易高估結果。LLMs 適合做初步、快速研究,但遇到複雜或敏感議題,還是得靠真人參與才能更全面。 PubMed DOI