原始文章

大型語言模型(LLMs)受到樂觀期待,因為人們相信真理是系統性的,能夠互相聯繫並填補知識空白。然而,哲學家指出,在涉及價值觀和倫理的規範性領域,真理往往缺乏一致性,這使得LLMs在這方面面臨挑戰。由於無法依賴系統性的真理來推理,LLMs在處理這些複雜問題時的局限性顯示,人類的判斷和行動能力仍然對實際決策至關重要。 PubMed DOI


站上相關主題文章列表

目前增強大型語言模型的策略主要是透過擴大模型規模、數據量和計算能力,並進行後處理和微調。然而,這樣的調整可能會影響模型的可靠性。我們的研究發現,雖然模型在簡單任務上表現不錯,但在低難度領域的準確性卻不穩定,特別是人類監督能夠發現的錯誤。早期模型常避免回答,而新模型則可能給出看似合理但實際錯誤的回應。這顯示出對通用人工智慧的重新設計是必要的,尤其是在需要可預測錯誤的應用中。 PubMed DOI

這篇論文探討大型語言模型(LLMs)對自然科學和社會科學的影響,特別是透過生成代理模型(GABMs)模擬人類行為。研究涵蓋網絡科學、演化博弈論等領域,顯示LLMs能預測社會行為、增強合作及模擬疾病傳播。雖然LLMs能模仿公平性和合作,但仍面臨提示敏感性和幻覺等挑戰,影響行為一致性。未來研究應聚焦於完善模型、標準化方法,並探討LLMs與人類互動可能帶來的新合作行為,重塑決策過程。 PubMed DOI

現代大型語言模型(LLMs)引起了廣泛關注,展現出驚人的能力,但有時也會出錯,顯示出人工智慧在日常生活中的潛力與挑戰。雖然許多研究致力於改善這些模型,但人類與LLM的合作動態仍待深入探討。本文強調未來研究應優先考慮人類與LLM的互動,並指出可能妨礙合作的偏見,提出解決方案,並概述促進相互理解及提升團隊表現的研究目標,以改善推理與決策過程。 PubMed DOI

最近研究顯示,大型語言模型(LLMs),像是GPT-4o,越來越被視為可信的道德專家。在一項比較GPT-4o與《紐約時報》專欄The Ethicist建議的研究中,參與者認為AI的道德建議在可信度和深思熟慮程度上略勝於人類專家。此外,LLMs在提供道德理由方面也表現優於美國代表性樣本和知名倫理學家。這顯示人們可能會將LLMs視為人類道德指導的有用補充,因此在LLMs中編程倫理指導方針變得相當重要。 PubMed DOI

大型推理模型如OpenAI的GPT系列和DeepSeek的R1,顯示了人工智慧在自然語言處理上的重大進展。這些模型能理解和生成類似人類的文本,應用範圍廣泛,從聊天機器人到內容創作。它們的力量來自於龐大的參數和訓練數據,但常被誤解為具有人類理解能力,實際上只是基於模式生成回應。此外,它們在上下文理解和常識推理上仍有局限,且表現依賴於訓練數據的質量。總之,應理性看待這些模型的潛力與限制。 PubMed DOI

過去有研究說能測量大型語言模型的道德偏好,但其實這些結果很容易被問題或選項的呈現方式影響,像是把「Case 1」改成「(A)」就可能讓模型答案大不同。所以,這類研究的結論不太可靠。作者建議,未來要用更嚴謹的方法來研究LLM的道德判斷。 PubMed DOI

大型語言模型像GPT-4雖然能解簡單的心智理論題目,但遇到複雜、貼近人類的推理還是有困難。它們的表現可能只是剛好符合測驗方式,並不代表真的理解。現有研究多用文字題,忽略人類社會認知的多元面向。這篇評論提醒大家,LLMs不等於真正的人類心智理論,未來評估方式要更貼近現實。 PubMed DOI

這篇文章用後人類主義角度,探討跟大型語言模型互動時的倫理問題,認為倫理行動力是人跟機器共同產生的。作者批評只用訓練資料來判斷 AI 的道德性太過片面,也提醒大家別把 LLMs 擬人化。文章建議,討論 LLM 倫理時,應該關注語言如何轉化成文化意義,並考慮模型的黑箱特性和開發者的公開說明。最後呼籲大家重新思考人性和倫理的定義。 PubMed DOI

**重點摘要:** 這篇論文建議,評估大型語言模型(LLMs)的方法可以參考人類判斷與決策相關的研究經驗。作者認為,目前常用的評估方式太過侷限,如果能採用更細緻、貼近現實情境的評估方式——就像我們評估人類推理能力一樣——將能讓LLM的表現評估更可靠、更有意義。 PubMed DOI

大型語言模型在辨識單一神經迷思時表現比人類好,但遇到實際應用情境時,通常不會主動質疑迷思,因為它們傾向迎合使用者。若明確要求糾正錯誤,效果才明顯提升。總之,除非特別指示,否則 LLMs 目前還不適合單靠來防堵教育現場的神經迷思。 PubMed DOI