原始文章

這段文字探討了人工智慧系統與人類價值觀對齊的挑戰,區分了強價值對齊和弱價值對齊。強對齊需要高級認知能力,讓人工智慧理解意圖並建立因果關聯,這對識別潛在風險至關重要。作者指出像ChatGPT、Gemini和Copilot等模型在這方面的不足,並分析了詞嵌入的差異。文中提出「帶有詞彙轉換字典的中文房間」的思想實驗,進一步探討這些概念。最後提到的研究旨在實現弱對齊,雖然能產生可接受的回應,但不保證其真實性。 PubMed DOI


站上相關主題文章列表

大型語言模型的快速普及引起了對先進人工智慧的興奮和擔憂。許多人正在尋求人工智慧安全方案,主要公司和政府正在投資研究。然而,目前的人工智慧安全技術議程可能不足夠,需要採取一種社會技術綜合方法來有效應對先進人工智慧的風險。 PubMed DOI

由大型語言模型如ChatGPT所驅動的聊天機器人的進步正在革新文字創作,潛在地降低人類寫作的重要性。這種轉變可能導致對書面內容的信任降低,因為越來越多的文字是由人工智慧生成的,引發對準確性的擔憂。這篇文章探討了這些發展對人類和人工智慧的影響。 PubMed DOI

AI的價值對齊至關重要,要確保AI符合人類價值觀。目前研究著重將道德價值融入AI,但對應該對齊哪些價值及如何決定則較少討論。STELA過程探討被忽視群體對AI的看法,發現社區審議可揭示多元規範觀點,對AI對齊有重要啟示。 PubMed DOI

研究使用Schwartz的基本價值理論評估大型語言模型(LLMs)中的價值構念,發現LLMs存在動機偏見,與人類價值有所偏離,對心理健康應用存在道德疑慮。研究強調透明度和對齊過程的重要性,以確保LLMs在提供心理健康護理時公平。 PubMed DOI

本文探討了如何透過大型語言模型(LLM)推動人機互動,並超越傳統的可解釋人工智慧(XAI)範式,考慮LLM的認知解釋。作者方法著重於認知建模、遺傳算法、神經網絡、因果循環動力學和特徵實現等解決方案,使XAI更具目的性和持續性。研究結果顯示,在信息處理中應用LLM需要特定結構條件,尤其在戰略規劃情境下,可加速集體問題解決。這研究有助於各領域發展可解釋的LLM。 PubMed DOI

人工智慧在語言模型領域的進步對我們產生了深遠影響,能處理超越人類能力的提示,並擔任提示工程師。透過促進人工智慧與回應者、合規監護人之間的對話,可實現高品質、負責任的解決方案。新的人工智慧協作模型強調負責任的自主性,對現實挑戰至關重要。這種方法確保結構化互動和自主決策,提升對人工智慧對話流程、合規性和負責任決策的理解。ChatGPT在實驗性人工智慧-人工智慧對話中的應用展現了潛力。 PubMed DOI

這篇論文探討大型語言模型(LLMs)與人類語意理解的關係,特別是在具身認知的背景下。具身認知的支持者認為,LLMs 只依賴文本訓練,缺乏感官經驗的連結,這對人類理解很重要。不過,論文指出人類的認知結合了具身經驗和語言學習,語言在塑造我們對世界的理解中扮演關鍵角色。因此,LLMs 可以反映語言作為語意信息來源的豐富性,並強調語言如何在缺乏直接感官經驗的情況下增強認知能力,這也有助於理解具身認知與人工智慧的互動。 PubMed DOI

最近,自然語言處理(NLP)領域的進展主要受到變壓器模型的影響,這些模型透過注意力機制分析標記間的關係,生成回應。然而,關於這些模型是否能促進人工通用智慧(AGI)及解決對齊問題仍有爭論。研究人員認為AGI需具備可解釋的價值觀、效用函數及動態情境理解。為此,提出一種神經符號模型,結合進化理論與神經科學,探索AI的意識與同理心,並可能為對齊問題提供解決方案。 PubMed DOI

這篇論文探討大型語言模型(LLMs)在不同上下文中的價值表達穩定性,並分析了認知能力、知識和模型大小等因素。研究涵蓋21個來自六個家族的LLM,重點在於人際和個體層級的穩定性。主要發現包括:某些模型(如Mixtral和GPT-3.5)在價值表達上較為穩定,而模擬特定個性時,模型的穩定性會下降。研究建議未來需進一步探討LLMs如何模擬多樣化的人格,並發展更全面的評估方法。論文為理解LLMs的價值穩定性提供了基礎,並附上研究代碼。 PubMed DOI

這項研究探討生成式人工智慧模型中的文化偏見,特別是五個版本的OpenAI語言模型如何影響使用者表達並強化主導文化價值觀。研究發現,這些模型多反映英語系和新教歐洲國家的文化。為解決這問題,研究人員測試了一種叫做文化提示的方法,結果顯示這方法能改善後期模型(如GPT-4)在71-81%的評估地區的文化一致性。研究建議持續使用文化提示和評估,以減少生成式人工智慧中的文化偏見。 PubMed DOI