原始文章

把AI講得像有主動行動力,會讓不熟悉AI的人更容易把責任推給AI,因為他們會把AI當成像人一樣看待。但對AI有經驗的人,這種說法影響就比較小,也不太會怪AI。所以,用這種語氣,主要會影響對AI不熟的人。 PubMed DOI


站上相關主題文章列表

人工智慧在語言模型領域的進步對我們產生了深遠影響,能處理超越人類能力的提示,並擔任提示工程師。透過促進人工智慧與回應者、合規監護人之間的對話,可實現高品質、負責任的解決方案。新的人工智慧協作模型強調負責任的自主性,對現實挑戰至關重要。這種方法確保結構化互動和自主決策,提升對人工智慧對話流程、合規性和負責任決策的理解。ChatGPT在實驗性人工智慧-人工智慧對話中的應用展現了潛力。 PubMed DOI

這項研究探討接觸大型語言模型(LLMs)對個體自我認知及他人認知的影響,特別是心智感知的角度。參與者在與LLMs互動前後,評估自己的行動能力和經驗能力。結果顯示,接觸LLMs後,參與者對自身能力的評價提高,並認為這些特質對人類不再獨特。這顯示擬人化LLMs可能增強個體對自我心智的看法,並減少這些特質被視為人類專有的感知,進而引發對擬人化影響的更深思考。 PubMed DOI

這項研究探討了人們對生成式人工智慧的看法,特別是在社會和個人挑戰建議方面。共招募3,308名美國參與者,結果顯示: 1. **能力認知**:當知道建議來自AI時,人們常會貶低AI的能力,但不會貶低建議內容。 2. **挑戰建議**:在社會和個人挑戰中,這種貶低現象一致出現。 3. **偏好AI建議**:若過去對AI建議有正面經驗,個人更傾向於尋求AI的建議。 這反映出人們對AI的理解和信任,尤其在良好互動後。 PubMed DOI

這項研究探討了生成式人工智慧的倫理影響,特別是如何根據使用者所採用的AI類型來分配功勞和責任。主要發現包括: 1. **功勞歸屬**:使用個性化大型語言模型的參與者,對其貢獻的認可較高,顯示個性化增強了貢獻感。 2. **責任歸屬**:對於有害輸出的責任分配,LLM類型影響不大,顯示負面結果的責任看法較一致。 3. **文化差異**:英國參與者更傾向於對使用LLM的人分配責任,顯示文化差異在AI使用認知上的影響。 這些結果對於AI的倫理指導、政策制定及技術發展具有重要意義。 PubMed DOI

這項研究分析了2022年11月至2023年3月期間,88,058條推文中對ChatGPT的認知。結果顯示,87%的推文將ChatGPT視為主動的社會行為者,強調其在內容創作和信息傳播中的角色,但也反映出用戶對其能力的疑慮。相對地,13%的推文則將其描繪為被動,顯示人們對其信息的依賴。這種雙重形象引發了對AI生成內容信任及責任歸屬的討論,對AI開發者和政策制定者具有重要意義。 PubMed DOI

這篇論文探討「過度活躍的代理檢測」,指人類在進化中會快速將環境中的威脅歸因於潛在的代理者,例如樹葉沙沙聲可能代表掠食者。這種認知也影響人們與聊天機器人如ChatGPT和Gemini的互動,讓人們傾向擬人化這些技術。 作者提到,這種「機器中看到心智」的傾向在教育上有正反兩面。擬人化能提升學習動機,但也可能讓學生過度信任機器人提供的信息,忽略其不準確性。為了應對這些挑戰,論文建議應加強學生的數位素養,幫助他們更好地理解與聊天機器人的互動。 PubMed DOI

研究發現,當人們知道經濟遊戲的夥伴是AI時,會變得比較不信任、不合作,也覺得AI不公平、不可靠。但如果不知道對方是不是AI,這些負面感受就不明顯。大家其實很常讓AI來做決定,而且很難分辨哪些決策是AI還是人做的。 PubMed DOI

這篇文章用後人類主義角度,探討跟大型語言模型互動時的倫理問題,認為倫理行動力是人跟機器共同產生的。作者批評只用訓練資料來判斷 AI 的道德性太過片面,也提醒大家別把 LLMs 擬人化。文章建議,討論 LLM 倫理時,應該關注語言如何轉化成文化意義,並考慮模型的黑箱特性和開發者的公開說明。最後呼籲大家重新思考人性和倫理的定義。 PubMed DOI

TL;DR: 現在的AI聊天機器人越來越像真人,讓人很難分辨是在跟人還是AI對話。雖然這帶來很多便利,但也可能讓人被誤導或被操控。作者提醒大家,未來在設計和使用這類AI時,必須更小心,也要思考相關的規範和影響。 PubMed DOI

研究發現,大家覺得AI有意識或情感,並不會讓他們更信任AI或更願意接受AI建議。反而,認為AI有情感的人,還比較不會聽AI的建議。相較之下,大家覺得AI越聰明、越會推理,才會更信任AI、願意採納建議。信任AI主要還是看它有多厲害。 PubMed DOI