原始文章

把AI講得像有主動行動力,會讓不熟悉AI的人更容易把責任推給AI,因為他們會把AI當成像人一樣看待。但對AI有經驗的人,這種說法影響就比較小,也不太會怪AI。所以,用這種語氣,主要會影響對AI不熟的人。 PubMed DOI


站上相關主題文章列表

這項研究探討了生成式人工智慧的倫理影響,特別是如何根據使用者所採用的AI類型來分配功勞和責任。主要發現包括: 1. **功勞歸屬**:使用個性化大型語言模型的參與者,對其貢獻的認可較高,顯示個性化增強了貢獻感。 2. **責任歸屬**:對於有害輸出的責任分配,LLM類型影響不大,顯示負面結果的責任看法較一致。 3. **文化差異**:英國參與者更傾向於對使用LLM的人分配責任,顯示文化差異在AI使用認知上的影響。 這些結果對於AI的倫理指導、政策制定及技術發展具有重要意義。 PubMed DOI

人工系統是否能行動是人工智慧哲學中的重要議題,從架構和行為兩個角度探討此問題非常有意義。 1. **架構角度**:分析人工系統的基本結構與設計,探討其演算法及運作框架,關鍵問題包括AI系統的架構是什麼、不同架構如何影響行動能力,以及主體性是否僅是行為的功能。 2. **行為角度**:聚焦於人工系統在環境中的行動與互動,考慮如何定義「行動」、人工系統需滿足什麼標準才能被視為主體,以及其行為與生物主體的比較。 透過這些探討,我們能更深入理解人工系統的主體性,並在倫理、設計及未來發展上提供指導。 PubMed DOI

最近研究顯示,大型語言模型(LLMs),像是GPT-4o,越來越被視為可信的道德專家。在一項比較GPT-4o與《紐約時報》專欄The Ethicist建議的研究中,參與者認為AI的道德建議在可信度和深思熟慮程度上略勝於人類專家。此外,LLMs在提供道德理由方面也表現優於美國代表性樣本和知名倫理學家。這顯示人們可能會將LLMs視為人類道德指導的有用補充,因此在LLMs中編程倫理指導方針變得相當重要。 PubMed DOI

這項研究分析了2022年11月至2023年3月期間,88,058條推文中對ChatGPT的認知。結果顯示,87%的推文將ChatGPT視為主動的社會行為者,強調其在內容創作和信息傳播中的角色,但也反映出用戶對其能力的疑慮。相對地,13%的推文則將其描繪為被動,顯示人們對其信息的依賴。這種雙重形象引發了對AI生成內容信任及責任歸屬的討論,對AI開發者和政策制定者具有重要意義。 PubMed DOI

這項研究探討新加坡新聞媒體如何報導溝通型人工智慧(AI),並反映公眾的態度。透過分析336篇來自三個主要新聞網站的文章,發現媒體主要強調AI的好處,將其視為工具而非社會行為者。不過,隨著ChatGPT的出現,報導焦點開始轉向風險、監管、責任及潛在衝突,顯示AI敘事隨技術發展和社會關注而變化。 PubMed DOI

這篇論文探討「過度活躍的代理檢測」,指人類在進化中會快速將環境中的威脅歸因於潛在的代理者,例如樹葉沙沙聲可能代表掠食者。這種認知也影響人們與聊天機器人如ChatGPT和Gemini的互動,讓人們傾向擬人化這些技術。 作者提到,這種「機器中看到心智」的傾向在教育上有正反兩面。擬人化能提升學習動機,但也可能讓學生過度信任機器人提供的信息,忽略其不準確性。為了應對這些挑戰,論文建議應加強學生的數位素養,幫助他們更好地理解與聊天機器人的互動。 PubMed DOI

研究發現,當人們知道經濟遊戲的夥伴是AI時,會變得比較不信任、不合作,也覺得AI不公平、不可靠。但如果不知道對方是不是AI,這些負面感受就不明顯。大家其實很常讓AI來做決定,而且很難分辨哪些決策是AI還是人做的。 PubMed DOI

這篇文章用後人類主義角度,探討跟大型語言模型互動時的倫理問題,認為倫理行動力是人跟機器共同產生的。作者批評只用訓練資料來判斷 AI 的道德性太過片面,也提醒大家別把 LLMs 擬人化。文章建議,討論 LLM 倫理時,應該關注語言如何轉化成文化意義,並考慮模型的黑箱特性和開發者的公開說明。最後呼籲大家重新思考人性和倫理的定義。 PubMed DOI

TL;DR: 現在的AI聊天機器人越來越像真人,讓人很難分辨是在跟人還是AI對話。雖然這帶來很多便利,但也可能讓人被誤導或被操控。作者提醒大家,未來在設計和使用這類AI時,必須更小心,也要思考相關的規範和影響。 PubMed DOI

研究發現,大家覺得AI有意識或情感,並不會讓他們更信任AI或更願意接受AI建議。反而,認為AI有情感的人,還比較不會聽AI的建議。相較之下,大家覺得AI越聰明、越會推理,才會更信任AI、願意採納建議。信任AI主要還是看它有多厲害。 PubMed DOI