原始文章

TL;DR: 現在的AI聊天機器人越來越像真人,讓人很難分辨是在跟人還是AI對話。雖然這帶來很多便利,但也可能讓人被誤導或被操控。作者提醒大家,未來在設計和使用這類AI時,必須更小心,也要思考相關的規範和影響。 PubMed DOI


站上相關主題文章列表

現代大型語言模型(LLMs)引起了廣泛關注,展現出驚人的能力,但有時也會出錯,顯示出人工智慧在日常生活中的潛力與挑戰。雖然許多研究致力於改善這些模型,但人類與LLM的合作動態仍待深入探討。本文強調未來研究應優先考慮人類與LLM的互動,並指出可能妨礙合作的偏見,提出解決方案,並概述促進相互理解及提升團隊表現的研究目標,以改善推理與決策過程。 PubMed DOI

作為人工智慧安全專家,我常在創新與謹慎之間掙扎,特別是大型語言模型(LLMs)。這些模型雖然能力驚人,但也引發了社會、倫理和安全的擔憂。 主要問題包括生成錯誤資訊的風險,可能被用來製造假新聞或操控輿論;模型中的偏見可能導致不公平對待某些群體;隱私問題則涉及敏感資訊的洩露;過度依賴LLMs可能使使用者做出不良決策。 為了應對這些挑戰,需實施強有力的安全措施,並促進開發者、政策制定者和倫理學家的合作,以確保LLMs能以有益和倫理的方式服務人類。 PubMed DOI

作為人工智慧安全專家,我常在創新與謹慎之間掙扎,尤其是面對大型語言模型(LLMs)。這些模型雖然能力驚人,但也引發了社會、倫理和安全的擔憂。 主要問題包括生成錯誤資訊的風險,可能削弱公眾對媒體的信任;偏見問題,因訓練數據可能不具代表性;隱私問題,若數據中含有個人資訊;以及過度依賴,可能影響批判性思維。 為了應對這些挑戰,開發和部署LLMs時必須重視安全與倫理,並促進研究人員、政策制定者和業界的合作,確保技術能服務於更大公益。 PubMed DOI

這篇論文探討「過度活躍的代理檢測」,指人類在進化中會快速將環境中的威脅歸因於潛在的代理者,例如樹葉沙沙聲可能代表掠食者。這種認知也影響人們與聊天機器人如ChatGPT和Gemini的互動,讓人們傾向擬人化這些技術。 作者提到,這種「機器中看到心智」的傾向在教育上有正反兩面。擬人化能提升學習動機,但也可能讓學生過度信任機器人提供的信息,忽略其不準確性。為了應對這些挑戰,論文建議應加強學生的數位素養,幫助他們更好地理解與聊天機器人的互動。 PubMed DOI

研究發現,當人們知道經濟遊戲的夥伴是AI時,會變得比較不信任、不合作,也覺得AI不公平、不可靠。但如果不知道對方是不是AI,這些負面感受就不明顯。大家其實很常讓AI來做決定,而且很難分辨哪些決策是AI還是人做的。 PubMed DOI

**重點摘要:** 大型語言模型(LLMs)可以參與以辯論為基礎的社會學實驗,通常比人類更能專注在主題上,進而提升團隊的生產力。不過,人類覺得LLM代理人比較不具說服力,也比較沒有自信,而且這些代理人在辯論時的行為和人類有明顯差異,因此很容易被辨識出是非人類參與者。 PubMed DOI

大型語言模型像GPT-4雖然能解簡單的心智理論題目,但遇到複雜、貼近人類的推理還是有困難。它們的表現可能只是剛好符合測驗方式,並不代表真的理解。現有研究多用文字題,忽略人類社會認知的多元面向。這篇評論提醒大家,LLMs不等於真正的人類心智理論,未來評估方式要更貼近現實。 PubMed DOI

這篇文章用後人類主義角度,探討跟大型語言模型互動時的倫理問題,認為倫理行動力是人跟機器共同產生的。作者批評只用訓練資料來判斷 AI 的道德性太過片面,也提醒大家別把 LLMs 擬人化。文章建議,討論 LLM 倫理時,應該關注語言如何轉化成文化意義,並考慮模型的黑箱特性和開發者的公開說明。最後呼籲大家重新思考人性和倫理的定義。 PubMed DOI

研究發現,GPT-4在辯論時若能根據個人資料客製化論點,有64%機率比人類更有說服力,能更有效改變他人看法。這顯示AI說服力很強,也提醒我們未來要注意如何管理這類技術。 PubMed DOI

雖然大型語言模型有時能模仿人類回應,但在像 11-20 money request game 這類需要複雜推理的任務上,表現常常和人類差很多,還會受到提示語和安全機制影響,出錯方式也很難預測。所以,社會科學研究如果想用 LLMs 取代人類,真的要特別小心。 PubMed DOI