原始文章

這篇文章用後人類主義角度,探討跟大型語言模型互動時的倫理問題,認為倫理行動力是人跟機器共同產生的。作者批評只用訓練資料來判斷 AI 的道德性太過片面,也提醒大家別把 LLMs 擬人化。文章建議,討論 LLM 倫理時,應該關注語言如何轉化成文化意義,並考慮模型的黑箱特性和開發者的公開說明。最後呼籲大家重新思考人性和倫理的定義。 PubMed DOI


站上相關主題文章列表

大型語言模型(LLM)應用廣泛,包括心理健康領域。然而,使用LLM強化的對話人工智慧(CAI)協助抑鬱症患者面臨人性化和情境韌性挑戰。觀點論文探討這些挑戰,提出跨學科解決方案,結合哲學、心理學和計算機科學。為了負責地設計和應用LLM增強的CAI支援抑鬱症患者,提出建議。 PubMed DOI

這篇論文反對將人工智慧(AI)系統,特別是大型語言模型(LLMs),列為科學論文的作者。作者認為,LLMs 無法對其產出負責,這是成為作者的必要條件。他們指出,AI 工具不具備有意義的寫作能力,也缺乏持久身份,並討論了 AI 作為作者可能對學術出版造成的負面影響。最後,作者質疑僅為了發表而使用 AI 生成更多研究的價值,並建議應該能夠識別過去 AI 使用的工具,以防止其成為作者。 PubMed DOI

這篇論文探討大型語言模型(LLMs),如OpenAI的GPT-4,所展現的突現特性,特別是它們被認為的智慧與意識。作者指出,對這些特性的定義不夠清晰,且模型內部推理存在缺陷。智能系統的關鍵在於對環境的反應,這可從行為中推斷。透過哲學現象學和認知生態學,論文分析了GPT-4的錯誤,認為其缺乏人類的時間意識,導致無法形成穩定的感知世界。最終,作者認為GPT-4與使用者共同創造虛構敘事,而非真正理解或擁有意識。 PubMed DOI

Terrence Sejnowski的反思讓我們看到像ChatGPT這樣的大型語言模型(LLMs)對智慧和溝通的影響。他提到這些模型的能力超乎預期,讓人感到驚訝,彷彿遇到外星智慧。這引發了關於LLMs智慧本質的重要問題,儘管它們能像人類一樣溝通,但運作方式卻與人類認知截然不同。Sejnowski的見解促使我們深入思考智慧的意義,以及如何定義和辨識非人類的智慧。 PubMed DOI

這篇文章探討了大型語言模型(LLMs),特別是基於Transformer的LaMDA模型,是否具備感知能力。雖然這些主張可能影響自然語言處理(NLP)領域,但作者認為LLMs並不具備意識,也沒有證據支持相反的看法。他們利用資訊理論分析Transformer架構,並指出將這些模型擬人化的趨勢。作者強調,這是反思語言建模進展及其倫理意涵的重要時刻,並提供了NLP基礎知識,幫助讀者理解。 PubMed DOI

最近研究顯示,大型語言模型(LLMs),像是GPT-4o,越來越被視為可信的道德專家。在一項比較GPT-4o與《紐約時報》專欄The Ethicist建議的研究中,參與者認為AI的道德建議在可信度和深思熟慮程度上略勝於人類專家。此外,LLMs在提供道德理由方面也表現優於美國代表性樣本和知名倫理學家。這顯示人們可能會將LLMs視為人類道德指導的有用補充,因此在LLMs中編程倫理指導方針變得相當重要。 PubMed DOI

作為人工智慧安全專家,我常在創新與謹慎之間掙扎,特別是大型語言模型(LLMs)。這些模型雖然能力驚人,但也引發了社會、倫理和安全的擔憂。 主要問題包括生成錯誤資訊的風險,可能被用來製造假新聞或操控輿論;模型中的偏見可能導致不公平對待某些群體;隱私問題則涉及敏感資訊的洩露;過度依賴LLMs可能使使用者做出不良決策。 為了應對這些挑戰,需實施強有力的安全措施,並促進開發者、政策制定者和倫理學家的合作,以確保LLMs能以有益和倫理的方式服務人類。 PubMed DOI

作為人工智慧安全專家,我常在創新與謹慎之間掙扎,尤其是面對大型語言模型(LLMs)。這些模型雖然能力驚人,但也引發了社會、倫理和安全的擔憂。 主要問題包括生成錯誤資訊的風險,可能削弱公眾對媒體的信任;偏見問題,因訓練數據可能不具代表性;隱私問題,若數據中含有個人資訊;以及過度依賴,可能影響批判性思維。 為了應對這些挑戰,開發和部署LLMs時必須重視安全與倫理,並促進研究人員、政策制定者和業界的合作,確保技術能服務於更大公益。 PubMed DOI

TL;DR: 現在的AI聊天機器人越來越像真人,讓人很難分辨是在跟人還是AI對話。雖然這帶來很多便利,但也可能讓人被誤導或被操控。作者提醒大家,未來在設計和使用這類AI時,必須更小心,也要思考相關的規範和影響。 PubMed DOI

AI,尤其是大型語言模型,正大幅改變醫療研究,但也帶來作者歸屬、透明度和濫用等倫理問題。各大組織強調AI應負責任且透明使用,並不承認聊天機器人為共同作者。未來AI應用需持續遵守倫理規範,審慎推動。 PubMed DOI