原始文章

這篇文章用後人類主義角度,探討跟大型語言模型互動時的倫理問題,認為倫理行動力是人跟機器共同產生的。作者批評只用訓練資料來判斷 AI 的道德性太過片面,也提醒大家別把 LLMs 擬人化。文章建議,討論 LLM 倫理時,應該關注語言如何轉化成文化意義,並考慮模型的黑箱特性和開發者的公開說明。最後呼籲大家重新思考人性和倫理的定義。 PubMed DOI


站上相關主題文章列表

現代大型語言模型(LLMs)引起了廣泛關注,展現出驚人的能力,但有時也會出錯,顯示出人工智慧在日常生活中的潛力與挑戰。雖然許多研究致力於改善這些模型,但人類與LLM的合作動態仍待深入探討。本文強調未來研究應優先考慮人類與LLM的互動,並指出可能妨礙合作的偏見,提出解決方案,並概述促進相互理解及提升團隊表現的研究目標,以改善推理與決策過程。 PubMed DOI

最近研究顯示,大型語言模型(LLMs),像是GPT-4o,越來越被視為可信的道德專家。在一項比較GPT-4o與《紐約時報》專欄The Ethicist建議的研究中,參與者認為AI的道德建議在可信度和深思熟慮程度上略勝於人類專家。此外,LLMs在提供道德理由方面也表現優於美國代表性樣本和知名倫理學家。這顯示人們可能會將LLMs視為人類道德指導的有用補充,因此在LLMs中編程倫理指導方針變得相當重要。 PubMed DOI

作為人工智慧安全專家,我常在創新與謹慎之間掙扎,特別是大型語言模型(LLMs)。這些模型雖然能力驚人,但也引發了社會、倫理和安全的擔憂。 主要問題包括生成錯誤資訊的風險,可能被用來製造假新聞或操控輿論;模型中的偏見可能導致不公平對待某些群體;隱私問題則涉及敏感資訊的洩露;過度依賴LLMs可能使使用者做出不良決策。 為了應對這些挑戰,需實施強有力的安全措施,並促進開發者、政策制定者和倫理學家的合作,以確保LLMs能以有益和倫理的方式服務人類。 PubMed DOI

作為人工智慧安全專家,我常在創新與謹慎之間掙扎,尤其是面對大型語言模型(LLMs)。這些模型雖然能力驚人,但也引發了社會、倫理和安全的擔憂。 主要問題包括生成錯誤資訊的風險,可能削弱公眾對媒體的信任;偏見問題,因訓練數據可能不具代表性;隱私問題,若數據中含有個人資訊;以及過度依賴,可能影響批判性思維。 為了應對這些挑戰,開發和部署LLMs時必須重視安全與倫理,並促進研究人員、政策制定者和業界的合作,確保技術能服務於更大公益。 PubMed DOI

**重點摘要:** 大型語言模型(LLMs)可以參與以辯論為基礎的社會學實驗,通常比人類更能專注在主題上,進而提升團隊的生產力。不過,人類覺得LLM代理人比較不具說服力,也比較沒有自信,而且這些代理人在辯論時的行為和人類有明顯差異,因此很容易被辨識出是非人類參與者。 PubMed DOI

過去有研究說能測量大型語言模型的道德偏好,但其實這些結果很容易被問題或選項的呈現方式影響,像是把「Case 1」改成「(A)」就可能讓模型答案大不同。所以,這類研究的結論不太可靠。作者建議,未來要用更嚴謹的方法來研究LLM的道德判斷。 PubMed DOI

TL;DR: 現在的AI聊天機器人越來越像真人,讓人很難分辨是在跟人還是AI對話。雖然這帶來很多便利,但也可能讓人被誤導或被操控。作者提醒大家,未來在設計和使用這類AI時,必須更小心,也要思考相關的規範和影響。 PubMed DOI

這項研究比較了52種大型語言模型在自駕車道德決策上的表現,發現參數超過100億、尤其是專有模型,判斷較接近人類。不過,模型新舊不一定影響道德判斷,且有些模型會過度偏向特定倫理原則。實際應用時,還是要在判斷品質、運算資源和文化差異間取得平衡。 PubMed DOI

把AI講得像有主動行動力,會讓不熟悉AI的人更容易把責任推給AI,因為他們會把AI當成像人一樣看待。但對AI有經驗的人,這種說法影響就比較小,也不太會怪AI。所以,用這種語氣,主要會影響對AI不熟的人。 PubMed DOI

AI,尤其是大型語言模型,正大幅改變醫療研究,但也帶來作者歸屬、透明度和濫用等倫理問題。各大組織強調AI應負責任且透明使用,並不承認聊天機器人為共同作者。未來AI應用需持續遵守倫理規範,審慎推動。 PubMed DOI