原始文章

這篇論文探討大型語言模型(LLMs)對自然科學和社會科學的影響,特別是透過生成代理模型(GABMs)模擬人類行為。研究涵蓋網絡科學、演化博弈論等領域,顯示LLMs能預測社會行為、增強合作及模擬疾病傳播。雖然LLMs能模仿公平性和合作,但仍面臨提示敏感性和幻覺等挑戰,影響行為一致性。未來研究應聚焦於完善模型、標準化方法,並探討LLMs與人類互動可能帶來的新合作行為,重塑決策過程。 PubMed DOI


站上相關主題文章列表

Transformer神經網絡,特別是大型語言模型(LLMs),在材料分析、設計和製造上很有效。它們能處理各種數據,支持工程分析,像MechGPT在材料力學領域表現出理解能力。檢索增強的本體知識圖表等策略可提高生成性能,解決困難。這些方法在材料設計探索中有優勢,並提供見解。非線性取樣和基於代理的建模增強生成能力,改進內容生成和評估。例如,問答、代碼生成和自動生成力場開發。 PubMed DOI

本文探討了如何透過大型語言模型(LLM)推動人機互動,並超越傳統的可解釋人工智慧(XAI)範式,考慮LLM的認知解釋。作者方法著重於認知建模、遺傳算法、神經網絡、因果循環動力學和特徵實現等解決方案,使XAI更具目的性和持續性。研究結果顯示,在信息處理中應用LLM需要特定結構條件,尤其在戰略規劃情境下,可加速集體問題解決。這研究有助於各領域發展可解釋的LLM。 PubMed DOI

LLMs在社交網絡中可能造假,影響社會。為了解決問題,提出一方法模擬和量化LLMs散播虛假資訊情況。考慮個人行為、網絡結構和社群關係等因素。透過真實數據和不同情境評估,協助制定對抗LLMs散播虛假資訊策略。 PubMed DOI

生成式人工智慧(AI),特別是大型語言模型(LLMs),在多發性硬化症(MS)管理上展現出重要潛力。近期的進展顯示,LLMs能生成和理解類似人類的文本,能在多發性硬化症護理中發揮作用。雖然AI在影像學和疾病分類的應用受到關注,但LLMs在多發性硬化症管理的具體應用仍在起步階段。 LLMs可透過臨床決策支持系統協助醫療提供者選擇適當療法,並分析真實世界數據以促進研究。此外,虛擬導師可為醫生和患者提供個性化教育。這篇評論旨在概述LLMs在多發性硬化症管理的應用,並探討未來研究及監管挑戰。 PubMed DOI

在研究中,我探討了大型語言模型(LLMs),特別是GPT-3.5和GPT-4,對複雜行為科學實驗結果的預測能力。結果顯示,GPT-4在預測情感、性別和社會認知方面,與119位人類專家的表現相當,相關性高達0.89,而GPT-3.5則僅有0.07。在另一項研究中,讓大學參與者與GPT-4驅動的聊天機器人互動,提升了他們的預測準確性。這些結果顯示,人工智慧在預測行為主張的實證支持上,可能成為有價值的工具,並強調人類與AI合作的潛力。 PubMed DOI

這篇文章探討如何利用大型語言模型(LLMs)來分析和預測公民的政策偏好,特別是針對巴西2022年總統候選人的政府計畫。研究採用訓練-測試交叉驗證,結果顯示LLMs在預測個人政治選擇上表現優於傳統的投票假設,且在估算整體偏好時也更準確。這項研究顯示LLMs能捕捉複雜的政治細微差異,為未來的數據增強研究提供了新方向,並與參與式治理和數位創新主題相關聯。 PubMed DOI

最近,GPT-4在大型語言模型(LLMs)方面的進展,可能會改變社會科學的研究方式。研究探討了GPT-4在模擬擁有不同大五人格特徵的個體的有效性,進行了兩項模擬研究。 第一項模擬顯示,GPT-4生成的個性反應比人類反應更具一致性,且與人類自我報告的分數高度相關,顯示其能有效模仿真實個性。第二項模擬則指出,隨著角色複雜度增加,GPT-4的表現會下降,但加入人口統計信息後,模擬的準確性有所提升。 總體而言,這些結果顯示使用GPT-4創造多樣個性的代理人,對理解人類行為的研究有很大潛力,並為未來的研究提供了新方向。 PubMed DOI

這項研究探討大型語言模型(LLM)代理的個體性和主動性,強調不再依賴預先定義的特徵。透過模擬一群協作的LLM代理,研究分析了社會規範、合作和個性特徵如何自發發展。結果顯示,這些代理會創造「幻覺」和標籤,增強溝通,並使互動中出現更豐富的詞彙。隨著交流進行,代理的情感變化,形成社群,最終導致個性的演變。這種方法為分析集體人工智慧及其動態提供了新視角。 PubMed DOI

現代大型語言模型(LLMs)引起了廣泛關注,展現出驚人的能力,但有時也會出錯,顯示出人工智慧在日常生活中的潛力與挑戰。雖然許多研究致力於改善這些模型,但人類與LLM的合作動態仍待深入探討。本文強調未來研究應優先考慮人類與LLM的互動,並指出可能妨礙合作的偏見,提出解決方案,並概述促進相互理解及提升團隊表現的研究目標,以改善推理與決策過程。 PubMed DOI

生成式人工智慧和大型語言模型(LLMs),如GPT-4,對臨床醫學和認知心理學影響深遠。這些模型在理解和生成語言方面表現優異,能改善臨床決策和心理諮詢。雖然LLMs在類比推理和隱喻理解上表現良好,但在因果推理和複雜規劃上仍有挑戰。本文探討LLMs的認知能力及其在心理測試中的表現,並討論其在認知心理學和精神醫學的應用、限制及倫理考量,強調進一步研究的重要性,以釋放其潛力。 PubMed DOI