原始文章

榮格的原型不只是心理學概念,其實是生物、神經和文化共同編碼的心智模式。Barbieri 的「編碼生物學」認為生命靠編碼規則運作,神經科學也發現原型是大腦穩定的神經模式。現在 AI 也能模擬這些原型,雖然沒意識。這觀點把生物、心理和 AI 串連起來,認為原型是底層編碼的產物。 PubMed DOI


站上相關主題文章列表

這項研究探討大型語言模型(LLM)代理的個體性和主動性,強調不再依賴預先定義的特徵。透過模擬一群協作的LLM代理,研究分析了社會規範、合作和個性特徵如何自發發展。結果顯示,這些代理會創造「幻覺」和標籤,增強溝通,並使互動中出現更豐富的詞彙。隨著交流進行,代理的情感變化,形成社群,最終導致個性的演變。這種方法為分析集體人工智慧及其動態提供了新視角。 PubMed DOI

這項研究探討生成性人工智慧(GenAI)在心理治療中的應用,特別是透過敘事治療和認知行為治療的外化技術。研究者開發了兩個AI工具:VIVI,用於生成代表病人內心經驗的圖像;DIVI,促進對話角色扮演以互動。這些工具作為「人工第三者」,增強治療師與病人之間的關係,但也面臨同理心缺失和文化偏見等挑戰。為解決這些問題,作者提出了SAFE-AI協議,提供負責任使用AI的指導方針,並鼓勵未來研究評估其在不同族群和環境中的有效性及倫理影響。 PubMed DOI

生成式人工智慧和大型語言模型(LLMs),如GPT-4,對臨床醫學和認知心理學影響深遠。這些模型在理解和生成語言方面表現優異,能改善臨床決策和心理諮詢。雖然LLMs在類比推理和隱喻理解上表現良好,但在因果推理和複雜規劃上仍有挑戰。本文探討LLMs的認知能力及其在心理測試中的表現,並討論其在認知心理學和精神醫學的應用、限制及倫理考量,強調進一步研究的重要性,以釋放其潛力。 PubMed DOI

最近大型語言模型(LLMs)的進展引起了對其在生物醫學術語翻譯方面的關注。不過,這些模型的不透明性讓研究人員需依賴人工基準,對模型的實際內容了解有限。我們的研究顯示,預訓練的LLMs能解釋高達51%的神經問題問卷中的遺傳相關性,且無需微調。此外,精神疾病名稱與遺傳關係的對應性比診斷描述更密切。這顯示LLMs能反映遺傳架構,並在心理健康研究中整合文本與遺傳數據方面具潛力。 PubMed DOI

這篇論文提出「功能情境N-Frame模型」,結合預測編碼、量子貝葉斯主義和演化動力學,來解釋人類和AI意識如何在量子認知系統中更新信念與互動。模型認為認知偏誤其實是量子世界下的適應策略,並用量子數學來描述這些過程,提供檢驗AI意識的新方法,也有助於解決量子測量問題。 PubMed DOI

這項研究發現,GPT-3.5 和 GPT-4 生成的自傳故事,在敘事連貫性上跟人類寫的差不多,顯示這些 AI 模型有很高的知識整合能力,類似人類的自我認同。 PubMed DOI

這篇論文探討生成式AI如何結合神經科學和生理學,推動精神醫學發展。AI能協助資料分析、實驗設計、臨床支援,還有助於發現新生物標記和建構症狀模型。作者強調AI與神經科學互相促進,但也提醒要注意數據品質、隱私和資源限制,建議在精神健康照護中審慎運用AI。 PubMed DOI

TL;DR: 稀疏自編碼器能從大型語言模型中抓出高維度的概念向量,並在三個層級展現結構:小尺度像晶體一樣排列、概念會聚成像大腦區域的群聚、中尺度則有明顯的空間分布;大尺度上,特徵空間呈現高度各向異性,特徵值分布符合冪律,且不同層的群聚程度會變化。 PubMed DOI

近年來,AI發展越來越仰賴大量資料和高運算資源,導致開發成本高、取得不易,也不太環保。Neurosymbolic AI 結合多種方法,用較少資料和資源,就能達到強大效果,是更永續的選擇。 PubMed DOI

這篇論文提出AI發展分為四個世代,從資訊型、代理型、實體型到未來可能的意識型AI。每一代的進步都靠演算法、運算力和資料推動。作者回顧AI七十年歷史,強調科技如何帶動AI演變,也提醒隨著AI越來越自主,倫理和社會問題更需重視,發展過程中要負責任地治理。 PubMed DOI