原始文章

近年來,AI發展越來越仰賴大量資料和高運算資源,導致開發成本高、取得不易,也不太環保。Neurosymbolic AI 結合多種方法,用較少資料和資源,就能達到強大效果,是更永續的選擇。 PubMed DOI


站上相關主題文章列表

本文探討了如何透過大型語言模型(LLM)推動人機互動,並超越傳統的可解釋人工智慧(XAI)範式,考慮LLM的認知解釋。作者方法著重於認知建模、遺傳算法、神經網絡、因果循環動力學和特徵實現等解決方案,使XAI更具目的性和持續性。研究結果顯示,在信息處理中應用LLM需要特定結構條件,尤其在戰略規劃情境下,可加速集體問題解決。這研究有助於各領域發展可解釋的LLM。 PubMed DOI

三十年前,我們比較了人工智慧和人類心靈的相似之處,將弗洛伊德的理論和連結主義(如PDP系統)放在一起討論。這些模型如今已成為人工智慧的基礎,像ChatGPT等廣泛應用,從精神病學模擬到深度學習的計算機視覺。RNN、LSTM和Transformer模型(如BERT和GPT)已經改變了自然語言處理等任務。我們探討這些工具在醫療保健領域的影響,從診斷到心理治療,並討論保持關係的重要性,以及將這些工具用於治療模型的對比。 PubMed DOI

最新研究利用先進語言模型研究人腦處理語言方式。模型提升語言能力,但神經科學研究未跟上。研究者用不同大小模型觀察其捕捉大腦語言資訊能力,發現大模型預測神經活動較佳。研究指出,隨模型增大,最佳神經信號預測層轉移到較早層,顯示大腦處理語言有組織層次結構。 PubMed DOI

這篇論文探討大型語言模型(LLMs)與人類語意理解的關係,特別是在具身認知的背景下。具身認知的支持者認為,LLMs 只依賴文本訓練,缺乏感官經驗的連結,這對人類理解很重要。不過,論文指出人類的認知結合了具身經驗和語言學習,語言在塑造我們對世界的理解中扮演關鍵角色。因此,LLMs 可以反映語言作為語意信息來源的豐富性,並強調語言如何在缺乏直接感官經驗的情況下增強認知能力,這也有助於理解具身認知與人工智慧的互動。 PubMed DOI

最近,自然語言處理(NLP)領域的進展主要受到變壓器模型的影響,這些模型透過注意力機制分析標記間的關係,生成回應。然而,關於這些模型是否能促進人工通用智慧(AGI)及解決對齊問題仍有爭論。研究人員認為AGI需具備可解釋的價值觀、效用函數及動態情境理解。為此,提出一種神經符號模型,結合進化理論與神經科學,探索AI的意識與同理心,並可能為對齊問題提供解決方案。 PubMed DOI

這篇文章探討了ChatGPT在認知過程中的潛在負面影響,儘管它在教育和商業上被廣泛應用。研究回顧了256篇文獻,分析了29篇經過同行評審的文章,強調人類大腦的優越性,主張應用AI工具來增強而非取代自然認知。文章指出ChatGPT具備高級推理能力,建議發展人機合作的社會認知架構,但也警告過度依賴可能削弱基本技能。因此,需在享受AI優勢與持續練習傳統認知活動之間取得平衡。 PubMed DOI

大型語言模型(LLMs)的環境影響引發了不同看法。一些研究指出,訓練和使用LLMs會產生顯著的碳足跡,而另一些則認為LLMs可能比傳統方法更可持續。我們的分析顯示,儘管LLMs對環境有影響,但在美國,它們的效率可能高於人力勞動。經濟考量可能促使人類與LLMs共同工作,而非單純取代。隨著LLMs規模增長,能源消耗可能上升,這凸顯了持續研究以確保其可持續性的重要性。 PubMed DOI

作為人工智慧安全專家,我常在創新與謹慎之間掙扎,尤其是面對大型語言模型(LLMs)。這些模型雖然能力驚人,但也引發了社會、倫理和安全的擔憂。 主要問題包括生成錯誤資訊的風險,可能削弱公眾對媒體的信任;偏見問題,因訓練數據可能不具代表性;隱私問題,若數據中含有個人資訊;以及過度依賴,可能影響批判性思維。 為了應對這些挑戰,開發和部署LLMs時必須重視安全與倫理,並促進研究人員、政策制定者和業界的合作,確保技術能服務於更大公益。 PubMed DOI

這篇論文探討生成式AI如何結合神經科學和生理學,推動精神醫學發展。AI能協助資料分析、實驗設計、臨床支援,還有助於發現新生物標記和建構症狀模型。作者強調AI與神經科學互相促進,但也提醒要注意數據品質、隱私和資源限制,建議在精神健康照護中審慎運用AI。 PubMed DOI

這篇評論(為三部曲第二部)探討AI在神經醫學的應用,包括診斷、病患互動和個人化治療,也談到責任歸屬、AI黑盒子等倫理問題,並思考AI是否會有自我意識。作者強調AI雖能改變照護模式,但仍需倫理監督與人類主導,並為下一部聚焦全球健康與數據分析做準備。 PubMed DOI