原始文章

自20世紀末以來,個人電腦徹底改變了雙語研究,讓研究方法更動態、實驗性。Harris 1992年的著作是重要轉捩點,帶動了雙語表徵與處理的討論。之後,像跨語言影響、認知控制等主題成為主流,其他議題也隨科技發展而演變。隨著電腦建模和大腦研究進步,雙語認知研究在AI時代依然很重要。 PubMed DOI


站上相關主題文章列表

這項研究探討大型語言模型(LLMs)與人類大腦在處理敘事資訊上的差異。雖然LLMs能預測與敘事相關的神經信號,但它們是平行分析大量文本,與大腦逐步處理的方式不同。研究使用219名參與者的fMRI數據,發現LLMs在短期上下文中表現較好。研究人員開發了一個增量上下文模型,結合短期與持續更新的長期上下文,顯著改善了對長期處理腦區活動的預測。這結果顯示大腦整合資訊的能力,對認知神經科學和人工智慧的發展提供了新見解。 PubMed DOI

將大型語言模型(LLMs)整合進科學工作流程中,既有機會也有挑戰。四組科學家提供不同觀點:Schulz等人認為LLMs能提升研究生產力;Bender等人警告過度炒作,主張專注於可解釋的專用工具;Marelli等人強調透明性與負責任使用,呼籲標示LLMs貢獻;Botvinick和Gershman則認為人類應對科學探究負最終責任。這場對話旨在確保LLMs的使用能提升科學實踐,同時維持倫理與問責。 PubMed DOI

生物醫學領域正加速數位化,LLMs 正在改變 NLP 應用,帶來自動化和新發現。雖然有助提升醫療與研究效率,但在準確性、安全性及多元資料整合上仍有挑戰。本文回顧發展歷程、現況與未來趨勢,並分析機會與風險。 PubMed DOI

大型語言模型(LLMs)能理解和產生自然語言,正改變醫療、教育、金融等產業,提升效率和準確度。不過,LLMs也有倫理、偏見和高運算成本等問題。本文分析其發展、應用和限制,並探討未來趨勢。 PubMed DOI

大型語言模型常會產生看似正確但其實錯誤的回答,這跟人類接受性失語症很像。研究發現,LLMs的內部運作和失語症患者大腦的資訊處理方式很相似,特別是在狀態轉換和停留時間上。這種分析方法未來有機會幫助改進LLMs,也可能應用在失語症診斷上。 PubMed DOI

大型語言模型在心理科學等學術領域越來越重要,能協助教學、寫作和模擬人類行為。雖然帶來不少好處,但也有倫理和實務上的挑戰。這份摘要整理了最新進展、最佳做法,並提出未來發展方向,幫助學界更負責任且有效地運用LLMs。 PubMed DOI

大型語言模型在辨識單一神經迷思時表現比人類好,但遇到實際應用情境時,通常不會主動質疑迷思,因為它們傾向迎合使用者。若明確要求糾正錯誤,效果才明顯提升。總之,除非特別指示,否則 LLMs 目前還不適合單靠來防堵教育現場的神經迷思。 PubMed DOI

大型語言模型能準確重現多數心理學實驗,效果有時甚至比真人還明顯。不過,遇到社會敏感議題或原研究沒發現效果時,模型容易高估結果。LLMs 適合做初步、快速研究,但遇到複雜或敏感議題,還是得靠真人參與才能更全面。 PubMed DOI

最新研究發現,人類大腦在理解語意時,會把單字和周圍單字的神經反應結合起來,這跟transformer語言模型的自我注意力機制很像。大腦也會編碼單字在句子裡的位置,類似模型的「位置編碼」。而且,大腦加權上下文單字的方式,跟語言模型的self-attention權重也很接近,顯示兩者語言處理策略可能相似。 PubMed DOI

**重點摘要:** 雖然大型語言模型(LLMs)在教育上有其好處,但過度依賴它們可能會讓人減少直接閱讀,進而削弱深度識讀能力,這在兒童身上尤其明顯。認知科學家和教育工作者必須攜手合作,找出哪些能力可能受到影響,並發展教學策略,以維持閱讀與寫作帶來的獨特認知優勢。 PubMed DOI