原始文章

自20世紀末以來,個人電腦徹底改變了雙語研究,讓研究方法更動態、實驗性。Harris 1992年的著作是重要轉捩點,帶動了雙語表徵與處理的討論。之後,像跨語言影響、認知控制等主題成為主流,其他議題也隨科技發展而演變。隨著電腦建模和大腦研究進步,雙語認知研究在AI時代依然很重要。 PubMed DOI


站上相關主題文章列表

心理研究中使用大型語言模型(LLMs)引起關注,但「GPTology」的使用限制和風險令人擔憂,可能影響像ChatGPT這樣的模型。我們需了解LLMs在心理研究中的限制、道德問題和潛力,解決其對實證研究的影響。重要的是認識全球心理多樣性,謹慎看待LLMs作為通用解決方案,發展透明方法從AI生成的數據中做可靠推論。多元化人類樣本,擴展心理學方法,確保科學包容可靠,避免同質化和過度依賴LLMs。 PubMed DOI

文盲率上升和認知技能下降,加上錯誤資訊的氾濫,對全球帶來了嚴重挑戰。雖然大型語言模型(LLMs)的快速發展可能加劇這些問題,但它們也有潛力改善文盲情況。認知科學在教育上具優勢,能透過分析和優化LLMs的設計、促進互動學習及支持多元學習方式來指導其有效使用。認知科學家的參與非常重要,以確保LLMs對文盲的影響是正面且公平的,而非僅由大型科技公司主導。 PubMed DOI

這段論述指出大型語言模型(LLMs)在理解人類語言的學習與演變上有其限制。主要有兩個觀點: 1. **功能與機制的差異**:雖然LLMs能生成類似人類的語言,但其學習過程與人類不同。人類透過多種感官互動學習語言,而LLMs主要依賴文本數據,這使得它們的相似性只是表面現象。 2. **語言行為的範疇**:人類的語言使用範圍更廣,而LLMs的設計限制了它們對語言意義的理解及自然互動的能力。 因此,LLMs應被視為輔助語言研究的工具,而非語言理論本身,這強調了謹慎應用的必要性。 PubMed DOI

這篇文章探討了ChatGPT在認知過程中的潛在負面影響,儘管它在教育和商業上被廣泛應用。研究回顧了256篇文獻,分析了29篇經過同行評審的文章,強調人類大腦的優越性,主張應用AI工具來增強而非取代自然認知。文章指出ChatGPT具備高級推理能力,建議發展人機合作的社會認知架構,但也警告過度依賴可能削弱基本技能。因此,需在享受AI優勢與持續練習傳統認知活動之間取得平衡。 PubMed DOI

這項研究探討數位智慧如何改變翻譯教育,並運用文獻計量學和內容分析。研究分析翻譯訓練方法的演變,特別是AI、ChatGPT、大型語言模型和5G技術的應用。主要發現指出,數位工具能提升學生的參與度和技能發展,但也面臨數據質量、技術依賴和倫理標準等挑戰。研究強調需發展先進的訓練平台和策略,以促進師生互動並維護學術誠信,並指出持續創新的重要性,以培養未來翻譯人員的能力。 PubMed DOI

這項研究探討大型語言模型(LLMs)與人類大腦在處理敘事資訊上的差異。雖然LLMs能預測與敘事相關的神經信號,但它們是平行分析大量文本,與大腦逐步處理的方式不同。研究使用219名參與者的fMRI數據,發現LLMs在短期上下文中表現較好。研究人員開發了一個增量上下文模型,結合短期與持續更新的長期上下文,顯著改善了對長期處理腦區活動的預測。這結果顯示大腦整合資訊的能力,對認知神經科學和人工智慧的發展提供了新見解。 PubMed DOI

將大型語言模型(LLMs)整合進科學工作流程中,既有機會也有挑戰。四組科學家提供不同觀點:Schulz等人認為LLMs能提升研究生產力;Bender等人警告過度炒作,主張專注於可解釋的專用工具;Marelli等人強調透明性與負責任使用,呼籲標示LLMs貢獻;Botvinick和Gershman則認為人類應對科學探究負最終責任。這場對話旨在確保LLMs的使用能提升科學實踐,同時維持倫理與問責。 PubMed DOI

生物醫學領域正加速數位化,LLMs 正在改變 NLP 應用,帶來自動化和新發現。雖然有助提升醫療與研究效率,但在準確性、安全性及多元資料整合上仍有挑戰。本文回顧發展歷程、現況與未來趨勢,並分析機會與風險。 PubMed DOI

大型語言模型常會產生看似正確但其實錯誤的回答,這跟人類接受性失語症很像。研究發現,LLMs的內部運作和失語症患者大腦的資訊處理方式很相似,特別是在狀態轉換和停留時間上。這種分析方法未來有機會幫助改進LLMs,也可能應用在失語症診斷上。 PubMed DOI

大型語言模型在心理科學等學術領域越來越重要,能協助教學、寫作和模擬人類行為。雖然帶來不少好處,但也有倫理和實務上的挑戰。這份摘要整理了最新進展、最佳做法,並提出未來發展方向,幫助學界更負責任且有效地運用LLMs。 PubMed DOI