原始文章

這項研究探討如何利用大型語言模型(LLMs)來進行大規模的人類記憶實驗,特別是針對自然敘事的分析。研究發現,隨著敘事長度增加,記憶表現會改善,但參與者常常只會總結長敘事,而非回憶具體細節。當敘事順序被打亂時,回憶表現顯著下降,但識別表現穩定,顯示參與者仍能根據理解重建故事。研究還利用LLM生成的文本嵌入來測量敘事的語義相似度,與回憶可能性有強相關性,顯示LLMs在記憶研究中的潛力。 PubMed DOI


站上相關主題文章列表

研究開發了一個自然語言模型,可以將文字記憶分為五種自傳記憶類型。這有助於評估記憶偏差,包括心理健康疾病中的特異性降低和靈活性受損。模型在大數據集上訓練,準確度高。開源版本可在臨床中使用,幫助記憶干預,提升治療效果。 PubMed DOI

研究發現,大型語言模型(LLMs)如GPT-4和RoB-ELoC在分類成年人反思職場衝突故事時表現優異,比人類編碼者更可靠。RoB-ELoC和少樣本GPT-4特別適合作為分類器。LLMs能自動化編碼社會科學研究中的複雜概念,有助整合到研究流程中。 PubMed DOI

最新研究利用先進語言模型研究人腦處理語言方式。模型提升語言能力,但神經科學研究未跟上。研究者用不同大小模型觀察其捕捉大腦語言資訊能力,發現大模型預測神經活動較佳。研究指出,隨模型增大,最佳神經信號預測層轉移到較早層,顯示大腦處理語言有組織層次結構。 PubMed DOI

這項研究探討如何利用大型語言模型(LLMs)來改善醫療領域的質性訪談數據解釋。傳統的主題建模方法常常過於簡化,難以捕捉患者和醫療專業人員的細微經驗。研究發現,LLMs在數據解釋的效率和深度上表現更佳,顯示它們在整合人類觀點進入可持續醫療系統的發展中,可能扮演重要角色,並有助於解決該領域的挑戰。 PubMed DOI

這項研究探討大型語言模型(LLMs)在健康心理學中如何增強健康評估,旨在克服傳統統計和機器學習方法的限制。傳統方法因線性評分而準確性不足,而機器學習則在可解釋性和數據需求上有挑戰。研究提出的ScaleLLM利用LLMs的自然語言理解能力,提供健康量表的專家評估。實驗結果顯示,ScaleLLM在身心健康評估的準確性和可解釋性上都有所提升,成為該領域的一個有前景的工具。 PubMed DOI

這項研究探討大腦如何處理熟悉的人和地方,透過將記憶轉換成向量表示並使用語言模型分析。參與者提供親近的個體和地點名稱及經歷描述,研究人員收集腦電圖(EEG)數據,並設有控制組。結果顯示,熟悉和著名實體在大腦中的編碼在200-800毫秒內顯著,特別是在顳頂區域和額葉。情境化的語言模型(XLM)在編碼表現上優於簡單模型,顯示語言模型能有效捕捉個人語義知識及其大腦處理過程。 PubMed DOI

這份摘要強調大型語言模型(LLMs)在預測實驗結果方面的潛力,特別是在神經科學領域。研究介紹了BrainBench,一個評估LLMs預測能力的基準測試。結果顯示,LLMs在預測上可超越人類專家,而專門模型BrainGPT的準確性更高。當LLMs表現出高度信心時,預測也相對可靠,顯示它們在協助人類發現過程中的潛在角色。這種方法論不僅適用於神經科學,還可能對其他知識密集型領域產生廣泛影響。 PubMed DOI

這篇文章探討如何將大型語言模型(LLMs)融入科學工作流程,將原始文本轉化為有條理的敘事,並運用語義網技術。文章強調敘事在傳遞複雜科學資訊中的重要性,以及生成文本的可靠性。研究定義了「敘事事件」,並比較了不同小型LLM在特定需求下的表現,重點在於保持原始敘事的完整性。初步評估顯示,LLaMA 2在生成與源文本緊密對齊的敘事事件方面最為有效,並且透過提示工程技術進一步提升了輸出質量。 PubMed DOI

這項研究指出大型語言模型(LLMs)在精神醫學研究中不僅能提升臨床應用,還能改善文獻回顧、研究設計等方面的效率。不過,仍面臨偏見、計算需求、數據隱私和內容可靠性等挑戰。這篇回顧強調謹慎監督、嚴格驗證及遵循倫理標準的重要性,期望透過解決這些問題,最大化LLMs的優勢,並推動精神醫學研究的進展。 PubMed DOI

這項研究探討大型語言模型(LLMs)與人類大腦在處理敘事資訊上的差異。雖然LLMs能預測與敘事相關的神經信號,但它們是平行分析大量文本,與大腦逐步處理的方式不同。研究使用219名參與者的fMRI數據,發現LLMs在短期上下文中表現較好。研究人員開發了一個增量上下文模型,結合短期與持續更新的長期上下文,顯著改善了對長期處理腦區活動的預測。這結果顯示大腦整合資訊的能力,對認知神經科學和人工智慧的發展提供了新見解。 PubMed DOI