原始文章

這項研究提出用輔助交叉注意力網路(ACAN)來幫AI代理人挑選最相關的記憶,並首次用大型語言模型(LLM)來訓練這套記憶檢索系統。這種做法能讓代理人在模擬環境中表現更穩定、反應更靈活,對提升生成式AI代理人的記憶管理和行為表現很有幫助。 PubMed DOI


站上相關主題文章列表

這篇論文探討大型語言模型(LLMs)對自然科學和社會科學的影響,特別是透過生成代理模型(GABMs)模擬人類行為。研究涵蓋網絡科學、演化博弈論等領域,顯示LLMs能預測社會行為、增強合作及模擬疾病傳播。雖然LLMs能模仿公平性和合作,但仍面臨提示敏感性和幻覺等挑戰,影響行為一致性。未來研究應聚焦於完善模型、標準化方法,並探討LLMs與人類互動可能帶來的新合作行為,重塑決策過程。 PubMed DOI

這項研究探討如何利用大型語言模型(LLMs)來進行大規模的人類記憶實驗,特別是針對自然敘事的分析。研究發現,隨著敘事長度增加,記憶表現會改善,但參與者常常只會總結長敘事,而非回憶具體細節。當敘事順序被打亂時,回憶表現顯著下降,但識別表現穩定,顯示參與者仍能根據理解重建故事。研究還利用LLM生成的文本嵌入來測量敘事的語義相似度,與回憶可能性有強相關性,顯示LLMs在記憶研究中的潛力。 PubMed DOI

大型語言模型(LLMs)在醫學知識的教育、訓練和治療上有顯著進展,但早期研究顯示其不穩定性和潛在的有害輸出。為了解決這些問題,我們提出了一個經過驗證的數據集來訓練LLMs,並設計了一個演員-評論者的提示協議。在這個框架中,治療師生成初步回應,然後由監督者進行精煉。盲驗證研究顯示,LLM的評分常高於適當的治療師回應,顯示其符合專家標準,為安全整合LLM技術於醫療應用提供了基礎。 PubMed DOI

這篇文章探討了多模態推薦系統的最新進展,這些系統結合文本、圖像和用戶對話等多種數據。文章指出兩大挑戰:用戶需求的複雜性和高品質數據集的不足,尤其在互動場景中。提出的解決方案結合多模態技術與大型語言模型(LLMs),提升用戶互動和推薦準確性。關鍵技術包括交叉注意力機制、多圖神經網絡和自我反思機制。實驗結果顯示,這些模型在準確率和召回率上超越現有方法,並在視覺問答任務中表現優異,顯示出其實際應用潛力。 PubMed DOI

這項研究介紹了一種新的個人化大型語言模型(PLLM)代理,旨在提升大型語言模型在人體與機器人及人機互動中的整合能力。雖然現有研究多集中於技術層面,但在適應個別用戶情境上仍面臨挑戰。我們提出利用特定領域數據來個人化模型,並透過NeuroSense EEG數據集進行驗證。研究結果顯示,PLLM在醫療、教育及輔助技術等領域具有效用,並探討了相關的倫理考量,如數據隱私問題。這標誌著人工智慧在適應性和個人化上的重要進展。 PubMed DOI

這篇研究說明,透過RAG技術給大型語言模型補充相關背景資訊,可以明顯提升醫療問答的準確度。作者也分享了實驗心得和優化建議,對想提升LLM醫療應用表現的研究人員很有幫助。 PubMed DOI

大型語言模型能幫助放射科減輕工作量,但還有像是亂編內容和資訊來源不明的問題。結合RAG技術能提升可靠性,但面對大量或複雜資料時還需改進。本文回顧LLMs最新進展及放射科應用案例,並提出未來研究方向。 PubMed DOI

這篇論文提出新方法,測試大型語言模型(LLMs)能否監控和調整自己的神經激活狀態,也就是「後設認知」能力。結果發現,LLMs能學會回報並影響部分內部活動,但只侷限在較低維度的範圍。這對理解AI運作和提升AI安全性有重要意義。 PubMed

這篇研究發現,大型語言模型在沒經過特別訓練下,結合檢索增強生成(RAG)和提示工程,能有效自動摘要專業資訊,表現不錯。不過,還是會遇到像網頁爬蟲限制和偶爾誤解任務等問題,未來還需要進一步優化。 PubMed

研究發現,使用大型語言模型(LLM)能提升員工的創造力,特別是對那些擅長自我調整思考的人效果更明顯。實驗顯示,主管和外部評審都認為有用LLM協助的員工創意表現更好,尤其是後設認知能力強的人。這說明LLM能幫助特定員工在工作上更有創意。 PubMed DOI