原始文章

現代大型語言模型(LLMs)引起了廣泛關注,展現出驚人的能力,但有時也會出錯,顯示出人工智慧在日常生活中的潛力與挑戰。雖然許多研究致力於改善這些模型,但人類與LLM的合作動態仍待深入探討。本文強調未來研究應優先考慮人類與LLM的互動,並指出可能妨礙合作的偏見,提出解決方案,並概述促進相互理解及提升團隊表現的研究目標,以改善推理與決策過程。 PubMed DOI


站上相關主題文章列表

研究探討了大型語言模型(LLMs)在可持續政策制定上的應用,並介紹了結合人類和人工智慧的智能框架。進行了性能測試,比較了人類和人工智慧在制定可持續政策的表現。總結了七個步驟的方法,強調了人類智慧對改進智能系統的重要性。結果顯示LLMs的優缺點,並強調了人類智慧在提升智能系統中的關鍵作用。該框架提供了一種方法,以實現在可持續決策過程中的無偏見結果。 PubMed DOI

本文探討了如何透過大型語言模型(LLM)推動人機互動,並超越傳統的可解釋人工智慧(XAI)範式,考慮LLM的認知解釋。作者方法著重於認知建模、遺傳算法、神經網絡、因果循環動力學和特徵實現等解決方案,使XAI更具目的性和持續性。研究結果顯示,在信息處理中應用LLM需要特定結構條件,尤其在戰略規劃情境下,可加速集體問題解決。這研究有助於各領域發展可解釋的LLM。 PubMed DOI

這段論述指出大型語言模型(LLMs)在理解人類語言的學習與演變上有其限制。主要有兩個觀點: 1. **功能與機制的差異**:雖然LLMs能生成類似人類的語言,但其學習過程與人類不同。人類透過多種感官互動學習語言,而LLMs主要依賴文本數據,這使得它們的相似性只是表面現象。 2. **語言行為的範疇**:人類的語言使用範圍更廣,而LLMs的設計限制了它們對語言意義的理解及自然互動的能力。 因此,LLMs應被視為輔助語言研究的工具,而非語言理論本身,這強調了謹慎應用的必要性。 PubMed DOI

這項研究探討大型語言模型(LLMs)與人類的推理能力,使用有限理性的認知心理學工具進行比較。實驗中,我們分析了人類參與者和不同預訓練LLMs在經典認知任務上的表現。結果顯示,許多LLMs的推理錯誤與人類相似,且受到啟發式影響。然而,深入分析後發現,人類與LLMs的推理存在顯著差異,較新的LLMs表現出更少的限制。雖然可以提升表現的策略存在,但人類和LLMs對提示技術的反應卻不同。我們討論了這些發現對人工智慧及認知心理學的意義,特別是在比較人類與機器行為的挑戰上。 PubMed DOI

大型語言模型(LLMs)有潛力顯著改變臨床醫學,能改善醫療服務的可及性、增強診斷、協助手術規劃及促進教育。不過,這些模型的有效運用需謹慎設計提示,以應對幻覺和偏見等挑戰。理解標記化、嵌入和注意力機制等關鍵概念,以及運用策略性提示技術,對生成準確輸出至關重要。AI技術與醫療專業人員的合作、重視倫理問題如數據安全和偏見緩解,能提升醫療服務質量與可及性。持續的研究與發展對於發揮LLMs在醫療領域的潛力至關重要。 PubMed DOI

集體智慧在群體、組織和社會中非常重要,因為它能促進協調與分散的認知,超越個人能力,甚至專家的能力。資訊科技透過線上預測市場、結構化討論論壇和眾包平台來增強這種智慧。大型語言模型的出現改變了資訊的聚合和傳遞方式,帶來了新的機會與挑戰。我們需要探討這些模型的潛在好處、風險及相關政策,並深入研究它們如何影響我們解決複雜問題的能力。 PubMed DOI

生成式人工智慧(AI),特別是大型語言模型(LLMs),在多發性硬化症(MS)管理上展現出重要潛力。近期的進展顯示,LLMs能生成和理解類似人類的文本,能在多發性硬化症護理中發揮作用。雖然AI在影像學和疾病分類的應用受到關注,但LLMs在多發性硬化症管理的具體應用仍在起步階段。 LLMs可透過臨床決策支持系統協助醫療提供者選擇適當療法,並分析真實世界數據以促進研究。此外,虛擬導師可為醫生和患者提供個性化教育。這篇評論旨在概述LLMs在多發性硬化症管理的應用,並探討未來研究及監管挑戰。 PubMed DOI

這篇論文探討大型語言模型(LLMs)對自然科學和社會科學的影響,特別是透過生成代理模型(GABMs)模擬人類行為。研究涵蓋網絡科學、演化博弈論等領域,顯示LLMs能預測社會行為、增強合作及模擬疾病傳播。雖然LLMs能模仿公平性和合作,但仍面臨提示敏感性和幻覺等挑戰,影響行為一致性。未來研究應聚焦於完善模型、標準化方法,並探討LLMs與人類互動可能帶來的新合作行為,重塑決策過程。 PubMed DOI

將大型語言模型(LLMs)整合進科學工作流程中,既有機會也有挑戰。四組科學家提供不同觀點:Schulz等人認為LLMs能提升研究生產力;Bender等人警告過度炒作,主張專注於可解釋的專用工具;Marelli等人強調透明性與負責任使用,呼籲標示LLMs貢獻;Botvinick和Gershman則認為人類應對科學探究負最終責任。這場對話旨在確保LLMs的使用能提升科學實踐,同時維持倫理與問責。 PubMed DOI

這項研究首次探討大型語言模型(LLMs)在環境決策中的應用,分析其潛在優勢與限制。研究提出兩個框架:一是LLMs輔助的框架,增強人類專業知識;二是LLMs驅動的框架,自動化優化任務。透過水工程中PFAS控制的案例,顯示這兩個框架在環境決策中的優化效果。結果顯示,LLMs輔助框架在調節流量和改善PFAS攔截上表現良好,而LLMs驅動框架在複雜參數優化上則面臨挑戰。研究強調人工智慧應輔助而非取代人類專業知識,為未來的合作奠定基礎。 PubMed DOI