原始文章

這篇文章從社會語言學的角度分析語言模型,認為語言模型其實代表了不同的語言變體。文章首先定義了社會語言學中的語言變體,然後探討這種理解如何解決語言模型面臨的五大挑戰:社會偏見、領域適應、對齊、語言變遷和規模。作者指出,提升語言模型的效能和社會影響力的關鍵在於精心設計訓練數據集,讓其準確反映特定的語言變體,並運用社會語言學的見解。 PubMed DOI


站上相關主題文章列表

這篇論文探討大型語言模型(LLMs)對自然科學和社會科學的影響,特別是透過生成代理模型(GABMs)模擬人類行為。研究涵蓋網絡科學、演化博弈論等領域,顯示LLMs能預測社會行為、增強合作及模擬疾病傳播。雖然LLMs能模仿公平性和合作,但仍面臨提示敏感性和幻覺等挑戰,影響行為一致性。未來研究應聚焦於完善模型、標準化方法,並探討LLMs與人類互動可能帶來的新合作行為,重塑決策過程。 PubMed DOI

大型語言模型(LLMs)在心理健康護理中有潛力,能透過臨床筆記和轉錄來改善診斷和治療。不過,技術成本、識字差距和數據偏見等挑戰需解決。文章建議採用社會文化技術方法,重點在五個領域:建立全球臨床資料庫、制定倫理指導方針、精煉診斷類別、納入文化考量及促進數位包容性。作者強調開發具代表性的數據集和可解釋的臨床決策支持系統的重要性,並強調各方合作以確保公平的臨床部署。 PubMed DOI

現代大型語言模型(LLMs)引起了廣泛關注,展現出驚人的能力,但有時也會出錯,顯示出人工智慧在日常生活中的潛力與挑戰。雖然許多研究致力於改善這些模型,但人類與LLM的合作動態仍待深入探討。本文強調未來研究應優先考慮人類與LLM的互動,並指出可能妨礙合作的偏見,提出解決方案,並概述促進相互理解及提升團隊表現的研究目標,以改善推理與決策過程。 PubMed DOI

隨著城市成為人類活動的核心,城市感知的重要性日益提升。大型語言模型(LLMs)透過其語言框架,為城市感知帶來新機會。本文探討LLMs在理解城市機制上的潛力,重點在於改善人類與LLMs的知識轉移、提升對城市運作的認識,以及透過LLM代理實現自動化決策。雖然LLMs能提供更深入的城市動態理解,但也面臨多模態數據整合、時空推理、文化適應性和隱私等挑戰。未來的城市感知需善用LLMs的智慧,並克服這些挑戰,以促進智能和可持續的城市發展。 PubMed DOI

基礎模型已成為人工智慧應用,特別是自然語言處理中不可或缺的部分。圖形機器學習也正朝向更先進的深度學習技術發展。基礎模型的成功促使研究者探索圖形基礎模型(GFMs),這些模型預期能在大型圖形數據集上進行預訓練,並適應不同任務。不過,這個新興領域目前缺乏明確定義和系統分析。本文介紹GFMs的關鍵特徵,並根據其對圖形神經網絡和大型語言模型的依賴程度,將研究分為三類,並回顧GFMs的現狀及未來研究方向。 PubMed DOI

這篇評論探討語言模型在蛋白質設計中的應用,將蛋白質視為氨基酸序列,類比於語言模型處理句子中的單詞。文章介紹蛋白質語言模型的基本概念,強調最近的進展,如上下文設計和結構信息整合,並討論目前的限制。此外,評論還建議未來的研究方向,以提升蛋白質語言模型,改善設計結果。 PubMed DOI

大型語言模型(LLMs)如ChatGPT已經改變了人機互動和語言分析。這些模型基於自然語言處理和機器學習的進步,特別是變壓器模型的引入,能更有效理解上下文。 LLMs的訓練過程分為預訓練和監督式微調,讓模型學習語法和推理能力。然而,它們也有缺陷,常生成聽起來合理但不正確的資訊,可能誤導使用者。因此,在使用LLMs時,特別是在敏感領域如放射學,必須謹慎評估其輸出。 PubMed DOI

作者對於依賴大型語言模型(LLMs)解決認知技能下降和教育不平等表示擔憂。他們認為,雖然LLMs有其優點,但其勞動強度、經濟不切實際性及環境影響可能超過好處。特別是糟糕的空氣品質可能影響認知功能,進而影響教育。作者警告在教室中普及LLMs可能導致隱私侵犯、人際互動減少及教師技能下降,並主張應仔細檢視LLMs的潛在危害,類比過去的石化和煙草產業問題。 PubMed DOI

這項研究發現,AI語言模型代理人在互動時,會自發形成社會慣例,甚至產生集體偏見。一小群立場堅定的對立代理人,也可能影響整體慣例。這顯示AI有能力自主建立社會規範,對確保AI符合人類價值觀很重要。 PubMed DOI

大型語言模型在心理科學等學術領域越來越重要,能協助教學、寫作和模擬人類行為。雖然帶來不少好處,但也有倫理和實務上的挑戰。這份摘要整理了最新進展、最佳做法,並提出未來發展方向,幫助學界更負責任且有效地運用LLMs。 PubMed DOI