原始文章

隨著人工智慧的快速進步,服務機器人在日常生活中越來越普遍,這要求它們能準確識別人類意圖。現有方法在複雜環境中常常無法達標。為了解決這個問題,我們提出了一個基於大型語言模型和知識圖譜的意圖識別框架(LKIRF)。這個框架結合了大型語言模型和知識圖譜,提升了服務機器人的意圖識別能力。實驗結果顯示,LKIRF在各種場景中的預測準確性超越傳統方法,並增強了意圖推理的透明度和可解釋性。 PubMed DOI


站上相關主題文章列表

研究人員致力於開發能像人類對話的系統。傳統模型有限制,但大型預訓練語言模型顯示潛力。這些模型可改進應對對話,但特定領域或許難生成適當回應。本文提出KRP-DS模型,融入知識圖提升回應質量和多樣性。實驗顯示,此模型在回應品質、多樣性、可解釋性、人機評估等方面優於基準模型。 PubMed DOI

研究發現使用大型語言模型(LLMs)控制機器人情感行為,預測並即時展示情緒,讓機器人展示一致面部表情,讓人覺得更像人類、情感適當,並留下正面印象。結果顯示LLMs能有效生成和控制機器人情感,可能增進治療、陪伴或客戶服務等情境下的人機互動。 PubMed DOI

大型語言模型對機器人任務規劃有幫助,但執行任務時有困難。提出多層模型,逐層分解任務以改善處理。視覺語言模型可幫助環境感知,整合任務目標與環境數據,進行精確運動規劃。語義對齊方法可增強任務可執行性。無人載具實驗驗證了此方法對應機器人任務規劃與執行的有效應對。 PubMed DOI

自然語言處理進步,讓智能系統支援工廠知識分享成為可能。使用大型語言模型(LLM)系統,從文件和專家中檢索資訊,協助解決問題。研究指出LLM有優勢,但偏好向人類專家學習。比較後發現GPT-4最佳,開源模型更具優勢。提供工廠考慮使用LLM進行知識管理的見解和系統設計。 PubMed DOI

Transformer神經網絡,特別是大型語言模型(LLMs),在材料分析、設計和製造上很有效。它們能處理各種數據,支持工程分析,像MechGPT在材料力學領域表現出理解能力。檢索增強的本體知識圖表等策略可提高生成性能,解決困難。這些方法在材料設計探索中有優勢,並提供見解。非線性取樣和基於代理的建模增強生成能力,改進內容生成和評估。例如,問答、代碼生成和自動生成力場開發。 PubMed DOI

目前,對話代理人(CAs)主要使用嚴格的基於規則的對話模型,但這限制了彈性和擴展性。大型語言模型(LLMs)是替代方案,但在雲端運行時可能涉及隱私問題。這研究探討了如何微調輕量級預訓練LLMs,以預測使用者意圖,實現在設備上部署,確保隱私和個性化。RoBERTa和XLNet在平衡性能和隱私方面有潛力。研究顯示這些模型可與ChatGPT媲美,並討論了對利益相關者的影響。總結來說,該研究強調了在考慮性能、內存使用和隱私的情況下,使用LLMs在設備上實現對話代理人的重要性。 PubMed DOI

Teriyaki是一個結合象徵性任務規劃和機器學習的框架,利用像GPT-3這樣的大型語言模型。這個方法旨在解決動態人機協作中的問題,透過逐步生成計劃行動提高效率,同時達成規劃和執行。初步結果顯示有希望的成果,包括更高的問題解決率、更短的計劃時間,以及縮短計劃可用性等待時間。 PubMed DOI

這篇論文介紹了一個針對無人零售商店的綜合軟體服務框架,重點在於提升顧客服務,透過了解顧客需求和引導他們找到產品。我們運用視覺識別技術識別商品,並利用大型語言模型(LLMs)分析顧客偏好,提供量身訂做的推薦。 我們探討了基於深度神經網路的影像識別模型,並提出利用有限訓練數據微調LLMs的方法,提升參數更新效率。此外,智能推薦系統能自動分析顧客偏好,完善顧客到貨架的體驗。實驗結果顯示,我們的方法在有限數據集上表現優於現有技術,為顧客創造無縫的購物體驗。 PubMed DOI

知識圖譜(KGs)改變了知識的表現方式,將實體及其關係以圖形結構組織,提升了推薦系統和問答系統的效能。像是Expert.AI的Sensigrafo,專注於透過機器導向的詞彙來增進自然語言理解。不過,維護知識圖譜仍然面臨挑戰,通常需要手動輸入。近期大型語言模型(LLMs)的進展,為自動化知識圖譜的豐富提供了新機會,本文探討了基於LLM的最新技術,並針對數據質量、經濟性、隱私等問題提供見解。 PubMed DOI

這篇論文提出一個系統,透過自然語言對話提升人機互動,讓機器人能夠從經驗中學習。系統利用大型語言模型(LLMs)協調機器人行為,生成Python程式碼來控制動作和感知,這些程式碼根據人類指令和環境反饋生成。當LLM誤解指令時,會調用另一個專注於改善程式碼的LLM來學習錯誤。改進的互動會儲存於機器人記憶中,未來能更好處理類似請求。該系統已整合進人形機器人ARMAR-6,並透過模擬和實測評估其有效性,顯示機器人能夠逐步學習並應用知識。 PubMed DOI