原始文章

人機協作(HRC)是一種創新的製造方式,結合人類與機器人的優勢,提升客製化任務的效率與靈活性。不過,現有的HRC系統在環境感知和任務推理上仍有挑戰,特別是對新物體的適應性不足。為了解決這些問題,本文提出利用基礎模型(FMs),如大型語言模型(LLMs)和視覺基礎模型(VFMs),來增強HRC系統的靈活性與泛化能力。透過提示學習和多模型整合,這些方法能有效提升任務推理與場景感知的能力,並在實驗中證實其有效性。 PubMed DOI


站上相關主題文章列表

大型語言模型對機器人任務規劃有幫助,但執行任務時有困難。提出多層模型,逐層分解任務以改善處理。視覺語言模型可幫助環境感知,整合任務目標與環境數據,進行精確運動規劃。語義對齊方法可增強任務可執行性。無人載具實驗驗證了此方法對應機器人任務規劃與執行的有效應對。 PubMed DOI

自然語言處理進步,讓智能系統支援工廠知識分享成為可能。使用大型語言模型(LLM)系統,從文件和專家中檢索資訊,協助解決問題。研究指出LLM有優勢,但偏好向人類專家學習。比較後發現GPT-4最佳,開源模型更具優勢。提供工廠考慮使用LLM進行知識管理的見解和系統設計。 PubMed DOI

這篇論文探討了在人機合作環境中運用大型語言模型(LLMs)如GPT進行口語溝通的方法。介紹了一個以GPT為核心的機器人代理在Unity VR環境中的模擬框架。透過12位參與者的使用者研究,探討了GPT-4在多機器人環境中的效用。研究結果顯示,使用者可能對與機器人互動有先入為主的看法,但透過自然語言溝通的探索,可以帶來更有效的互動。同時提供了寶貴的教訓和未來研究的建議。 PubMed DOI

基礎模型是新一代人工智慧,適用於各種任務,不同於傳統模型只針對特定目標。在眼科領域,這些模型有潛力改革臨床實踐,成為其他醫學專業的典範。這篇評論提供眼科專業人員了解並應用基礎模型於他們研究和實踐的指引。內容包括基礎模型在眼科領域的關鍵概念、技術進展、訓練方法和現有文獻。評論也探討隱私、偏見和臨床驗證等挑戰,並提出最大化技術優勢的方法。 PubMed DOI

陪伴機器人旨在幫助年長者對抗孤獨感,提供社交和情感支持。然而,年長者對於對話伴侶的期望可能與目前的科技和其他年齡群體有所不同。讓年長者參與這些機器人的開發是至關重要的。最近大型語言模型的進步顯示了滿足這些期望的潛力。一項涉及28名年長者的研究展示了在一個陪伴機器人中使用大型語言模型,揭示了期望,如積極參與對話、記憶過去互動、保護隱私、提供資訊和提醒、促進社交聯繫以及表達同理心。該研究提供了設計針對年長者的對話陪伴機器人的建議,使用基礎模型如大型語言模型,這也可應用在其他領域。 PubMed DOI

在分子生物學中,探索分子間的關聯性至關重要,而大型語言模型(LLMs)的出現大幅推進了這一領域。這些模型在自然語言處理和圖像生成上表現優異,能夠從龐大數據集中捕捉複雜關係,成為基礎模型。 目前的數據集涵蓋RNA、DNA、蛋白質序列及單細胞和空間轉錄組,為模型開發提供了豐富基礎。未來,基礎模型的發展將專注於提升可解釋性、整合多組學數據及增強預測能力,對於改進我們對生物系統的理解及治療策略具有巨大潛力。 PubMed DOI

去年推出的RETFound是眼科領域首個基礎模型,為通用醫療人工智慧(GMAI)奠定基礎。與此同時,像GPT-4和Gemini等大型語言模型也經過調整,並在臨床中測試,結果相當不錯。RETFound在小型數據集上表現優於傳統深度學習模型,而Med-Gemini和Medprompt GPT-4在眼科任務中也超越了標準模型。不過,眼科領域缺乏專門的多模態模型,主要因為訓練需求高和數據集稀缺。儘管基礎模型潛力大,但仍需高品質的數據集來進行有效訓練。 PubMed DOI

這篇論文提出一個系統,透過自然語言對話提升人機互動,讓機器人能夠從經驗中學習。系統利用大型語言模型(LLMs)協調機器人行為,生成Python程式碼來控制動作和感知,這些程式碼根據人類指令和環境反饋生成。當LLM誤解指令時,會調用另一個專注於改善程式碼的LLM來學習錯誤。改進的互動會儲存於機器人記憶中,未來能更好處理類似請求。該系統已整合進人形機器人ARMAR-6,並透過模擬和實測評估其有效性,顯示機器人能夠逐步學習並應用知識。 PubMed DOI

這份調查探討基礎模型(FMs)在生物資訊學中的影響,特別是如何克服有限標註數據和數據噪音的挑戰。文章總結了FMs的演變、當前研究狀況及方法,並強調它們在序列分析、結構預測和功能註釋等生物學問題上的應用,與傳統方法進行比較。此外,還討論了FMs面臨的挑戰,如數據噪音、可解釋性和偏見,並提供對性能限制的見解。最後,文章展望了FMs在生物研究中的未來發展方向。 PubMed DOI

隨著人工智慧的快速進步,服務機器人在日常生活中越來越普遍,這要求它們能準確識別人類意圖。現有方法在複雜環境中常常無法達標。為了解決這個問題,我們提出了一個基於大型語言模型和知識圖譜的意圖識別框架(LKIRF)。這個框架結合了大型語言模型和知識圖譜,提升了服務機器人的意圖識別能力。實驗結果顯示,LKIRF在各種場景中的預測準確性超越傳統方法,並增強了意圖推理的透明度和可解釋性。 PubMed DOI