原始文章

這篇論文探討了Cockpit-Llama的開發,這是一個專門用來預測駕駛者行為意圖的語言模型,目的是提升車輛駕駛艙的互動性。透過分析駕駛者的行為、歷史數據及環境狀態,Cockpit-Llama能做出準確預測,協助主動決策。研究團隊還建立了一個新的多屬性駕駛艙數據集,涵蓋情緒和身體狀況等多方面資料。使用低秩適應(LoRA)進行微調後,實驗結果顯示Cockpit-Llama在預測準確度上超越了現有方法,顯著改善了智能駕駛艙的推理能力。 PubMed DOI


站上相關主題文章列表

這項研究探討如何利用先進的大型語言模型(LLMs)來提升煤礦安全評估。傳統方法在面對複雜數據時效率不佳,而這個系統能快速處理來自感測器的數據,並透過實體互動增強環境意識。結合煤礦安全知識庫,系統能進行邏輯推理、檢測異常及預測風險,並具備記憶功能以持續學習。研究中還設計了實驗框架,展示該系統在煤礦安全評估中的高效性,提供了一個創新的解決方案。 PubMed DOI

這項研究評估了多種大型語言模型(LLMs)在心理健康預測任務中的表現,測試的模型包括Alpaca、FLAN-T5、GPT-3.5和GPT-4。研究探討了不同的提示技術,結果顯示指令微調能顯著提升模型能力,尤其是Mental-Alpaca和Mental-FLAN-T5在準確率上超越了GPT-3.5和GPT-4。此外,研究也強調了模型的推理能力及其在實際應用中的倫理問題與偏見考量。這些發現為改善LLM在心理健康領域的應用提供了指導。 PubMed DOI

這項研究探討交通事故報告中的低報問題,這會影響交通安全措施的發展。傳統修正方法慢且易出錯,特別是處理大數據時。作者提出一個框架,利用大型語言模型(LLMs)分析事故敘述,識別低報因素,如酒精參與。研究團隊用麻薩諸塞州的500份事故報告進行案例研究,結果顯示高準確率,召回率達1.0,精確率0.93,成功識別低報情況。這方法提升了交通安全分析的效率,未來可改善事故記錄質量,支持更有效的安全對策。 PubMed DOI

這項研究提出了一種新方法,利用大型語言模型(LLMs)為機器人生成複雜的長期任務計畫。過去的研究多集中於簡單的任務規劃,動作指令通常不超過十個。新方法透過讓LLM主動收集資訊並進行問答,精煉任務計畫,並能識別和解決長期任務中的模糊性,增強計畫細節。研究以烹飪任務為例,實驗結果顯示,這種方法成功提升了任務計畫的資訊量,填補了長期機器人任務研究的空白。 PubMed DOI

您的研究探討了使用ChatGPT學習先進駕駛輔助系統(ADAS)的效果,與傳統紙本學習相比。透過多選題問卷和NASA任務負荷指數,評估參與者的理解能力和認知負荷。結果顯示,使用ChatGPT的參與者正確率平均高出11%,且報告的認知和身體需求較低,顯示學習體驗更有效且壓力較小。研究強調ChatGPT能滿足不同學習偏好,增強對複雜主題的理解,並建議在教育中整合大型語言模型(LLM)工具,並需進一步研究其在不同族群和學習領域的影響。 PubMed DOI

這篇論文探討智慧駕駛艙的演變,強調傳統規則方法在理解使用者行為上的限制,導致開發的功能無法滿足真實需求。為改善這一點,建議使用知識圖譜(KGs)來組織和檢索資訊。作者提出GLM-TripleGen模型,專注於分析駕駛艙狀態與使用者行為的隱藏關係,並解決實體識別和關係提取的挑戰。透過創建數據集和使用低秩適應(LoRA)方法,實驗結果顯示該模型在生成駕駛艙三元單位方面表現優於現有方法,具備良好的穩健性和泛化能力。 PubMed DOI

這項研究介紹了一種新的個人化大型語言模型(PLLM)代理,旨在提升大型語言模型在人體與機器人及人機互動中的整合能力。雖然現有研究多集中於技術層面,但在適應個別用戶情境上仍面臨挑戰。我們提出利用特定領域數據來個人化模型,並透過NeuroSense EEG數據集進行驗證。研究結果顯示,PLLM在醫療、教育及輔助技術等領域具有效用,並探討了相關的倫理考量,如數據隱私問題。這標誌著人工智慧在適應性和個人化上的重要進展。 PubMed DOI

這項研究比較了ChatGPT-4、Google Gemini Advanced和自訂RAG模型在航太醫學知識與臨床推理的表現。RAG表現最好,但三者都有知識缺口和不穩定,臨床應用有風險。雖然LLM有潛力協助太空醫療,但準確性和可靠性還需加強,才能安全使用。 PubMed DOI

這項研究提出一套可解釋的系統(CPTR-LLM),用大型語言模型來預測自駕車的碰撞風險,並判斷駕駛人何時該接手。經過大量數據和兩階段訓練,模型預測準確率高達0.88,也能有效減少不必要或危險的接管。結果顯示,大型語言模型有助提升自駕車的道路安全。 PubMed DOI

這項研究比較了52種大型語言模型在自駕車道德決策上的表現,發現參數超過100億、尤其是專有模型,判斷較接近人類。不過,模型新舊不一定影響道德判斷,且有些模型會過度偏向特定倫理原則。實際應用時,還是要在判斷品質、運算資源和文化差異間取得平衡。 PubMed DOI