原始文章

生命週期評估(LCA)在清單建模上常遇挑戰,特別是前景流數據不足及背景數據不一致。傳統方法如過程模擬和機器學習在可擴展性和通用性上表現不佳。大型語言模型(LLMs)有潛力解決這些問題,因為它們能利用廣泛的預訓練知識。將LLMs整合進LCI建模中,可以自動化整理數據並提升分析能力。本文探討LLMs如何應對挑戰,並建議未來研究方向,包括改善檢索增強生成(RAG)、整合知識圖譜及微調LLMs以適應LCI任務,期望能促進更自動化的LCI建模方法,提升LCA計算的數據品質。 PubMed DOI


站上相關主題文章列表

物聯網產生大量數據,但因處理和互通性限制,數據未被充分運用。歐洲提倡改善感應器數據訪問,尊重知識產權。新方法利用語言模型轉換數據,提高可重複使用性。GPT-4在實驗中表現出高精確度和召回率,顯示其潛力。 PubMed DOI

自然語言處理進步,讓智能系統支援工廠知識分享成為可能。使用大型語言模型(LLM)系統,從文件和專家中檢索資訊,協助解決問題。研究指出LLM有優勢,但偏好向人類專家學習。比較後發現GPT-4最佳,開源模型更具優勢。提供工廠考慮使用LLM進行知識管理的見解和系統設計。 PubMed DOI

Transformer神經網絡,特別是大型語言模型(LLMs),在材料分析、設計和製造上很有效。它們能處理各種數據,支持工程分析,像MechGPT在材料力學領域表現出理解能力。檢索增強的本體知識圖表等策略可提高生成性能,解決困難。這些方法在材料設計探索中有優勢,並提供見解。非線性取樣和基於代理的建模增強生成能力,改進內容生成和評估。例如,問答、代碼生成和自動生成力場開發。 PubMed DOI

LLMs在臨床試驗文件生成上有潛力。輝瑞挑戰使用LLMs自動化臨床試驗文件,尤其是為CSRs創建安全表摘要。評估顯示性能差異,特別是在事實準確性和寫作風格方面。團隊多使用GPT模型,改進方向包括表格輸入、上下文添加和微調。挑戰結果顯示LLMs在自動化CSRs中表格摘要有潛力,強調需優化人類輸入和持續研究。 PubMed DOI

大型語言模型(LLMs)透過龐大文本數據訓練,可在醫療保健領域提升準確性。研究者正致力改善LLM在消化系疾病上的表現,但準確性範圍仍有挑戰。整合檢索增強生成(RAG)、監督微調(SFT)和人類反饋的強化學習(RLHF)等方法,是克服障礙的關鍵。結合人類反饋與先進模型訓練,對於提升LLMs在醫療保健中的效能至關重要。 PubMed DOI

研究探討人工智慧應用,尤其是像ChatGPT這樣的大型語言模型,在產品風險評估中的應用。ChatGPT在項目如頭腦風暴失敗模式和風險緩解方面表現優勢,但也有錯誤和提供一般性指導。儘管有限制,人工智慧仍可在產品風險評估的構思中發揮作用,專家可專注審查人工智慧生成的內容。 PubMed DOI

大型語言模型(LLMs)在臨床決策中或許有好處,但目前還不適合實際醫療使用。一項研究指出,LLMs在真實病例中無法正確診斷、無法遵循指引、難以解釋檢驗結果,且難以整合到臨床流程中,可能危害患者健康。需要更多研究以改進LLMs在臨床決策的應用。 PubMed DOI

最近,人工智慧和自動化的進展正在徹底改變催化劑的發現與設計,從傳統的試錯方法轉向更高效的高通量數位方法。這一變化主要受到高通量信息提取、自動化實驗、實時反饋和可解釋機器學習的驅動,促成了自駕實驗室的誕生,加速了材料研究的進程。近兩年,大型語言模型的興起也為這個領域帶來了更大的靈活性,改變了催化劑設計的方式,標誌著學科的革命性轉變。 PubMed DOI

知識圖譜(KGs)改變了知識的表現方式,將實體及其關係以圖形結構組織,提升了推薦系統和問答系統的效能。像是Expert.AI的Sensigrafo,專注於透過機器導向的詞彙來增進自然語言理解。不過,維護知識圖譜仍然面臨挑戰,通常需要手動輸入。近期大型語言模型(LLMs)的進展,為自動化知識圖譜的豐富提供了新機會,本文探討了基於LLM的最新技術,並針對數據質量、經濟性、隱私等問題提供見解。 PubMed DOI

大型語言模型(LLMs)的環境影響引發了不同看法。一些研究指出,訓練和使用LLMs會產生顯著的碳足跡,而另一些則認為LLMs可能比傳統方法更可持續。我們的分析顯示,儘管LLMs對環境有影響,但在美國,它們的效率可能高於人力勞動。經濟考量可能促使人類與LLMs共同工作,而非單純取代。隨著LLMs規模增長,能源消耗可能上升,這凸顯了持續研究以確保其可持續性的重要性。 PubMed DOI