原始文章

大型語言模型(LLMs)的環境影響引發了不同看法。一些研究指出,訓練和使用LLMs會產生顯著的碳足跡,而另一些則認為LLMs可能比傳統方法更可持續。我們的分析顯示,儘管LLMs對環境有影響,但在美國,它們的效率可能高於人力勞動。經濟考量可能促使人類與LLMs共同工作,而非單純取代。隨著LLMs規模增長,能源消耗可能上升,這凸顯了持續研究以確保其可持續性的重要性。 PubMed DOI


站上相關主題文章列表

大型語言模型如GPT-4、Bard和Claude,透過高效的文本處理能力,改變醫學等領域的學術寫作。雖然這些模型能生成類似人類內容,有助於文獻回顧和假設制定,但人工智慧生成內容的準確性引發道德疑慮。本文討論LLMs對醫學寫作的影響、道德挑戰,以及辨識人工智慧生成文本的方法,同時思考LLMs在學術出版和醫學領域的未來。 PubMed DOI

這項研究探討大型語言模型(LLMs)在醫療應用中的準確性與能耗之間的平衡,特別分析了Meta的Llama 2和LMSYS Org的Vicuna 1.5。研究使用印第安納大學的胸部X光影像資料庫,發現Vicuna 1.5在效率和準確率上表現優於Llama 2。Llama 2的70B模型能耗是7B版本的七倍,但準確率卻較低,效率比僅22.30。結論指出,較小且經過微調的LLMs在醫療應用中更具可持續性,強調選擇模型的重要性,需平衡性能與環境影響。 PubMed DOI

大型語言模型(LLMs)對醫學寫作和出版影響深遠,最近的綜述文章強調了其應用、挑戰及未來影響。調查顯示,LLMs在科學寫作中被廣泛使用,帶來了許多好處與挑戰。它們在文獻搜尋、研究設計、寫作輔助等方面表現出色,並在同行評審過程中也扮演重要角色。為了確保學術工作的完整性,研究人員需驗證AI生成內容的準確性,並建立人類與AI的協作流程。未來需解決LLMs的限制,並持續更新相關政策,以維護醫學寫作的品質。 PubMed DOI

這項研究評估大型語言模型(LLMs)在從科學文獻中提取生態數據的表現,並與人類審稿人進行比較。結果顯示,LLMs提取相關數據的速度超過50倍,對於離散和類別數據的準確率超過90%。不過,它們在某些定量數據的提取上仍有困難。雖然LLMs能顯著提升建立大型生態數據庫的效率,但仍需額外的質量保證措施來確保數據的完整性。 PubMed DOI

為了降低自然語言算法在臨床研究中的環境影響,我們提出五個步驟: 1. **選擇節能模型**:使用經過優化的高效模型,考慮微調現有模型以節省能源。 2. **可持續基礎設施**:選擇使用可再生能源的雲端服務,與可持續供應商合作,減少碳足跡。 3. **優化訓練過程**:採用混合精度訓練等技術,降低計算資源需求,減少能源消耗。 4. **監測環境影響**:建立指標追蹤碳排放和資源使用,定期向利益相關者報告。 5. **促進合作**:與研究社群分享最佳實踐,推動可持續AI政策。 這些步驟能幫助臨床研究人員減少大型語言模型的環境影響。 PubMed DOI

這項研究探討大型語言模型(LLMs)在優化醫療工作流程的應用,特別是面對經濟和計算挑戰。研究人員使用真實病患數據,評估了十種不同的LLM,進行超過30萬次實驗。結果顯示,隨著問題和臨床筆記數量增加,模型表現會下降。高容量模型如Llama-3-70b和GPT-4-turbo-128k能有效處理最多50個任務,但超過後表現下降。經濟分析指出,使用串接方式可在50個任務時實現高達17倍的成本降低,顯示LLM在臨床環境中的限制及提升成本效率的潛力。 PubMed DOI

這項研究強調環境科學中創新研究方法的必要性,以應對氣候變遷和生物多樣性喪失等全球挑戰。由於現有文獻的複雜性,識別有意義的研究主題變得困難。傳統文獻計量學無法捕捉新興跨學科領域,但人工智慧(AI)和大型語言模型(LLMs)的進步提供了新機會。研究發現,GPT-3.5在分析環境科學前沿主題上表現更佳,顯示跨學科研究、AI和大數據對解決環境挑戰的重要性。LLMs可成為研究人員的寶貴工具,提供未來研究方向的靈感。 PubMed DOI

將大型語言模型(LLMs)整合進科學工作流程中,既有機會也有挑戰。四組科學家提供不同觀點:Schulz等人認為LLMs能提升研究生產力;Bender等人警告過度炒作,主張專注於可解釋的專用工具;Marelli等人強調透明性與負責任使用,呼籲標示LLMs貢獻;Botvinick和Gershman則認為人類應對科學探究負最終責任。這場對話旨在確保LLMs的使用能提升科學實踐,同時維持倫理與問責。 PubMed DOI

這項研究首次探討大型語言模型(LLMs)在環境決策中的應用,分析其潛在優勢與限制。研究提出兩個框架:一是LLMs輔助的框架,增強人類專業知識;二是LLMs驅動的框架,自動化優化任務。透過水工程中PFAS控制的案例,顯示這兩個框架在環境決策中的優化效果。結果顯示,LLMs輔助框架在調節流量和改善PFAS攔截上表現良好,而LLMs驅動框架在複雜參數優化上則面臨挑戰。研究強調人工智慧應輔助而非取代人類專業知識,為未來的合作奠定基礎。 PubMed DOI

這篇論文探討了一種創新的壓縮大型語言模型(LLMs)的方法,以降低其計算需求和環境影響。主要技術包括: 1. **前向傳播剪枝(FPP)**:透過凍結和將未使用的參數設為零,減少嵌入層和前饋層的可訓練參數,提升訓練和收斂速度。 2. **權重矩陣折疊**:利用相同列壓縮和對角權重壓縮,修剪自注意力層的查詢和鍵矩陣,增強模型一致性和性能。 測試結果顯示,變壓器層減少99%,整體模型壓縮約70%,同時保持相似準確性,顯著降低記憶體使用和計算需求,促進人工智慧的可持續發展。 PubMed DOI