原始文章

大型語言模型(LLMs)因應用廣泛而受到重視,但其訓練和部署的計算需求也隨之增加。記憶電阻交叉陣列(memristor crossbars)因其小巧和高能效,成為解決方案,特別適合計算機視覺任務。然而,將LLMs部署在此技術上面臨三大挑戰:1. LLM增長超出記憶電阻晶片能力;2. 多頭注意力區塊需非靜態乘法,傳統技術無法處理;3. 複雜非線性運算表現不佳。為解決這些問題,我們提出新架構,能在單晶片上部署LLMs,測試顯示準確度損失極小,並顯著降低能量消耗。 PubMed DOI


站上相關主題文章列表

大型語言模型(LLMs)有潛力改變醫學,提升診斷和臨床決策。成功整合需要應對醫學領域的挑戰,包括遷移學習、微調、強化學習、跨學科合作、教育、評估、倫理、隱私和法規。透過全面方法和跨學科合作,LLMs能負責任地融入醫療實踐,造福患者並改善健康結果。 PubMed DOI

大型語言模型(LLMs)在自然語言處理領域有潛力,可加速臨床實踐,如診斷、預防和治療。智能對話系統運用LLMs被視為治療的未來,尤其是在ChatGPT時代。這研究專注於在醫療保健領域運用LLMs,特別關注認知衰退和產後抑鬱。討論LLMs在醫療保健中的好處,如增進臨床任務和提供個人化醫療,以及相關擔憂,如數據隱私和公平性。這有助於全球討論將LLMs整合到醫療系統中。 PubMed DOI

最新研究利用先進語言模型研究人腦處理語言方式。模型提升語言能力,但神經科學研究未跟上。研究者用不同大小模型觀察其捕捉大腦語言資訊能力,發現大模型預測神經活動較佳。研究指出,隨模型增大,最佳神經信號預測層轉移到較早層,顯示大腦處理語言有組織層次結構。 PubMed DOI

這項研究探討大型語言模型(LLMs)在醫療應用中的準確性與能耗之間的平衡,特別分析了Meta的Llama 2和LMSYS Org的Vicuna 1.5。研究使用印第安納大學的胸部X光影像資料庫,發現Vicuna 1.5在效率和準確率上表現優於Llama 2。Llama 2的70B模型能耗是7B版本的七倍,但準確率卻較低,效率比僅22.30。結論指出,較小且經過微調的LLMs在醫療應用中更具可持續性,強調選擇模型的重要性,需平衡性能與環境影響。 PubMed DOI

小分子的設計對於藥物發現和能源儲存等技術應用非常重要。隨著合成化學的發展,科學界開始利用數據驅動和機器學習方法來探索設計空間。雖然生成式機器學習在分子設計上有潛力,但訓練過程複雜,且生成有效分子不易。研究顯示,預訓練的大型語言模型(LLMs)如Claude 3 Opus能根據自然語言指示創建和修改分子,達到97%的有效生成率。這些發現顯示LLMs在分子設計上具備強大潛力。 PubMed DOI

這項研究探討大型語言模型(LLMs)在中文生物醫學命名實體識別(BNER)任務的表現,這領域的研究相對較少。作者評估了多個LLMs,包括ChatGLM2-6B、GLM-130B、GPT-3.5和GPT-4,使用真實的中文電子病歷數據集及公共數據集。結果顯示,雖然LLMs在零樣本和少樣本情境下有潛力,但經過指令微調後表現顯著提升。特別是微調後的ChatGLM2-6B在真實數據集上超越了專門模型,而GPT-3.5在CCKS2017數據集上表現最佳,但仍未超過頂尖專業模型DGAN。這是首個評估LLMs在中文BNER任務的研究,顯示其潛力並為未來應用提供指導。 PubMed DOI

大型語言模型(LLMs)在研究和商業應用中越來越受重視,現在的趨勢是使用參數高效微調(PEFT)方法來開發較小的專用模型,而不需完全微調。研究發現,LoRA在各種任務中表現優異,常與完全微調的模型相當,顯示PEFT方法在臨床決策中有效,特別適合低成本運算。小型模型的優勢如快速處理和低訓練成本,超越大型LLMs的性能。此外,領域特定的預訓練對小型模型也相當重要。完整代碼可在GitHub上找到。 PubMed DOI

大型語言模型(LLMs)的環境影響引發了不同看法。一些研究指出,訓練和使用LLMs會產生顯著的碳足跡,而另一些則認為LLMs可能比傳統方法更可持續。我們的分析顯示,儘管LLMs對環境有影響,但在美國,它們的效率可能高於人力勞動。經濟考量可能促使人類與LLMs共同工作,而非單純取代。隨著LLMs規模增長,能源消耗可能上升,這凸顯了持續研究以確保其可持續性的重要性。 PubMed DOI

為了降低自然語言算法在臨床研究中的環境影響,我們提出五個步驟: 1. **選擇節能模型**:使用經過優化的高效模型,考慮微調現有模型以節省能源。 2. **可持續基礎設施**:選擇使用可再生能源的雲端服務,與可持續供應商合作,減少碳足跡。 3. **優化訓練過程**:採用混合精度訓練等技術,降低計算資源需求,減少能源消耗。 4. **監測環境影響**:建立指標追蹤碳排放和資源使用,定期向利益相關者報告。 5. **促進合作**:與研究社群分享最佳實踐,推動可持續AI政策。 這些步驟能幫助臨床研究人員減少大型語言模型的環境影響。 PubMed DOI

這項研究探討大型語言模型(LLMs)在優化醫療工作流程的應用,特別是面對經濟和計算挑戰。研究人員使用真實病患數據,評估了十種不同的LLM,進行超過30萬次實驗。結果顯示,隨著問題和臨床筆記數量增加,模型表現會下降。高容量模型如Llama-3-70b和GPT-4-turbo-128k能有效處理最多50個任務,但超過後表現下降。經濟分析指出,使用串接方式可在50個任務時實現高達17倍的成本降低,顯示LLM在臨床環境中的限制及提升成本效率的潛力。 PubMed DOI