原始文章

隨著大型語言和視覺模型對計算資源的需求增加,挑戰也隨之而來。我們提出了一個名為單核心神經元系統(OCNS)的可解釋框架,透過單一核心神經元顯著減少參數數量,並在時間序列預測中達到與大型模型相似的表現。OCNS整合多個延遲反饋機制,能有效將輸入特徵轉換為一維時間序列,捕捉系統動態。這種方法在高維系統的短期預測中展現出強大且可靠的性能,證明小型模型也能提供高效的深度學習解決方案。 PubMed DOI


站上相關主題文章列表

大型語言模型(LLMs)在各領域表現出色,但其龐大的參數數量帶來了可擴展性挑戰,如高訓練成本和能量消耗。本文探討「專家混合」(MoEs)網路,透過條件計算來管理計算需求,並保持大量參數。重點在於將MoEs應用於基於三維非揮發性記憶體的類比內存計算硬體上,解決傳統模型的瓶頸。模擬結果顯示,MoEs的條件計算機制能降低推理成本,提升可及性和能量效率。 PubMed DOI

這項研究探討大型語言模型(LLMs)與人類大腦在處理敘事資訊上的差異。雖然LLMs能預測與敘事相關的神經信號,但它們是平行分析大量文本,與大腦逐步處理的方式不同。研究使用219名參與者的fMRI數據,發現LLMs在短期上下文中表現較好。研究人員開發了一個增量上下文模型,結合短期與持續更新的長期上下文,顯著改善了對長期處理腦區活動的預測。這結果顯示大腦整合資訊的能力,對認知神經科學和人工智慧的發展提供了新見解。 PubMed DOI

這篇論文提出了一個創新的深度學習框架,利用功能性磁共振影像(fMRI)數據來評估大腦中的淀粉樣蛋白β沉積,提供了一種更可及的阿茲海默症篩檢方式。框架包含三個主要組件:節點嵌入編碼器、階層式功能連結網絡學習模組,以及任務特徵一致性損失。實驗結果顯示,這種方法在預測淀粉樣蛋白β方面表現優異,並有助於深入了解阿茲海默症的機制,對其預防具有潛在價值。 PubMed DOI

提前預測癲癇發作對患者非常重要,隨著機器學習和人工智慧的進步,這項任務變得更有可能。雖然深度學習模型如CNN和LSTM已經取得了一定成果,但癲癇的複雜性需要更精密的方法。面臨的挑戰包括EEG數據質量不一、發作類型多樣、缺乏標註數據等。為此,我們提出了輕量級架構**ESPFormer**,在實時應用中表現優異。研究顯示,ESPFormer在多項基準測試中預測準確率超過其他模型,顯示其在基於EEG的癲癇預測中更具優勢。 PubMed DOI

這篇論文探討了一種創新的壓縮大型語言模型(LLMs)的方法,以降低其計算需求和環境影響。主要技術包括: 1. **前向傳播剪枝(FPP)**:透過凍結和將未使用的參數設為零,減少嵌入層和前饋層的可訓練參數,提升訓練和收斂速度。 2. **權重矩陣折疊**:利用相同列壓縮和對角權重壓縮,修剪自注意力層的查詢和鍵矩陣,增強模型一致性和性能。 測試結果顯示,變壓器層減少99%,整體模型壓縮約70%,同時保持相似準確性,顯著降低記憶體使用和計算需求,促進人工智慧的可持續發展。 PubMed DOI

PRIME 是一種模仿大腦運作的神經網路技術,結合脈衝神經網路和 memristor 硬體,能有效提升能源效率和適應力。它會根據輸入內容自動提早停止運算,減少延遲和運算量,同時維持準確度。跟傳統方法比,PRIME 更省電,也更能抵抗硬體雜訊。 PubMed DOI

這項研究開發的 CD-Tron 臨床語言模型,能在 MCI 診斷前,從超過 2,000 名病患的電子病歷中,早期偵測認知衰退。CD-Tron 表現比傳統模型更好,準確率和敏感度都很高,還能用 SHAP 值解釋預測結果,提升臨床透明度,展現語言模型在醫療早期偵測的潛力。 PubMed DOI

LEMONADE是一套新框架,能根據使用者需求自動設計神經網路架構,特別適合邊緣AI場景(像是有限電力、體積和速度要求)。它結合專家系統和大型語言模型(如ChatGPT-4o),操作簡單,不用事先設定搜尋空間,還能考慮各種限制。實驗證明,LEMONADE設計的網路在多個資料集上表現優異,兼顧準確率和邊緣AI需求。 PubMed DOI

NeuroScale 是新一代深度學習模型,結合演化蛋白質建模和多尺度神經網路(GoogLeNet),能精準預測神經肽(AUC 超過 0.97),不論序列相似度或長度都很穩定,非常適合用來發現神經肽和開發肽類藥物。 PubMed DOI

我們提出一種新方法,結合NCBI Gene的基因描述和大型語言模型,將單細胞RNA定序資料轉換成有意義的向量。做法是先找出每個細胞表現量最高的基因,擷取基因註解,再用語言模型轉成向量,並依表現量加權。這樣不只提升解釋性,也讓細胞分群和分析更精準。 PubMed