最近在多模態大型語言模型(MLLMs)方面的研究顯示,擴展模型和數據對提升性能至關重要,但計算成本高。為此,我們提出了Uni-MoE,一種新型的統一MLLM,利用混合專家(MoE)架構來處理多種模態。Uni-MoE包含專門的編碼器,並透過稀疏的MoE架構實現高效訓練。我們還提出漸進式訓練策略,改善多專家的協作與泛化能力。實驗結果顯示,Uni-MoE在多模態數據集上表現優異,減少性能偏差。相關代碼可在 https://github.com/HITsz-TMG/UMOE-Scaling-Unified-Multimodal-LLMs 下載。
PubMed
DOI