Mamba (深度學習架構)
| 機器學習與資料探勘 |
|---|
Mamba是一種用於序列建模任務的深度學習架構。它是由卡內基梅隆大學和普林斯頓大學的研究人員開發的,用於解決Transformer架構的一些局限性,尤其是在處理長序列方面。它基於結構化狀態空間序列(S4)模型。 [1][2][3]
架構
[編輯]為了能夠處理長資料序列,Mamba採用了結構化狀態空間序列模型(S4)。[1]S4可以通過結合連續時間、迴圈和卷積模型有效且高效地對長序列進行建模。這使得它能夠處理不規則採樣的資料和長上下文,並在訓練和推理期間保持計算效率。[4]
Mamba對S4模型在時序運算處理方面實現了突破性改進,其創新性的動態參數選擇機制能夠根據輸入特徵自適應調整結構化狀態空間模型(SSM)的參數組態。[5][1]這種機制使模型具備序列資訊的選擇性注意力能力,通過動態篩選關鍵特徵實現對冗餘資料的智慧型過濾。相較於傳統時不變系統框架,Mamba採用的時變架構不僅提升了計算效率,更最佳化了複雜序列建模的能量消耗比,實現了模型效能的階躍式提升。[1][6]
Mamba採用一種硬體感知演算法。該實現利用GPU去進行核心融合、並列掃描和重新計算來避免在主記憶體密集型層中實現擴充狀態[1],從而提高效能和主記憶體使用率。與Transformer相比,該方法在處理長序列時效率明顯更高。[1][6]
此外,Mamba通過將SSM設計與MLP塊相整合來簡化其架構,從而形成相同品質但精簡的結構,進一步增強了該模型進行跨文字、音訊和基因組等資料類型進行通用序列建模的能力,同時保持了訓練和推理的高效率。[1]
關鍵組件
[編輯]- 選擇性狀態空間(SSM):SSM是Mamba的核心,它是根據當前輸入選擇性處理資訊的迴圈模型。這使得能夠專注於相關資訊,丟棄不相關的資料。[1]
- 簡化架構:Mamba用統一的SSM塊取代了Transformers的複雜注意力和MLP塊。目的是降低計算複雜度並提高推理速度。[1]
- 硬體感知並列:Mamba採用迴圈模式,並採用專為提高硬體效率而設計的並列演算法,從而進一步提升其效能。[1]
| 特徵 | Transfromer | Mamba |
|---|---|---|
| 架構 | 基於注意力 | 基於SSM |
| 複雜 | 高 | 低 |
| 推理時間複雜度 | O(n)
|
O(1)
|
| 訓練時間複雜度 | O(n 2 )
|
O(n)
|
變種模型
[編輯]無token的語言模型:MambaByte
[編輯]由於要對每個位元組大小的token進行操作,Transformer的擴充性較差,因為每個token都必須「關注」其他每個token,從而導致O(n 2 )的計算複雜度,因此,Transformer 選擇使用子詞分詞器來減少文字中的token數量,然而,這會導致詞彙表和詞嵌入非常大。
這項研究探討了一種新穎的語言建模方法:MambaByte,它不同於標準的基於token的方法。與依賴於將文字分解為離散單元的傳統模型不同,MambaByte 直接處理原始位元組序列。這消除了token化的需要,可能帶來以下幾個優點:[7]
- 語言獨立性:tokenization通常依賴於特定於語言的規則和詞彙,從而限制了其在不同語言中的適用性。 MambaByte 的位元組級表示使其能夠處理不同的語言,而無需特定於語言的適應。
- 消除子詞分詞器帶來的偏見:常見子詞被過度代表,而罕見詞或新詞被低估或被分成意義較小的單元。這會影響模型的理解和生成能力,特別是對於形態豐富的語言或在訓練資料中沒有很好表現的token。
- 預處理的簡化:通過消除對複雜token和詞彙管理的需求,簡化了預處理流程,減少了預處理步驟和潛在錯誤。
子詞分詞器在LLM中引入了許多奇怪的問題,例如LLM無法拼寫單詞、反轉某些單詞、處理罕見token,而這些在位元組級token化中是不存在的。[8]
MOE與Mamba模型的結合(Mamba Mixture of Experts,MOE)
[編輯]MoE Mamba代表了混合專家(MoE)技術與Mamba架構的開創性結合,增強了狀態空間模型(SSM)在語言建模中的效率和可延伸性。該模型充分利用了MoE和SSM的優勢,顯著提高了訓練效率——所需的訓練時間比其前身Mamba減少了2.2倍,同時保持了與其相匹配的效能。MoE Mamba通過將選擇性狀態空間建模與基於混合專家技術的處理相結合,展示了更高的效率和效能,為未來擴充SSM來進行數百億級別參數的模型研究提供了有潛力的途徑。該模型的設計涉及互相交替的Mamba層和MoE層,使其能夠有效地整合所有的序列上下文,並為每個token應用最相關的專家模型。[9][10]
Mamba在視覺上的使用(Vision Mamba,Vim)
[編輯]Vision Mamba(Vim)將SSM用於視覺資料處理。它採用雙向Mamba塊進行視覺序列編碼並於此減少了視覺任務中通常與self-attention機制相關的計算需求。經過ImageNet分類資料集、COCO對象檢測和ADE20k語意分割的測試,Vim展示了更好的效能,並且能夠以較低的計算資源處理高解析度圖像。這使得Vim成為未來視覺表徵學習進步的可延伸模型。[11]
Jamba
[編輯]Jamba是一種將Transformer和Mamba SSM架構相結合的新型架構,由AI21 Labs開發,擁有520億個參數,是迄今為止建立的參數最多的Mamba變種。它有一個包含256k token的上下文窗口。 [12]
影響和未來方向
[編輯]Mamba模型顯著影響了深度學習領域,通過其選擇性狀態空間模型(Selective State Space Model)提高了長序列處理的效率,在自然語言處理中用於長上下文語言建模和文字摘要,提升了推理速度 [12][13]。在電腦視覺中,它應用於醫學圖像分割和疾病診斷,顯著減少了GPU主記憶體使用[14][15]。部分學者認為,Mamba是Transformer架構挑戰者,開創了大模型的一個新流派。但令人意外的是,它被ICLR頂會拒稿。[16]不過僅僅6個月後,原作者提出了Mamba2架構[17]。
未來方向包括探索硬體感知計算(如Parallel Associative Scan)最佳化資源利用[18][19]。此外,增強模型的可信賴性(如安全性與公平性)是新興研究重點[20][21]。
參見
[編輯]注釋
[編輯]參考
[編輯]- ^ 1.00 1.01 1.02 1.03 1.04 1.05 1.06 1.07 1.08 1.09 Gu, Albert; Dao, Tri. Mamba: Linear-Time Sequence Modeling with Selective State Spaces. 2023. arXiv:2312.00752
[cs.LG].
- ^ Chowdhury, Hasan. The tech powering ChatGPT won't make AI as smart as humans. Others might.. Business Insider. [2024-01-13].
- ^ Pandey, Mohit. Mamba is Here to Mark the End of Transformers. Analytics India Magazine. 2023-12-06 [2024-01-13].
- ^ Gu, Albert; Goel, Karan; Re, Christopher. Efficiently Modeling Long Sequences with Structured State Spaces. ICLR. 2021-10-06 [2024-01-13]. arXiv:2111.00396
(英語).
- ^ Gu, Albert; Johnson, Isys; Goel, Karan; Saab, Khaled Kamal; Dao, Tri; Rudra, A.; R'e, Christopher. Combining Recurrent, Convolutional, and Continuous-time Models with Linear State-Space Layers. NeurIPS. 2021-10-26. S2CID 239998472.
- ^ 6.0 6.1 Tickoo, Aneesh. Researchers from CMU and Princeton Unveil Mamba: A Breakthrough SSM Architecture Exceeding Transformer Efficiency for Multimodal Deep Learning Applications. MarkTechPost. 2023-12-10 [2024-01-13].
- ^ Wang, Junxiong; Gangavarapu, Tushaar; Yan, Jing Nathan; Rush, Alexander M., MambaByte: Token-free Selective State Space Model, 2024-01-24, arXiv:2401.13660
- ^ Let's build the GPT Tokenizer, 2024-02-20 [2024-02-23] (英語)
- ^ Pióro, Maciej; Ciebiera, Kamil; Król, Krystian; Ludziejewski, Jan; Jaszczur, Sebastian, MoE-Mamba: Efficient Selective State Space Models with Mixture of Experts, 2024-01-08, arXiv:2401.04081
- ^ Nikhil. This AI Paper Proposes MoE-Mamba: Revolutionizing Machine Learning with Advanced State Space Models and Mixture of Experts MoEs Outperforming both Mamba and Transformer-MoE Individually. MarkTechPost. 2024-01-13 [2024-02-23] (美國英語).
- ^ Zhu, Lianghui; Liao, Bencheng; Zhang, Qian; Wang, Xinlong; Liu, Wenyu; Wang, Xinggang, Vision Mamba: Efficient Visual Representation Learning with Bidirectional State Space Model, 2024-02-10, arXiv:2401.09417
- ^ 12.0 12.1 Introducing Jamba: AI21's Groundbreaking SSM-Transformer Model. www.ai21.com. [2024-03-29] (英語).
- ^ Ren, Liliang; Liu, Yang; Lu, Yadong; Shen, Yelong; Liang, Chen; Chen, Weizhu, Samba: Simple Hybrid State Space Models for Efficient Unlimited Context Language Modeling, 2025-02-28 [2025-07-11], doi:10.48550/arXiv.2406.07522
- ^ Wang, Chloe; Tsepa, Oleksii; Ma, Jun; Wang, Bo, Graph-Mamba: Towards Long-Range Graph Sequence Modeling with Selective State Spaces, 2024-02-01 [2025-07-11], doi:10.48550/arXiv.2402.00789
- ^ Yue, Yubiao; Li, Zhenzhang, MedMamba: Vision Mamba for Medical Image Classification, 2024-09-29 [2025-07-11], doi:10.48550/arXiv.2403.03849
- ^ 量子位. 顶流Mamba竟遭ICLR拒稿,学者集体破防变🤡,LeCun都看不下去了.
- ^ 機器之心Pro. 再战Transformer!原作者带队的Mamba 2来了,新架构训练效率大幅提升.
- ^ Dao, Tri; Gu, Albert. Transformers are SSMs: generalized models and efficient algorithms through structured state space duality. Proceedings of the 41st International Conference on Machine Learning. ICML'24 (Vienna, Austria: JMLR.org). 2024-07-21, 235 [2025-07-11]. doi:10.5555/3692070.3692469.
- ^ Tay, Yi; Dehghani, Mostafa; Bahri, Dara; Metzler, Donald. Efficient Transformers: A Survey. ACM Comput. Surv. 2022-12-07, 55 (6) [2025-07-11]. ISSN 0360-0300. doi:10.1145/3530811.
- ^ Fan, Wenqi; Zhao, Xiangyu; Li, Qing; Derr, Tyler; Ma, Yao; Liu, Hui; Wang, Jianping; Tang, Jiliang. Adversarial Attacks for Black-Box Recommender Systems via Copying Transferable Cross-Domain User Profiles. IEEE Transactions on Knowledge and Data Engineering. 2023-12, 35 (12) [2025-07-11]. ISSN 1558-2191. doi:10.1109/TKDE.2023.3272652.
- ^ Ning, Liang-bo; Dai, Zeyu; Su, Jingran; Pan, Chao; Wang, Luning; Fan, Wenqi; Li, Qing. Interpretation-Empowered Neural Cleanse for Backdoor Attacks. Companion Proceedings of the ACM Web Conference 2024. WWW '24 (New York, NY, USA: Association for Computing Machinery). 2024-05-13 [2025-07-11]. ISBN 979-8-4007-0172-6. doi:10.1145/3589335.3651525.