Mamba真比Transformer更优吗?Mamba原作者:两个都要!混合架构才是最优解
Mamba真比Transformer更优吗?Mamba原作者:两个都要!混合架构才是最优解Mamba模型由于匹敌Transformer的巨大潜力,在推出半年多的时间内引起了巨大关注。但在大规模预训练的场景下,这两个架构还未有「一较高低」的机会。最近,英伟达、CMU、普林斯顿等机构联合发表的实证研究论文填补了这个空白。
来自主题: AI技术研报
5318 点击 2024-07-13 19:32