Stage1st

 找回密码
 立即注册
搜索
查看: 2133|回复: 11
打印 上一主题 下一主题

[新闻] 内存/显存救星,一个新的线性内存开销AI架构正在流行

[复制链接]
     
跳转到指定楼层
楼主
发表于 2024-4-1 22:19 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式
现有的模型因为Transoformer架构需要逐token与其他所有token计算而需要N²的开销,而新出现的mamba只需要线性级开销,大有取代transformer之势。提出mamba的团队表示没有大量GPU资源进行训练过LLM,但想必各家LLM现在都在试mamba了,未来内存/显存需求有望缓解,至少推理能快。
回复

使用道具 举报

     
2#
发表于 2024-4-1 22:25 来自手机 | 只看该作者
RNN变种而已

有没有规模效益现在是未知的

—— 来自 Xiaomi Mi 10, Android 13上的 S1Next-鹅版 v2.5.4
回复

使用道具 举报

     
3#
发表于 2024-4-1 23:00 来自手机 | 只看该作者
什么时候20g显存能装下70b模型啊

—— 来自 HUAWEI HLK-AL00, Android 9上的 S1Next-鹅版 v2.5.4
回复

使用道具 举报

     
4#
发表于 2024-4-1 23:17 | 只看该作者
mem,what can i say
回复

使用道具 举报

     
5#
发表于 2024-4-1 23:30 来自手机 | 只看该作者
mamba out of memory
回复

使用道具 举报

6#
发表于 2024-4-1 23:50 | 只看该作者
用时间换空间,我觉得还是时间更值钱
回复

使用道具 举报

     
7#
发表于 2024-4-2 00:32 | 只看该作者
tsubasa9 发表于 2024-4-1 23:50
用时间换空间,我觉得还是时间更值钱

但是A800现在这个价格
回复

使用道具 举报

     
8#
发表于 2024-4-2 07:39 来自手机 | 只看该作者
曼巴精神
回复

使用道具 举报

     
9#
发表于 2024-4-2 07:49 | 只看该作者
火星,而且我怀疑这玩意能不能竞争过RWKV

—— 来自 S1Fun
回复

使用道具 举报

     
10#
发表于 2024-4-2 08:32 来自手机 | 只看该作者
tsubasa9 发表于 2024-4-1 23:50
用时间换空间,我觉得还是时间更值钱

是时间和空间都省了
回复

使用道具 举报

     
11#
发表于 2024-4-2 08:46 | 只看该作者
mamba, what can i say? CUDA out of memory
回复

使用道具 举报

12#
发表于 2024-4-2 08:50 | 只看该作者
mamba的结构图各种连线 对我这种弱智来说 理解结构并且记住 太复杂了
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|Archiver|上海互联网违法和不良信息举报中心|网上有害信息举报专区|962110 反电信诈骗|举报电话 021-62035905|stage1st 沪ICP备13020230号-1 沪公网安备 31010702007642号

GMT+8, 2024-5-4 10:15 , Processed in 0.033057 second(s), 7 queries , Gzip On, Redis On.

Powered by Discuz! X3.4

© 2001-2017 Comsenz Inc.

快速回复 返回顶部 返回列表