找回密码
 立即注册
搜索
楼主: 2017.05.04

[科技] 英伟达中国特供降级片遇冷

[复制链接]
     
发表于 2024-1-9 20:56 来自手机 | 显示全部楼层
油条小贩 发表于 2024-1-9 09:37
互联网大厂的芯片团队都很挫,大概和外企中国的部门差不多,芯片设计华为真是遥遥领先,即使比华为差距不 ...

互联网公司讲究的是赚快钱,芯片这种需要长时间试错和技术乃至专利积累的工业产品天然不适合互联网公司,所以互联网公司搞芯片很快就会发现自己造浪费钱,不如直接买现货。

—— 来自 HUAWEI ALT-AL10, Android 12上的 S1Next-鹅版 v2.5.4
回复

使用道具 举报

     
发表于 2024-1-9 21:53 | 显示全部楼层
mimighost 发表于 2024-1-9 20:41
没用,但是nv的牛逼才刚开始,这几年它赚到的钱实在是太多

所以对于国内来说它再牛也没有正反馈,倒是鞭策的越狠去创造自己的生态环境。
回复

使用道具 举报

     
发表于 2024-1-9 22:19 | 显示全部楼层
prattwhitney 发表于 2024-1-9 13:48
还是那句话:这事老黄不说负全责也至少背八成锅
明摆着NV现在毫无游说国会能力,被按着锤,这么有钱了在华 ...

22年禁令的时候好歹还有个缓冲,去年1017连个缓冲都没有,谁还敢买
回复

使用道具 举报

     
发表于 2024-1-9 22:20 | 显示全部楼层
本帖最后由 qratosones1337 于 2024-1-9 22:22 编辑
shiraikuroko 发表于 2024-1-9 14:48
苦的是下面的,但是上头有令,不得不用

迭代目前已经三年了, 离好用还差的远

昇腾910B去年刚出货,你们三年前就能用上原版910?

另外这种事情老板一句爱干干不干滚,你还真没办法,毕竟我猜你们现在也没有放量搞N卡的门路吧
回复

使用道具 举报

     
发表于 2024-1-9 22:23 | 显示全部楼层
本帖最后由 qratosones1337 于 2024-1-9 22:29 编辑
mimighost 发表于 2024-1-9 15:16
华为和nvidia还差得远,这玩意儿没法风冷,只能液态冷却,所以目前只能远程连华为自己的数据中心

没封锁 ...

你胡说八道啥呢?我们这边采购的910B机器都是部署到自己的机房里的,然后现在互联网客户采购的910B的服务器甚至都是挂超聚变牌子的x86平台,用的处理器是Intel SPR
回复

使用道具 举报

     
发表于 2024-1-9 22:27 | 显示全部楼层
另外1017之后互联网公司基本上都是奔着全面清退非公有云N卡去的,腾讯和美团甚至连CTR线上推理这种明显比LLM投入高收益低的场景都换昇腾了。另外不光是国内,业界稍微有点实力的玩家(比如微软和Google)都在去CUDA化,今后大批存量N卡上公有云应该会给黄狗带来一波小矿难
回复

使用道具 举报

头像被屏蔽
     
发表于 2024-1-9 22:32 来自手机 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
回复

使用道具 举报

     
发表于 2024-1-9 22:33 来自手机 | 显示全部楼层
虽然业界可能在研究去cuda化,但对于学界来说,很多积累的东西都还是用cuda来实现的,对于学界是怎么方便怎么能快速实现想法就怎么来,没有这么多时间来搞适配算子啥的
回复

使用道具 举报

     
发表于 2024-1-9 22:35 | 显示全部楼层
AsaYoru 发表于 2024-1-9 22:33
虽然业界可能在研究去cuda化,但对于学界来说,很多积累的东西都还是用cuda来实现的,对于学界是怎么方便怎 ...

不好意思,其他方向不好说,但深度学习业界99%的学术界研究人员都用不上甚至根本不会写CUDA算子,大家都是面向TF/pytorch编程。只有业界对性能有高要求才会手写CUDA算子
回复

使用道具 举报

     
发表于 2024-1-9 22:36 | 显示全部楼层
好事,希望国产能尽早开发出替代品,哪怕性能差点,但经过迭代,相信用不了多久就能变好。
回复

使用道具 举报

     
发表于 2024-1-9 22:37 | 显示全部楼层
至少NLP领域学界差不多只能干瞪眼了
回复

使用道具 举报

     
发表于 2024-1-9 22:57 | 显示全部楼层
反复横跳倒逼业界寻求新出路,总比反复横跳还只能眼睁睁的看着它跳过去跳过来没办法好
回复

使用道具 举报

发表于 2024-1-9 23:53 | 显示全部楼层
xtwx1716 发表于 2024-1-9 22:32
然而国内车厂对英伟达车规芯片也是抢着用

这个属于没技术含量的倾销货,美帝都懒得禁。
回复

使用道具 举报

     
发表于 2024-1-10 00:26 | 显示全部楼层
qratosones1337 发表于 2024-1-9 22:35
不好意思,其他方向不好说,但深度学习业界99%的学术界研究人员都用不上甚至根本不会写CUDA算子,大家都是 ...

你说的没问题,可能我表达的不清楚,意思是研究人员用的肯定是pytorch/TF这些深度学习框架,但是还是比较依赖cuda也就是nvidia gpu来加速的,或许pytorch/TF也会支持别的硬件加速,但是利用cuda加速目前来说还是主流吧,我个人感觉未来几年可能也会是这样,当然我也希望能有别的框架能与cuda竞争
回复

使用道具 举报

     
发表于 2024-1-10 09:08 | 显示全部楼层
诚司 发表于 2024-1-9 20:53
听智源和科大讯飞的人都说过,昇腾差不多有0.8个水平的A100 40G的性能,性能没问题,但是根本买不到 ...

下手慢了,早点下手趁着没禁还有货,现在买?一年后交货
回复

使用道具 举报

     
发表于 2024-1-10 09:13 | 显示全部楼层
mimighost 发表于 2024-1-9 15:16
华为和nvidia还差得远,这玩意儿没法风冷,只能液态冷却,所以目前只能远程连华为自己的数据中心

没封锁 ...

现在卖的都是风冷卡,真液冷的反而受限于鲲鹏CPU缺货,供应不上量
风冷PCI-E插哪都行,推荐插intel pci-e 5.0平台,性能比较好
回复

使用道具 举报

发表于 2024-1-10 09:31 来自手机 | 显示全部楼层
现在据卖升腾方案的说已经大幅涨价然后订单排一年后了,24年扩产势在必行啊

—— 来自 Xiaomi 23049RAD8C, Android 13上的 S1Next-鹅版 v2.5.2-play
回复

使用道具 举报

     
发表于 2024-1-10 10:03 | 显示全部楼层
本帖最后由 qratosones1337 于 2024-1-10 10:05 编辑
AsaYoru 发表于 2024-1-10 00:26
你说的没问题,可能我表达的不清楚,意思是研究人员用的肯定是pytorch/TF这些深度学习框架,但是还是比较 ...

首先,目前学术界TF已经死透了,基本上pytorch一统天下,然后pytorch基础设计上就是前后端分离的;其次pytorch现在已经支持ROCm和mps,对应AMD和苹果M芯片,而且是官方支持;第三,从pytorch2.1开始官方实装了前后端分离,任何后端厂商都可以写插件之后注册到pytorch官方repo上;最后,从去年十月份开始,华为成为pytorch基金会高级会员。学术界只要有稳定能跑的pytorch就可以,大部分历史工作都跟CUDA没有关系
回复

使用道具 举报

     
发表于 2024-1-10 10:04 | 显示全部楼层
shiraikuroko 发表于 2024-1-10 09:13
现在卖的都是风冷卡,真液冷的反而受限于鲲鹏CPU缺货,供应不上量
风冷PCI-E插哪都行,推荐插intel pci-e ...

他估计根本就不知道现在昇腾910B已经支持x86底座了
回复

使用道具 举报

头像被屏蔽
     
发表于 2024-1-10 10:05 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
回复

使用道具 举报

     
发表于 2024-1-10 11:45 | 显示全部楼层
qratosones1337 发表于 2024-1-10 10:04
他估计根本就不知道现在昇腾910B已经支持x86底座了

他自己供不上pci-e 5.0的CPU,插intel的反而互联性能更好点

他还缺个NVLINK交换机,或者是带上联的pci-e 5.0 switch,做大规模要用到
回复

使用道具 举报

头像被屏蔽
     
发表于 2024-1-10 13:10 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
回复

使用道具 举报

     
发表于 2024-1-10 13:14 | 显示全部楼层
xtwx1716 发表于 2024-1-9 22:32
然而国内车厂对英伟达车规芯片也是抢着用

老黄的车用芯片没进制裁目录,本来就是性能差的
回复

使用道具 举报

     
发表于 2024-1-10 13:25 | 显示全部楼层
AsaYoru 发表于 2024-1-10 00:26
你说的没问题,可能我表达的不清楚,意思是研究人员用的肯定是pytorch/TF这些深度学习框架,但是还是比较 ...

pytorch 苹果华为芯片都支持的。
上层用什么全看使用者有什么,底层硬件除了布置环境根本没区别
华为不了解,开源社区现在因为苹果统一内存在特大显存方面反而比起显卡有价格优势,开源大模型方面基于苹果gpu加速的应用在飞速扩张。
老黄的cuda江山这几年的确赚得飞起,但不给别人喝汤的机会,上下游都会自然排斥他
回复

使用道具 举报

     
发表于 2024-1-10 13:26 来自手机 | 显示全部楼层
HPC和AI傻傻分不清楚就别谈cuda了

cuda影响最大的是自己玩的小玩家

比如泥潭最爱的AI画图,很多新出的插件要么没有rocm移植要么慢一个月

对大公司没啥影响

—— 来自 Xiaomi Mi 10, Android 13上的 S1Next-鹅版 v2.5.4
回复

使用道具 举报

     
发表于 2024-1-10 13:37 | 显示全部楼层
老黄罪大恶极,搞到阿里/腾讯/微软/谷歌etc怨声载道
回复

使用道具 举报

     
发表于 2024-1-11 22:00 | 显示全部楼层
omnitoken 发表于 2024-1-10 13:26
HPC和AI傻傻分不清楚就别谈cuda了

cuda影响最大的是自己玩的小玩家

其实也是有影响的,不过是利好。大公司如果把自研/华为/AMD方案扶上线了,之前自己用的N卡就会放出来在公有云上卖,价格肯定能下降很大一截
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|上海互联网违法和不良信息举报中心|网上有害信息举报专区|962110 反电信诈骗|举报电话 021-62035905|Stage1st ( 沪ICP备13020230号-1|沪公网安备 31010702007642号 )

GMT+8, 2025-1-31 10:52 , Processed in 0.145327 second(s), 4 queries , Gzip On, Redis On.

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表