找回密码
 立即注册
搜索
查看: 2014|回复: 11

[硬件] 求推荐显卡 - 最近显卡有降价吗? 或者有降价的趋势?

[复制链接]
头像被屏蔽
发表于 2019-3-17 18:54 | 显示全部楼层 |阅读模式
提示: 作者被禁止或删除 内容自动屏蔽
回复

使用道具 举报

     
发表于 2019-3-17 18:56 | 显示全部楼层
现在的卡基本上挖不了矿了
回复

使用道具 举报

     
发表于 2019-3-17 19:10 来自手机 | 显示全部楼层
本帖最后由 黑夜守望者 于 2019-3-17 19:17 编辑

不是都矿难了吗
回复

使用道具 举报

     
发表于 2019-3-18 02:51 来自手机 | 显示全部楼层
深度学习,这是点名要2080TI或者泰坦RTX啊
不过记得京东买,贵一点也无所谓。保修好才是真的好

—— 来自 OnePlus ONEPLUS A6000, Android 9上的 S1Next-鹅版 v1.3.3.2
回复

使用道具 举报

     
发表于 2019-3-18 07:04 | 显示全部楼层
深度学习首先直接放弃所有A卡,虽然有个不温不火的rocm,但是自己折腾一堆编译问题和兼容性问题是很无趣的
对深度学习来说,入门标准是显存足够大,不然常见的模型会跑不起来,当前最低标准是11GB
最好支持硬件FP16和Tensor Core,用混合精度训练是个大趋势,通常提速200%-300%不是问题
那么可以选的有:
Nvidia Geforce GTX1080TI 11GB,已经停产很久了,市面上还有极少数库存,价格反而涨了不少,除非预算很紧张,不推荐
Nvidia Geforce RTX2080TI 11GB,目前性价比最高的选择,图灵架构还支持TensorCore(*)和2Way NVLINK
Nvidia Titan RTX 24GB,相当于完整版本的2080TI,显存大可以试别人试不了的网络结构和更大的batch size
Nvidia Titan V 12GB,Volta架构理论上更适合机器学习,基础的浮点性能更高,另外图灵的TensorCore是阉割版。
Nvidia Titan V CEO Edition 32GB,这个卡只有老黄送的,你都拿到这个了来这里问什么???
NVIDIA Quadro GV100 32GB,真的不差钱就买这个
如果能找到价格还不错的Quadro P100或者Quadro P5000也可以
另外还有一点小小的经验:
1.NVLINK在多卡的情况下还是有用的,即使是Turing上的2Way
2.散热真的是个大问题,散热渣的话稍微复杂一点的模型显卡温度就直奔80多,一股烤塑料的味道迎面而来。
多卡的情况下散热问题需要充分考虑,首先看好你的主板可用的PCI-E槽的间距,如果只有三槽的话,两卡之间的空隙过窄会导致第一张卡憋着,特别是对于那些2.5槽厚的卡。
这个时候只能尽量选2槽厚度的,公版肯定是扛不住的,但是即使是2槽厚里面还算可以的技嘉RTX2080TI WF也很吃力。
如果只有2槽,那么只能选OTES散热的,普通的那种两三个风扇没有进气空间会悲剧。
如果是4槽,那么第一个槽要选个散热好的。便宜的2080TI里大概凄惨红RTX2080TI AD 是最好的,均热板+5热管效率还行;不差钱就买Strix……
最后机箱散热也不能忽视,两张卡的总热量惊人。那种软弱无力的机箱风扇肯定不行,特别是出风不顺畅的,至少全部换成3000转的12025,有条件上暴力扇。最好机箱能保证前面和底部同时进气,顶部和后面同时出气。
回复

使用道具 举报

头像被屏蔽
 楼主| 发表于 2019-3-19 22:55 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
回复

使用道具 举报

发表于 2019-3-19 22:59 | 显示全部楼层
回复

使用道具 举报

     
发表于 2019-3-20 01:56 来自手机 | 显示全部楼层
rootkitchao 发表于 2019-3-18 07:04
深度学习首先直接放弃所有A卡,虽然有个不温不火的rocm,但是自己折腾一堆编译问题和兼容性问题是很无趣的
...

最低11是哪来的。。。
回复

使用道具 举报

     
发表于 2019-3-20 19:58 | 显示全部楼层
你的全家 发表于 2019-3-20 01:56
最低11是哪来的。。。

很多年前,大概AlexNet火了之后,NVIDIA出的Tesla K40就是12GB的,之后的M40也是12GB,
良心卡Geforce Titan X也是12GB,1080TI少了1GB但是也不是不能用。
更小的显存不一定没法用,但是从AlexNet之后CNN火了之后大家都是按照这个目标来设计网络结构和超参数的
显存更小就只能降batch size,超参数无法参考别人的只能自己摸索,甚至还会影响BN的效能最终降低性能

回复

使用道具 举报

     
发表于 2019-3-20 19:59 | 显示全部楼层
戰場原黑儀 发表于 2019-3-19 22:59
不考虑下这个么
https://www.nvidia.com/en-us/autonomous-machines/embedded-systems/jetson-nano/ ...

这是个嵌入式的小玩具。。可以部署在上面或者做实际的应用
但是对训练来说这个性能也太低了……
回复

使用道具 举报

     
发表于 2019-3-21 14:45 | 显示全部楼层
rootkitchao 发表于 2019-3-20 19:58
很多年前,大概AlexNet火了之后,NVIDIA出的Tesla K40就是12GB的,之后的M40也是12GB,
良心卡Geforce Ti ...

我觉得家用实践通常来说没有配得上这种模型容量的数据

我的认知基本属于楼主随便玩玩……有个8g意思意思得了

而且还是双卡 数据并行做起来啊
回复

使用道具 举报

头像被屏蔽
 楼主| 发表于 2019-3-24 15:59 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|上海互联网违法和不良信息举报中心|网上有害信息举报专区|962110 反电信诈骗|举报电话 021-62035905|Stage1st ( 沪ICP备13020230号-1|沪公网安备 31010702007642号 )

GMT+8, 2024-9-28 15:29 , Processed in 0.091032 second(s), 5 queries , Gzip On, Redis On.

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表