想搞个专门跑AI画图的图形机,这个配置行不行
CPU:E5 2650LV2 27元散热:无印四铜管 47元
主板:魔改X79(支持M2) 290元
内存:拆机 DDR3 ECC 1333MHz 8G * 2 86元
硬盘:金士顿m2 128G 已有
电源:拆机 先马刺客930 800瓦 185元
计算显卡:Tesla M40 24G 1100元
改装散热:利民C12CWS * 2 +扎带 43元
亮机显卡:GT730 1G 122元
其他:PCIe 转 EPS 电源线 18元
机箱:鞋盒
机箱风扇:自然风
显示器:RDP
合计:1918元
感觉亮机卡价格贵了,主要担心魔改主板没集显,用A卡怕驱动有问题,支持CUDA的N卡最低要GT720
两张显卡加cpu满载是320W,电源是不是太保守了?500W是不是其实够用
为什么要2张显卡?
—— 来自 Hisense HNR320T, Android 10上的 S1Next-鹅版 v2.5.4 拜拜 发表于 2022-9-28 21:07
为什么要2张显卡?
—— 来自 Hisense HNR320T, Android 10上的 S1Next-鹅版 v2.5.4
X79和M40没有视频输出 先确认下m40是不是支持模型需要的cuda驱动版本吧
—— 来自 Xiaomi M2011K2C, Android 12上的 S1Next-鹅版 v2.5.4 GM200好像很多都不支持了 至少要帕斯卡的样子其实最好还是20系的,有tensor core确实强很多
M40不太行吧,要省钱不如用colab
如果只是使用模型现在已经有连colab的方案了 我之前看到讲师chrome收藏夹里里面有矩池云
你要不本地先弄会然后放这类网站上弄弄,花不了你多少钱,我也在找合适的。 我还在考虑a4000,这不到2k的配置就能跑啦?震惊! Flyfish233 发表于 2022-9-29 07:27
我之前看到讲师chrome收藏夹里里面有矩池云
你要不本地先弄会然后放这类网站上弄弄,花不了 ...
哪个讲师,求推荐课程
—— 来自 Xiaomi M2012K10C, Android 12上的 S1Next-鹅版 v2.5.4 Flyfish233 发表于 2022-9-29 07:27
我之前看到讲师chrome收藏夹里里面有矩池云
你要不本地先弄会然后放这类网站上弄弄,花不了 ...
colab跑的好慢还有限制,我现在是2070,本地部署了说我8g显存太小,跑图最大分辨率只能跑640,就想整个显存大的跑大图来着
一下子妹想到除了显存还对架构有要求,昨天查了查也妹查到m40到底能不能跑(๑•́ωก̀๑) 本帖最后由 Flyfish233 于 2022-9-29 12:03 编辑
1001200 发表于 2022-9-29 09:23
哪个讲师,求推荐课程
—— 来自 Xiaomi M2012K10C, Android 12上的 S1Next-鹅版 v2.5.4 ...
不是。前几天参加了Google Devfest,有个人工智能大佬上台讲,我顺便看了一眼收藏夹
我自己不是相关的,但是想简单入门一下TensorFlow 本帖最后由 Flyfish233 于 2022-9-29 12:03 编辑
风怒 colab充钱就会变快,一个月才70
大概率玩一小段时间就没兴趣了,没必要投入太多 PalmTiger 发表于 2022-9-29 08:30
我还在考虑a4000,这不到2k的配置就能跑啦?震惊!
起码a5000吧,以后还能加卡叠加显存
—— 来自 Xiaomi M2011K2C, Android 12上的 S1Next-鹅版 v2.5.4 gx19860411 发表于 2022-9-29 18:01
起码a5000吧,以后还能加卡叠加显存
—— 来自 Xiaomi M2011K2C, Android 12上的 S1Next-鹅版 v2.5.4 ...
a4000不也可以用nvlink双卡吗。。就是16g有点少了。。 一张p40就行了吧,估计每张图10秒左右 PalmTiger 发表于 2022-9-29 19:18
a4000不也可以用nvlink双卡吗。。就是16g有点少了。。
没看到a4000介绍里明确有nvlink
—— 来自 Xiaomi M2011K2C, Android 12上的 S1Next-鹅版 v2.5.4
页:
[1]