可以推荐一款用来ai炼图的笔记本吗?
本来我是拒绝了,但看到可以自己产粮,真香。想问一下用笔记本来练图合适不?能推荐一款可以自己练模型的本吗?
不适合,15k的4080跑起来速度只有10k itx主机的一半速度,我本来买了4080然后退了,换成itx+4070ti,这2倍速度在微调的体验快多了 本帖最后由 中二小旋风 于 2023-4-3 12:50 编辑
sirlion 发表于 2023-4-3 12:46
不适合,15k的4080跑起来速度只有10k itx主机的一半速度,我本来买了4080然后退了,换成itx+4070ti,这2倍 ...
谢谢建议。
如果换成主机的话, 又想自己练模型,有必要上4090 24g吗? 还是租用网上算法比较划得来? 苹果m系列可以吧,用m1 pro大概30秒一张图 有药吃 发表于 2023-4-3 14:10
苹果m系列可以吧,用m1 pro大概30秒一张图
M1有这么叼???
—— 来自 Xiaomi MI 8, Android 9上的 S1Next-鹅版 v2.5.2-play natt 发表于 2023-4-3 10:24
M1有这么叼???
—— 来自 Xiaomi MI 8, Android 9上的 S1Next-鹅版 v2.5.2-play
m1 m2不太行,我前段时间测试过m1 m2 笔记本4080 台式机4070ti四种机型
都是从github直接clone下来的,设置参数模型也一致
m1 7核 8g 1分钟,m2 10核 16g 40秒(8g 50秒),笔记本4080 10秒,4070ti 5秒
按性价比来说3699的m2可能比较适合,但是当你想要微调参数的时候,半分钟以上的时间真的很折磨人,只能不停拉低参数寻求快一点的速度,所以挺难受的,最后我把mac笔记本卖了退了,换成了itx+4070ti
其实后来在autodl网站用同模型参数跑的时候,4070ti和2080ti的速度差不多(fp16模型),但后者全是矿,无奈 只是炼图的话autodl不香么。 确实可以先autodl租一个体验下速度再决定,我就是autodl上租了个3090以后决定卖掉老机器强上4090的,真正的鸟枪换炮的体验 ?移动端显卡这么惨吗……
还想搞个4090本自己练图……
-- 来自 能搜索的 Stage1官方 Android客户端 sirlion 发表于 2023-4-3 14:54
m1 m2不太行,我前段时间测试过m1 m2 笔记本4080 台式机4070ti四种机型
都是从github直接clone下来的,设置 ...
感谢兄弟分享
测试一下,m1 pro上这些参数大概22秒 有药吃 发表于 2023-4-4 01:24
测试一下,m1 pro上这些参数大概22秒
这个是针对m系列神经引擎以及Metal优化版,不hd的情况下,m1 7核都能跑10秒,但是不支持lora等一众插件,同模型光影效果也不如原生sd,hd高清化也只是很普通的涂抹拉伸,如果只是熟悉关键词和操作可以用 怪不得一样的参数我跑出来的不太一样,不过这个版本除了适配苹果的芯片外效果还变差了吗,我以为只是类似重新编译 现在有人用魔改的2080ti 22g版炼 感觉挺便宜也不慢 hksakura 发表于 2023-4-3 16:18
?移动端显卡这么惨吗……
还想搞个4090本自己练图……
散热限制,移动端显卡跑不了桌面端显卡那么大的功率。如果是同功率其实没啥差别 有药吃 发表于 2023-4-4 06:07
怪不得一样的参数我跑出来的不太一样,不过这个版本除了适配苹果的芯片外效果还变差了吗,我以为只 ...
效果差很多,还是sd效果好 所以现在炼丹有什么推荐的显卡吗?40系列买不起不考虑,是不还还是3060 12g,慢归慢,少点卡显存 长末 发表于 2023-4-4 18:25
所以现在炼丹有什么推荐的显卡吗?40系列买不起不考虑,是不还还是3060 12g,慢归慢,少点卡显存 ...
穷人炼丹的话那肯定还是3060 12g 如果不打游戏纯ai出图,不如把预算减了租GPU服务器。
就上边改过模型的不能挂lora的Mac程序,速度虽然快,但是还是不如白嫖的百度aistudio。
页:
[1]