找回密码
 立即注册
搜索
查看: 7735|回复: 47

[硬件] mac mini拿来跑深度学习可以吗

[复制链接]
     
发表于 2023-9-27 21:19 来自手机 | 显示全部楼层 |阅读模式
rt,现在做深度学习。公司提供了服务器,本地就是自己跑一些常规的机器学习或者参数量不太大的深度学习。用自己电脑感觉性能也就那样,还要天天背着。mac mini m2适不适合拿来做这些活?如果不合适的话,有没有便宜的nuc之类的办法?想问问大家的建议
回复

使用道具 举报

发表于 2023-9-27 21:29 | 显示全部楼层
https://qqaatw.dev/pytorch-mps-ops-coverage/
pytorch主要的算子都适配mps后端了,不是跑大模型训练,只是建模和测试训练集是可以的
回复

使用道具 举报

头像被屏蔽
     
发表于 2023-9-27 21:31 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
回复

使用道具 举报

     
发表于 2023-9-27 21:35 | 显示全部楼层
你有服务器那就all in server就得了 mbp就当ssh工具

理论上mps是做了大部分operator的支持 但出了问题你找不到人
回复

使用道具 举报

     
发表于 2023-9-27 21:35 来自手机 | 显示全部楼层
定制大内存不如直接买个4060的笔记本

—— 来自 HUAWEI ALN-AL80, Android 12上的 S1Next-鹅版 v2.5.4
回复

使用道具 举报

     
 楼主| 发表于 2023-9-27 21:37 | 显示全部楼层
Gazzz 发表于 2023-9-27 21:35
你有服务器那就all in server就得了 mbp就当ssh工具

理论上mps是做了大部分operator的支持 但出了问题你找 ...

也不是非得买mac mini啦,别的便宜的迷你主机或者nuc也都行。全部ssh的话 ,那我上班可能拿台手机插上显示器就干活了
回复

使用道具 举报

     
 楼主| 发表于 2023-9-27 21:38 来自手机 | 显示全部楼层
すぴぱら 发表于 2023-9-27 21:31
可能还不如买个n卡本
因为m2的算力并不怎么样,搭环境也如同坐牢


回复

使用道具 举报

     
发表于 2023-9-27 21:46 来自手机 | 显示全部楼层
sqlist 发表于 2023-9-27 21:37
也不是非得买mac mini啦,别的便宜的迷你主机或者nuc也都行。全部ssh的话 ,那我上班可能拿台手机 ...

你都这么问了,那你肯定是铁了心要mac mini的🤣
回复

使用道具 举报

     
 楼主| 发表于 2023-9-27 21:55 | 显示全部楼层
hein 发表于 2023-9-27 21:46
你都这么问了,那你肯定是铁了心要mac mini的🤣

想多了,这个是真想多了。我不了解迷你主机,买别的还得看显卡,看Mac mini只是图省事,要是性能够的话还能省点钱
回复

使用道具 举报

头像被屏蔽
     
发表于 2023-9-27 22:04 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
回复

使用道具 举报

     
 楼主| 发表于 2023-9-27 22:16 来自手机 | 显示全部楼层
SinoWarrior 发表于 2023-9-27 22:04
烂的很,不如买个4060的笔记本

暂时还不想换笔记本,有Windows的nuc或者别的什么可以考虑的吗?
回复

使用道具 举报

     
发表于 2023-9-27 22:23 来自手机 | 显示全部楼层
sqlist 发表于 2023-9-27 22:16
暂时还不想换笔记本,有Windows的nuc或者别的什么可以考虑的吗?

你可能得看看ITX主机

—— 来自 HUAWEI ALN-AL80, Android 12上的 S1Next-鹅版 v2.5.4
回复

使用道具 举报

     
发表于 2023-9-27 22:24 来自手机 | 显示全部楼层
看了一下,鸡哥好像真的有带4060的迷你主机,极光S

—— 来自 HUAWEI ALN-AL80, Android 12上的 S1Next-鹅版 v2.5.4
回复

使用道具 举报

     
 楼主| 发表于 2023-9-27 22:28 | 显示全部楼层
ycjiang1337 发表于 2023-9-27 22:24
看了一下,鸡哥好像真的有带4060的迷你主机,极光S

—— 来自 HUAWEI ALN-AL80, Android 12上的 S1Next-鹅 ...

好像搜不到……
回复

使用道具 举报

     
发表于 2023-9-27 22:56 | 显示全部楼层
sqlist 发表于 2023-9-27 21:55
想多了,这个是真想多了。我不了解迷你主机,买别的还得看显卡,看Mac mini只是图省事,要是性能够的话还 ...

mac mini这不得1w起步

—— 来自 S1Fun
回复

使用道具 举报

     
发表于 2023-9-27 22:57 | 显示全部楼层
【雷神MIX游戏迷你主机全网首发评测:一手掌握的40系独显主机-哔哩哔哩】 https://www.bilibili.com/video/av703722221
买4070的

—— 来自 S1Fun
回复

使用道具 举报

     
 楼主| 发表于 2023-9-27 23:59 来自手机 | 显示全部楼层
noahhhh 发表于 2023-9-27 22:56
mac mini这不得1w起步

—— 来自 S1Fun

我计划的是如果选果子的话就上16+256的。只关注ram,加到1w就太离谱了。
回复

使用道具 举报

     
发表于 2023-9-28 02:16 来自手机 | 显示全部楼层
mac跑sklearn那些是没问题的,pytorch debug也没啥问题,本地训练就算了,老老实实用公司服务器。我的建议是,你整个MacBook在上面写代码,能用好多年,不比mac mini,nuc那些玩意强?
回复

使用道具 举报

     
 楼主| 发表于 2023-9-28 09:05 | 显示全部楼层
zyhang 发表于 2023-9-28 02:16
mac跑sklearn那些是没问题的,pytorch debug也没啥问题,本地训练就算了,老老实实用公司服务器。我的建议 ...

大哥,这紧加慢加就把钱加上去了。多的钱你要扶持一下我吗
回复

使用道具 举报

头像被屏蔽
     
发表于 2023-9-28 10:12 来自手机 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
回复

使用道具 举报

     
发表于 2023-9-28 10:14 | 显示全部楼层
Mac那比金子还贵的内存还是算了吧
回复

使用道具 举报

头像被屏蔽
     
发表于 2023-9-28 10:15 来自手机 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
回复

使用道具 举报

     
 楼主| 发表于 2023-9-28 10:21 来自手机 | 显示全部楼层
lvcha 发表于 2023-9-28 10:12
随便买块n卡都吊打m1吧。1066都行

不用mac也行的,毕竟我也不用苹果的全家桶。上面也有推荐带gtx的迷你主机,请问还有除过已有的 别的可选吗?
回复

使用道具 举报

     
发表于 2023-9-28 10:53 | 显示全部楼层
chaucerling 发表于 2023-9-27 21:29
https://qqaatw.dev/pytorch-mps-ops-coverage/
pytorch主要的算子都适配mps后端了,不是跑大模型训练,只 ...

然而只要有一个需要的算子没有就是抓瞎,或者别人的开源代码用了cuda...
回复

使用道具 举报

     
发表于 2023-9-28 11:16 来自手机 | 显示全部楼层
不如4060游戏本

—— 来自 Xiaomi Mi 10, Android 13上的 S1Next-鹅版 v2.5.4
回复

使用道具 举报

发表于 2023-9-28 11:28 | 显示全部楼层
maritimus 发表于 2023-9-28 10:53
然而只要有一个需要的算子没有就是抓瞎,或者别人的开源代码用了cuda...

现在就是cuda一家独大,但大家都不想和老黄绑同一条船上
回复

使用道具 举报

     
发表于 2023-9-28 11:41 | 显示全部楼层
chaucerling 发表于 2023-9-28 11:28
现在就是cuda一家独大,但大家都不想和老黄绑同一条船上

因为深度学习出来前,cuda就已经很方便而且比较普及了。什么pytorch/tf,只能给老黄打工
回复

使用道具 举报

发表于 2023-9-28 12:34 来自手机 | 显示全部楼层
https://youtu.be/UsfmqTb2NVY?si=XYMzNJwsY1NVgxk0
建议看看
刚不好mac更合适,看你对显存大小的需求了
回复

使用道具 举报

     
发表于 2023-9-28 13:39 来自手机 | 显示全部楼层
诶哟卧草 发表于 2023-9-28 12:34
https://youtu.be/UsfmqTb2NVY?si=XYMzNJwsY1NVgxk0
建议看看
刚不好mac更合适,看你对显存大小的需求了 ...

又是这个逆天,标题一个Mac打八张4090,结果里面不说没有192G的Mac,连4090都没有,搞了个3080Ti在那里搞说太吵太热,绝绝子
回复

使用道具 举报

     
 楼主| 发表于 2023-9-28 23:29 来自手机 | 显示全部楼层
今天试了半天cuda都没成功,查了半天才发现TensorFlow从2.10开始就不支持在win上用gpu了,坑啊
回复

使用道具 举报

     
发表于 2023-9-29 01:25 | 显示全部楼层
sqlist 发表于 2023-9-28 23:29
今天试了半天cuda都没成功,查了半天才发现TensorFlow从2.10开始就不支持在win上用gpu了,坑啊 ...

官方指南不是有wsl2部署的吗
回复

使用道具 举报

     
 楼主| 发表于 2023-9-29 07:18 来自手机 | 显示全部楼层
noahhhh 发表于 2023-9-29 01:25
官方指南不是有wsl2部署的吗

我是自己摸索学的,没人带,检查的时候才注意到
回复

使用道具 举报

     
发表于 2023-9-29 08:35 来自手机 | 显示全部楼层
诶哟卧草 发表于 2023-9-28 12:34
https://youtu.be/UsfmqTb2NVY?si=XYMzNJwsY1NVgxk0
建议看看
刚不好mac更合适,看你对显存大小的需求了 ...

这人吹的太过了,现在mac也只是大模型推理能跑,训练别想了。之前写的标题是一台苹果电脑能顶八张4090,被人喷了之后才改了个标题。当然你买来只跑大模型果子确实很有性价比

— from OnePlus GM1917, Android 12 of S1 Next Goose v2.5.4
回复

使用道具 举报

头像被屏蔽
     
发表于 2023-9-29 08:40 来自手机 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
回复

使用道具 举报

头像被屏蔽
     
发表于 2023-9-29 08:42 来自手机 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
回复

使用道具 举报

     
发表于 2023-9-29 09:25 | 显示全部楼层
sqlist 发表于 2023-9-28 23:29
今天试了半天cuda都没成功,查了半天才发现TensorFlow从2.10开始就不支持在win上用gpu了,坑啊 ...

可以用的。cuda直接软连接过来。有一些框架,和开发软件不支持wsl2是真的。cuda当然是可以用的。只要版本找对
回复

使用道具 举报

     
 楼主| 发表于 2023-9-29 10:03 | 显示全部楼层
lvcha 发表于 2023-9-29 08:42
对,就是微软那个guide。主要关键点是用最新驱动再搭配nv给你做的最新镜像。千万别搞tf官方的镜像,各种 ...

谢谢帮助,我换个低版本,在本地能跑通就行了。高版本的cuda在win上用只能在wsl2里跑,我实在不想折腾了
回复

使用道具 举报

头像被屏蔽
     
发表于 2023-9-29 11:03 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
回复

使用道具 举报

     
发表于 2023-9-29 11:18 来自手机 | 显示全部楼层
sqlist 发表于 2023-9-29 10:03
谢谢帮助,我换个低版本,在本地能跑通就行了。高版本的cuda在win上用只能在wsl2里跑,我实在不想折腾了[ ...

等会,你们用的TF2?

—— 来自 HUAWEI ALN-AL80, Android 12上的 S1Next-鹅版 v2.5.4
回复

使用道具 举报

发表于 2023-9-29 11:21 来自手机 | 显示全部楼层
正经配个台式机,拿nuc上班如何

—— 来自 Google Pixel 7a, Android 13上的 S1Next-鹅版 v2.5.2-play
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|上海互联网违法和不良信息举报中心|网上有害信息举报专区|962110 反电信诈骗|举报电话 021-62035905|Stage1st ( 沪ICP备13020230号-1|沪公网安备 31010702007642号 )

GMT+8, 2024-9-20 23:43 , Processed in 0.145438 second(s), 5 queries , Gzip On, Redis On.

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表