望周知。 mac8g生产力,你们win32g才入门,到底行不行XD 绚烂航迹云 发表于 2024-3-21 13:39
啊,我已经64GB了啊
…多大内存的PC出货,和英特尔什么关系呀
英特尔盘算的是未来个人pc上的ai推理是用cpu做,所以要配套高容量内存。 大概是市场调研下来16G是现在用户主流? 主楼这个分类喷了 本帖最后由 alann 于 2024-3-21 14:45 编辑
7776169 发表于 2024-3-21 14:31
那么以后可以用大内存加厉害的牙膏cpu来ai画图然后速度跟用cuda的差不多吗
—— 来自 OnePlus GM ...
现在速度要赶上挺难的,看以后吧,毕竟大内存比大显存显卡要便宜太多了,如果可以肯定是好事,而且有些小应用对性能要求不高的,cpu完全可以胜任。 你这 BSD 系统怎么用 FHS 啊 所以ai助理到底有啥用 感觉内存越来越不靠谱,很多机器内存跑标称频率都药出错。 荡漾帆哥 发表于 2024-3-21 15:00
所以ai助理到底有啥用
你就别管他有没有用,你就说他是不是AI。
—— 来自 HONOR PGT-AN00, Android 14上的 S1Next-鹅版 v2.5.4 96g了 新配电脑的话确实要32GB起步了 我七八年前开始给自己装机就标配32GB了,逼人加硬件方面微软比你英特尔强得多 这个屏幕比例好复古,楼主用的是SE? CPU那也得上AISP并且加大缓存才行啊,真就aigc≈出图了? Aicg 和垃圾話我都用不上翻譯中英手俄法行不行? bubuyu 发表于 2024-3-21 13:35
Mac:8GB够用
错了,Mac不需要AI 主力128g 笔记本和二奶机都是64g 本帖最后由 乔槁 于 2024-3-21 19:31 编辑
是这样。
多开IDE+虚拟机,16G能用,但是不够用。 现在猜测微软的aipc,本地常驻一个13b左右的模型,int4量化后占用8~9g内存,用intel/amd的npu来跑,底层用directML接口
主要功能
1.做一些本地文档总结,信息检索之类的简单任务
2.能驱动一些简单agent,帮助做自动系统设置
2.分类到逻辑推理类问题,把内容传到云端,由openai 100b以上的大模型来跑,节省对云端黄老板卡的用量
—— 来自 vivo V2324A, Android 14上的 S1Next-鹅版 v2.5.4 我回忆了一下2018年我就32G了!怎么到了intel中国沙雕部门那里变成未来了?? xxad 发表于 2024-3-21 17:23
我回忆了一下2018年我就32G了!怎么到了intel中国沙雕部门那里变成未来了?? ...
“未来 AI PC 入门级标配”
你2018年买的32G内存电脑是入门级吗 本帖最后由 kyomu 于 2024-3-21 17:56 编辑
苹果说只要你订阅我的 ai 服务,8g 内存也是够用的,我也是 ai 生产力工具,就像我的iCloud 一样好用。
论坛助手,iPhone 听说以后显卡可以直接调用DDR5内存。 好耶我64G.........但是ddr4@3800
—— 来自 Xiaomi M2102K1C, Android 13上的 S1Next-鹅版 v2.5.4 说这么多也没用,甚至连巨硬升级初代ULTRA系列的SP10都还是8G起步 强尼高达 发表于 2024-3-21 17:28
“未来 AI PC 入门级标配”
你2018年买的32G内存电脑是入门级吗
AI PC啊!不是普通PC啊,我2018年还不是AI PC呢 不是 这点算力够搞鸡毛的 sunbeach 发表于 2024-3-21 21:51
不是 这点算力够搞鸡毛的
本来就是搞鸡毛的,目前都是试错阶段,三五年后再看吧。
—— 来自 OnePlus GM1900, Android 10上的 S1Next-鹅版 v2.5.4
页:
[1]
2