flyang 发表于 2024-4-20 15:58

现在的笔记本宣传ai对普通人来说是噱头吗

intel先提出来的,苹果好像也要跟,我的理解就是加入了单独跑ai的核心,但是大部人的日常使用场景来说应该用不到吧,有人来说说ai笔记本究竟是实用的还是仅仅是噱头呢

KevinGraham 发表于 2024-4-20 16:04

本帖最后由 KevinGraham 于 2024-4-20 16:07 编辑

苹果m1就有npu了,只是苹果芯片vp之前一直不爽ai这个词不这么吹而已,今年绷不住了要随大流吹ai/llm了

而且实际上目前intel/amd吹的npu都太菜了跑不了本地llm,各家笔记本吹的大模型都还是联网跑的

Vacuolar 发表于 2024-4-20 16:05

是噱头,这点算力基本干不了失去

广东侠 发表于 2024-4-20 16:10

纯噱头,但是这代英特尔 AMD宣传的ai本别的特性都还不错,ultra那几个改进了续航和离电性能,8845及其类似物把bug修了,所以要买还是买新品

ballantines 发表于 2024-4-20 16:36

估计本质上说集成的GPU性能提高,一定程度提高向量运算水平

Lunamos 发表于 2024-4-20 16:38

统一内存架构+高带宽的Macbook Pro适合llm,新鲜出炉的llama3非常能打,说是AI笔记本毫不夸张。
N卡游戏本也算AI本,跑一般的推理像是SD速度快,DLSS、超分辨率、自动HDR也都是AI应用。
但要说云侧也算AI本那等于没定义,随便一个chromebook也是AI笔记本了。

samfs 发表于 2024-4-20 16:38

本地部署个语言大模型写点书面材料什么的好像还不错

welcom 发表于 2024-4-20 16:44

这波虽然吹AI,但是连带着核显性能提升了一波,连OUTEL都接着堆料了,总的来说没啥问题

希望之花 发表于 2024-4-20 16:46

不是太喜欢新笔记本多一个copilot按键

Junakr 发表于 2024-4-20 17:19

Lunamos 发表于 2024-4-20 16:38
统一内存架构+高带宽的Macbook Pro适合llm,新鲜出炉的llama3非常能打,说是AI笔记本毫不夸张。
N卡游戏本 ...

8B 胡话还是一箩筐,不过 llama3 + nomic-embed-text 让 MBP 跑本地 RAG 有些搞头了(ollama)。
尝试一下用 Obsidian Copilot 索引本地知识库,有一些作用,估计把笔记用英语重写一遍效果会更好。

Linjiangzhu 发表于 2024-4-20 17:34

按照公众认知AI=LLM的情况下,只有Mac能算得上AIPC
然而现在outel和膏通所谓的带NPU的芯片的AI性能还不如NV的3050,也就能剪映里扣个像,视频开会降个噪这种负载很低的工作,像会议摘要,实时翻译还是调外部API实现的。目前AIPC就是纯纯的噱头。

脚本水平 发表于 2024-4-20 17:39

能把软件做好调用外部api也没啥问题
不过目前看能最好的也就能指望下华为吧
其它家根本玩不明白的

OldGlory 发表于 2024-4-20 20:25

就是骗你买电脑的噱头

木谷高明 发表于 2024-4-20 20:39

手机内置npu可以加速计算摄影等“厂商预制的功能”,Windows那个碎片化的软件生态,是不是噱头看硬件厂商是否开房间接口,第三方软件厂商愿不愿意适配。

NPU推理如果搞出openCL类似的统一接口或许有效

zhrs456 发表于 2024-4-20 20:58

除了Mac外其他的非N卡本都是蹭噱头的

Midnight.Coup 发表于 2024-4-20 22:02

本帖最后由 Midnight.Coup 于 2024-4-20 22:19 编辑

MTL 那个 NPU 甚至没有达到 Intel 和 微软定的 AIPC 40T 算力标准
24H2 RTM(26100) 内的 AI Explorer 直接要求高通 X Elite NPU

冰寒之月 发表于 2024-4-20 22:07

是的 现在自称AI的cpu其实屁用都没有

batrain 发表于 2024-4-21 00:39

杀猪。

AndyLee 发表于 2024-4-21 07:30

ai最牛逼的黄老板都不怎么宣传ai在电脑上的用处
倒是a和i宣传
懂得都懂

zyhang 发表于 2024-4-21 14:36

电脑的推理用ip core也就做个人脸识别插帧超分吧,关键是还得要生态环境支持,所以我的结论是,除了NVIDIA,别的一毛钱用也没有。还不如把精力放在自动驾驶芯片上,未来这玩意算力需求很大的

perfaceNext 发表于 2024-4-21 15:34

我看视频up主们到接了不少intel ai cpu的广告,看的我心痒痒,这个玩意实际使用这么拉垮吗?

KevinGraham 发表于 2024-4-21 15:40

perfaceNext 发表于 2024-4-21 15:34
我看视频up主们到接了不少intel ai cpu的广告,看的我心痒痒,这个玩意实际使用这么拉垮吗? ...

mtl相比前代确实有不错的提升,但ai部分纯噱头

泰坦失足 发表于 2024-4-21 15:47

有那个溢价为啥不自己跑GPT4 API或者去买类似的API服务呢,现在的这些AI XX看不出一定要在本地硬件受限情况下跑小模型的意义

雪影 发表于 2024-4-21 15:47

perfaceNext 发表于 2024-4-21 15:34
我看视频up主们到接了不少intel ai cpu的广告,看的我心痒痒,这个玩意实际使用这么拉垮吗? ...

卵用,单纯npu算力可能也就15Tops,整个soc算力才能达到35Tops
应用app也少

—— 来自 Xiaomi 2304FPN6DC, Android 13上的 S1Next-鹅版 v2.5.4

UNICORN00 发表于 2024-4-21 16:11

诚司 发表于 2024-4-21 22:01

RookieTnT 发表于 2024-4-22 10:28

诚司 发表于 2024-4-21 22:01
是不是噱头主要取决于你觉得LLM有什么用,甚至都不取决于价格,一般人可能高估了LLM对计算能力的需求,而低 ...

128G 就能跑GPT4了吗? GPT4不是1.76万亿吗?

dffgf 发表于 2024-4-22 10:39

cat339 发表于 2024-4-22 11:13

What is an AI PC? ('Look, Ma! No Cloud!')
An AI PC has a CPU, a GPU and an NPU, each with specific AI acceleration capabilities.

上面是牙膏厂官方新闻的提法, 一说AI PC就只扯NPU如何如何是个明显的误区.
NPU也好, copilot键也好, 背后推手一直是微软. 所以接下来你会看到高通,AMD都会跟着喊一样的口号, 做一样的事情. Intel只是最早跳出来举大旗的那个

Intel自己对AI在PC端的定义可以类比以前推的迅驰. 当年打造迅驰推动了无线联网能力在笔记本上的普及, 今后则通过AI PC来推动AI算力在PC端的普及.
对于当年不上网的人来说, 笔记本随时联网有屁用, 纯纯的噱头而已. AI以此类推即可
换而言之, AI算力会像WIFI联网一样, 成为PC必不可少的底层功能之一.

泰坦失足 发表于 2024-4-22 11:13

本帖最后由 泰坦失足 于 2024-4-22 11:22 编辑

诚司 发表于 2024-4-21 22:01
是不是噱头主要取决于你觉得LLM有什么用,甚至都不取决于价格,一般人可能高估了LLM对计算能力的需求,而低 ...
问题是为啥不用云跑呢,现在GPT4价格已经便宜到Input $10.00 / 1M tokens Output $30.00 / 1M tokens了。现有的API如文心一言通义千问的API更便宜,Llama3 300b也号称能训练完后对标GPT4,到时候也会有云端API服务。一定要每次本地显卡满载跑吗。

mimighost 发表于 2024-4-22 11:22

现有的所谓npu这些只能玩点儿小型的cnn之类的模型

llm 7b尚且跑不起来,就算量化到牙齿,整个模型也要4gb吧,更别7b说跑起来也是一个废物

所以这条路完全走不通,摆设都算不上,除了耗电屁用没有

诚司 发表于 2024-4-22 11:28

mimighost 发表于 2024-4-22 16:59

就算能跑也不能不考虑latency,2080ti你跑70b,就算int4的量化,一秒钟能跑出5个token么,拿个这种结巴ai有啥用

chaucerling 发表于 2024-4-22 17:05

本帖最后由 chaucerling 于 2024-4-22 17:07 编辑

mimighost 发表于 2024-4-22 16:59
就算能跑也不能不考虑latency,2080ti你跑70b,就算int4的量化,一秒钟能跑出5个token么,拿个这种 ...
本地跑个量化的7b其实速度还行,如果能训练调用各种工具链整合输出结果其实并不需要太多的参数

mimighost 发表于 2024-4-22 17:11

chaucerling 发表于 2024-4-22 17:05
本地跑个量化的7b其实速度还行,如果能训练调用各种工具链整合输出结果其实并不需要太多的参数 ...
7b是可以,这个我不否认,70b我不觉得有啥用处,就算跑起来,context长了必然慢如龟爬

以后100k的context成了标配,本地的llm是等着老黄把显存达成白菜价么,显然不现实

更别说这玩意儿多耗电了

本地llm可以用来玩儿,7b的用来做点儿轻量的代码补全也堪用,但是和云比,那终究只能是个玩具
页: [1]
查看完整版本: 现在的笔记本宣传ai对普通人来说是噱头吗