億万千
发表于 2025-1-24 15:40
闭源大模型现在哪家nb,和这些开源的比呢
lilisipis
发表于 2025-1-24 15:46
现在哪家模型可以生成虚拟管人,就是把管人聊天风格音色人设输进去生成个虚拟管人和我聊天的
rubus
发表于 2025-1-24 15:52
马车夫 发表于 2024-12-27 17:41
美帝这几年甚至是十多年前万物转码的后遗症,认识不少学机械EE的纷纷抛弃制造业,纯coding又不是什么要智商 ...
国内头部高校现在也是万物转码,反而中等水平的学校还保留了一些传统的研究方向(虽然很大程度并不是自愿的。这帮人就是每次看到疑似风头一窝蜂全去做
断片集
发表于 2025-1-24 15:52
lilisipis 发表于 2025-1-24 15:46
现在哪家模型可以生成虚拟管人,就是把管人聊天风格音色人设输进去生成个虚拟管人和我聊天的 ...
这就是llm和tts两者结合的事了,llm的话,只是模仿风格普通聊天的话大概都能,deepseek算是比较有性价比的了
声音的话你可以去b站之类的地方搜下cosyvoice2,效果已经很不错了,基本接近真人水平
用silly tavern把这俩整合起来大概就有你想要的效果了
alixsander
发表于 2025-1-24 15:53
本帖最后由 alixsander 于 2025-1-24 15:56 编辑
億万千 发表于 2025-1-24 15:40
闭源大模型现在哪家nb,和这些开源的比呢
OAI咯
o3 > o1 pro > DS R1≈KIMI1.5 ≈o1 ≈ o3 mini> Gemini 2 flash thinking(这个1M context window, 60K ouput len)
非reasoning的SOTA基模,都差不多吧,都接近4o了。Sonnet在代码和创意写作上强一些。
多模态/全模态(语音-语音 端到端)
gemini 2 flash多模态挺强的,感觉和4o多模态差不多,但是能听得懂中文不能说中文。 豆包只能语音双工没有视觉能力,但是中文水平是最好的
Agentic
最实用的Google DeepResearch. OAI之前只有一个能执行周期任务的,今天发布了一个operator,200刀能帮你点浏览器,但是基模用的也只是4o。只能说智能体是25年的主要方向,未来可期吧
看月之暗面,幻方,千问什么时候开源智能体,全模态。可能也就落后OAI一到三个月。
ysys
发表于 2025-1-24 16:23
新人马甲2 发表于 2025-1-24 08:59
昨晚慕名去试了试deepseek,有被震惊到,不仅可以回答相当复杂的专业翻译问题,而且经得起反复追问,能给出 ...
不不不,胡说还是有的
正常情况你也不会啥问题都去看它的解释
只不过能给分析过程看起来确实感觉挺好
andychen
发表于 2025-1-24 16:40
AI我们能赶上一点都不奇怪,人才储备上基本和对岸是分庭抗礼的
一些你懂的因素也能被绕开,像这回deepseek这样。从这角度看国内商用大公司搞的模型可能看点反而少一些
moekyo
发表于 2025-1-24 16:41
tioit 发表于 2025-1-24 15:36
deepseek 搜索还是有点问题
昨天我搜 “鸿蒙智行旗下的车,内存大小分别是多少?”
回答的数据不大对。
这个不行吗
根据鸿蒙智行旗下各车型的公开信息,目前官方参数配置表中未明确标注“内存大小”(可能指车机系统的运行内存或存储空间)。不过,结合不同车型的智能座舱配置和功能描述,可以推断其硬件性能与华为鸿蒙系统的适配情况如下:
### 1. **问界M5系列**
- **车机系统**:搭载HarmonyOS鸿蒙操作系统,支持多设备互联、语音控制等功能。
- **硬件配置**:配备15.6英寸中控屏和10.25英寸全液晶仪表,支持华为MagLink生态接口。虽然没有直接提及内存参数,但根据用户实测反馈,系统流畅度较高,但在复杂语音交互和网络依赖功能上偶有卡顿。
- **推测配置**:参考华为终端设备(如平板、手机)的硬件标准,可能采用8GB以上运行内存及128GB存储空间。
### 2. **智界S7**
- **车机系统**:首发HarmonyOS 4智能座舱,支持3D车控桌面、盘古大模型语音助手等功能。
- **硬件配置**:配备12.3英寸全液晶仪表和15.6英寸中控屏,支持双50W无线快充、星环散射体声学系统等。其智能驾驶系统(HUAWEI ADS 2.0)需要较高的数据处理能力,推断其内存配置可能更高。
- **推测配置**:可能采用12GB运行内存及256GB存储空间,以支持高阶智驾和座舱多任务处理。
### 3. **智界R7**
- **车机系统**:搭载鸿蒙系统,配备15.6英寸中控屏和12.3英寸仪表屏,支持遥控泊车、哨兵模式等功能。
- **硬件配置**:与智界S7同属鸿蒙智行高端车型,推测其内存配置接近智界S7,但具体参数未公开。
### 4. **问界新M5**
- **车机系统**:与问界M5类似,但新增了更多智能驾驶功能(如城区NCA),可能对内存要求更高。
- **硬件配置**:未明确提及内存,但车内发声单元和智能泊车辅助等功能需要较强的处理能力。
### 5. **其他车型(尊界S800、问界M8等)**
- **尊界S800**:作为旗舰级大型轿车,预计搭载华为乾崑ADS 3.0高阶智驾系统,推测内存配置为鸿蒙智行车型中最高(可能达到16GB运行内存及512GB存储空间)。
- **问界M8**:定位中大型SUV,可能采用与智界S7相近的硬件配置,以支持三屏联动和城市智驾功能。
### 总结
鸿蒙智行车型的内存配置信息未在官方参数中明确标注,但通过系统功能和高阶智驾需求可推测其硬件性能处于行业较高水平。如需具体数据,建议咨询官方渠道或关注后续车型发布会。
coldhot3
发表于 2025-1-24 18:11
alixsander 发表于 2025-1-24 14:06
我知道teamblind这个人的原文,不是翻译的问题,DS怎么可能算out of nowhere. 一年前就人人都认识了。DS...
ds这公司在哪?好像是浙江?
SkavenYesYes
发表于 2025-1-24 18:37
有懂行的老哥说下智驾能像ds这样花小算力办大事么
开车也挺reasoning的吧
qqks
发表于 2025-1-24 18:40
SkavenYesYes 发表于 2025-1-24 18:37
有懂行的老哥说下智驾能像ds这样花小算力办大事么
开车也挺reasoning的吧
理想的vlm有用到qwenvl2.2b
SkavenYesYes
发表于 2025-1-24 18:41
qqks 发表于 2025-1-24 18:40
理想的vlm有用到qwenvl2.2b
阿里的?
overflowal
发表于 2025-1-24 19:19
本帖最后由 overflowal 于 2025-1-24 19:21 编辑
SkavenYesYes 发表于 2025-1-24 18:37
有懂行的老哥说下智驾能像ds这样花小算力办大事么
开车也挺reasoning的吧
你去问做智驾的话,他们也不知道。至于花小钱办大事,只能说智驾大部分的成本肯定不是训练。本地就那么点算力,跑的模型如果用llm的眼光看都是小小模型
国内那堆公司吹自己云端算力多少多少在我看来就是单纯应激反应,因为ai领域都在吹大力出奇迹。
现在deepseek这么一出后,搞不好那些智驾公司就要开始吹自己小算力办大事了
—— 来自 鹅球 v3.3.96
alixsander
发表于 2025-1-24 20:02
coldhot3 发表于 2025-1-24 18:11
ds这公司在哪?好像是浙江?
应该是杭州
枯风瘦雪
发表于 2025-1-24 20:03
coldhot3 发表于 2025-1-24 18:11
ds这公司在哪?好像是浙江?
杭州的
—— 来自 S1Fun
Azcarlo
发表于 2025-1-24 20:19
推上看到一位俄罗斯老哥的评价
cym887
发表于 2025-1-24 20:38
机吉斯卡 发表于 2025-1-24 11:31
艹,现在是个水群都在传SEEK写的小黄温
就是那个静香的那个
小黄文呢 一天了 QQ群没一个转发的
Frimp
发表于 2025-1-24 21:03
今天用了一天,跟普通的gpt4比了比,明显感觉到ds会想的更细,给更多的公式,但是有的时候给了一大堆公式都有点离题,不如gpt回答的更简洁和有用,有的时候给的公式有很有用并且完爆gpt的过于简略的回答
verniy
发表于 2025-1-24 21:05
试用感觉逻辑能力和写作能力都太强了,但是开搜索反而有时候会被内容农场和小编体糊弄
走来走去
发表于 2025-1-24 21:09
试了一下写代码, 比我写的好,还能自带优化,列出来每个优化点,最后还能给出优化前后对比和性能评估
观者熊
发表于 2025-1-24 22:12
Deepseek太强了,妈妈再也不用担心我不能一键磕羽中姚蒙海猫三人CP了而且这几章每一章的结尾都是金句啊
gawain
发表于 2025-1-24 23:33
cube 发表于 2025-1-24 14:47
用python本地部署一下,调用模型用deepseek-reasoner即R1。
还是得本地部署啊
论坛助手,iPhone
月珊瑚与紫鸢尾
发表于 2025-1-25 08:54
gawain 发表于 2025-1-24 23:33
还是得本地部署啊
论坛助手,iPhone
没点门槛,那真是会变成群魔乱舞的
newtroll
发表于 2025-1-25 09:40
所有有deepseek有生成nsfw的攻略吗
—— 来自 鹅球 v3.3.96
jaewoongh_
发表于 2025-1-25 09:43
卧槽这么叼,看来不用再用豆包还要被同事阴阳了
吴怀在
发表于 2025-1-25 09:49
机吉斯卡 发表于 2025-1-24 11:31
艹,现在是个水群都在传SEEK写的小黄温
就是那个静香的那个
同求私信
neptunehs
发表于 2025-1-25 09:52
月珊瑚与紫鸢尾 发表于 2025-1-25 08:54
没点门槛,那真是会变成群魔乱舞的
部署的是蒸馏的7Bqwen吧 不说本身相当弱智且似乎不可联网
一般的个人计算机也就只能部署了 对应训练是别想了
虽然说租个计算卡也不能算什么很高的门槛啦。。。
lilisipis
发表于 2025-1-25 09:54
洛拉斯
发表于 2025-1-25 09:55
lilisipis 发表于 2025-1-25 09:54
这下能AMDyes了吗
neptunehs
发表于 2025-1-25 10:00
洛拉斯 发表于 2025-1-25 09:55
这下能AMDyes了吗
amd自己也不是什么好货啊 该涨时涨(看向隔壁4000多大洋的9800x3d
想要便宜显卡还是得等国内 可惜国内有兴趣的厂商并不多
午夜钓者
发表于 2025-1-25 10:31
cube 发表于 2025-1-24 14:47
用python本地部署一下,调用模型用deepseek-reasoner即R1。
需要什么显卡?
—— 来自 鹅球 v3.3.96
橋白
发表于 2025-1-25 11:19
午夜钓者 发表于 2025-1-25 10:31
需要什么显卡?
—— 来自 鹅球 v3.3.96
纯调用官方接口不需要你有显卡 付钱调用就行 要显卡的是本地部署 目前消费级本地部署不起v3或者r1本体 可以部署用r1蒸馏的qwen
论坛助手,iPhone
枯风瘦雪
发表于 2025-1-25 11:25
AMD在自己的CPU里塞NPU想推AIPC也有一阵子了,现在deepseek本地化部署效果就够用,那AMD确实算是抱到好大腿了
厚乳果珍爽
发表于 2025-1-25 11:41
严重怀疑,到时候老美会自己出个法案就是人工智能安全法案,主要内容就是设定标准,以人工智能会反叛为由限制国外ai的发展。总之我判定你不合规,那我要求美国人不能使用,要求世界上其他国家不允许提供服务及供应链,怎么才算是合规,在我老美手里的才叫合规。
天地一机成化育
发表于 2025-1-25 11:41
jaewoongh_ 发表于 2025-1-25 09:43
卧槽这么叼,看来不用再用豆包还要被同事阴阳了
豆包的非推理模型现在也是第一梯队了啊,比 gpt4o 强了
—— 来自 鹅球 v3.3.96-alpha
熊猫roey
发表于 2025-1-25 11:43
太好用了,写的东西活人感极强,同人能力吊打同行
zzxzz1019
发表于 2025-1-25 11:48
橋白 发表于 2025-1-25 11:19
纯调用官方接口不需要你有显卡 付钱调用就行 要显卡的是本地部署 目前消费级本地部署不起v3或者r1本体 可 ...
所以也就是说个人电脑本地部署虽然能写点nsfw的东西,但质量还是不如官方接口的?差距大吗
断片集
发表于 2025-1-25 11:48
厚乳果珍爽 发表于 2025-1-25 11:41
严重怀疑,到时候老美会自己出个法案就是人工智能安全法案,主要内容就是设定标准,以人工智能会反叛为由限 ...
没意义,MIT协议开源了,是个公司都能自己部署了跑,哪怕个人都有看到有多台mac mini串联了跑的方案,成本比closeai之类的低太多,让美国公司自己把ai泡沫戳破就行
厚乳果珍爽
发表于 2025-1-25 11:51
断片集 发表于 2025-1-25 11:48
没意义,MIT协议开源了,是个公司都能自己部署了跑,哪怕个人都有看到有多台mac mini串联了跑的方案,成 ...
要的是没办法商业化、规模化,这样你就没办法盈利,就没办法长久研发下去,这样老美就能赢了。
查理_芒格
发表于 2025-1-25 11:51
资本主义不怕没有道德,不怕杀头
最怕亏钱
从这个方面下手,就是对资本主义最大的伤害
—— 来自 鹅球 v3.3.96-alpha
页:
1
2
3
4
5
6
[7]
8
9
10
11
12
13