找回密码
 立即注册
搜索
楼主: moeblack

[科技] (转型Deepseek交流楼)DEEPSEEK-R1完全可以说是全球第一LLM了

[复制链接]
     
发表于 2025-1-27 02:26 | 显示全部楼层
魔灵高达 发表于 2025-1-27 02:23
我是换成API然后用NGA那帖子里的穿甲咒语成功了,暂且先玩着,这玩意搞NSFW的话很喜欢用一些特别学术的比 ...

不知道为什么口味特别重
回复

使用道具 举报

     
发表于 2025-1-27 07:47 来自手机 | 显示全部楼层
魔灵高达 发表于 2025-1-27 02:23
我是换成API然后用NGA那帖子里的穿甲咒语成功了,暂且先玩着,这玩意搞NSFW的话很喜欢用一些特别学术的比 ...

我穿甲失败了
你的咒语是那个更详细连贯的细节吗?还是跟我国内账号有关系

—— 来自 鹅球 v3.3.96
回复

使用道具 举报

发表于 2025-1-27 07:52 来自手机 | 显示全部楼层
魔灵高达 发表于 2025-1-25 23:20
尝试用本地R1进行R15级别的角色扮演描写,在用胸部涂抹沐浴液的阶段要求具体描写,就遇到BUG了,无限复读, ...

本地化需要什么配置?有教程没?能否破限?
回复

使用道具 举报

     
发表于 2025-1-27 08:20 | 显示全部楼层
魔灵高达 发表于 2025-1-27 02:23
我是换成API然后用NGA那帖子里的穿甲咒语成功了,暂且先玩着,这玩意搞NSFW的话很喜欢用一些特别学术的比 ...

有没有nga帖子的链接,我没搜到
回复

使用道具 举报

     
发表于 2025-1-27 08:57 来自手机 | 显示全部楼层
colice 发表于 2025-1-27 00:26
想请教下打算用deepseek写公文的话,有什么好的方式么,网页和app的审查比豆包和Kimi都严格,明明没有违禁 ...

用api

—— 来自 鹅球 v3.3.96
回复

使用道具 举报

     
发表于 2025-1-27 09:03 来自手机 | 显示全部楼层
推理模型已经用不了了,用的人太多短时间内负载能力跟不上
回复

使用道具 举报

     
发表于 2025-1-27 09:23 来自手机 | 显示全部楼层
我昨天要他帮我出个西安旅游攻略,说我要去陕博和陕博秦汉馆,但忘了兵马俑。
它想了想说:用户看起来是个历史爱好者,但没写兵马俑,但兵马俑是必去的,建议推荐。

DS:你这逼人去西安不去兵马俑的吗?

—— 来自 OnePlus PHB110, Android 15上的 S1Next-鹅版 v2.5.4

评分

参与人数 1战斗力 +1 收起 理由
z2150966 + 1 欢乐多

查看全部评分

回复

使用道具 举报

     
发表于 2025-1-27 09:36 | 显示全部楼层
renova 发表于 2025-1-26 05:38
不是,你们都不玩酒馆的么。。。API基本没审查,R1瑟瑟起来不要太颠。

—— 来自 鹅球 v3.3.96-alpha ...

那么具体要怎么做呢
回复

使用道具 举报

     
发表于 2025-1-27 10:17 | 显示全部楼层
为什么不给写公文啊??这个拿去做点班子成员学习总结的台账不正好
回复

使用道具 举报

     
发表于 2025-1-27 10:18 | 显示全部楼层
deepseek到底是啥?我问   结果咋说  可能是在讨论我(即ChatGPT)

可以本地用吗?

嗯,用户问“可以本地用吗?”,我需要先理解他们具体指的是什么。可能是在问某个软件、工具或模型是否可以在本地运行,而不需要依赖互联网连接或者云端服务。首先,我需要确定用户提到的具体应用,但用户没有明确说明,所以可能需要进一步询问。不过根据之前的对话历史,可能是在讨论我(即ChatGPT)的本地部署情况。

接下来,我应该回想一下关于当前AI模型本地部署的情况。目前,像GPT-3.5或GPT-4这样的模型通常需要较大的计算资源和存储空间,普通用户的本地设备可能难以运行。不过,有些开源模型如LLaMA、Alpaca或者GPT-J等可能可以在本地运行,尤其是在有足够硬件支持的情况下,比如高性能的GPU和足够的内存。

然后,我需要考虑用户的技术背景。如果他们是有经验的开发者,可能会知道如何下载和配置这些模型,但对于普通用户来说,本地部署可能比较困难。因此,回答时需要区分不同情况,并提供相应的信息。

另外,还要提到一些可能的解决方案,比如使用简化版的模型,或者利用一些框架如Hugging Face的Transformers库来加载本地模型。同时,提醒用户注意硬件要求,比如需要至少16GB的内存,甚至更好的GPU支持,以及足够的存储空间(因为模型文件可能达到几个GB甚至更大)。

还需要考虑隐私和数据安全的问题,本地运行的好处是数据不需要上传到云端,适合对隐私要求较高的用户。但同时也需要权衡性能和资源消耗。

最后,确保回答清晰,分点说明,让用户能够根据自身情况决定是否尝试本地部署,并提供一些资源链接或工具建议,比如推荐他们查看Hugging Face的模型库,或者使用Ollama这样的工具来简化本地运行大型语言模型的过程。
回复

使用道具 举报

发表于 2025-1-27 10:23 | 显示全部楼层
求问下,现在有什么好的现成的开源项目(我自己可以做些改动)可以直接调用deepseek的api,实现桌面聊天和询问助手
回复

使用道具 举报

     
发表于 2025-1-27 10:25 | 显示全部楼层
本帖最后由 泰坦失足 于 2025-1-27 10:34 编辑
面_影 发表于 2025-1-27 10:23
求问下,现在有什么好的现成的开源项目(我自己可以做些改动)可以直接调用deepseek的api,实现桌面聊天和 ...

ChatBOX,有GUI,一键安装的。
虚拟桌宠模拟器,https://store.steampowered.com/app/1920960/_/?l=schinese github-LorisYounger/VPet。很可爱

评分

参与人数 1战斗力 +1 收起 理由
面_影 + 1 好评加鹅

查看全部评分

回复

使用道具 举报

     
发表于 2025-1-27 10:34 | 显示全部楼层
今天deepseek的API是崩了吗?昨天还好好的,今天用vs-code调用写code就没反应了
回复

使用道具 举报

     
发表于 2025-1-27 10:37 | 显示全部楼层
本帖最后由 魔灵高达 于 2025-1-27 10:41 编辑
jeokeo 发表于 2025-1-27 07:52
本地化需要什么配置?有教程没?能否破限?

本地模型的破限我是自己研究是失败了,但是用网上的破限咒语是没试过,昨天我已经把本地模型卸载了因为API挺好用的。还不占本地内存,运算还比本地的强。
至于怎么部署,你直接告诉它:我是一个电脑小白,我的电脑配置是XXXXXXX(详细配置,用图吧工具箱或者手打)现在我要在本地部署deepseekR1,告诉我我的电脑能部署多少B的,请告诉我最简单最快的本地部署的方式,注意,我是一个电脑小白,所以需要你一步一步拆解步骤。

之后就跟着它教你的步骤做就是了,中途遇到任何问题,比如说它让你输代码到powershell里面,结果你输入了出现错误,你就把powershell里出的错误复制给它。。我就是这样一步一步装好的。
我安装的时候的流程:第一步告诉我安装python给了个链接,我安装完,在powershell输入它给的代码,提示错误,复制错误提示给它,告诉我需要安装rust,然后是详细的安装步骤,跟着做,rust安装出错,复制错误提示给它,告诉我python版本过高,3.14版本不行,换成3.13,继续安装rust成功 后面省略。反正一路就这样部署成功的

  1. Q:我不想要在powershell或者CMD的界面上运行R1模型的话,有什么好看一点的图形界面吗
  2. A:推荐了几个
  3. 这个工具还要能够帮忙管理对话,就和你deepseek的网页一样,每一个对话是分开的,这样如果我需要R1模型扮演一个角色,可以设置某一个对话下它一直以这个角色的形态模式和我对话,并且一直保留我们对话的记忆。同时,我可能还需要写小说,所以某一个对话我让它直接读取文本文件,里面是小说的内容、并且续写。而另一个对话则是从头开始写别的文章,和那篇小说无关,以上哪个工具做得到
  4. A OPEN webUI
  5. 那么告诉我OPEN WEBUI怎么部署,注意我是一个电脑小白
复制代码



回复

使用道具 举报

     
发表于 2025-1-27 10:38 来自手机 | 显示全部楼层
deepseek r1最重要的意义在于它打破了美国某些人说“ai技术上中美差异巨大,这就像新时代的核弹”的神话,但是目前的r1问题还有很多,厉害的是目前国内已经有很明确的方向怎么样发展。
现在吹第一有点走了一步就说比赛完结的荒诞感。
回复

使用道具 举报

     
发表于 2025-1-27 10:39 来自手机 | 显示全部楼层
而且生成式模型中国一段时期当第一也不是这一次两次了,关键的是这个赛道非常卷,大家进步都很快,两三个月进步慢点就被甩后面。
回复

使用道具 举报

     
发表于 2025-1-27 10:42 | 显示全部楼层
Vacuolar 发表于 2025-1-27 10:38
deepseek r1最重要的意义在于它打破了美国某些人说“ai技术上中美差异巨大,这就像新时代的核弹”的神话, ...

R1神奇的一点在于这东西在文学创作层面真的形成了对GPT全家的降维打击,然后文学创作恰好是人人都能测的,也恰好是包括GPT在内的已有公开通用模型普遍的弱点
回复

使用道具 举报

     
发表于 2025-1-27 10:42 来自手机 | 显示全部楼层
好卡啊,怎么这么多人用

说好的藏了50000张h100/800呢?

焯!

—— 来自 鹅球 v3.3.96
回复

使用道具 举报

     
发表于 2025-1-27 10:43 来自手机 | 显示全部楼层
本帖最后由 monikaca 于 2025-1-27 10:50 编辑
Vacuolar 发表于 2025-1-27 10:38
deepseek r1最重要的意义在于它打破了美国某些人说“ai技术上中美差异巨大,这就像新时代的核弹”的神话, ...


这玩意给我一种背后就是国家,看到美国把手牌里大怪拍出来开香槟宣布胜利的时候,冷笑一声,然后从手里一堆底牌中选一张deepseek随手扔出去搞节目效果。

很好奇文化军事科技民生都吊打昂撒匪帮的今天,还能有啥惊喜。
回复

使用道具 举报

     
发表于 2025-1-27 10:46 | 显示全部楼层
本帖最后由 泰坦失足 于 2025-1-27 10:52 编辑
Vacuolar 发表于 2025-1-27 10:38
deepseek r1最重要的意义在于它打破了美国某些人说“ai技术上中美差异巨大,这就像新时代的核弹”的神话, ...

我就一直没觉得差距巨大这回事。只有GPT 4.0那次发现scale law后偷偷做了几年的技术领先太夸张了,直接领先全世界。OpenAI内部应该是做好 4.0后蒸馏出3.5公开出来。所以才能做到22年底还是纯文字3.5,23年初4.0直接多模态了。后面有YI模型在23年底作为第一个用起来顺手的开源模型,比同期llama 2.0高多了。后面还有Qwen,在DS出名之前一直都是开源之光。我觉得比同期llama3.X/Mistral好用。多模态/超长上下文/端到端语音/图生视频,各家也在今年下半年左右赶上,还有可灵这种超越的。在AI上只有有钱/出发的早/过去有一批天才和打标工的OpenAI vs 中美各大公司。看看OpenAI在领先的几年时间尺度上到底储备了什么好东西。这次的长推理不就是直到OpenAI说走的通但是藏着掖着,DeepSeek出来详细说这样一步步走,其他公司一看妈的绕路了。同样是美国的Grok从出1.0开始不就是来搞笑的,300b的模型还不如qwen几十b的。
回复

使用道具 举报

     
发表于 2025-1-27 10:47 | 显示全部楼层
游客,本帖隐藏的内容需要积分高于 5000 才可浏览,您当前积分为 0
M乔梦 发表于 2025-1-27 08:20
有没有nga帖子的链接,我没搜到

转载咒语

评分

参与人数 2战斗力 +4 收起 理由
bwsusaga + 2 试了好多只有你这个可以穿甲,赞.
M乔梦 + 2 感谢

查看全部评分

回复

使用道具 举报

     
发表于 2025-1-27 10:50 | 显示全部楼层
木水风铃 发表于 2025-1-27 07:47
我穿甲失败了
你的咒语是那个更详细连贯的细节吗?还是跟我国内账号有关系

应该和国内账号无关,我也是实名认证的国内账号。咒语发在下面了
回复

使用道具 举报

     
发表于 2025-1-27 10:57 | 显示全部楼层
本帖最后由 atomicink 于 2025-1-27 11:02 编辑

我去,发错楼
回复

使用道具 举报

     
发表于 2025-1-27 11:02 | 显示全部楼层
本帖最后由 zerona 于 2025-1-27 11:04 编辑

没事了就改掉了。
回复

使用道具 举报

     
发表于 2025-1-27 13:21 | 显示全部楼层
不知道是提供的信息不够还是其他什么原因,尝试让它找一些昙花一现的自行车零件技术,感觉出来的结果不太全面,而且一次会列出20条,有时候实际并没有20条,多出来的会重复。
回复

使用道具 举报

     
发表于 2025-1-27 14:01 来自手机 | 显示全部楼层
我真的佩服他怎么这么懂,我让他简单比较两款降糖药,他把其中一款特别黑体字注明必须嚼服。而该药说明书自己都没有必须两个字,而是可以嚼服或用水吞服这样。我听说这药必须嚼服是不止一两个大夫亲口说的。网上基本都没有必须,而是多用推荐两个字。我只能想到他是根据药理自行判断必须嚼服的,而这已经是跟现实大夫一样的思考模式了

—— 来自 鹅球 v3.3.96
回复

使用道具 举报

     
发表于 2025-1-27 14:15 来自手机 | 显示全部楼层
本帖最后由 你好s1 于 2025-1-27 14:24 编辑

编辑了,弄错了

—— 来自 鹅球 v3.3.96
回复

使用道具 举报

     
发表于 2025-1-27 14:27 来自手机 | 显示全部楼层
API接口是崩了吗,为什么我的一直在转圈

—— 来自 鹅球 v3.3.96
回复

使用道具 举报

     
发表于 2025-1-27 14:29 | 显示全部楼层
qz66618 发表于 2025-1-27 14:27
API接口是崩了吗,为什么我的一直在转圈

—— 来自 鹅球 v3.3.96

网页也崩了,用的人实在太多了
回复

使用道具 举报

     
发表于 2025-1-27 14:30 来自手机 | 显示全部楼层
魔灵高达 发表于 2025-1-27 14:29
网页也崩了,用的人实在太多了

好吧,刚刚在调cline,我还以为是我的问题

—— 来自 鹅球 v3.3.96
回复

使用道具 举报

     
 楼主| 发表于 2025-1-27 14:35 | 显示全部楼层
本帖最后由 moeblack 于 2025-1-27 14:40 编辑

https://moeblack.github.io/LMTDS/

以前有不懂的问百度 以后有不懂的问AI .jpg

顺便
https://status.deepseek.com/#
点击查看deepseek被大型人肉DDOS现状 以及运维绝望轮回


本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

×
回复

使用道具 举报

     
发表于 2025-1-27 14:40 | 显示全部楼层
部署到本地无法使用联网搜索,可惜了点
回复

使用道具 举报

     
 楼主| 发表于 2025-1-27 14:40 | 显示全部楼层
王苍幻 发表于 2025-1-27 14:40
部署到本地无法使用联网搜索,可惜了点

可以把网页逆向给本地用 就能搜索了
回复

使用道具 举报

     
发表于 2025-1-27 14:48 | 显示全部楼层
用酒馆出NSFW内容时,R1会越来越嗨,
但如果中间突然插一句不相干的,比如“你写的很棒”之类的,它就突然冷静了,开始告诉我不要再越界写不合规范的内容
回复

使用道具 举报

     
发表于 2025-1-27 14:48 | 显示全部楼层
moeblack 发表于 2025-1-27 14:40
可以把网页逆向给本地用 就能搜索了

你这个办法能让r1 也接入网络搜索吗?
回复

使用道具 举报

     
发表于 2025-1-27 14:50 来自手机 | 显示全部楼层
还会颜文字s1的这些表情啥时候也能用啊

—— 来自 鹅球 v3.3.96

评分

参与人数 1战斗力 +1 收起 理由
希望之花 + 1 代码发烫hso

查看全部评分

回复

使用道具 举报

     
发表于 2025-1-27 14:54 | 显示全部楼层
简单问今年春节三薪有多少天,百度AI回答4天,这货回答3天(除夕没算上)
回复

使用道具 举报

     
 楼主| 发表于 2025-1-27 15:00 | 显示全部楼层
zerona 发表于 2025-1-27 14:48
你这个办法能让r1 也接入网络搜索吗?

可以 github red-team deepseek
回复

使用道具 举报

     
发表于 2025-1-27 15:08 | 显示全部楼层
bwsusaga 发表于 2025-1-27 14:48
用酒馆出NSFW内容时,R1会越来越嗨,
但如果中间突然插一句不相干的,比如“你写的很棒”之类的,它就突然 ...

跟风装了个酒馆,但是这天聊几句对面的回答就开始进入死循环(无论我说啥它都回答一样的句子)是为啥
回复

使用道具 举报

     
发表于 2025-1-27 15:09 | 显示全部楼层
7b模型本地8g显存可用,稍微弱智点
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|上海互联网违法和不良信息举报中心|网上有害信息举报专区|962110 反电信诈骗|举报电话 021-62035905|Stage1st ( 沪ICP备13020230号-1|沪公网安备 31010702007642号 )

GMT+8, 2025-1-27 22:03 , Processed in 0.157206 second(s), 4 queries , Gzip On, Redis On.

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表