找回密码
 立即注册
搜索
查看: 2991|回复: 28

[科技] 现在能在本地部署的LLM哪家强

[复制链接]
     
发表于 2025-1-22 14:15 | 显示全部楼层 |阅读模式
各种大模型看的有些眼花缭乱了,我也是小白一个,想请教下现在哪家LLM本地部署强一些?PC配置是ddr4-32g,cpu i510600kf,显卡4070tis
我个人比较需要的用法就是把规范和书本内容丢进去方便搜和归纳总结,其他高级的方法我也不大会用。(主流的什么kimi、文心一言我感觉我问的方法有问题,出来的结果都和我想要的大相径庭


回复

使用道具 举报

     
发表于 2025-1-22 14:17 | 显示全部楼层
看看Deepseek最新放出来的R1蒸馏过的Llama和Qwen
回复

使用道具 举报

     
发表于 2025-1-22 14:22 | 显示全部楼层
现搜的https://github.com/datawhalechina/self-llm,还有就是现在这更新速度,太容易过时了,而且都玩AI了,还是建议追新使用吧
回复

使用道具 举报

头像被屏蔽
     
发表于 2025-1-22 14:24 来自手机 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
回复

使用道具 举报

     
 楼主| 发表于 2025-1-22 14:26 | 显示全部楼层
你说这个谁懂呀? 发表于 2025-1-22 14:24
poe用claude,个人模型除非是微调风格不然强烈不建议。你付出的时间成本真不如买买api算了

—— 来自 vivo ...

谢谢建议,不过我这方面不大清楚,我想法是数据最好不要上传
回复

使用道具 举报

头像被屏蔽
     
发表于 2025-1-22 14:26 来自手机 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
回复

使用道具 举报

发表于 2025-1-22 14:28 来自手机 | 显示全部楼层
用vllm等工具优化蒸馏过得量化模型

cpu内存叠加后大约能提升不少
回复

使用道具 举报

     
发表于 2025-1-22 14:30 | 显示全部楼层
可以先试一下自己能不能搞定llama.cpp的编译
在服务器上修了一天环境了
回复

使用道具 举报

     
发表于 2025-1-22 14:30 | 显示全部楼层
你说这个谁懂呀? 发表于 2025-1-22 14:26
我觉得目前的7b模型的长文本能力除非你真有自定义优化手段,不然基本上就是一坨屎

—— 来自 vivo V2170A, ...

lz其实还好。
4070tis是16g显卡,可以跑30+b的模型,不是7b能比的
回复

使用道具 举报

发表于 2025-1-22 14:31 | 显示全部楼层
有集显能用的模型么?
回复

使用道具 举报

头像被屏蔽
     
发表于 2025-1-22 14:33 来自手机 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
回复

使用道具 举报

     
发表于 2025-1-22 14:36 | 显示全部楼层
同问。一直折腾AI涩图,LLM没怎么折腾过
有没有类似comfyui这样的可加载不同模型的通用程序?
回复

使用道具 举报

     
发表于 2025-1-22 14:36 来自手机 | 显示全部楼层
借贴问下 有没有办法让本地部署的LLM搜索某个内网知识库然后回答问题?
回复

使用道具 举报

     
发表于 2025-1-22 14:36 | 显示全部楼层
你说这个谁懂呀? 发表于 2025-1-22 14:33
不太清楚具体长度哈,但是lz要是书本长度会不会在100k左右token?这个级别我体验过的开源模型70b以下基本 ...

是的,70b以下的常见区间其实是8k-32k
回复

使用道具 举报

     
发表于 2025-1-22 14:38 | 显示全部楼层
处男老司机 发表于 2025-1-22 14:36
同问。一直折腾AI涩图,LLM没怎么折腾过
有没有类似comfyui这样的可加载不同模型的通用程序? ...

koboldcpp+酒馆,koboldcpp负责运行模型,酒馆负责前端

评分

参与人数 1战斗力 +2 收起 理由
处男老司机 + 2 好评加鹅

查看全部评分

回复

使用道具 举报

     
发表于 2025-1-22 14:40 | 显示全部楼层
处男老司机 发表于 2025-1-22 14:36
同问。一直折腾AI涩图,LLM没怎么折腾过
有没有类似comfyui这样的可加载不同模型的通用程序? ...

不是有个Anything LLM么?
回复

使用道具 举报

发表于 2025-1-22 14:41 来自手机 | 显示全部楼层
dodolee 发表于 2025-1-22 14:17
看看Deepseek最新放出来的R1蒸馏过的Llama和Qwen

友情提醒。这个模型不能瑟瑟
回复

使用道具 举报

     
发表于 2025-1-22 14:42 | 显示全部楼层
你这种的搞不好是原始文档的储存分类编码索引这些上面出了问题
这些个llm现在都大差不差的其实
回复

使用道具 举报

     
发表于 2025-1-22 15:01 | 显示全部楼层
处男老司机 发表于 2025-1-22 14:36
同问。一直折腾AI涩图,LLM没怎么折腾过
有没有类似comfyui这样的可加载不同模型的通用程序? ...

ollama和LMStudio比较简单好用
回复

使用道具 举报

     
发表于 2025-1-22 15:03 | 显示全部楼层
yorktown 发表于 2025-1-22 14:30
可以先试一下自己能不能搞定llama.cpp的编译
在服务器上修了一天环境了

服务器上如果没什么特别要求可以用Ollama吧,当然要设置offloading什么的好像不行……
回复

使用道具 举报

     
发表于 2025-1-22 15:08 | 显示全部楼层
dodolee 发表于 2025-1-22 15:03
服务器上如果没什么特别要求可以用Ollama吧,当然要设置offloading什么的好像不行…… ...

谢谢,我去瞅瞅
回复

使用道具 举报

     
发表于 2025-1-22 15:09 | 显示全部楼层
jeokeo 发表于 2025-1-22 14:41
友情提醒。这个模型不能瑟瑟

Llama 有些社区越狱版好像可以,比如:https://huggingface.co/lmstudio- ... 3-70B-Instruct-GGUF,不过效果怎么样就不好说了……
回复

使用道具 举报

发表于 2025-1-22 20:44 来自手机 | 显示全部楼层
我有个4090 64g内存打算本地跑个酒馆 后端跑啥模型呢

—— 来自 鹅球 v3.3.96
回复

使用道具 举报

     
发表于 2025-1-22 20:46 来自手机 | 显示全部楼层
r1 32b

—— 来自 Xiaomi 2308CPXD0C, Android 14上的 S1Next-鹅版 v2.5.2-play
回复

使用道具 举报

     
发表于 2025-1-22 21:51 | 显示全部楼层
处男老司机 发表于 2025-1-22 14:36
同问。一直折腾AI涩图,LLM没怎么折腾过
有没有类似comfyui这样的可加载不同模型的通用程序? ...

ollama.com
傻瓜化的。
回复

使用道具 举报

     
发表于 2025-1-23 10:44 来自手机 | 显示全部楼层
借楼问下大佬们,需求和楼主差不多,本地小说,想通过建立本地资料库,给出一段情节,让他给判断那本书符合

—— 来自 鹅球 v3.3.96
回复

使用道具 举报

     
发表于 2025-1-23 11:00 来自手机 | 显示全部楼层
LMStudio 啥都好就是缺一个换源的设置
Ollama 直连就很顺畅,目前

—— 来自 鹅球 v3.3.96
回复

使用道具 举报

     
 楼主| 发表于 2025-1-24 10:37 | 显示全部楼层
还想请教下,本地部署都是推荐建虚拟机去部署吗?我看huggingface的官方说明都推荐在虚拟环境中部署
回复

使用道具 举报

     
发表于 2025-1-24 10:44 | 显示全部楼层
试了Ollama本地部署7B的DS,比图一乐还图一乐
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|上海互联网违法和不良信息举报中心|网上有害信息举报专区|962110 反电信诈骗|举报电话 021-62035905|Stage1st ( 沪ICP备13020230号-1|沪公网安备 31010702007642号 )

GMT+8, 2025-1-31 01:38 , Processed in 0.189003 second(s), 6 queries , Gzip On, Redis On.

Powered by Discuz! X3.5

© 2001-2025 Discuz! Team.

快速回复 返回顶部 返回列表