找回密码
 立即注册
搜索
查看: 2613|回复: 20

[网络] AI大语言模型已经能全面取代谷歌微软等传统机器翻译吧

[复制链接]
发表于 2024-10-24 21:48 | 显示全部楼层 |阅读模式
最近试了一下阿里的Qwen2.5模型,本地跑量化的14B模型,英译中效果都强于Google、Bing和DeepL等翻译服务,
现在如果有要翻译的文章,需要质量就上ChatGPT用gpt4o,单纯求方便就直接调用本地大模型,基本上已经很少再用传统线上翻译。

回复

使用道具 举报

     
发表于 2024-10-25 00:08 来自手机 | 显示全部楼层
没错,而且端上就已经很不错了。目前翻译涉及到一些俚语、黑话,只有大模型能正常翻译出来,因为他们有足够的信息量并且具有上下文能力。再怎么样的智能翻译都做不到这一点。
目前像 DeepL 只能做到部分词汇锁定为术语表。而你可以直接让 GPT 根据你的实际需求以不同的方式翻译出来。
很简单,即使拥有上下文,普通翻译器也难以翻译手冲打胶等词汇,导致整篇文章出错,而 GPT 因为语料库大能够识别。

—— 来自 鹅球 v3.1.91-alpha
回复

使用道具 举报

     
发表于 2024-10-25 00:16 | 显示全部楼层
本帖最后由 tonyunreal 于 2024-10-25 02:25 编辑

巧了,电脑上刚好有部署好的Qwen2.5 14B Q5 K_S
试了两篇文章,感觉通顺程度比deepl略差一丢丢,不过差距不大,该改的地方两个版本都需要改

不过Qwen2.5确实是现在本地部署最强的综合用途LLM了 写简短的小黄文也够用

更新:
试了一下Qwen2.5 32B Q4,翻译得相对来说比较准确且通顺了,在deepl水平之上
回复

使用道具 举报

     
发表于 2024-10-25 00:25 | 显示全部楼层
我倒是觉得就写作翻译方面还替代不了Deepl这种可以逐词选择的模式(虽然Deepl好像也要换LLM了)
回复

使用道具 举报

     
发表于 2024-10-25 00:42 | 显示全部楼层
我本地用7B的都感觉已经相当能用了
回复

使用道具 举报

     
发表于 2024-10-25 01:13 | 显示全部楼层
那么,在本地部署qwen有配置要求吗?
回复

使用道具 举报

发表于 2024-10-25 03:25 来自手机 | 显示全部楼层
有没有能集成到网页插件翻译网页的本地部署模型
回复

使用道具 举报

     
发表于 2024-10-25 03:35 | 显示全部楼层
日语的Sakura-13B-Galgame 我在轻小说机翻机器人上面看感觉质量已经吊打大部分中文水平拉胯的译者了,稍微润色校对一下就很对味
要是大显存的显卡便宜一点就好了
回复

使用道具 举报

     
发表于 2024-10-25 06:28 来自手机 | 显示全部楼层
那么一般普通对话用日语翻译有好使的吗?

—— 来自 鹅球 v3.1.88.3-alpha
回复

使用道具 举报

     
发表于 2024-10-25 06:30 | 显示全部楼层
红炉灰 发表于 2024-10-25 06:28
那么一般普通对话用日语翻译有好使的吗?

—— 来自 鹅球 v3.1.88.3-alpha

就用qwen2.5吧,对多语言支持最好的LLM,同等性能的Llama 3.2 中文都说不利索
回复

使用道具 举报

     
发表于 2024-10-25 06:31 | 显示全部楼层
可以prompt实时定义专用词汇,还能大量的上下文了解语境,甚至还能上多模态模型基于当前视觉翻译。那么是哪家厂家的机翻仍然不忍直视呢
回复

使用道具 举报

     
发表于 2024-10-25 07:45 | 显示全部楼层
关键是便宜啊,本地模型只要电费,各家gpt4o-mini级别的模型输入输出都是一块钱100万字,传统机翻api比这贵多了吧。
回复

使用道具 举报

     
发表于 2024-10-25 09:34 来自手机 | 显示全部楼层
yanjunle 发表于 2024-10-25 07:45
关键是便宜啊,本地模型只要电费,各家gpt4o-mini级别的模型输入输出都是一块钱100万字,传统机翻api比这贵 ...

显存不要钱是吧,我16g4080跑个量化过的20B都嫌慢,恨不得上两块魔改2080ti来跑本地模型
回复

使用道具 举报

     
发表于 2024-10-25 09:43 | 显示全部楼层
妄想中毒 发表于 2024-10-25 09:34
显存不要钱是吧,我16g4080跑个量化过的20B都嫌慢,恨不得上两块魔改2080ti来跑本地模型 ...

Autodl,请——现在单卡L20一小时不到3块钱,48G显存
回复

使用道具 举报

     
发表于 2024-10-25 10:21 | 显示全部楼层
大模型翻译有个问题就是它会漏掉内容
它不一定是逐字逐句翻出来的

用来掌握文章大意还行 遇到特别精细需求还是把它当作备胎之一 多种方法对照着来稳
回复

使用道具 举报

     
发表于 2024-10-25 11:07 | 显示全部楼层
搭车问下 漫画嵌字AI汉化 用哪个比较好?
目前用BallonsTranslator+sakura 13B/32B还行
有更好的选择吗
回复

使用道具 举报

     
发表于 2024-10-25 11:09 来自手机 | 显示全部楼层
qratosones1337 发表于 2024-10-25 09:43
Autodl,请——现在单卡L20一小时不到3块钱,48G显存

这么便宜吗。。。真好啊
回复

使用道具 举报

     
发表于 2024-10-25 11:27 | 显示全部楼层
什么后知后觉
回复

使用道具 举报

     
发表于 2024-10-25 11:51 | 显示全部楼层
https://www.bilibili.com/video/BV1BC411W7zB
谁才是最好用的翻译APP?翻译软件大横评!【红豆泥】
这里有比较过机翻和AI翻译。结论上是腾讯属于逆向AI。机翻中DeepL果然算是能打,百度很不堪但没那么不堪。AI翻译中Gemini最强。
但千问没参与评比,只是被提及。
回复

使用道具 举报

     
发表于 2024-10-25 12:15 来自手机 | 显示全部楼层
qratosones1337 发表于 2024-10-25 09:43
Autodl,请——现在单卡L20一小时不到3块钱,48G显存

上面不是说gpt4o-mini一块钱100万字吗,我不好说这和租显卡哪个划算
回复

使用道具 举报

     
发表于 2024-10-25 12:24 | 显示全部楼层
碧琟 发表于 2024-10-25 11:51
https://www.bilibili.com/video/BV1BC411W7zB
谁才是最好用的翻译APP?翻译软件大横评!【红豆泥】
这里有 ...

这类评测的问题是样本量太小,只能说有参考价值,不过AI翻译胜过传统机翻与日常使用的感觉一致。至于Gemini最强则有待商榷。个人使用的时候除了翻译以外一般还让AI进行分析,经常会出现翻出来的句子不怎么样,但是解释完全正确的。个人感觉是Claude的稳定性更好,GPT-4o经常是给个翻译,随便解释两句完事。Gemini的解释也很详尽,但是准确率感觉不如这两者。另外大量翻译的情况下,还要考虑成本,目前最便宜的是GPT-4o-mini,质量也相当可以了。试过Qwen2.5-32B,至少不比GPT-4o-mini差,与GPT-4o、Claude、Gemini相比感觉差距也不大,算是非常好用了,而且24G显存的3090能跑得动,速度也尚可,本地跑完全没问题了。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|上海互联网违法和不良信息举报中心|网上有害信息举报专区|962110 反电信诈骗|举报电话 021-62035905|Stage1st ( 沪ICP备13020230号-1|沪公网安备 31010702007642号 )

GMT+8, 2024-11-23 18:03 , Processed in 0.073687 second(s), 5 queries , Gzip On, Redis On.

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表