zmw_831110 发表于 2024-9-17 14:06

[16GB吃满]本地部署manga-image-translator(自动机翻+嵌字)+sakura本地部署

本帖最后由 zmw_831110 于 2024-9-23 12:13 编辑

顶头总结一下
就是油猴脚本ComicRead+本地部署manga-image-translator+本地部署sakura
实现在线看日文生肉,manga-image-translator加了--upscaler=waifu2x --upscale-ratio=2 --font-size-minimum=28 启动参数后,低分辨率的漫画也可以足够清晰得观看了.
配合sakura的翻译质量,基本很少遇见看不明白的了.
缺点应该是,显卡显存要求16GB,要么就sakura用小点的模型.
而且显卡如果算力不够强,你得等翻译...我这个卡用着还可以接受,毕竟只要有一页文字量大,后面翻译嵌字的时间就快于我的观看速度了.
但是对于那种,文字量很少的,你就得等....
4080,4090应该要体验好不少.

因为是从零开始,有走弯路,记录的也比较杂乱,大家凑合看吧

本地部署manga-image-translator

起因是我想用这个里的图片翻译(作者说是用Docker更简单,但我想试一试manga-image-translator里的部署方案)
https://sleazyfork.org/zh-CN/scripts/374903-comicread

然后说到这个玩意的本地部署
https://github.com/zyddnys/manga ... b/main/README_CN.md

首先...我从来没有玩过本地部署,也不懂Python,就是安装说明,一步一步操作.
CMD,我也就只是会cd,cd..这里操作而已.

我是CMD管理员下装的 -搜索 CMD,"命令提示符"右键"以管理员身份运行"
不过存在无法修改keys.py文件(输入各种翻译API的密钥等信息)的问题,我现在只能去安全模式修改keys.py
我也懒得再重新弄了...建议先非管理员CMD装这个.
(Update,把manga-image-translator剪切到其他常规分区就可以了,我转移到D盘去了
然后写个bat就可以启动了
@echo on
python -m manga_translator --verbose --mode web --use-gpu --translator=sakura --upscaler=waifu2x --upscale-ratio=2 --font-size-minimum=28
@echo off
)

部分相关内容,直连很慢,速度被限制在2Mbps...(比如pytorch)想快得科学+tun模式,这样就很快了.

1.安装Python后(https://www.python.org/ftp/python/3.12.6/python-3.12.6-amd64.exe)

2.在CMD下把Git先装了
winget install --id Git.Git -e --source wingethttps://git-scm.com/download/win

3.装"Microsoft C++ Build Tools"
https://visualstudio.microsoft.com/visual-cpp-build-tools/
勾选C++的桌面开发(3.XG)安装


4.CMD下继续装了一下pytorch(又是2.5个G)
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu124https://pytorch.org/get-started/locally/

5.把CUDA重新装一下(3个G)
https://developer.nvidia.com/cud ... rget_type=exe_local

6.然后开始根据Github里写的步骤
在CMD下开始执行部署命令.
git clone https://github.com/zyddnys/manga-image-translator.git
cd命令,切换路径到manga-image-translator文件夹的路径
pip install -r requirements.txt




zmw_831110 发表于 2024-9-18 20:32

本帖最后由 zmw_831110 于 2024-9-18 21:16 编辑

成了
python -m manga_translator --verbose --mode web --use-gpu
正常启动web后台
http://127.0.0.1:5003
试着翻译了一页





试了一下命令行批量翻译
cd manga-image-translator
python -m manga_translator --verbose --mode batch --use-gpu --translator=papago --target-lang=CHS -i C:\Users\xxx\Desktop\新建文件夹\1
第1页20:44分~第186页20:51分
8分钟左右翻译完一个单行本,速度还行.


zmw_831110 发表于 2024-9-18 22:21

本帖最后由 zmw_831110 于 2024-9-19 20:36 编辑

开启web模式后
用脚本
https://sleazyfork.org/zh-CN/scripts/374903-comicread

成功机翻


Papago

百度还是稍微强一点


不过我还有个问题
C:\Windows\System32\manga-image-translator\manga_translator\translators

路径下的keys.py无法编辑,没办法去填百度翻译开发平台的APP ID和密钥
我重启了电脑,也是无法编辑
总不至于要我去安全模式下修改吧...
最后去安全模式改了...



zmw_831110 发表于 2024-9-20 21:28

本帖最后由 zmw_831110 于 2024-9-21 03:13 编辑

sakura部署好了
傻瓜的一键部署...非常傻瓜
https://github.com/SakuraLLM/SakuraLLM/wiki/llama.cpp%E4%B8%80%E9%94%AE%E5%8C%85%E9%83%A8%E7%BD%B2%E6%95%99%E7%A8%8B


模型用的sakura-13b-lnovel-v0.9b-Q4_K_M.gguf
https://hf-mirror.com/SakuraLLM/Sakura-14B-LNovel-v0.9b-GGUF/tree/main


manga-image-translator+sakura把16GB显存吃得干干净净,内存也用了超过32GB了,峰值达到35GB
刚刚够web看在线翻译



效果,翻译得正常多了.



PS:
我不懂怎么清翻译时的临时文件,记得过阵子就去删除一下吧
路径:
manga-image-translator\result


紧那罗 发表于 2024-9-17 14:38

既然啥都不会 直接docker不好么 何必折腾这些浪费生命

—— 来自 鹅球 v3.0.86-alpha

Nanachi 发表于 2024-9-17 15:00

wsl2解千愁

—— 来自 鹅球 v3.2.91

tsubasa9 发表于 2024-9-17 15:18

你不会百度搜错误么
error: Microsoft Visual C++ 14.0 or greater is required. Get it with "Microsoft C++ Build Tools": https://visualstudio.microsoft.com/visual-cpp-build-tools/

Litccc 发表于 2024-9-17 16:03

不会python的话那你还是用docker吧,不然配环境都能烦死你

JetBrains 发表于 2024-9-17 16:13

看 lz 似乎看不懂这个错误日志的话,建议直接上 docker,docker for windows 会帮装 wsl2 应该。
到时候部署了不至于后期出问题,问题非常大,而且现在基本上都让套 venv,如果对虚拟环境不太清楚,很多教程又不适用。
如果 lz 会和 gpt 聊天的话倒不是问题,学的快

—— 来自 鹅球 v3.0.86-alpha

maritimus 发表于 2024-9-17 22:57

build-essential是debian的,windows上就装对应的编译工具。

建议你选第一个,C++的桌面开发,应该是够了,就是可能有点占硬盘

maritimus 发表于 2024-9-17 22:58

Litccc 发表于 2024-9-17 16:03
不会python的话那你还是用docker吧,不然配环境都能烦死你

请问国内现在用docker有啥好办法吗?docker镜像都不小,网络问题严重,我找到的源基本都没法用。

chachi 发表于 2024-9-17 23:06

windows 直接用 venv 就行了。
给你运行的命令行,venv我设置的是 manga-env,翻译器是sakurallm

.\manga-env\scripts\activate
python -m manga_translator -v --translator=sakura --skip-no-text --ignore-errors --font-size-minimum 28 --use-gpu -l CHS -i "path\path"


生存戰略 发表于 2024-9-18 07:18

本帖最后由 生存戰略 于 2024-9-18 07:22 编辑

英文版 Readme 说了,需要装 Microsoft C++ Build Tools 。
https://github.com/zyddnys/manga ... uctions-for-windows

不过按照经验来说,折腾环境问题费时费力还没收获,老老实实docker更简单。

香港记者巴拉森 发表于 2024-9-18 08:29

可以用anaconda?

zmw_831110 发表于 2024-9-18 19:48

本帖最后由 zmw_831110 于 2024-9-18 20:37 编辑

这次没报错了(装了C++的桌面开发)
Building wheels for collected packages: pydensecrf
Building wheel for pydensecrf (pyproject.toml) ... done
Created wheel for pydensecrf: filename=pydensecrf-1.0-cp312-cp312-win_amd64.whl size=193007 sha256=545719a7986a7a4db186ad8a746c28177fcbef6a57f09a3bdf9fc805b6a387fb
Stored in directory: C:\Users\xxx\AppData\Local\Temp\pip-ephem-wheel-cache-y6qd1hir\wheels\9a\c6\f5\3c132397e37a92e93593422a889f45b692198d6124b141bf3b
Successfully built pydensecrf
Installing collected packages: wcwidth, unidic-lite, sentencepiece, pytz, pyperclip, pydensecrf, pyclipper, mpmath, jaconv, flatbuffers, arabic-reshaper, appdirs, antlr4-python3-runtime, win32-setctime, wheel, websockets, urllib3, tzdata, typing-extensions, torch-summary, termcolor, sympy, sniffio, six, setuptools, safetensors, regex, pyyaml, python-dotenv, pyreadline3, pycparser, psutil, protobuf, pillow, packaging, numpy, networkx, nest-asyncio, multidict, MarkupSafe, kornia-rs, idna, h11, fugashi, ftfy, fsspec, frozenlist, freetype-py, filelock, einops, editdistance, distro, cython, colorama, charset-normalizer, certifi, backports.cached-property, attrs, annotated-types, aioshutil, aiohappyeyeballs, aiofiles, yarl, tqdm, tifffile, tensorboardX, shapely, scipy, requests, PyWavelets, python-dateutil, pydantic-core, py3langid, opencv-python, omegaconf, marshmallow, marisa-trie, loguru, lazy-loader, langdetect, jinja2, imageio, humanfriendly, httpcore, fire, ctranslate2, cffi, anyio, aiosignal, torch, scikit-image, pyhyphen, pydantic, pandas, language-data, ImageHash, huggingface_hub, httpx, deepl, cryptography, coloredlogs, aiohttp, torchvision, tokenizers, openai, onnxruntime, langcodes, kornia, bitsandbytes, accelerate, transformers, timm, open_clip_torch, manga-ocr
Successfully installed ImageHash-4.3.1 MarkupSafe-2.1.5 PyWavelets-1.7.0 accelerate-0.34.2 aiofiles-24.1.0 aiohappyeyeballs-2.4.0 aiohttp-3.10.5 aioshutil-1.5 aiosignal-1.3.1 annotated-types-0.7.0 antlr4-python3-runtime-4.9.3 anyio-4.4.0 appdirs-1.4.4 arabic-reshaper-3.0.0 attrs-24.2.0 backports.cached-property-1.0.2 bitsandbytes-0.43.3 certifi-2024.8.30 cffi-1.17.1 charset-normalizer-3.3.2 colorama-0.4.6 coloredlogs-15.0.1 cryptography-43.0.1 ctranslate2-4.4.0 cython-3.0.11 deepl-1.19.1 distro-1.9.0 editdistance-0.8.1 einops-0.8.0 filelock-3.16.1 fire-0.6.0 flatbuffers-24.3.25 freetype-py-2.5.1 frozenlist-1.4.1 fsspec-2024.9.0 ftfy-6.2.3 fugashi-1.3.2 h11-0.14.0 httpcore-1.0.5 httpx-0.27.2 huggingface_hub-0.25.0 humanfriendly-10.0 idna-3.10 imageio-2.35.1 jaconv-0.4.0 jinja2-3.1.4 kornia-0.7.3 kornia-rs-0.1.5 langcodes-3.4.0 langdetect-1.0.9 language-data-1.2.0 lazy-loader-0.4 loguru-0.7.2 manga-ocr-0.1.12 marisa-trie-1.2.0 marshmallow-3.22.0 mpmath-1.3.0 multidict-6.1.0 nest-asyncio-1.6.0 networkx-3.3 numpy-1.26.4 omegaconf-2.3.0 onnxruntime-1.19.2 open_clip_torch-2.26.1 openai-1.35.9 opencv-python-4.10.0.84 packaging-24.1 pandas-2.2.2 pillow-10.4.0 protobuf-5.28.1 psutil-6.0.0 py3langid-0.2.2 pyclipper-1.3.0.post5 pycparser-2.22 pydantic-2.9.2 pydantic-core-2.23.4 pydensecrf-1.0 pyhyphen-4.0.4 pyperclip-1.9.0 pyreadline3-3.5.3 python-dateutil-2.9.0.post0 python-dotenv-1.0.1 pytz-2024.2 pyyaml-6.0.2 regex-2024.9.11 requests-2.32.3 safetensors-0.4.5 scikit-image-0.24.0 scipy-1.14.1 sentencepiece-0.2.0 setuptools-75.1.0 shapely-2.0.6 six-1.16.0 sniffio-1.3.1 sympy-1.13.2 tensorboardX-2.6.2.2 termcolor-2.4.0 tifffile-2024.8.30 timm-1.0.9 tokenizers-0.19.1 torch-2.4.1 torch-summary-1.4.5 torchvision-0.19.1 tqdm-4.66.5 transformers-4.44.2 typing-extensions-4.12.2 tzdata-2024.1 unidic-lite-1.0.8 urllib3-2.2.3 wcwidth-0.2.13 websockets-13.0.1 wheel-0.44.0 win32-setctime-1.1.0 yarl-1.11.1

Litccc 发表于 2024-9-18 20:11

maritimus 发表于 2024-9-17 22:58
请问国内现在用docker有啥好办法吗?docker镜像都不小,网络问题严重,我找到的源基本都没法用。 ...

没什么办法,自备🪜

charlespfan 发表于 2024-9-18 22:36

用的翻译源是百度?整点AI翻译吧,不然都对不起你整这么复杂了

—— 来自 S1Fun

zmw_831110 发表于 2024-9-18 22:39

charlespfan 发表于 2024-9-18 22:36
用的翻译源是百度?整点AI翻译吧,不然都对不起你整这么复杂了

—— 来自 S1Fun ...

其实也不怎么用

maritimus 发表于 2024-9-18 22:41

zmw_831110 发表于 2024-9-18 22:21
开启web模式后
用脚本
https://sleazyfork.org/zh-CN/scripts/374903-comicread


我没装过,以下是我的猜测/看法:

首先,不要用管理员账户装这个东西,因为会装到system32里,一般不要这样,很不好。你就用普通账户装,需要的时候提权就行。用管理员账户也导致了你编辑不了keys.py,权限不对。你可以用管理员权限打开记事本/VScode/Visual studio,打开这个文件,就可以编辑了。

maritimus 发表于 2024-9-18 22:42

Litccc 发表于 2024-9-18 20:11
没什么办法,自备🪜

那我还是和docker无缘...

zmw_831110 发表于 2024-9-18 23:04

maritimus 发表于 2024-9-18 22:41
我没装过,以下是我的猜测/看法:

首先,不要用管理员账户装这个东西,因为会装到system32里,一般不要 ...

好吧...
我已经安全模式改好了

就先这样吧...

emcl 发表于 2024-9-19 08:36

docker 配置好的在哪下载?

zmw_831110 发表于 2024-9-19 09:32

emcl 发表于 2024-9-19 08:36
docker 配置好的在哪下载?

https://sleazyfork.org/zh-CN/scripts/374903-comicread
这里就有讲

emcl 发表于 2024-9-19 13:33

zmw_831110 发表于 2024-9-19 09:32
https://sleazyfork.org/zh-CN/scripts/374903-comicread
这里就有讲

谢谢

azbhg1 发表于 2024-9-19 13:46

charlespfan 发表于 2024-9-18 22:36
用的翻译源是百度?整点AI翻译吧,不然都对不起你整这么复杂了

—— 来自 S1Fun ...

传统机器翻译日翻中最准的其实就是百度和有道
这两还都有相当可观的免费额度

azbhg1 发表于 2024-9-19 13:50

啥都不会我建议你用这个
https://github.com/dmMaze/BallonsTranslator
基本上是开箱即用的

charlespfan 发表于 2024-9-19 13:53

本帖最后由 charlespfan 于 2024-9-19 14:00 编辑

azbhg1 发表于 2024-9-19 13:46
传统机器翻译日翻中最准的其实就是百度和有道
这两还都有相当可观的免费额度 ...

我拿出本地部署Sakura大模型你该如何应对?还不要钱

还有,日中传统机翻最强是彩云DeepL有道,根本轮不到百度

彩云去年之前还有每月API免费额度的时候,有道和百度不是被彩云吊着打?

charlespfan 发表于 2024-9-19 13:55

azbhg1 发表于 2024-9-19 13:50
啥都不会我建议你用这个
https://github.com/dmMaze/BallonsTranslator
基本上是开箱即用的 ...

这玩意嵌字不是一坨?还得自己手动调整

—— 来自 S1Fun

azbhg1 发表于 2024-9-19 14:08

charlespfan 发表于 2024-9-19 13:53
我拿出本地部署Sakura大模型你该如何应对?还不要钱

还有,日中传统机翻最强是彩云DeepL有道,根本轮不 ...

本地部署的的配置就不是钱了是吧,本地同时跑manga-tanslate+sakura,按默认配置运行,大部分人用的60/70甜品卡显存早爆了
deepl日翻中八成是日翻英翻中的,明显一坨狗屎你真的用过?
彩云我还真没试过,不评价了

azbhg1 发表于 2024-9-19 14:11

charlespfan 发表于 2024-9-19 13:55
这玩意嵌字不是一坨?还得自己手动调整

—— 来自 S1Fun

和manga-tanslate不也是半斤对八两?
对楼主这种小白来说肯定是开箱即用完+有gui就完爆其他

charlespfan 发表于 2024-9-19 14:15

本帖最后由 charlespfan 于 2024-9-19 14:17 编辑

azbhg1 发表于 2024-9-19 14:08
本地部署的的配置就不是钱了是吧,本地同时跑manga-tanslate+sakura,按默认配置运行,大部分人用的60/70 ...

谁跟你说我用的是mangatranslate了

我有好东西为啥要跟你们说

有道彩云的缺点就是会漏翻一些重要的东西,deepl虽然看上去机翻味很重,但是他重要的东西基本不缺,片假名理解能力也比那两个强

彩云就更是吊打有道和百度了,你拿他去翻《银河英雄传说》,翻出的人名全都跟译本一样,说明他已经录入了这一堆人名,词汇对应肯定是强很多的

—— 来自 S1Fun

azbhg1 发表于 2024-9-19 14:24

本帖最后由 azbhg1 于 2024-9-19 14:39 编辑

charlespfan 发表于 2024-9-19 14:15
谁跟你说我用的是mangatranslate了

我有好东西为啥要跟你们说

那您可真行,就喜欢跑小白帖子里面来秀一些没有帮助意义的东西真开心吧那真的没有继续说下去的必要了。
deepl翻的南辕北辙的东西那也真不少。

zmw_831110 发表于 2024-9-20 02:12

本帖最后由 zmw_831110 于 2024-9-20 21:30 编辑

charlespfan 发表于 2024-9-19 13:53
我拿出本地部署Sakura大模型你该如何应对?还不要钱

还有,日中传统机翻最强是彩云DeepL有道,根本轮不 ...
我是4070TiS 16GB显存
跑本地批量翻译一个单行本的最多用了5909MB显存,剩余10467MB


跑Web时,用浏览器看了4话,显存峰值占用是6358MB显存,剩余10028MB



还有余量本地部署Saraku大模型么?
我看介绍,说是12GB的显卡就可以跑,因为开机会占用一点显存(看了下会吃掉2GB),所以我这个还剩差不多10GB显存,是不是也够?


update:部署好了,刚刚够,2个模型开起来,16GB显存还剩余1XX~3XXMB显存

zmw_831110 发表于 2024-9-20 21:34

部署好sakura了,16GB刚刚够(12GB的可以选择小一点的模型),2个模型开起来,16GB显存还剩余1XX~3XXMB显存
效果在第3个置顶
其实部署按照教程一步一步做,几乎是没有什么技术难点的,比之前折腾MPV轻松太多了.

zmw_831110 发表于 2024-9-24 15:09

本帖最后由 zmw_831110 于 2024-9-24 15:11 编辑

最近用了下,看几小时漫画,本地文件几十个G(40+),这玩意还考验SSD的TBW。。。

琉璃苑軒風 发表于 2024-9-24 15:37

这帖子怎么还有懂哥进来阴阳一通也不说解决办法的

第七日魔人 发表于 2024-9-24 15:39

技术贴,学习一下

oskneo 发表于 2024-9-24 15:49

Epsilonhomu 发表于 2024-9-24 16:15

本帖最后由 Epsilonhomu 于 2024-9-24 16:16 编辑

sakura我用的32B模型,拿来翻轻小说和黄油效果都很好,漫画倒是没有那么通畅
一旦开翻译就占满24G显存,硬控电脑打不了游戏

0WHan0 发表于 2024-9-24 16:18

本帖最后由 0WHan0 于 2024-9-24 16:23 编辑

是你自己做的功能嘛,还“我有好东西为啥要跟你们说”,笑死

—— 来自 鹅球 v3.2.91
页: [1] 2
查看完整版本: [16GB吃满]本地部署manga-image-translator(自动机翻+嵌字)+sakura本地部署