婆罗门
精华
|
战斗力 鹅
|
回帖 0
注册时间 2014-4-29
|
本帖最后由 chaucerling 于 2023-1-24 16:06 编辑
果子上个月开源了core ML的AI画图框架,将普通模型转成coreML 模型可以用上m系芯片的npu进行画图
MochiDiffusion是用这一框架编写的原生app,性能上比用electron封装的Diffusionbee要好
测试环境: M1 pro MacBook Pro,Macos13.1,
测试模型: anything-v3
测试参数:prompt: ((masterpiece)), best quality, 1girl, looking at viewer, (brown hair), (rabbit gril), (animal ear fluff), blue eyes, shirt, neck ring, blue sky, could, outdoor
negative prompt: lowres, bad anatomy, bad hands, text, error, missing fIngers, extra digt, fewer digits, cropped, worst quality, jpeg artifacts, signature, watermark, username, blurry
Model: anything-v3.0_split-einsum_compiled; Scheduler: dpmSolverMultistepScheduler; Steps: 25; Guidance: 12.0
场景1:
电池供电,低电量模式,使用全部核心,开始前内存占用5G,平均功耗0.05W
测试结果:
平均功耗 总 4.48W,CPU 0.52W,GPU 1.35W,NPU 2.2W
内存占用10G,平均每张图片耗时20s
场景2:
电池供电,低电量模式,使用CPU和NPU核心,开始前内存占用5G,平均功耗0.05W
测试结果:
平均功耗 总 2.8W,CPU 0.32W,GPU 0.02W,NPU 2.5W
内存占用9.3G,平均每张图片耗时21.5s
场景3:
电源供电,使用全部核心,开始前内存占用5G,平均功耗0.1W
测试结果:
平均功耗 总 4.8W,CPU 0.52W,GPU 1.95W,NPU 2.3W
内存占用10.7G,平均每张图片耗时19s
生成的图片节选
测试下来生成图片的时间和质量没有很大的差距,简直可以秒杀我之前用Diffusionbee的体验
不过这个框架限制和缺点还是有,例如split-einsum的模型只能生成512x512大小的图片,转模型耗时很长
|
|