Stage1st

 找回密码
 立即注册
搜索
查看: 264733|回复: 1250

[科技] 开源类GPT4多模态模型项目-OpenFlamingo-转型开源模型项目集合页

  [复制链接]
     
发表于 2023-3-29 05:13 来自手机 | 显示全部楼层 |阅读模式
本帖最后由 yesicant 于 2023-3-29 16:53 编辑

最初是半夜突然刷到这条推特



一查,原来是Laion组织(提供SD模型训练集的开源非盈利组织)根据论文用Clip与LLaMA(没想到吧,又是我们)复现了去年刷榜各种项目的的多模态模型,Flamingo相关的权重与训练代码

关于Flamingo的相关介绍可以看这里:https://zhuanlan.zhihu.com/p/508918171

hugface模型仓库地址:https://huggingface.co/openflamingo/OpenFlamingo-9B

训练代码:https://github.com/mlfoundations/open_flamingo


模型权重净重5.2G,参数为9B,大部分人的显卡应该都能跑


效果比Flamingo论文中的同参数下性能差一些,可能缺少某些调优吧,不过有这个效果要什么自行车!

在线演示地址:https://7164d2142d11.ngrok.app/



—— 来自 S1Fun

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x

评分

参与人数 5战斗力 +7 收起 理由
arcanearcher + 1 好评加鹅
晨曦之下 + 1 高质量
Linjiangzhu + 2
lzz + 2 好评加鹅
wujae + 1 好评加鹅

查看全部评分

回复

使用道具 举报

     
 楼主| 发表于 2023-3-29 05:15 | 显示全部楼层
好像忘了放相关博客地址:https://laion.ai/blog/open-flamingo/


开源视频总结AI不远了

—— 来自 S1Fun

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

     
 楼主| 发表于 2023-3-29 05:16 | 显示全部楼层
大家记得不要用来做坏事哦



—— 来自 S1Fun

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

     
 楼主| 发表于 2023-3-29 05:29 | 显示全部楼层
We are committed to build fully open-source models, and believe this transparency is essential for fostering collaboration, accelerating progress, and democratizing access to state-of-the-art LMMs. Our release is the first step towards this goal.

非常的欢乐

—— 来自 S1Fun
回复

使用道具 举报

头像被屏蔽
发表于 2023-3-29 05:33 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
回复

使用道具 举报

     
发表于 2023-3-29 07:18 来自手机 | 显示全部楼层
插眼

—— 来自 HONOR KKG-AN70, Android 11上的 S1Next-鹅版 v2.5.4
回复

使用道具 举报

     
发表于 2023-3-29 07:54 来自手机 | 显示全部楼层
cy

—— 来自 HUAWEI EBG-AN10, Android 10上的 S1Next-鹅版 v2.5.4
回复

使用道具 举报

     
 楼主| 发表于 2023-3-29 16:45 | 显示全部楼层
草生,最近开源的LLM以及多模态项目一个比一个多,我都想特意开个贴集合了,不过这个帖子就挺好的,待我一个个更新吧


—— 来自 S1Fun

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

     
发表于 2023-3-29 16:48 | 显示全部楼层
给楼主打个标,棒!
回复

使用道具 举报

     
 楼主| 发表于 2023-3-29 16:50 | 显示全部楼层
首先是Nomic AI发布的gpt4all项目

github地址:https://github.com/nomic-ai/gpt4all

可以跑在笔记本上,使用了800k的gpt3.5 turbo接口生成的合成文本数据集,在自指导等论文形式的帮助下训练出的LLaMA-Lora插件,项目页有Lora,数据集,训练代码等,不过因为LLaMA的学术研究性质,所以并不直接提供对应的7B LLaMA权重,这个得自己准备,性能非常不错

—— 来自 S1Fun

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

     
发表于 2023-3-29 16:54 来自手机 | 显示全部楼层
mark
回复

使用道具 举报

     
发表于 2023-3-29 16:58 来自手机 | 显示全部楼层
插眼关注
回复

使用道具 举报

     
 楼主| 发表于 2023-3-29 17:01 | 显示全部楼层
然后是Cerebras systems出品的Cerebras-GPT系列


项目主页说明地址:https://www.cerebras.net/blog/cerebras-gpt-a-family-of-open-compute-efficient-large-language-models/

项目意义说明:https://www.businesswire.com/news/home/20230328005366/en/Cerebras-Systems-Releases-Seven-New-GPT-Models-Trained-on-CS-2-Wafer-Scale-Systems

arXiv论文还是coming soon
不过hugface已经开源权重了,使用了Chinchilla缩放法则高效训练模型,授权许可为Apache 2.0
一共公开了111m参数-13b参数总共7个版本不同的模型权重

hhugface页面https://huggingface.co/cerebras


—— 来自 S1Fun

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

     
发表于 2023-3-29 17:02 来自手机 | 显示全部楼层
用消费级硬件一键生成小黄文的日子是不是不远了
回复

使用道具 举报

     
发表于 2023-3-29 17:06 来自手机 | 显示全部楼层
qmpdcy
回复

使用道具 举报

     
 楼主| 发表于 2023-3-29 17:06 | 显示全部楼层
本帖最后由 yesicant 于 2023-3-29 17:07 编辑
格林达姆 发表于 2023-3-29 17:02
用消费级硬件一键生成小黄文的日子是不是不远了

4chan老哥专门有个皮格马利翁(瞧这名字)项目就是搞这个的,不过没有中文版本,最新版本都堆到6b参数了,目前来说也是开源项目,在hugface上那不是一般的火

https://rentry.org/pygmalion-ai



—— 来自 S1Fun

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

     
发表于 2023-3-29 17:07 | 显示全部楼层
格林达姆 发表于 2023-3-29 17:02
用消费级硬件一键生成小黄文的日子是不是不远了

应该是一键续写太监书的时代快来了......前面的文本作为学习材料,后面自己填想看的剧情一键生成
回复

使用道具 举报

     
发表于 2023-3-29 17:08 | 显示全部楼层
收藏比回复多哈哈
回复

使用道具 举报

     
 楼主| 发表于 2023-3-29 17:15 | 显示全部楼层
然后就是比较重复造轮子的lit-llama项目了
因为LLaMA代码库的授权许可是GPL,这个项目通过基于nanoGPT的实现构造了一个新的Apache 2.0许可的lit-llama项目,经过这个项目转换后就可以用于商业化等措施了

项目地址:https://github.com/Lightning-AI/lit-llama


—— 来自 S1Fun

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

     
发表于 2023-3-29 17:15 | 显示全部楼层
世界在我们看不到的地方在变革!
这要怎样才能跟上时代的潮流呢?
回复

使用道具 举报

     
 楼主| 发表于 2023-3-29 17:27 | 显示全部楼层
LLaMA-Adapter项目

一看到Adapter,大部分人应该就懂了,腾讯人工智能实验室在不久前搞过一个名为T2I-Adapter的用于SD微调的附加模型,原理也来自于Adapter,通过微调附加增量参数的方法高效训练大模型的微调,并创造更多可玩性,这个项目与其是类似的,不过是用于LLM(大语言模型)方向的

可以看到相比alpaca(斯坦福LLaMA)的全量微调,使用的参数减少到了1.2M(120万参数),Lora大小也减少到了仅仅4.7M

github地址:https://github.com/ZrrSkywalker/LLaMA-Adapter


—— 来自 S1Fun

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

     
发表于 2023-3-29 17:31 | 显示全部楼层
马之,下班了研究一下
回复

使用道具 举报

     
发表于 2023-3-29 17:44 来自手机 | 显示全部楼层
mark,回头autodl租个gpu试试
回复

使用道具 举报

     
 楼主| 发表于 2023-3-29 17:44 | 显示全部楼层
本帖最后由 yesicant 于 2023-3-29 18:42 编辑

前面搬了那么多LLM与多模态相关的项目,来个不一样的

CVPR 2023论文:panic3d 单张动漫图像生成3D头部风格模型!

github地址页:https://github.com/ShuhongChen/panic3d-anime-reconstruction


通过使用两个大型新数据集(11.2k Vroid 3D 模型,1k Vtuber 肖像插图)训练出来的根据单张图片(你甚至可以用webui直接生成头像)并转换成3D立体头部模型

提供有全套流程,docker,训练代码等齐全工具和说明,可以配合生成说话动作等(B站应该经常见)

—— 来自 S1Fun

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

     
 楼主| 发表于 2023-3-29 18:01 | 显示全部楼层
Japanese-Alpaca-LoRA/日语 Alpaca Lora插件
使用日文数据集训练的Alpaca Lora,可以进行日语输出

项目说明页https://note.com/kun1emon/n/n1533345d5d26
github地址:https://github.com/kunishou/Japanese-Alpaca-LoRA


这里额外说一下,其实Alpaca微调或者Alpaca Lora微调也是可以支持中文输入与输出的,我了解的不少项目都正在做这个工作,希望能早日完成吧

—— 来自 S1Fun

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

     
发表于 2023-3-29 18:28 来自手机 | 显示全部楼层
yesicant 发表于 2023-3-29 17:44  本帖最后由 yesicant 于 2023-3-29 17:46 编辑   前面搬了那么多LLM与多模态相关的项目,来个不一样的  CVPR 2023论文:panic3d 单张动漫图像生成3D头部风格模型!  github地址页:https://github.com/ShuhongChen/panic3d-anime-reconstruction   通过使用个两大型新数据集(11.2k Vro

喔靠这个顶来自: iPhone客户端
回复

使用道具 举报

     
发表于 2023-3-29 18:32 | 显示全部楼层
坐等支持中文的免安装版,小白包
回复

使用道具 举报

     
发表于 2023-3-29 18:33 来自手机 | 显示全部楼层
模型要求也越来越亲民了
回复

使用道具 举报

     
发表于 2023-3-29 18:37 来自手机 | 显示全部楼层
百度狂喜
回复

使用道具 举报

     
发表于 2023-3-29 18:38 | 显示全部楼层
多多益善

—— 来自 S1Fun
回复

使用道具 举报

     
发表于 2023-3-29 18:41 来自手机 | 显示全部楼层
好啊非常好
回复

使用道具 举报

     
发表于 2023-3-29 18:42 来自手机 | 显示全部楼层
thegodra 发表于 2023-3-29 17:15
世界在我们看不到的地方在变革!
这要怎样才能跟上时代的潮流呢?

先买块4090

—— 来自 Xiaomi 2211133C, Android 13上的 S1Next-鹅版 v2.5.4
回复

使用道具 举报

     
发表于 2023-3-29 18:48 | 显示全部楼层
这是逼微软就范啊 不错

不过真把openai整开源了估计人类也就要寄了吧
回复

使用道具 举报

     
发表于 2023-3-29 18:51 来自手机 | 显示全部楼层
本帖最后由 mahoraga 于 2023-3-29 19:16 编辑

好啊,现在商用开源的项目也多起来了,赶紧加大力度给我干死closeai!(开玩笑的),我也看到几个,一个是databricks的dolly,还有中文的belle之类的。目前还是太依赖alpaca那套,开源上束手束脚,其实赶紧整一个基础模型跟llama五五开的,再花点小钱标一套数据出来就可以尽情开源了。我回去再把项目地址贴下
https://github.com/databrickslabs/dolly
https://github.com/LianjiaTech/BELLE
回复

使用道具 举报

     
发表于 2023-3-29 18:52 | 显示全部楼层
摩多摩多
回复

使用道具 举报

     
发表于 2023-3-29 18:57 来自手机 | 显示全部楼层
mark,回去了研究
回复

使用道具 举报

     
 楼主| 发表于 2023-3-29 19:03 | 显示全部楼层
本帖最后由 yesicant 于 2023-3-29 19:04 编辑
mahoraga 发表于 2023-3-29 18:51
好啊,现在商用开源的项目也多起来了,赶紧加大力度给我干死closeai!(开玩笑的),我也看到几个,一个是dat ...

甚至chatGLM项目本身也有相关微调项目在进行中,综合来看其实模型最重要的还是训练集,但是这方面现在有了openai主动珠玉在前,越来越好起来了,openflamingo最重要的是开源了多模态的c4数据集

https://github.com/mymusise/ChatGLM-Tuning
https://github.com/ssbuild/chatglm_finetuning

—— 来自 S1Fun
回复

使用道具 举报

     
发表于 2023-3-29 19:16 来自手机 | 显示全部楼层
本帖最后由 INDIASH 于 2023-3-29 19:17 编辑

希望有个能像linux一样和巨硬打擂台的开源AI,但是感觉这玩意最重要的还是数据
回复

使用道具 举报

     
发表于 2023-3-29 19:22 | 显示全部楼层
本帖最后由 mahoraga 于 2023-3-29 19:26 编辑
yesicant 发表于 2023-3-29 19:03
甚至chatGLM项目本身也有相关微调项目在进行中,综合来看其实模型最重要的还是训练集,但是这方面现在有 ...

我现在还是先不指望开源社区整多模态,要紧先把ChatGPT的效果追平然后开源,就可以疯狂生成凰文了

现在的几个7B~20B左右的模型说实话表面上虽然还行,但是一旦任务变得复杂,出来的效果和ChatGPT就差很远,只要把这块补上就人人有功练
lit-llama那个我觉得有希望,目前很多生态都依赖在llama上,如果lit-llama真的能对齐原版llama,那就可以直接把alpaca-lora那套迁上去,后面只要换套真正开源的数据集,就可以彻底实现开源的ChatGPT替代,好时代,来临力
回复

使用道具 举报

     
发表于 2023-3-29 19:27 | 显示全部楼层
这些模型是都可以本地部署的吗?
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|Archiver|上海互联网违法和不良信息举报中心|网上有害信息举报专区|962110 反电信诈骗|举报电话 021-62035905|stage1st 沪ICP备13020230号-1 沪公网安备 31010702007642号

GMT+8, 2024-5-4 19:12 , Processed in 0.051189 second(s), 6 queries , Gzip On, Redis On.

Powered by Discuz! X3.4

© 2001-2017 Comsenz Inc.

快速回复 返回顶部 返回列表