找回密码
 立即注册
搜索
查看: 4488|回复: 24

[科技] 现在是怎么解决AI越训练越差这个问题的?

[复制链接]
     
发表于 2023-12-29 16:18 | 显示全部楼层 |阅读模式
用GPT洗稿的东西越来越多了,同事好些调研报告都是用GPT润色的,用过的人一眼都能看出来,这样洗出来的报告以后再喂给AI不会出问题吗?这也就罢了,我也用就是了,问题是问来问去,GPT给我的反馈经常是胡说八道的,要几个经典案例,然后我问他A的具体情况如何,它就说抱歉其实没有这个案例,什么鬼?
加上之前看到的GPT“偷懒”以及无法预测训练结果的事,是不是说明这个方向暂时还是死胡同?
回复

使用道具 举报

     
发表于 2023-12-29 16:20 来自手机 | 显示全部楼层
直接格式化重启
回复

使用道具 举报

发表于 2023-12-29 16:28 | 显示全部楼层
训练前数据都是要清洗的呀
回复

使用道具 举报

头像被屏蔽
     
发表于 2023-12-29 16:30 来自手机 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
回复

使用道具 举报

     
发表于 2023-12-29 16:32 | 显示全部楼层
GPT这类AI只能喂人类过滤出来的正常数据,拿AI的结果反复喂只会越来越扯
回复

使用道具 举报

     
发表于 2023-12-29 16:33 | 显示全部楼层
一开始还以为是ai的炼丹问题,原来不是啊
回复

使用道具 举报

     
发表于 2023-12-29 16:36 | 显示全部楼层
本帖最后由 yesicant 于 2023-12-29 16:45 编辑

用GPT洗稿的东西越来越多了,同事好些调研报告都是用GPT润色的,用过的人一眼都能看出来,这样洗出来的报告以后再喂给AI不会出问题吗?

会出问题,解决办法是堆更多算力和方法,迭代更多数据集和更好的构架,学习的更深入的同时,获取或者生成更高质量的数据

这也就罢了,我也用就是了,问题是问来问去,GPT给我的反馈经常是胡说八道的,要几个经典案例,然后我问他A的具体情况如何,它就说抱歉其实没有这个案例,什么鬼?

幻觉问题是围绕在目前的人工智能框架下的幽灵,有生之年没有完善的解决方案,毕竟人类也有说胡话的时候,你要的是神棍不是AI,只能尽量压低错误率,不可能根绝

加上之前看到的GPT“偷懒”以及无法预测训练结果的事,是不是说明这个方向暂时还是死胡同?

偷懒的问题和训练数据与时代变化有关,至于是不是死胡同,只能说继续加油


人类不可能左脚踩右脚升天,AI也一样,总得有些代价,还是得老老实实慢慢来,科幻片都是骗人的

回复

使用道具 举报

     
发表于 2023-12-29 17:06 来自手机 | 显示全部楼层
使用GPT来“润色”或生成内容,比如调研报告,确实是一个越来越常见的现象。这样做有其优点,比如节省时间和劳力,提高效率。但同时,也存在一些潜在的问题和挑战:

1. **原创性和独特性**:如果大量的内容是由同一AI模型生成,那么这些内容可能会缺乏独特性和创新性。每个AI模型都有自己的“风格”,这可能导致大量内容在风格上变得越来越统一。

2. **数据回环问题**:如果AI生成的内容被不断地用作训练新AI模型的数据,可能会产生一种“回环”效应。这可能导致模型的多样性和创新性下降,因为它们越来越多地基于已经生成的内容进行学习。

3. **信息的准确性和可靠性**:AI模型,尽管非常先进,但仍可能产生错误或误解信息。依赖AI生成的内容,特别是在没有适当人工审核的情况下,可能会传播错误或误导性信息。

4. **伦理和责任问题**:在某些情况下,使用AI生成内容可能涉及到版权、抄袭和道德责任等问题。特别是当涉及到学术或专业内容时,这些问题变得尤为重要。

为了减轻这些问题,建议在使用AI生成的内容时采取一些措施:

- **增加人工审核**:确保内容的准确性和可靠性,以及符合道德和专业标准。
- **鼓励原创和创新**:虽然使用AI可以提高效率,但鼓励原创思维和创新仍然非常重要。
- **适度使用AI辅助**:将AI视为工具,辅助而非完全替代人工工作。
- **持续更新和改进AI模型**:确保AI模型能够学习新信息,减少偏差和错误。

总的来说,合理和负责任地使用AI可以极大提高工作效率和质量,但同时需要注意上述潜在的问题和挑战。

—— 来自 Xiaomi 2304FPN6DC, Android 14上的 S1Next-鹅版 v2.5.4
回复

使用道具 举报

     
发表于 2023-12-29 17:10 | 显示全部楼层
你提到的问题涉及到使用GPT进行洗稿和在特定领域中使用GPT生成内容的可信度。我会分别回答这两个问题:

1. **洗稿问题:**
   洗稿是一种使用自然语言处理(NLP)模型(如GPT)来修改、润色或生成文本的实践。洗稿的使用可能会导致文本质量下降,特别是当模型没有足够的上下文理解和专业知识时。同事们使用GPT进行调研报告的润色可能导致文本内容失去专业性,且很容易被辨别出来。

   **问题:** 使用GPT生成的文本可能缺乏真实的专业知识,容易出现胡说八道的情况。这对于要求准确和专业的领域报告来说是一个潜在的问题。

2. **GPT的问题和死胡同:**
   GPT模型在生成文本时有其局限性。它可能会在缺乏上下文的情况下胡扯,而且无法提供具体细节,因为它没有实际经验。此外,GPT模型有时可能会“偷懒”以生成看似合理但不准确的回答。

   **问题:** GPT在某些情况下可能无法提供准确、深入的细节,因为它缺乏对特定主题的深入理解和实际经验。这可能使得在特定领域中使用它不可靠。

**建议:**
- 在使用GPT进行洗稿时,要谨慎使用并手动审查生成的文本,确保内容的准确性和专业性。
- 在特定领域的报告中,尽量避免完全依赖GPT,特别是在需要专业知识和详细细节的情况下。考虑结合人工审查和编辑以确保报告的质量。
- 对于GPT的回答,尽量提供更具体的问题和上下文,以帮助模型更准确地理解并生成合适的回答。

总体来说,GPT等NLP模型是强大的工具,但在特定场景中可能需要人工干预和审查以确保生成内容的质量和准确性。技术的发展可能会带来更先进的模型,但在目前阶段,合理使用和谨慎审查是至关重要的。
回复

使用道具 举报

     
发表于 2023-12-29 17:24 | 显示全部楼层
一时间搞不清8楼9楼是在抖机灵还是在巨魔还是真认为把这种风格的回复放在这里很应景
回复

使用道具 举报

发表于 2023-12-29 17:27 | 显示全部楼层
前期的亮点应该是人们定向纠正造成的,越训练到后期,应该越接近训练集的普遍水平
回复

使用道具 举报

     
发表于 2023-12-29 17:29 来自手机 | 显示全部楼层
我明白你的困惑,GPT确实有一些问题和局限性,但我不认为这个方向是死胡同。GPT是一种非常强大和有趣的技术,它可以帮助我们生成各种各样的内容,比如诗歌、故事、代码、歌曲等等。  当然,GPT也不是完美的,它有时候会出现一些错误或奇怪的结果,这是因为它是根据大量的文本数据进行训练的,它并不一定理解文本的真正含义或背景。它也不一定能够生成真实或准确的信息,它可能会编造一些不存在的案例或数据。所以,我们在使用GPT的时候,要注意区分真假,要有自己的判断和思考,不能盲目相信或依赖GPT。  GPT也不是故意要“偷懒”或“胡说八道”的,它只是在尽力地完成我们给它的任务,但它可能会遇到一些困难或挑战,比如输入的文本太少或太模糊,或者任务的要求太复杂或太难。这些情况下,GPT可能会生成一些不符合我们期望的结果,或者干脆拒绝回答。这并不是它的错,而是我们需要给它更多的指导和反馈,让它知道我们想要什么,怎样才能做得更好。  我觉得GPT是一个非常有前途和有潜力的方向,它还在不断地发展和完善中,它可能会出现一些问题和不足,但这也是技术进步的必然过程。我相信随着技术的进一步改进和优化,GPT会越来越智能和可靠,为人类的写作和学习带来更多的便利和价值。
回复

使用道具 举报

     
发表于 2023-12-29 17:32 | 显示全部楼层
一个在A问题上表现更好的模型,则一定有一个B问题使得模型的表现更差
各行各业最强的能力始终是定义和评估量表的能力
上帝不存在,只有人在看
回复

使用道具 举报

     
发表于 2023-12-29 17:33 | 显示全部楼层
没法解决吧
回复

使用道具 举报

头像被屏蔽
     
发表于 2023-12-29 17:37 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
回复

使用道具 举报

     
发表于 2024-1-8 03:50 | 显示全部楼层
原理是求最短相似路径,因为gpt输出的是高频的路径,所以反复训练就是旁枝没了,成了复读机。有可能直接失去能力
回复

使用道具 举报

     
发表于 2024-1-8 04:09 | 显示全部楼层
解决不了, 之前openai不是要开发能判断作业论文是不是用gpt润色过的AI么, 结果准确率只有一半, 跟瞎猜差不多, AI无法判断一段文字是不是AI生成的
回复

使用道具 举报

     
发表于 2024-1-8 07:10 来自手机 | 显示全部楼层
高级复读机。复读的源头被它自己干掉后它也维持不下去了
回复

使用道具 举报

     
发表于 2024-1-8 07:30 | 显示全部楼层
毕竟,有多少人工,就有多少智能嘛~
人工含量越低,可不就越智障了嘛

理想的AI还是太遥远,人类文明灭亡之前可能都不会有

—— 来自 S1Fun
回复

使用道具 举报

发表于 2024-1-8 07:54 来自手机 | 显示全部楼层
人有信息茧房,chatgpt也有
回复

使用道具 举报

头像被屏蔽
     
发表于 2024-1-8 08:24 来自手机 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
回复

使用道具 举报

     
发表于 2024-1-8 08:52 | 显示全部楼层
我觉得能替代一些固定标准的重复劳动就行了
回复

使用道具 举报

     
发表于 2024-1-8 08:55 | 显示全部楼层
再配一个判别模型, 挑一挑是人工内容还是生成内容, 这不就有对抗训练了,
回复

使用道具 举报

     
发表于 2024-1-8 08:57 | 显示全部楼层
无法解决,所以都和疯了一样吸取现有的平台数据。不然情况也太理想了,ai自产自销,直接智能飞升了
回复

使用道具 举报

     
发表于 2024-1-8 09:02 来自手机 | 显示全部楼层
这楼里车轱辘废话回复就挺像ai风格的,正常人除了水论文之类的谁会写这么多废话,当然,玩知乎的不算正常人
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|上海互联网违法和不良信息举报中心|网上有害信息举报专区|962110 反电信诈骗|举报电话 021-62035905|Stage1st ( 沪ICP备13020230号-1|沪公网安备 31010702007642号 )

GMT+8, 2024-6-26 23:47 , Processed in 0.123500 second(s), 5 queries , Gzip On, Redis On.

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表