套娃不可取:研究人员证实用 AI 生成的结果训练 AI 将导致模型退化乃至崩溃

套娃不可取:研究人员证实用 AI 生成的结果训练 AI 将导致模型退化乃至崩溃

人工智能 2023-06-16 13:10:01 1年以前

IT酷哥 6 月 14 日消息,IT酷哥的小伙伴们可能都有设想过,如果用 AI 生成的结果来训练 AI,进行“套娃式训练”,能得到什么样的结果?目前还真有研究团队对此进行了观察记录,详细论文及得出的结果发表在了 arXiv 上。

一句话总结 —— “在训练中使用模型生成的内容,将导致后续生成的模型出现不可逆转的缺陷”,说人话就是研究人员发现“用 AI 生成的结果训练 AI,只会让模型变得越来越差”。

▲ 图源 arXiv

据悉,研究人员专门研究了 AI 生成模型的概率分布,主要围绕“文本到文本”和“图像到图像”展开,最终得出结论:“由于每个模型生成的结果都具有一定的特点,因此用 AI 生成的模型训练 AI,随着时间的推移,后者会忘记真正的底层数据分布。”

▲ 图源 arXiv

论文的主要作者之一 Ilia Shumailov 同时表示“随着时间的推移,生成数据中的错误(IT酷哥注:例如虚假举例)会迫使 AI 进一步错误地感知现实,我们惊讶地观察到模型崩溃发生的速度相当快,模型可以迅速忘记他们最初从中学习的大部分原始数据。”

但小伙伴们可能会有所疑问,如果将 AI 生成的结果经过人工润色后再投入模型训练,是否可以避免模型“退化”?

答案是否定的,研究人员发现“模型退化过程是不可避免的”,因此即使对于“经过润色后理想化的 AI 输出内容”,模型在长期学习后,也会出现一定的退化现象。

对于任何大模型而言,由于其学习数据过多,它们都将不可避免地接触到其他 AI 生成的数据,因此研究人员表示“应当引入 AI 鉴定来挑出可能存在错误的学习数据”以提升模型的学习能力与准确性。

文章版权声明:除非注明,否则均为网络转载文章,转载或复制请以超链接形式并注明出处。

相关阅读

  • OpenAI CEO 阿尔特曼称中国拥有世界上最优秀的 AI 人才,呼吁中美合作以应对风险
  • OpenAI CEO 阿尔特曼到访日本,对全球 AI 协调合作表示“非常乐观”
  • AMD:Meta 正采用其云芯片支持新人工智能战略
  • Stack Overflow 发布 2023 年度报告:JavaScript 位列榜首,83% 的人用过 ChatGPT
  • 当一个网站的内容被 AI 完全接管
  • 普通人也能成为音频剪辑师,Meta 推出 AI 模型 Voicebox
  • AI 朗读冲击有声读物市场,配音演员工作面临威胁
  • 宜家发布由 AI 设计的下一代沙发:轻便、扁平、模块化,采用 100% 可回收材料
  • 长虹电视 AI 大模型“长虹超脑”发布:三大核心能力,可连续自然对话
  • 语音生成 AI 初创公司 ElevenLabs 发布合成语音检测工具,号称准确率超过 99%
  • 波音宣布与日本航空合作,用 AI 排查 787 梦想客机零件老化和故障迹象
  • AI 入局世界网球温布顿锦标赛,可分析赢球概率及生成球评
  • 开源模型 PrivateGPT 上线,可本地搭建、避免信息外泄
  • 中国联通发布鸿湖图文 AI 大模型 1.0,可实现以文生图、视频剪辑
  • iOS 版 ChatGPT 集成必应搜索功能,仅限付费订阅者使用
  • 人工智能深度调查:用过 AI 工具的人并没想象的那么多
  • 特斯拉人形机器人将于 7 月亮相上海 2023 世界人工智能大会
  • Meta 将提高 AI 算法应用透明度,向用户提供详细说明和更多选择
  • 正版文心一言上架 App Store,百度此前起诉苹果“盗版 App 泛滥”
  • 多家欧洲企业签署公开信,批评欧盟 AI 法案草案限制产业发展
  • 最新资讯

    热门资讯