• 网站首页
  • 国内
  • 国际
  • 原创
  • 社会
  • 财经
  • 体育
  • 法治
  • 科技
  • 资讯
  • 用AI生成数据训练AI或导致模型崩溃

    发布时间: 2024-07-26 09:19首页:主页 > 国际 > 阅读()


     
    用AI生成数据训练AI或导致模型崩溃  
    原始内容九次迭代后成了“胡言乱语”  

     

    科技日报北京7月25日电 (记者张梦然)《自然》24日正式发表的一篇研究论文指出了一个人工智能(AI)严重问题:用AI生成的数据集训练未来几代机器学习模型,可能会严重“污染”它们的输出,这被称为“模型崩溃”。研究显示,原始内容会在9次迭代以后,变成不相关的“胡言乱语”(演示中一个建筑文本最终变成了野兔的名字),这凸显出使用可靠数据训练AI模型的重要性。

    生成式AI工具越来越受欢迎,如大语言模型等,这类工具主要用人类生成的输入进行训练。不过,随着这些AI模型在互联网不断壮大,计算机生成内容可能会以递归循环的形式被用于训练其他AI模型或其自身。

    包括英国牛津大学在内的联合团队一直在进行相关研究,并在去年论文预印本中提出这一概念。在正式发表的论文中,他们用数学模型演示了AI可能会出现的“模型崩溃”。他们证明了一个AI会忽略训练数据中的某些输出(如不太常见的文本),导致其只用一部分数据集来自我训练。

    团队分析了AI模型会如何处理主要由AI生成的数据集。他们发现,给模型输入AI生成的数据,会减弱今后几代模型的学习能力,最终导致了“模型崩溃”。他们测试的几乎所有递归训练语言模型,都容易出现问题。比如,一个用中世纪建筑文本作为原始输入的测试,到第9代的输出已经是一串野兔的名字。

    团队指出,用前几代生成的数据集去训练AI,崩溃是一个不可避免的结局。他们认为,必须对数据进行严格过滤。与此同时,这也意味着依赖人类生成内容的AI模型,或许能训练出更高效的AI模型。

     

    特别声明:本文转载仅仅是出于传播信息的需要,并不意味着代表本网站观点或证实其内容的真实性;如其他媒体、网站或个人从本网站转载使用,须保留本网站注明的“来源”,并自负版权等法律责任;作者如果不希望被转载或者联系转载稿费等事宜,请与我们接洽。

    特别声明:文章内容仅供参考,不造成任何投资建议。投资者据此操作,风险自担。

    网站首页 - 国内 - 国际 - 原创 - 社会 - 财经 - 体育 - 法治 - 科技 - 资讯

    本站不良内容举报联系客服QQ:413458777 官方微信: 服务热线:

    未经本站书面特别授权,请勿转载或建立镜像

    新闻起源和新闻来源 新闻的起源与发展 新闻的起源和本源 新闻的起源和定义 新闻的起源与历史 新闻的起源和本质 新闻活动的起源 简述新闻起源 最早的新闻起源 新闻的起源两种观点