• 网站首页
  • 国内
  • 国际
  • 原创
  • 社会
  • 财经
  • 体育
  • 法治
  • 科技
  • 资讯
  • 当心!AI生成数据模型会崩溃

    发布时间: 2024-07-30 16:18首页:主页 > 国际 > 阅读()


     
    当心!AI生成数据模型会崩溃  
     

     

    英国科学家研究表示,用AI生成的数据集训练未来几代机器学习模型可能会污染它们的输出,这个概念称为“模型崩溃”(model collapse)。该研究显示,原始内容会在数代内变成不相关的胡言乱语,显示出使用可靠数据训练AI模型的重要性。相关研究7月24日发表于《自然》。

    生成式AI工具越来越受欢迎,如大语言模型(LLM)等,这类工具主要用人类生成的输入进行训练。不过,随着这些AI模型在互联网不断壮大,计算机生成内容可能会以递归循环的形式被用于训练其他AI模型或其自身。

    牛津大学的Ilia Shumailov和同事用数学模型演示了AI模型可能会如何出现模型崩溃。研究证明一个AI可能会忽略训练数据中的某些输出(如不太常见的文本),导致其只用一部分数据集来自我训练。Shumailov和同事还研究了AI模型会如何应对主要用人工智能生成的训练数据集。

    他们发现,给模型输入AI生成的数据会减弱今后几代模型的学习能力,最终导致模型崩溃。他们测试的几乎所有递归训练语言模型都容易出现重复短语。比如,一个用中世纪建筑文本作为原始输入的测试到第九代的输出已经是一串野兔的名字。

    研究者表示,对于使用前几代生成的训练数据集的AI模型来说,模型崩溃的一个不可避免的结局。为了让人工智能成功使用其自身输出进行训练,Shumailov和同事认为用AI生成数据训练一个模型并非不可能,但必须对数据进行严格过滤。与此同时,依赖人类生成内容的科技公司或许能比竞争对手训练出更高效的AI模型。

    相关论文信息:

    https://doi.org/10.1038/s41586-024-07566-y

     

    版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。

    特别声明:文章内容仅供参考,不造成任何投资建议。投资者据此操作,风险自担。
    广告
    广告

    网站首页 - 国内 - 国际 - 原创 - 社会 - 财经 - 体育 - 法治 - 科技 - 资讯

    本站不良内容举报联系客服QQ:413458777 官方微信: 服务热线:

    未经本站书面特别授权,请勿转载或建立镜像

    新闻起源和新闻来源 新闻的起源与发展 新闻的起源和本源 新闻的起源和定义 新闻的起源与历史 新闻的起源和本质 新闻活动的起源 简述新闻起源 最早的新闻起源 新闻的起源两种观点