AI或在四年内耗尽训练数据,开发人员需寻找变通之道

来源:爱集微 #AI# #训练数据#
5063

得益于神经网络规模的扩大以及海量数据的训练,人工智能(AI)近年来取得突飞猛进的发展,包括“做大做强”的策略在构建大型语言模型(LLM)上取得了显著成果,ChatGPT就是一个典型例子。

然而,《自然》《麻省理工科技评论》等多家杂志网站指出,AI扩展正逼近极限。一方面,AI“吞噬”着越来越多的能源;另一方面,滋养无数模型成长的传统数据集,正被LLM开发人员过度开垦。

训练数据即将遭遇的瓶颈已悄然浮现。有研究机构预测,到2028年左右,用于训练AI模型的数据集典型规模将达到公共在线文本总估计量的规模。换句话说,AI可能会在大约4年内耗尽训练数据。与此同时,数据所有者(如报纸出版商)开始打击对其内容的滥用行为,进一步收紧了访问权限,这将引发“数据共享”规模上的危机。

为此,开发人员必须寻找变通之道,其中包括收集非公开数据,选择使用自有数据训练AI模型,专注于快速增长的专业数据集,以及“制造”数据和开发更专更精的小模型等,但这些方法还有待进一步印证。

当前,LLM可能已饱览互联网大部分内容,或许无需更多数据即可变得更智能。美国斯坦福大学一项研究表明,模型从多次读取给定数据集中学到的内容,与从相同数量的唯一数据中学习到的内容一样丰富。

合成数据、专门数据集、多次读取和自我反思等因素的结合,或将共同推动AI的进一步飞跃。

责编: 张轶群
来源:爱集微 #AI# #训练数据#
THE END

*此内容为集微网原创,著作权归集微网所有,爱集微,爱原创

关闭
加载

PDF 加载中...