您好,欢迎访问一九零五行业门户网

AI文本翻译系统质量提升44%,利用超500亿参数翻译200种语言

meta platforms今天开放了nllb-200的系统代码,nllb-200是meta内部开发的一个人工智能系统,可以翻译200种语言的文本。
meta还公布了一套工具,旨在帮助研究人员更轻松地将nllb-200应用于软件项目。
根据meta的说法,nllb-200可以理解的200种语言中,许多语言都没有得到其他ai翻译系统的良好支持。目前被广泛使用的翻译工具支持的非洲语言不到25种,而nllb-200 支持多达55种非洲语言。
meta表示,翻译准确性是nllb-200优于其他工具的另一个方面。meta采用的是bleu评估系统的准确性标准,bleu是一种用于衡量机器翻译文本质量的算法。meta称,nllb-200的bleu评分比之前平均高出44%。
meta首席执行官mark zuckerberg表示:“我们刚刚开源了一个自主开发的ai模型,该模型可以翻译200种不同的语言——其中许多语言未得到当前翻译系统的支持。我们把这个项目称之为no language left behind,我们使用的人工智能建模技术正在为全球数十亿人所使用的语言进行高质量的翻译。”
nllb-200有超过500亿个参数,这些配置决定了ai系统处理数据的方式。人工智能系统参数越多,准确性就越高。
nllb-200具有如此大量的参数,并不是它能够以高精度支持200种语言的唯一因素,因为nllb-200系统还借鉴了meta工程师开发的很多其他ai创新。
meta使用内部开发的laser工具包为机器学习相关研究提供支持。研究人员使用该工具包可以对神经网络进行训练,以一种语言执行某个特定的任务,然后相对轻松地使神经网络适应其他语言,这对于翻译这一用途来说是很有用处的。meta开发了新的nllb-200系统,支持改进版laser——laser3。
laser的原始版本包括一个名为lstm的神经网络,这是一个将文本转换为ai系统可以理解的、以数学方式表示的专用组件。这种数学表示有助于生成更准确的翻译结果。在laser3中,meta用transformer代替了lstm神经网络,前者是一种高级自然语言处理模型,可以更有效地执行相同的任务。
meta还使用了其他几种方法来改进nllb-200的功能,例如meta升级了用于收集训练数据的系统,并对ai训练工作流程进行了更改。
meta使用内部开发的research supercluster超级计算机(如图)来训练nllb-200。今年1月meta首次介绍research supercluster的时候称,该系统配备了6080个nvidia最新的a100数据中心gpu,最终将升级到配置16000个gpu。
meta计划使用nllb-200在facebook、instagram和其他平台上提供更好的自动翻译功能,预计该系统每天将支持超过250亿次翻译。
meta在内部努力推广nllb-200的同时,还计划帮助其他企业组织将该系统应用到他们自己的软件项目中。
除了nllb-200之外,meta还开源了可用于训练ai的代码,以及一个名为flores-200的数据集,用于评估翻译的准确性。meta将提供高达200000美元的资金,以帮助非营利组织采用nllb-200。除此之外,meta还将与wikimedia foundation展开合作,将自动翻译技术应用于维基百科文章。
以上就是ai文本翻译系统质量提升44%,利用超500亿参数翻译200种语言的详细内容。
其它类似信息

推荐信息