《自然》同期发表同行专家“新闻与观点”文章指出,NLLB团队研发的这个工具,可以帮助很少被翻译的那些语言的使用者,让他们能使用互联网和其他技术。
言承旭图片中新网北京6月8日电 (记者 孙自法)国际著名学术期刊《自然》最新一篇人工智能(AI)研究论文称,研究人员开发出一个Meta人工智能模型的底层技术,该模型能翻译200种不同语言,增加了能用机器翻译的语言数量。
该论文介绍,神经机器翻译模型利用人工神经网络翻译各种语言,这些模型通常需要大量可在线获取的数据加以训练,但并非所有语言数据都公开、低成本或是普遍可及,此类语言被称为“低资源语言”。而增加模型在翻译语言数量上的语言输出可能会影响模型的翻译质量。
为此,本篇论文作者、“不落下任何语言”(No Language Left Behind,NLLB)团队开发出一种跨语言技术,能让神经机器翻译模型学习如何利用翻译高资源语言的预存能力来翻译低资源语言。作为成果,NLLB团队开发了一个在线多语言翻译工具,名为NLLB-200,该工具能容纳200种语言,其低资源语言数量是高资源语言的三倍,翻译表现比已有系统高了44%。
196.51MB
查看303.50MB
查看80.7MB
查看467.68MB
查看474.85MB
查看680.51MB
查看941.59MB
查看296.91MB
查看714.67MB
查看739.77MB
查看576.71MB
查看411.30MB
查看309.50MB
查看610.90MB
查看910.42MB
查看763.90MB
查看686.10MB
查看696.61MB
查看627.93MB
查看424.99MB
查看538.70MB
查看643.19MB
查看842.72MB
查看981.31MB
查看139.74MB
查看610.56MB
查看891.23MB
查看681.95MB
查看996.64MB
查看839.97MB
查看907.83MB
查看848.99MB
查看320.34MB
查看829.63MB
查看724.90MB
查看480.48MB
查看966.52MB
查看765.74MB
查看167.26MB
查看877.73MB
查看623.76MB
查看514.44MB
查看688.49MB
查看979.90MB
查看481.17MB
查看788.60MB
查看110.72MB
查看140.77MB
查看170.63MB
查看794.37MB
查看347.85MB
查看845.59MB
查看933.96MB
查看424.76MB
查看959.11MB
查看767.99MB
查看248.74MB
查看421.50MB
查看614.24MB
查看781.96MB
查看628.60MB
查看427.52MB
查看419.66MB
查看718.65MB
查看724.67MB
查看860.54MB
查看158.56MB
查看612.21MB
查看523.58MB
查看983.77MB
查看728.66MB
查看893.60MB
查看279.38MB
查看155.61MB
查看722.69MB
查看557.28MB
查看755.16MB
查看311.94MB
查看982.81MB
查看573.46MB
查看809.16MB
查看230.62MB
查看554.48MB
查看611.36MB
查看167.34MB
查看567.23MB
查看525.93MB
查看931.58MB
查看539.32MB
查看417.38MB
查看385.86MB
查看183.96MB
查看941.58MB
查看248.48MB
查看369.15MB
查看867.84MB
查看371.13MB
查看868.33MB
查看683.96MB
查看863.33MB
查看847.16MB
查看344.73MB
查看687.80MB
查看665.99MB
查看
532 舟山cu
王震:构建“1+2+1”现代产业体系,加速数字化发展🌇
2025-07-02 09:38:45 推荐
267 188****8124
卢岚:AI赋能 共建共治共享清朗网络空间🌋
2025-06-30 20:15:13 不推荐
820 152****9720
2023智能视听大会在青岛举行🌏
2025-06-30 0-1:43:47 推荐
85 漂亮公主装束
第33届中国新闻奖评选结果公示🌒
2025-06-30 20:57:33 推荐