日前有消息显示,字节跳动火山翻译团队宣布推出 LightSeq 训练加速引擎,并将其向全球开发者开源。据火山翻译团队负责人介绍,LightSeq 训练加速引擎具有功能全面、简单易用的特点,并提供了丰富的二次开发工具,通过插入自定义层或修改命令行参数等方式,用户即可在各种流行训练库上轻松使用。
据悉,Transformer 是自然语言处理、计算机视觉等 AI 技术领域最常用的基础模型,被广泛应用在机器翻译、文本生成、文本摘要、图像处理、时间序列预测等任务中。而字节跳动火山翻译团队推出的 LightSeq 训练加速引擎则能够支持 Transformer 的完整加速,从词嵌入层、编码层、解码层,到最后的损失函数层,业内首次实现了全流程支持,并且 LightSeq 的训练速度更快,相比主流的序列生成库,LightSeq 最快只需要三分之一的时间就能完成训练。
目前,字节跳动方面已经开源了机器学习平台 Klever、联邦学习平台 Fedlearner、高性能分布式训练框架 BytePS 等项目。对此,字节跳动相关负责人称," 开源是推动科技进步的重要力量,我们受益于开源,更需要为开源社区做出贡献。字节跳动把 LightSeq 系列项目开源,与各界共享技术成果,希望能帮助广大科研人员节约时间成本,为学术界和产业界激发创造力提供有力支持。"