作者:临在、岑鸣、熊兮
随着 bert、megatron、gpt-3 等预训练模型在nlp领域取得瞩目的成果,越来越多团队投身到超大规模训练中,这使得训练模型的规模从亿级别发展到了千亿甚至万亿的规模。然而,这类超大规模的模型运用于实际场景中仍然有一些挑战。首先,模型参数量过大使得训练和推理速度过慢且部署成本极高;其次在很多实际场景中数据量不足的问题仍然制约着大模型在小样本场景中的应用,提高预训练模型在小样本场景的泛化性依然存在挑战。为了应对以上问题,pai 团队推出了 easynlp 中文 nlp 算法框架,助力大模型快速且高效的落地。
easynlp 背后的技术框架如何设计?未来有哪些规划?今天一起来深入了解。
(相关资料图)
easynlp 是 pai 算法团队基于 pytorch 开发的易用且丰富的中文nlp算法框架,支持常用的中文预训练模型和大模型落地技术,并且提供了从训练到部署的一站式 nlp 开发体验。easynlp 提供了简洁的接口供用户开发 nlp 模型,包括nlp应用 appzoo 和预训练 modelzoo,同时提供技术帮助用户高效的落地超大预训练模型到业务。除此之外 easynlp 框架借助 pai 团队在通信优化、资源调度方面的深厚积累,可以为用户提供大规模、鲁棒的训练能力,同时可以无缝对接 pai 系列产品,例如 pai-dlc、pai-dsw、pai-designer 和 pai-eas,给用户带来高效的从训练到落地的完整体验。
easynlp 已经在阿里巴巴内部支持 10 多个 bu 的业务,同时在阿里云上提供了 nlp ag真人官方网的解决方案和 modelhub 模型帮助用户解决业务问题,也提供用户自定义模型服务方便用户打造自研模型。在经过内部业务打磨之后,我们将easynlp 推向开源社区,希望能够服务更多的 nlp 算法开发者和研究者,也希望和社区一起推动 nlp 技术特别是中文 nlp 的快速发展和业务落地。
开源项目地址:github - alibaba/easynlp: easynlp: a comprehensive and easy-to-use nlp toolkit
easynlp is a comprehensive and easy-to-use nlp toolkit
easynlp 主要特性如下:
易用且兼容开源:easynlp 支持常用的中文 nlp 数据和模型,方便用户评测中文 nlp 技术。除了提供易用简洁的 pai 命令形式对前沿nlp算法进行调用以外,easynlp 还抽象了一定的自定义模块如 appzoo 和 modelzoo,降低nlp 应用的门槛,同时 modelzoo 里面常见的预训练模型和 pai 自研的模型,包括知识预训练模型等。easynlp 可以无缝接入 huggingface/ transformers 的模型,也兼容 easytransfer 模型,并且可以借助框架自带的分布式训练框架(基于torch-accelerator)提升训练效率。
大模型小样本落地技术:easynlp 框架集成了多种经典的小样本学习算法,例如 pet、p-tuning 等,实现基于大模型的小样本数据调优,从而解决大模型与小训练集不相匹配的问题。此外,pai 团队结合经典小样本学习算法和对比学习的思路,提出了一种不增添任何新的参数与任何人工设置模版与标签词的方案 contrastive prompt tuning,在 fewclue 小样本学习榜单取得第一名,相比 finetune 有超过 10% 的提升。
大模型知识蒸馏技术:鉴于大模型参数大难以落地的问题,easynlp 提供知识蒸馏功能帮助蒸馏大模型从而得到高效的小模型来满足线上部署服务的需求。同时 easynlp 提供 metakd 算法,支持元知识蒸馏,提升学生模型的效果,在很多领域上甚至可以跟教师模型的效果持平。同时,easynlp 支持数据增强,通过预训练模型来增强目标领域的数据,可以有效的提升知识蒸馏的效果。
关键词: