互联互通社区,专注于IT互联网交流与学习,致力于打造最具价值的IT互联网智库中心。

鹏程·盘古:大规模自回归中文预训练语言模型及应用  

发布时间:2023-07-30 20:12:55.0
导读: 在鹏城云脑Ⅱ上训练了全球首个拥有全开源2000亿参数的自回归中文预训练语言大模型——鹏程·盘古。鹏程·盘古模型基于1.1TB高质量中文训练数据,采用全场景人工智能计算框架MindSpore自动并行技术实现了五维并行训练策略,从而可将训练任务高效扩展到4096个处理器上。对比实验表明,在少样本或零样本情况下,鹏程·盘古模型在多个中文自然语言理解或生成任务上都具有较优的性能。在此基础上,鹏程·盘古模型在大模型压缩、提示微调学习、多任务学习以及持续学习等方面也取得了很好的应用效果。
下载付件
温馨提示:本平台所有资料与知识星球平台同步发出,用户可根据需要选择平台加入,无需重复加入。

#免责声明#

来源: 鹏城实验室等,互联互通社区推荐阅读,版权归作者所有。文章内容仅代表作者独立观点,不代表互联互通社区立场,转载目的在于传递更多信息。如涉及作品版权问题,请联系我们删除或做相关处理!
推荐报告