预训练模型真的越大越好吗?听听他们怎么说

2022 年 4 月 1 日 PaperWeekly


04.09

  WorkShop

昇思MindSpore


超大规模AI正成为下一代人工智能的突破口,也是迈向通用人工智能最有潜力的技术方向。产业界和学术界都看到了这种新型范式的潜力,并纷纷入局。


打造大模型需要人工智能算力、网络、框架等一系列条件形成有效支撑,才能让大模型真正“大”起来。大模型能够持续发展的前提,是必须打造强壮的AI根技术,在框架、算力等层面满足大模型的“建造”需求。


2021年昇思MindSpore构建了自动并行、图算融合及自动内存复用等关键技术能力,并联合知名高校及科研院所协同创新,发布鹏程.盘古NLP大模型、中科院紫东.太初业界首个图文音三模态大模型、鹏程.神农蛋白质大模型、武汉.Luojia遥感大模型等。可以说,昇思MindSpore框架对大模型支持的能力是业界首屈一指的。


2022年4月9日(下周六)


昇思MindSpore社区携手知名媒体PaperWeekly发起首场【昇思MindSpore技术论坛·AI大模型专题】线上交流会。


届时来自中科院、武汉大学、北京大学等院校专家,以及昇思MindSpore技术专家共论AI大模型对科研及产业所带来的新的技术突破及价值。




活动时间


2022年4月9日

9:20


活动方式


线上直播

(活动全程免费)


报名方式


(1)扫描下方二维码即可报名

(2)点击“阅读原文”直接报名


(报名后,添加活动交流群获取直播链接)


     



 · End · 




MindSpore官方资料

官方QQ群 : 486831414

官网https://www.mindspore.cn/

Gitee : https : //gitee.com/mindspore/mindspore

GitHub : https://github.com/mindspore-ai/mindspore

论坛:https://bbs.huaweicloud.com/forum/forum-1076-1.html



锁定4月9号! 

下周六喔!



登录查看更多
1

相关内容

大模型是基于海量多源数据打造的预训练模型,是对原有算法模型的技术升级和产品迭代,用户可通过开源或开放API/工具等形式进行模型零样本/小样本数据学习,以实现更优的识别、理解、决策、生成效果和更低成本的开发部署方案。
如何用latext画神经网络?这个PlotNeuralNet能帮到你
专知会员服务
25+阅读 · 2022年1月15日
ICCV 2021最佳论文出炉!微软Swin Transformer摘得马尔奖
专知会员服务
29+阅读 · 2021年10月13日
专知会员服务
81+阅读 · 2021年6月20日
小米在预训练模型的探索与优化
专知会员服务
18+阅读 · 2020年12月31日
一图搞定ML!2020版机器学习技术路线图,35页ppt
专知会员服务
92+阅读 · 2020年7月28日
【高能所】如何做好⼀份学术报告& 简单介绍LaTeX 的使用
【微众银行】联邦学习白皮书_v2.0,48页pdf,
专知会员服务
163+阅读 · 2020年4月26日
模型压缩究竟在做什么?我们真的需要模型压缩么?
专知会员服务
27+阅读 · 2020年1月16日
被马斯克“唱衰”的Web3.0究竟是什么?
CVer
0+阅读 · 2022年3月21日
2021 AI技术盘点:预训练模型5大进展
THU数据派
3+阅读 · 2022年1月10日
右键收藏!2021 Google 开发者大会怎么看?
谷歌开发者
0+阅读 · 2021年11月12日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
1+阅读 · 2022年4月18日
Arxiv
0+阅读 · 2022年4月15日
Arxiv
13+阅读 · 2022年1月20日
VIP会员
相关VIP内容
如何用latext画神经网络?这个PlotNeuralNet能帮到你
专知会员服务
25+阅读 · 2022年1月15日
ICCV 2021最佳论文出炉!微软Swin Transformer摘得马尔奖
专知会员服务
29+阅读 · 2021年10月13日
专知会员服务
81+阅读 · 2021年6月20日
小米在预训练模型的探索与优化
专知会员服务
18+阅读 · 2020年12月31日
一图搞定ML!2020版机器学习技术路线图,35页ppt
专知会员服务
92+阅读 · 2020年7月28日
【高能所】如何做好⼀份学术报告& 简单介绍LaTeX 的使用
【微众银行】联邦学习白皮书_v2.0,48页pdf,
专知会员服务
163+阅读 · 2020年4月26日
模型压缩究竟在做什么?我们真的需要模型压缩么?
专知会员服务
27+阅读 · 2020年1月16日
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员