{SiteName}
首页
鼻骨骨折治疗
鼻骨骨折原因
鼻骨粉碎性骨折
鼻骨骨折护理
鼻骨线形骨折
鼻骨骨折价格

算力即王道千亿级AI大模型,没有算力

北京中科白癜风医院郑华国 https://m-mip.39.net/fk/mipso_5387140.html

新智元报道

编辑:好困yaxin

算力就是生产力,得算力者得天下。千亿级参数AI模型预示着算力大爆炸时代来临,不如织起一张「算力网」试试?得算力者得天下。人工神经网络在上世纪80年代早已提出,却受制于有限的计算力历经数年寒冬。不过,随着新一代人工智能技术的快速发展和突破。以深度学习计算模式为主人工智能算力需求呈指数级增长。应用到CV和NLP的场景越来越多。从16年的AlphaGo,到17年的AlphaZero,再到18年的AlphaFold,人工智能演化发展的速度进一步加快。而年发布的GPT-3更是把人工智能的水平提到了一个新的高度。

大模型,好使!

每次提到大模型都避不开的就是:亿参数的GPT-3。为了训练GPT-3,微软新建了一个搭载了1万张显卡,价值5亿美元的算力中心。模型在训练上则消耗了个GPU年的算力,而成本超过万美元。其成果是显而易见的,GPT-3不仅在NLP方面取得了惊人的成就。利用GPT-3提供相关的快速语义搜索其衍生版,侧重于代码生成Codex,不仅仅是模仿以前见过的代码,而且还会分析文档中的字符串、注释、函数名称以及代码本身,从而生成新的匹配代码,包括之前调用的特定函数。利用Codex开发小游戏此外,DALL·E作为另一个GPT-3的亿参数衍生版本,它能创建绘画、照片、草图等等,基本上涵盖了所有可以用文字描述的东西。利用DALL·E生成企鹅抱枕GP从11亿参数的GPT到亿参数的GPT-2,再到亿参数的GPT-3。至少在目前这个阶段,大规模预训练模型就是好使!既然如此,为什么不研发我们自己的呢?今年1月,亿参数的鹏程.盘古发布。通过自动混合并行模式实现了在卡算力集群上的大规模分布式训练。在预训练阶段,模型学习了40TB中文文本数据,并通过行业数据的样本调优提升模型在场景中的应用性能。视觉方面则包含超过30亿参数,兼顾了图像判别与生成能力,从而能够同时满足底层图像处理与高层语义理解需求。模型在16个下游任务中大部分指标优于SOTA模型,其中零样本学习任务11个任务领先,单样本学习任务12个任务领先,小样本学习任务13个任务领先。除了大规模,多模态也是人工智能发展的重要方向。现实中的网络数据,有90%以上是图像与视频,其中蕴含了更多的知识。而人类的信息获取、环境感知、知识学习与表达,都是采用跨模态的输入输出方式。为此,中科院自动化所推出了全球首个三模态大模型:紫东.太初。其兼具跨模态理解和生成能力,可以同时应对文本、视觉、语音三个方向的问题。与单模态和图文两模态相比,其采用一个大模型就可以灵活支撑图-文-音全场景AI应用。具有了在无监督情况下多任务联合学习、并快速迁移到不同领域数据的强大能力。此外,紫东.太初还获得了MM视频描述国际竞赛的第一名,ICCV视频理解国际竞赛第一名。在图文跨模态理解与生成方面的性能领先SOTA,而在视频理解与描述上甚至可以称得上世界第一的水平。与此同时,在到年间,人工智能的计算复杂度每两年翻一番;在到年间,人工智能的计算复杂度每年猛增10倍。那么该如何面对如此之大的模型和如此之复杂的计算呢?答案就两个字:算力。毕竟,人工智能发展的三要素:数据、算法和算力中,无论是数据还是算法,都离不开算力的支撑。

算力从哪来?

随着人工智能模型的逐渐成熟,以及各个行业的智能化转型,越来越多的企业都体验到了AI带来的便捷。AI的应用必定会涉及到算力的需求,然而让每个企业都去搭建「人工智能计算中心」显然是不现实的。因此,建造标准化且自主可控的「人工智能计算中心」的需求也就迫在眉睫了。除了需求的牵引之外,再加上政策扶持,人工智能计算中心「落地潮」也在深圳、武汉、西安等地被快速掀起。近日,西安未来人工智能计算中心正式上线。作为全国第三个人工智能计算中心,它的应用场景更为广泛——自动驾驶、智慧医疗、智慧城市、智慧交通、智慧矿山等多种场景。西安电子科技大学人工智能研究院院长焦李成院士被聘为该人工智能计算中心专家。他并表示:未来人工智能计算中心的上线,能够加快实现人工智能对经济社会发展的带动和支撑作用,能够更快形成国家新一代人工智能试验区的西安方案。据悉,西安未来人工智能计算中心算力规模一期在PFLOPSFP16,具备每秒30亿亿次半精度浮点计算的能力。相当于24小时内能处理30亿张图像或0万人DNA,或万小时语音,或10年自动驾驶数据。此外,西安未来人工智能计算中心上线之初,便签约了众多项目。如西安电子科技大学遥感项目、西北工业大学语音大模型项目、陕西师范大学「MindSpore研究室」等。而早在5月底已经投入运营的武汉人工智能计算中心,则提供了高达P的算力,相当于每秒10亿亿次的计算速度。刚建成就迅速进入满负荷的状态:仅在试运行期间,就有联影、兴图新科等企业发出了算力申请,而人工智能计算中心也帮助企业完成了图像识别、语音识别等场景的应用。在科研创新方面,依托武汉人工智能计算中心的算力,武汉大学打造了全球首个遥感专用框架武汉.LuojiaNet。LuojiaNet针对「大幅面、多通道」遥感影像,在整图分析和数据集极简读取处理等方面实现了重大突破。在产业方面,倍特威视已经开发了多种算法,可以应用在工地、水利、农业等多种复杂的环境。通过将模型迭代训练任务迁移到武汉人工智能计算中心,在算法的迭代速度上比独立部署训练服务器提升10倍。目前,武汉人工智能计算中心已为40家企业、4家高校与科研院所提供算力和产业服务,而这些仅仅是一个开始。往大了说是让人工智能产业能有进一步的发展,往小了说是让大家能够更好地体验到人工智能带来的便利,这些都离不开人工智能计算中心的算力。那么再具体一点,又是什么给这些「人工智能计算中心」提供这些算力的?

如何提供算力?

还是回到最初的模型上,这其中主要涉及到的有三个大类:图像处理,决策和自然语言处理。那么在复杂模型的训练过程中,需对上千亿个浮点参数进行微调数十万步,需要精细的浮点表达能力。因此,人工智能计算中心在「训练」模型阶段,就需要极高的计算性能和较高的精度,需要能处理海量的数据,以便完成各种各样的学习任务。而在「推理」阶段,则是利用训练好的模型,使用新数据推理出各种结论。也就是借助现有神经网络模型进行运算,利用新的输入数据来一次性获得正确结论的过程。推理相对来说对性能的要求并不高,对精度要求也要更低,在特定的场景下,对通用性要求也低,能完成特定任务即可。但因为推理的结果直接提供给终端用户,所以更

转载请注明:http://www.slihuax.com/bggzyy/17172.html

  • 上一篇文章:
  • 下一篇文章: 没有了
  • 推荐文章

    • 没有推荐文章

    热点文章

    • 没有热点文章