《科创板日报》7月9日讯(记者 陈美)当前,引领新一代AI浪潮的大模型开始发挥巨大影响力,并正从研究实验室走向产业界。在此背景下,2023世界人工智能大会(WAIC)启明创投论坛“生成式AI与大模型:变革与创新”顺利举行。
(资料图)
作为中国最早关注且活跃在AI领域的创投机构之一,启明创投在芯片、底层基础软件、基础模型以及下游垂类应用等AI产业生态链领域有着深刻思考。
启明创投的合伙人周志峰认为,大模型和生成式AI正引领当前最大的一波科技新浪潮,明确的信号来自Stable Diffusion、ChatGPT、Midjourney和Copilot等技术和产品显示出的爆发式用户采纳度,和其背后企业史无前例的高人均产出。
周志峰称,大模型的“第一性原理”是大规模压缩人类世界所有的数字信息。“算力、算法和数据,在过去40年的累积与发展,一同推动今天生成式AI的爆发,基础架构层、模型层和应用层的企业都得到快速发展的机会。”
“AI新浪潮带来新的产品形态,大模型不仅仅是技术基础设施,而是触达用户的产品——用户+模型=应用。创投视角下的+AI和AI+两种模式的公司,都在迎来快速发展。但面对产业巨头和大模型公司的边界扩张,创业企业需要寻找自己的黄金通道。”会上,周志峰表示,启明创投识别出AI 2.0已经跨过技术奇点的信号,在市场引爆点来临前提前布局了多家大模型企业。”
周志峰谈到,预训练大模型是新一代人工智能应用的基础设施,训练高精度千亿中英双语稠密模型,对大模型研究和应用有重大意义。
清华大学教授唐杰在演讲中谈及了AGI的发展历程,表示自2019年开始,超大规模知识图谱和超大数据的大模型,为认知智能未来提供了核心支撑。
他认为,经过不断研发,2022年训练的千亿基座模型为后续研发工作提供了坚实基础。其中,ChatGLM-6B模型在开源后,至今已超过300万次下载,并被《中国人工智能大模型地图研究报告》评为大模型开源影响力第一名。未来将继续探索认知大模型的前沿,逐步解锁In-context 、环境交互与自我优化,和自反思学习等能力。
而在大模型、多模态显著拉动了算力基础设施需求的这一背景下,启明创投合伙人叶冠泰与壁仞科技合伙人梁刚博士展开对话,双方探讨了高性能通用GPU如何支撑中国大模型训练与推理。
梁刚博士指出:壁仞科技BR100芯片的BF16算力达到512 TFLOPS,在业界是领先的,并支持TF32、BF16、INT8等多种数据精度,其中INT8的算力可达到1024TOPS。
此外,带宽方面壁仞科技自主研发的BLINK能够支持单机8卡互联,另外通过IB网卡实现多机多卡高速互联。壁仞科技SUPA的软件生态已经建成,已经支持数个大模型和训练与推理框架,并适配了多个大模型算法。
不过,梁刚博士也坦言:半导体行业没有捷径可言,因此壁仞科技会持续专注于产品研发和与用户的合作,踏踏实实做事,最后用产品说话。
在梁刚博士看来,倾听客户需求是重中之重,在硬件方面,壁仞科技将关注算力、显存、带宽、集群互联和安全上的需求;在软件上,壁仞科技会与合作伙伴和客户形成‘应用-优化-反馈-迭代’的循环,不断提高自己。
叶冠泰则表示,大模型时代,训练千亿参数、万亿参数的模型,必不可少的就是算力,大模型参数规模的高速增长对GPU的能力不断提出更高要求。
“大算力的GPU要支撑各种各样的模型,需要具备稳定性、扩展性、延迟控制、性价比等,展现出典型的“木桶理论“,而且大算力芯片的推广,需要整个上下游的生态支持。