发布时间:2024-12-20 01:22:37 来源: sp20241220
“大模型训练需要大量数据,因此对算力的要求很高。”在日前召开的首届“AI Tech Day(人工智能科技日)”峰会上,中国工程院院士、清华大学计算机科学与技术系教授郑纬民介绍,自去年12月份以来,大模型需要的AI芯片涨价一倍,国外芯片“一卡难求”。尽管国内数十家公司在AI芯片研制和生产方面取得了很大进步,但国产芯片尚未受到市场的广泛青睐。
对此,与会专家呼吁,解决算力难题,应重塑大模型算力生态,助力国产AI芯片系统练好“内功”。
加强底层研发,提升国产AI芯片“包容力”
“如果基于国外芯片编写的软件能够很容易移植到我们的国产芯片系统上来,用户就会感觉到国产芯片好用。”郑纬民认为,但由于生态建设不完备,目前国产芯片在大模型训练相关软件移植方面表现不太顺畅,因此需要进一步加强底层研发,做好包括编程框架、并行加速、通信库在内的软件研发工作。
“为了发展AI芯片的生态体系,一些国际大企业甚至可以放弃一些高利润的项目和方案。”英博数科CEO周韡韡介绍,营造生态需要发动整个行业的创新力量,例如国际企业曾通过主动开源部分软件的底层代码、让利给基于芯片的软件开发者,形成以AI芯片为核心的算力体系。
相较于芯片本身的硬件性能提升,郑纬民认为,通过营造生态,提升国产AI芯片的“包容力”更加急迫。“如果算力生态做得非常好,即使国产芯片的硬件性能只有国外性能的60%及以上,大家也会喜欢用。”郑纬民说,但如果算力生态没做好,新型软件跑不起来、软件移植不顺畅,即便硬件性能达到国外的120%,照样难以转变为有效算力。
为凝聚行业力量、改变当前的大模型算力生态,英博数科联合百川智能、中国计算机学会、清华大学等单位共同成立北京AI创新赋能中心技术委员会。作为该技术委员会的顾问,清华大学电子工程系教授汪玉表示:“在大模型领域,我们将同时从软件侧和硬件侧方面开展联合优化。在打造通用型人工智能服务平台的同时,推动高性能计算领域智能芯片和高模态电路关键技术的研发。”
共建基础生态,推动现有算力融合创新
“大模型兴起之前建设的算力,相对而言利用率较低,跟不上现阶段大模型对算力指数级发展的需求。”艾瑞咨询产业数字化研究院负责人徐樊磊介绍,为提升整体算力效率和满足差异化需求,应建立支撑大模型万亿量级参数计算的“智算中心”。“智算中心”可利用现有高质量数据中心,通过提升组网能力、协同能力、软硬件适配能力等实现部署。当前,“万卡”级别的智算中心正在主要节点城市发展起来。
与会专家认为,推动现有算力融合创新将进一步提升当前算力使用效率。“1万块卡(AI芯片)应该怎么连?是不是每块卡和其他9999块直连?如果这样,中间的连接将需要1万乘以9999个连接卡,成本将非常高。”郑纬民说,通过最有效的连接支持模型并行、数据并行等不同的要求,是融合创新的关键。
大模型背后运行的是更加复杂的网络架构和智能算法。如何在降本增效的同时,促进大模型算力使用门槛的降低?“‘云’模式是打通供需不对称、达成算力普惠的有效路径。”周韡韡表示,通过共享、共融集结现有算力,万卡平台及配备高效网络交互机制的大模型训练与推理平台,可以开放给大企业、小微企业共用。通过搭载数据迁徙、训练数据库等工具,云平台等基础生态的搭建有望让算力像水和电一样随取随用。
(责编:杨曦、陈键)