AIGC加速商业化落地,如何应对算力需求激增?

中新网8月17日电 题:AIGC加速商业化落地,如何应对算力需求激增?

中新财经记者 夏宾

以大模型为代表的AIGC热潮带来了AI算力需求的爆发式增长,AI算力已成推动人工智能发展的关键要素。

“今年,在全球范围都掀起了一场AI范式转化革命,在政策和资本双重驱动下,AIGC在加速商业化落地,超千亿参数的AIGC大模型在不断涌现。现在中国已经发布了AIGC的模型数量超过了110个,引发了巨量化的人工智能的算力需求。”浪潮信息服务器产品线总经理赵帅近日在参加2023年开放计算中国社区技术峰会(OCP China Day2023)时如是说。

计算力就是生产力,智算力就是创新力,更丰富的算力资源成为人工智能竞争的核心基石。IDC预计,全球AI计算市场规模将从2022年的195亿美元增长到2026年的346.6亿美元,其中生成式AI计算市场规模将从2022年的8.2亿美元增长到2026年的109.9亿美元。生成式AI计算占整体AI计算市场的比例将从4.2%增长到31.7%。

解决算力需求激增是当前市场面临的共同挑战。赵帅指出,随着市场对于AI计算力的攀升,全球有上百家公司在投入新型的AI硬件方面的研发和设计,由于各厂商技术路线不同,多个方面都在兼容性上存在问题,导致整个AI的计算基础设施在建设当中不得不面临着硬件分裂化和生态离散化的重大挑战。

“由于专有的硬件系统的挑战和设计复杂性,把他们集成到一套整机系统中,我们所需要花费的时间和费用也更多,严重阻碍了AI加速器的创新应用和开发推广。”赵帅直言,大模型训练对于算力平台有较高要求,我们需要计算系统具备更高的计算性能,更快的卡间互连带宽,以及更强的横向拓展能力。

赵帅对中新财经记者说,为了更好去支撑大模型训练,必须要实现多机互联的集群架构,在这个扩展过程中,系统间的通信以及整体的散热、接口、测试等各种各样的标准都必须更加细化。

他进一步称,开放加速系统架构凭借其散热、供电、互联、扩展性等设计特点,本身在设计之初可支持更高功耗、更大互联带宽、更强扩展能力的AI加速卡,通过支持跨节点的高速直连和横向扩展,可以很快地实现万卡级以上的集群规模,天然就适用于超大规模神经网络的并行训练。

同时,开放加速计算社区提供了统一的主机接口、供电方式、散热方式、管理接口、卡间的互联拓扑等规范,无需做任何硬件修改,就可以让上百家AI创新企业,更好更快地把其AI算力的相关硬件融合到AI计算服务器中去,以系统化方式呈现更好的算力,显著降低开发投入。

此外,值得注意的是,数据中心可持续发展的技术方案正得到越来越多OCP社区成员与用户的重视,可持续发展已成为一种社区共识。赵帅也认为,促进数据中心可持续发展已经成为必须采取的行动,从开发环保产品,到使用清洁能源改善能源结构,到应用液冷技术降低碳排,乃至电子垃圾回收及再利用,可持续发展的理念应贯彻数据中心生命周期的始终。(完)

原创文章,如若转载,请注明出处:https://www.ncdyrs.com/n/53756.html