华为加速推动鲲鹏、昇腾生态建设:打造数字未来的新引擎
《科创板日报》1月15日讯(记者黄心怡)2024年,华为启动了根生态计划,旨在围绕鲲鹏、昇腾、鸿蒙三大核心技术,构建开发者和合作伙伴的生态系统。
据《科创板日报》报道,从知情人士处获悉,华为的鲲鹏生态系统合作伙伴已超过6000家,而昇腾生态系统则有超过2500家合作伙伴。预计到2025年,华为将在根技术生态体系的原生开发方面加大投入力度,计划每年投资10亿元以支持这一原生开发计划。“我们将致力于打造中国本土的原生技术,无论是在硬件、模型还是应用程序层面,都会进一步增加投入。”
▍每年投入10亿元支持原生开发
在2025年,华为的战略重点是围绕鲲鹏和昇腾等生态体系进行原生开发。其中,鲲鹏生态主要针对通用计算领域,依托于CPU芯片的服务器所提供的计算能力;而昇腾生态则专注于人工智能计算场景,利用GPU芯片和AI专用芯片等提供的计算能力。
“大量的应用是要被重塑的,要重新开发的。如果还是在原来的体系上进行开发,那么还要花好多年的时间重新进行迁移。现在,华为构建在自己的技术路线上,那就是原生的开发,是中国在引领世界的原生开发。”
为此,华为设立了专注于原生开发的基金和生态使能计划。“没有人能够独自构建完整的产业生态系统,这需要产业链上下的共同努力,以及客户和合作伙伴的支持。为激活这一链条,我们将投入部分资源以推动其发展。”
在具体的资源投入上,华为确定了三年内每年投入十亿元的计划,同时还划拨了专门的团队到项目驻场。“原生开发不是口号,是真的派人过去一起做。中国十几个大的行业,我们在每个行业里都投入了专门的‘特战队’,把研发、市场等人员一起投入到生产现场、业务场景,一起做相关的开发。”
在面向通用计算的鲲鹏生态领域,华为的目标是与英特尔相抗衡,涵盖从CPU处理器、ARM指令集到操作系统,以及数据库、中间件直至ISV应用软件层,全面推动昇腾产业的建设。
在面向智能计算的昇腾生态方面,从硬件原生、算子原生、加速库原生、模型原生、应用原生这五大场景把能力开放给国内AI产业的合作伙伴,来提升开发效率。
记者了解到,在硬件开放方面,鲲鹏已经与13家整机合作伙伴以及超过60家的KPN伙伴建立了合作关系,而硬件发货量的95%以上都由这些合作伙伴完成。随着人工智能大模型的迅速崛起,昇腾也迎来了超过60家硬件合作伙伴,并且有10家合作伙伴专注于大模型一体机领域。 这种强劲的合作态势不仅展示了鲲鹏和昇腾在技术领域的广泛影响力,同时也表明它们正积极构建一个强大的生态系统,吸引众多企业共同参与和发展。通过与如此多的伙伴合作,鲲鹏和昇腾不仅能够加速技术创新,还能更好地满足市场多样化的需求,从而巩固其在行业中的领先地位。
在未受到地缘政治影响之前,华为海外营收的占比曾达到70%。《科创板日报》记者获悉,在计算产业发展上,华为的目标也不止于国内市场。“我们真正的目标就是走出去,为世界提供新的选择。当然,走出去就要求有足够的竞争力,这个竞争力如何构建?在尚未走出去的时候,我们希望能够拉着国内的计算产业有愿景、有能力的伙伴一起把能力构建起来,一起走出去,在全球的计算市场打一打、比一比,这是目标。”
▍降低推理成本是大模型基础设施的方向之一
过去两年,随着AI大模型和生成式AI技术在全球范围内引发热潮,国内市场迅速进入“百模大战”。截至2024年7月,已完成备案并上线的生成式AI大模型数量已接近200个。预计到2025年,“收敛”将成为国内大模型行业的一个重要趋势。 在这个过程中,市场的激烈竞争促使各大公司加快技术研发和产品迭代的速度。然而,随着市场竞争的白热化,未来的发展方向或将更加注重质量和可持续性。只有那些能够提供更高质量、更具创新性和可靠性的大模型的企业,才能在激烈的竞争中脱颖而出。这不仅是技术上的挑战,更是商业模式和战略规划上的考验。
美国在大型模型领域已经实现了收敛,这不仅体现在技术层面,还包括参与者的收敛。目前主要由谷歌、OpenAI、微软和Meta四家公司主导。而在中国AI领域,无论是被称为“六小龙”的公司,还是各大云服务及互联网厂商,再加上近期备受关注的幻方,可能有十几家公司在竞争。这些公司正面临较大的挑战,预计它们将加速创新,并更高效地利用硬件资源。
目前,随着大模型的发展,推理成本日益成为一大挑战。现在,大模型需要更长的时间才能完成一次推理,这意味着我们需要对推理设施进行根本性的改变。首先,推理设施需要向大型化和集群化方向发展。单靠一台设备显然已经无法满足需求,因此我们可能需要部署多台设备。然而,这并不意味着我们可以简单地把多台设备堆叠在一起。因为每台设备都有独立的内存,所以如何实现内存统一成为了一个关键问题。换句话说,我们必须找到一种方法,使一台计算机的内存与另一台计算机的内存能够共享,从而使得整个数据中心的所有设备和内存条可以协同工作,以提高整体效率。 这种变化不仅反映了技术的进步,也体现了对现有基础设施的重大挑战。它要求我们在硬件设计、软件优化以及网络架构方面都要做出相应的调整。只有这样,我们才能真正解决大模型推理过程中遇到的问题,并为未来的AI研究和应用铺平道路。此外,这也促使我们思考如何平衡性能提升与成本控制之间的关系,以确保技术进步能够惠及更广泛的用户群体。
据悉,在减少推理成本方面,华为正着手于存算分离技术的研究。“目前推理过程分为两个阶段,第一阶段对计算资源的需求极大,而第二阶段则需要大量的存储空间。若使用相同的设备来同时承担计算和存储任务,会导致成本显著增加。因此,我们正在探索一种新的方法:第一阶段利用专门的计算设备进行处理,而在第二阶段则使用侧重于存储的设备,通过这样的方式将两者结合起来,以期有效降低推理的整体成本。”
页面执行时间0.012594秒