千卡算力破局:科通技术以"AI大模型+AI芯片"重构智算底座
(原标题:千卡算力破局:科通技术以"AI大模型+AI芯片"重构智算底座)
2025年,随着DeepSeek大模型的开源迭代,AI技术在云计算领域的应用加速渗透,市场对高性能AI芯片的需求迎来爆发式增长。作为AI算力供应链的核心供应商,深圳市科通技术股份有限公司(以下简称“科通技术”)推出的“DeepSeek+AI芯片”全场景方案,在云AI领域取得重大突破。除了GPU的算力总量,云AI的一大挑战来源于GPU集群的数据互联效率。某大型互联网集团为解决云AI系统中千卡级GPU集群的高性能需求,面临服务器与加速卡间数据交换带宽和延迟的严苛挑战。科通技术联合全球顶尖设备原厂,基于Infiniband技术打造了叶-脊(Leaf-Spine)架构的服务器网络集群方案,成为云场景算力升级的标杆案例。
Infiniband技术是一种高性能的计算机网络技术,它在数据传输方面具备高带宽、低延迟的显著优势,能够快速处理大量数据,满足AI计算对数据传输速度的严苛要求。而叶-脊架构是一种常用于数据中心网络的拓扑结构,相较于传统网络架构,它有着更高的扩展性和更低的网络延迟,非常适合大规模集群的应用场景。
图片来源于网络,如有侵权,请联系删除
在技术细节上,科通技术采用高性能服务器CPU与高端GPU卡的组合,通过芯片级优化实现千块GPU卡池的高带宽、低延时数据交换。方案设计中,叶-脊架构的网络拓扑不仅满足了当前千卡级集群的数据吞吐需求,还通过预留充足的接口容量支持未来业务扩展,确保系统具备长期适应性。此外,科通技术为集群配置了100G/200G/400G高速网卡及智能网关设备。经测试,与传统方案相比,该方案可提供3.2倍以上数据交换吞吐量,不仅使AI推理效率提升了15%以上,还降低36%的功耗。这一方案的成功实施,科通在高速网络设备业务的显著提升直接带动了科通技术代理的各原厂专业GPU、服务器CPU及相关存储产品的销量增长。
在市场成效方面,该案例不仅帮助客户实现了大参数模型(如千亿级参数)的高并发训练与推理应用指标,还推动了科通技术在云AI基础设施领域的深度布局。通过代理全球80余家芯片原厂的核心产品,科通技术构建了覆盖云端训练、推理、存储、网络的全栈芯片矩阵,能够为不同规模客户提供定制化解决方案。随着DeepSeek大模型对算力需求的持续攀升,云场景的AI芯片采购量呈现指数级增长。科通技术已与多家头部互联网企业达成长期合作,预计未来云场景相关业务将持续带动公司营收增长。
可以预见,DeepSeek大模型的技术迭代将持续催化AI芯片在云端的应用需求。科通技术凭借全场景方案的技术整合能力和全球供应链优势,在AI算力供应链中占据重要地位。随着AI模型复杂度的提升和云服务规模的扩大,科通技术有望凭借其技术优势和市场布局,在行业中持续发展,为AI芯片应用产业的发展贡献重要力量。
本文来源:财经报道网
推荐阅读:
证监会重磅发声 下一步建设重点明确!业内人士建言更多改善措施
Q4业绩令人失望,李维斯(LEVI.US)也加入降本行列:拟至少裁员10%
启明星辰2023业绩双增 携手中国移动为网信安全产业开拓新发展
急用钱时可转让,利息损失少,平安银行大额存单助力客户长期资产配置
21解读丨六部门针对支付行业重磅发声!打造并行发展、相互补充的支付体系
版权声明
本文仅代表作者观点,不代表xx立场。
本文系作者授权xx发表,未经许可,不得转载。