-

芯原可扩展的高性能GPGPU-AI计算IP赋能汽车与边缘服务器AI解决方案

提供高算力密度的AI加速能力、多芯片扩展支持及3D堆叠内存集成能力

中国上海--(BUSINESS WIRE)--(美国商业资讯)-- 芯原股份(芯原,股票代码:688521.SH)今日宣布其高性能、可扩展的GPGPU-AI计算IP的最新进展,这些IP现已为新一代汽车电子和边缘服务器应用提供强劲赋能。通过将可编程并行计算能力与人工智能(AI)加速器相融合,这些IP在热和功耗受限的环境下,能够高效支持大语言模型(LLM)推理、多模态感知以及实时决策等复杂的AI工作负载。

芯原的GPGPU-AI计算IP基于高性能通用图形处理器(GPGPU)架构,并集成专用AI加速器,可为AI应用提供卓越的计算能力。其可编程AI加速器与稀疏感知计算引擎通过先进的调度技术,可加速Transformer等矩阵密集型模型的运行。此外,这些IP支持用于混合精度计算的多种数据格式,包括INT4/8、FP4/8、BF16、FP16/32/64和TF32,并支持多种高带宽接口,包括3D堆叠内存、LPDDR5X、HBM、PCIe Gen5/Gen6和CXL。该IP还支持多芯片、多卡扩展部署,具备系统级可扩展性,满足大规模AI应用的部署需求。

芯原的GPGPU-AI计算IP原生支持PyTorch、TensorFlow、ONNX和TVM等主流AI框架,覆盖训练与推理流程。此外,它还支持与主流的GPGPU编程语言兼容的通用计算语言(GPCL),以及主流的编译器。这些能力高度契合当前大语言模型在算力和可扩展性方面的需求,包括DeepSeek等代表性模型。

“边缘服务器在推理与增量训练等场景下对AI算力的需求正呈指数级增长。这一趋势不仅要求极高的计算效率,也对架构的可编程性提出了更高要求。芯原的GPGPU-AI计算处理器在架构设计上实现了GPGPU通用计算与AI加速器的深度融合,可在极细粒度层面实现高效协同,相关优势已在多个高性能AI计算系统中得到验证。”芯原首席战略官、执行副总裁、IP事业部总经理戴伟进表示,“近期DeepSeek的技术突破进一步凸显出提升AI计算效率以应对日益复杂工作负载的重要性。我们最新一代GPGPU-AI计算IP已全面优化,可高效支持专家混合(MoE)模型,并提升了核间通信效率。同时,通过与多家领先AI计算客户的深度合作,我们已对处理器架构进行了优化,以充分利用3D堆叠存储技术所提供的充足带宽。芯原将持续携手生态合作伙伴,加速推动这些先进技术在实际应用中的规模化落地。”

关于芯原

芯原微电子(上海)股份有限公司(芯原股份,688521.SH)是一家依托自主半导体IP,为客户提供平台化、全方位、一站式芯片定制服务和半导体IP授权服务的企业。了解更多信息,请访问:http://www.verisilicon.com

Contacts

 媒体联络:press@verisilicon.com

VeriSilicon

SHH:688521

Release Summary
VeriSilicon (688521.SH) today announced the latest advancements in its high-performance and scalable GPGPU-AI computing IPs.

Contacts

 媒体联络:press@verisilicon.com

More News From VeriSilicon

芯原推出基于FD-SOI工艺的无线IP平台,支持多样化物联网及消费电子应用

中国上海--(BUSINESS WIRE)--(美国商业资讯)-- 芯原股份(芯原,股票代码:688521.SH)今日发布其无线IP平台,旨在帮助客户快速开发高能效、高集成度的芯片,广泛应用于物联网和消费电子领域。该平台基于格罗方德(GF)22FDX®(22纳米FD-SOI)工艺,支持短程、中程及远程无线连接,并提供完整的IP解决方案,可实现具有竞争力的功耗、性能及面积(PPA)。 该平台针对低能耗蓝牙(BLE)、双模蓝牙(BTDM)、NB-IoT及Cat.1/Cat.4等标准提供完整的IP解决方案,包括射频(RF)、基带以及软件协议栈。其中GNSS、802.11ah及802.15.4g等射频IP已被多家客户芯片采用并实现规模化量产。 通过充分利用FD-SOI技术的高集成度和低功耗优势,芯原的无线IP平台助力客户成功推出面向不同市场的具有竞争力的MCU和SoC产品,包括超低能耗的BLE MCU、基于Wi-Fi 802.11ah的家用安防摄像头,以及多通道高精度全球导航卫星系统(GNSS)SoC。客户基于这些设计推出的芯片已累计出货超过1亿颗,获得了市场的高度认可。 “我们的22FDX®...

芯原推出经市场验证的ZSP5000视觉核心系列,扩展其面向边缘智能的数字信号处理器IP组合

中国上海--(BUSINESS WIRE)--(美国商业资讯)-- 芯原股份(芯原,股票代码:688521.SH)今日正式发布ZSP5000系列IP。该产品线基于公司第五代经硅验证的数字信号处理器(DSP)架构,采用高可扩展性和低功耗的设计,并针对计算机视觉、嵌入式人工智能等计算密集型应用进行了深度优化,结合架构的可配置能力,该系列IP可为各类边缘设备提供兼具能效优势和计算效率的优秀解决方案。 ZSP5000系列包含ZSP5000、ZSP5000UL、ZSP5000L及ZSP5000H等IP,提供每周期32至256次8位乘积累加运算(MAC)的可扩展矢量处理能力。针对更高的性能需求,芯原采用多核架构的ZSP5400H还可通过集成多个ZSP5000H内核来进一步提升计算能力。 ZSP5000系列IP具有丰富且直观的指令集,该指令集经过优化,可提高编程的便利性并支持高效的性能调优。其专用指令可加速常见的图像和信号处理任务,包括矢量与标量运算、水平归约、排列、移位、查表、限幅及均值计算。ZSP5000系列IP还集成了ZTurbo协处理器接口,便于客户在同一流水线内轻松添加自定义指令和硬件加速...

芯原超低能耗NPU可为移动端大语言模型推理提供超40 TOPS算力

中国上海--(BUSINESS WIRE)--(美国商业资讯)-- 芯原股份(芯原,股票代码:688521.SH)今日宣布其超低能耗且高性能的神经网络处理器(NPU)IP现已支持在移动端进行大语言模型(LLM)推理,AI算力可扩展至40 TOPS以上。该高能效NPU架构专为满足移动平台日益增长的生成式AI需求而设计,不仅能够为AI PC等终端设备提供强劲算力支持,而且能够应对智慧手机等移动终端对低能耗更为严苛的挑战。 芯原的超低能耗NPU IP具备高度可配置、可扩展的架构,支持混合精度计算、稀疏化优化和并行处理。其设计融合了高效的内存管理与稀疏感知加速技术,显著降低计算负载与延迟,确保AI处理流畅、响应迅速。该NPU支持数百种AI算法,如AI降噪(AI-NR)和AI超分(AI-SR)等,并兼容Stable Diffusion和LLaMA-7B等主流AI模型。同时,该NPU IP还可与芯原其他处理器IP无缝集成,实现异构计算,助力SoC设计者打造满足多元化应用需求的AI解决方案。 此外,芯原的超低能耗NPU IP还支持TensorFlow Lite、ONNX和PyTorch等主流AI框架...
Back to Newsroom