Deep Learning Accelerators

Micron's Deep Learning Accelerator platform is a solution comprised of a modular FPGA-based architecture, powered by Micron memory, 运行FWDNXT针对各种神经网络进行优化的高性能推理引擎

 

Overview

深度学习使用神经网络来执行机器视觉等任务, 语音识别和自然语言处理. 训练有素的模型通常部署在许多设备上,比如手机,以从新数据中获得洞察力——这一过程被称为推理.

Micron’s Deep Learning Accelerators enable inference tasks to be carried out much more rapidly, using much less energy, 而不是通用计算机.

开发人员可以轻松利用我们的技术,使用广泛的流行开源框架探索和部署深度学习模型,以解决以前从边缘到云的棘手数据分析问题.

AI/DL Platform Overview

Fully Integrated SDK

  • 广泛的深度学习框架支持
  • Easy to use toolset; software programmability
  • 能够同时在多个神经网络上运行

Deep Learning Compiler

  • 编译训练网络直接到推理引擎机器码
  • 底层硬件被抽象掉了
  • Feature rich & 针对特定的用例进行优化

Advanced Accelerators

  • 具有高性能内存的FPGA解决方案可用于原型设计或早期部署
  • Scale with multiple cores
  • 集成SDK,充分利用硅资源

Any Neural Network. Any Framework.

美光的dla与流行的深度学习框架兼容,能够运行所有最先进的神经网络.

各种DLA神经网络和框架

Ease of Use

只需从现有代码中更改三行,即可从CPU转到GPU,再到Micron DLA.

从CPU到DLA的电脑截图

神经网络的创新:多任务

DLA SDK允许您在一个DLA设备上运行多个神经网络, 或者将一个神经网络分散到多个DLA核心上.

Image of a DLA multitasking

Custom Compiler

美光DLA与最先进的编译器捆绑在一起,可以将神经网络转换为DLA的机器码. 运行时组件提供应用程序的执行.

Chart of DLA custom compiler

Advanced Accelerators

AC Series HPC Modules

Our business card-sized, 高性能计算(HPC)模块是基于PCI Express的真正可扩展系统的基本构建块® (PCIe®) standard.

高性能计算单板加速器

Highest performance. 我们的单板计算解决方案结合了基于fpga的计算能力和我们最快的内存技术,以满足最具挑战性的系统要求.

Find out more about Deep Learning Accelerators

Contact us
+