海光DCU
海光DCU(Deep Computing Unit)是海光信息推出的AI加速芯片, 具有完整的CUDA软件生态兼容性。
预计阅读时间:45分钟·难度:中级·更新时间:2024年4月
海光概述
海光信息技术股份有限公司是国内领先的处理器厂商, 主要产品包括CPU和DCU两大系列。
海光发展历程
| 时间 | 里程碑 |
|---|---|
| 2014 | 公司成立 |
| 2016 | 获得x86授权 |
| 2018 | 发布海光CPU |
| 2020 | 发布DCU1.0 |
| 2023 | 发布DCU2.0(深算一号) |
产品线
DCU1.0系列
DCU1.0规格参数
| 参数 | 规格 |
|---|---|
| 架构 | 类GPGPU架构 |
| 工艺 | 7nm |
| FP32算力 | ~7 TFLOPS |
| 显存 | 32GB HBM2 |
| 功耗 | ~300W |
DCU2.0系列
DCU2.0(深算一号)规格参数
| 参数 | 规格 |
|---|---|
| 架构 | 自研AI架构 |
| 工艺 | 先进工艺 |
| INT8算力 | 256 TOPS+ |
| 显存 | 32GB+ |
| 功耗 | ~300W |
芯片架构
DCU架构特点
DCU架构特点:
├── GPGPU兼容设计
│ ├── SIMT执行模型
│ ├── 大规模并行计算单元
│ └── 高带宽显存接口
├── 软件生态兼容
│ ├── CUDA代码兼容
│ ├── 主流框架支持
│ └── 迁移成本低
└── 国产化优势
├── 自主可控
├── 本地化支持
└── 供应链安全软件生态
海光软件栈
海光软件生态: ┌─────────────────────────────────────────┐ │ 应用层 │ │ PyTorch │ TensorFlow │ 其他框架 │ ├─────────────────────────────────────────┤ │ HIP运行时 │ │ ┌─────────────────────────────────┐ │ │ │ CUDA兼容层 (HIPify) │ │ │ └─────────────────────────────────┘ │ ├─────────────────────────────────────────┤ │ 驱动层 │ │ ┌─────────────────────────────────┐ │ │ │ ROCm驱动 │ │ │ └─────────────────────────────────┘ │ ├─────────────────────────────────────────┤ │ 硬件层 │ │ ┌─────────────────────────────────┐ │ │ │ DCU芯片 │ │ │ └─────────────────────────────────┘ │ └─────────────────────────────────────────┘ HIP兼容: - 大部分CUDA代码可直接编译运行 - hipify工具自动转换 - 主框架已原生支持
性能对比
DCU与主流GPU性能对比
| 对比项 | 海光DCU | NVIDIA V100 |
|---|---|---|
| FP32算力 | ~7 TFLOPS | 15.7 TFLOPS |
| 显存 | 32GB | 32GB |
| 显存带宽 | ~1TB/s | 900GB/s |
| 软件生态 | CUDA兼容 | CUDA原生 |
应用场景
深度学习训练
支持主流框架的训练任务
AI推理服务
高效的模型推理部署
科学计算
气象模拟、分子动力学等
信创领域
政府、金融等对自主可控要求高的场景