Skip to content
/ HADLA Public

Hardware Acceleration of Deep Learning Algorithms

Notifications You must be signed in to change notification settings

NJUVLSI/HADLA

Repository files navigation

Reading-List

关于卷积

How GEMM works for Convolutions


关于模型压缩

轻量级网络模型


量化

一般而言,神经网络模型的参数都是用的32bit长度的浮点型数表示,实际上不需要保留那么高的精度,可以通过量化,比如用0-255表示原来32个bit所表示的精度,通过牺牲精度来降低每一个权值所需要占用的空间。此外,SGD(Stochastic Gradient Descent)所需要的精度仅为6-8bit,因此合理的量化网络也可保证精度的情况下减小模型的存储体积。

根据量化方法不同,大致可以分为二值量化、三值量化和多值量化。

对网络网络进行量化要解决三个基本问题:

  1. 如何对权重进行量化
  2. 如何计算二值权重的梯度
  3. 如何确保准确率

二值量化(Binary Quantization)

思想是将权值矩阵中的单精度浮点数用两个值来表示,一般考虑使用符号函数或者加入线性化的符号函数来近似。

三值量化(Ternary Quantization)

多值量化

变bit/组合bit量化

哈希

其他


神经网络加速器(Inference)

About

Hardware Acceleration of Deep Learning Algorithms

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published