前一段时间,在NVDLA上针对MNIST、CIFAR-10、IMAGENET2012这三个数据集上,训练了lenet5、resnet-18两个网络,并在NVDLA的vp环境下编译,运行,相关的模型可以在下文下载。
而NVDLA的文档描述里写到其是支持8bit的,但是如何将浮点模型在nvdla上量化成8bit并运行官方给出的说明很少,本文记述的内容有模型量化的方法、以及修复了官方代码中的一些问题。
前一段时间,在NVDLA上针对MNIST、CIFAR-10、IMAGENET2012这三个数据集上,训练了lenet5、resnet-18两个网络,并在NVDLA的vp环境下编译,运行,相关的模型可以在下文下载。
而NVDLA的文档描述里写到其是支持8bit的,但是如何将浮点模型在nvdla上量化成8bit并运行官方给出的说明很少,本文记述的内容有模型量化的方法、以及修复了官方代码中的一些问题。
从TensorRT看INT8量化原理
https://www.cnblogs.com/nanmi/p/13607515.html
Kali Linux信息收集之enum4linux
https://www.ctolib.com/topics-82798.html
Linux提权(持续更新)
https://blog.csdn.net/anan2175/article/details/102122134
c++11以正确的姿势输出enum class的值
https://blog.csdn.net/lianshaohua/article/details/109358626
使用正则表达式判断二进制数字是否能被3整除
http://blog.2baxb.me/archives/588
Basic Linux Privilege Escalation
https://blog.g0tmi1k.com/2011/08/basic-linux-privilege-escalation/
在使用Caffe训练网络的时候,往往会在train的prototxt里对图像有一些预处理操作、例如做resize、对训练数据减去均值等,在实际推理的时候我们还需把输入图像resize到网络输入的大小,必要的时候还需要做图像通道的transpose。在用PyCaffe进行推理的时候,这些操作需要使用caffe的transformer来实现,本文记述prototxt的预处理键值
神经网络可以实现任意函数的直观解释
https://www.cnblogs.com/yeluzi/p/7491619.html
一起读懂传说中的经典:受限玻尔兹曼机
https://www.jiqizhixin.com/articles/2018-05-07-7
需要将声明和定义放在同一个头文件
https://www.cnblogs.com/wuchanming/p/4061659.html
lenet nvdla
https://medium.com/@anakin1028/run-lenet-on-nvdla-837a6fac6f8b
Github Page: https://github.com/LeiWang1999/AICS-Course
Update your browser to view this website correctly. Update my browser now