Relu
Relu(Linear rectification function)是深度学习中的一种激活函数
其函数表达式为:f(x)=max(0,x)
其函数图像为:
该函数主要用于cnn卷积神经网络的卷积(Convolution)和池化(MaxPooling)中,因为经过卷积运算和池化运算后的图像矩阵的值有正有负,这难免造成了数据规模变得很大,那么经过Relu函数之后的图像矩阵中的值只留下正数的值。
优点:
1.极大地减少了数据量#
2.在一定程度上减少了运算量#
3.避免层数增加。
0.0分
2 人评分
C语言训练-排序问题<2> (C++代码)(sort函数)浏览:1720 |
C语言程序设计教程(第三版)课后习题10.7 (C语言代码)浏览:549 |
买不到的数目 (C++代码)浏览:909 |
C语言程序设计教程(第三版)课后习题9.8 (Java代码)浏览:1674 |
C语言程序设计教程(第三版)课后习题5.4 (C语言代码)浏览:1327 |
C语言程序设计教程(第三版)课后习题6.3 (C语言代码)浏览:1001 |
【金明的预算方案】 (C++代码)浏览:997 |
1134题解(求分析)浏览:795 |
盐水的故事 (C语言代码)浏览:1603 |
【偶数求和】 (C++代码)浏览:744 |