jimore


私信TA

用户名:uq_30465888842

访问量:9722

签 名:

Don't let the dream just be a dream!!!

等  级
排  名 176
经  验 6840
参赛次数 29
文章发表 63
年  龄 0
在职情况 学生
学  校 四川农业大学
专  业 计算机科学与技术

  自我简介:

目标院校:上海交通大学

Relu

Relu(Linear rectification function)是深度学习中的一种激活函数

其函数表达式为:f(x)=max(0,x)

其函数图像为:

2269307-20220216160502738-1292151540.jpg

该函数主要用于cnn卷积神经网络的卷积(Convolution)和池化(MaxPooling)中,因为经过卷积运算和池化运算后的图像矩阵的值有正有负,这难免造成了数据规模变得很大,那么经过Relu函数之后的图像矩阵中的值只留下正数的值。

2269307-20220216161412033-1012866655.gif

优点:

1.极大地减少了数据量#

2.在一定程度上减少了运算量#

3.避免层数增加。


 

0.0分

2 人评分

  评论区

  • «
  • »