文章列表
深度学习——Relu函数的作用
摘要:ReluRelu(Linear rectification function)是深度学习中的一种激活函数其函数表达式为:f(x)=max(0,x)其函数图像为:该函数主要用于cnn卷积神经网络的卷积(……
最大公约数和最大公倍数最优解
摘要:#include<iostream>using namespace std;int main(){int a, b, c, d; cin >> a >> b; for (int i = a……
深度学习——反向传播
摘要:## BP
> BP(Back-Propagation),即反向传播算法,常用于深度学习的优化参数的方法
#### 1.引例
有一个一元一次方程:$$y=wx+b$$,给定一个$$x=1.5……
深度学习——梯度消失
摘要:## 梯度消失
#### 1.引言
在之前的文章中我们提到过反向传播:https://blog.dotcpp.com/a/89149 ,在反向传播中,参数是根据求该参数和损失函数的梯度来更新的,也……
闯关 来了! 之前太忙,没写, 有问题,请找出!
摘要:#include<bits/stdc++.h>
#include<unistd.h>
using namespace std;
int main()
{
int a;
cout<<"你……
一球从M米高度自由下落,每次落地后返回原高度的一半,再落下。 它在第N次落地时反弹多高?共经过多少米? 保留两位小数
摘要:#include<stdio.h>int main(){ int i,N; float M,b,a=0; scanf("%f%d",&M,&N); for(i=1;i<=N;i……