关于吴恩达深度学习总结(一)相关函数
一、cost function(成本函数)
衡量在全体训练样本上的表现情况
J=m1i=1∑mL(a(i),y(i))(6)
J=−m1i=1∑my(i)log(a(i))+(1−y(i))log(1−a(i))
二、loss function(损失函数)
衡量算法的运行情况,衡量在单个训练样本上的表现情况
L(a(i),y(i))=−y(i)log(a(i))−(1−y(i))log(1−a(i))(3)
三、sigmoid function(sigmoid函数)
Sigmoid函数常被用作神经网络的阈值函数,将变量映射到0,1之间。
sigmoid(x)=1+e−x1
四、y hat
识别对象满足y=1的概率
y^(i)=a(i)=sigmoid(z(i))(2)
z(i)=wTx(i)+b(1)
五、参数的更新规则
θ=θ−α dθ
$$
$$
alpha,对应的是学习率
六、w,b的导数
∂w∂J=m1X(A−Y)T(7)
∂b∂J=m1i=1∑m(a(i)−y(i))(8)
七、向量化logistic回归
A=σ(wTX+b)=(a(0),a(1),...,a(m−1),a(m))
J=−m1i=1∑my(i)log(a(i))+(1−y(i))log(1−a(i))
八、激活函数
1.sigmoid function(sigmoid函数)
sigmoid(x)=1+e−x1
2.tanh 函数
tanh(x)=ex+e−xex−e−x
3.ReLU函数(max(0,x))
4.leaky ReLU函数(max(0.01x,x))