在神经网络中,第一层的激活函数为Relu:f(t)&nbsp=&nbsp...
发布于 2022-03-03 16:29:24
在神经网络中,第一层的激活函数为Relu:f(t) = max(0, t),其中t = w*x + b,x为instance输入,w和b为模型参数,如果一个instance在这里的输入值对应t=-1,那么在backpropagate计算参数的梯度时,对于这个instance来说,传过这个激活函数的梯度值为
登录后免费查看答案
关注者
0
被浏览
25