单选题

在神经网络中,第一层的激活函数为Relu:f(t)&nbsp=&nbsp...

发布于 2022-03-03 16:29:24

在神经网络中,第一层的激活函数为Relu:f(t) = max(0, t),其中t = w*x + b,x为instance输入,w和b为模型参数,如果一个instance在这里的输入值对应t=-1,那么在backpropagate计算参数的梯度时,对于这个instance来说,传过这个激活函数的梯度值为

登录后免费查看答案
关注者
0
被浏览
25
知识点
面圈网VIP题库

面圈网VIP题库全新上线,海量真题题库资源。 90大类考试,超10万份考试真题开放下载啦

去下载看看