python类hard_sigmoid()的实例源码

function.py 文件源码 项目:ddnn 作者: kunglab 项目源码 文件源码 阅读 26 收藏 0 点赞 0 评论 0
def to_function(self):
        if self.nonlinearity.lower() == "clipped_relu":
            return clipped_relu()
        if self.nonlinearity.lower() == "crelu":
            return crelu()
        if self.nonlinearity.lower() == "elu":
            return elu()
        if self.nonlinearity.lower() == "hard_sigmoid":
            return hard_sigmoid()
        if self.nonlinearity.lower() == "leaky_relu":
            return leaky_relu()
        if self.nonlinearity.lower() == "relu":
            return relu()
        if self.nonlinearity.lower() == "sigmoid":
            return sigmoid()
        if self.nonlinearity.lower() == "softmax":
            return softmax()
        if self.nonlinearity.lower() == "softplus":
            return softplus()
        if self.nonlinearity.lower() == "tanh":
            return tanh()
        if self.nonlinearity.lower() == "bst":
            return bst()
        raise NotImplementedError()
functions.py 文件源码 项目:unrolled-gan 作者: musyoku 项目源码 文件源码 阅读 20 收藏 0 点赞 0 评论 0
def to_function(self):
        if self.nonlinearity.lower() == "clipped_relu":
            return clipped_relu()
        if self.nonlinearity.lower() == "crelu":
            return crelu()
        if self.nonlinearity.lower() == "elu":
            return elu()
        if self.nonlinearity.lower() == "hard_sigmoid":
            return hard_sigmoid()
        if self.nonlinearity.lower() == "leaky_relu":
            return leaky_relu()
        if self.nonlinearity.lower() == "relu":
            return relu()
        if self.nonlinearity.lower() == "sigmoid":
            return sigmoid()
        if self.nonlinearity.lower() == "softmax":
            return softmax()
        if self.nonlinearity.lower() == "softplus":
            return softplus()
        if self.nonlinearity.lower() == "tanh":
            return tanh()
        raise NotImplementedError()
functions.py 文件源码 项目:LSGAN 作者: musyoku 项目源码 文件源码 阅读 30 收藏 0 点赞 0 评论 0
def to_function(self):
        if self.nonlinearity.lower() == "clipped_relu":
            return clipped_relu()
        if self.nonlinearity.lower() == "crelu":
            return crelu()
        if self.nonlinearity.lower() == "elu":
            return elu()
        if self.nonlinearity.lower() == "hard_sigmoid":
            return hard_sigmoid()
        if self.nonlinearity.lower() == "leaky_relu":
            return leaky_relu()
        if self.nonlinearity.lower() == "relu":
            return relu()
        if self.nonlinearity.lower() == "sigmoid":
            return sigmoid()
        if self.nonlinearity.lower() == "softmax":
            return softmax()
        if self.nonlinearity.lower() == "softplus":
            return softplus()
        if self.nonlinearity.lower() == "tanh":
            return tanh()
        raise NotImplementedError()
functions.py 文件源码 项目:adgm 作者: musyoku 项目源码 文件源码 阅读 24 收藏 0 点赞 0 评论 0
def to_function(self):
        if self.nonlinearity.lower() == "clipped_relu":
            return clipped_relu()
        if self.nonlinearity.lower() == "crelu":
            return crelu()
        if self.nonlinearity.lower() == "elu":
            return elu()
        if self.nonlinearity.lower() == "hard_sigmoid":
            return hard_sigmoid()
        if self.nonlinearity.lower() == "leaky_relu":
            return leaky_relu()
        if self.nonlinearity.lower() == "relu":
            return relu()
        if self.nonlinearity.lower() == "sigmoid":
            return sigmoid()
        if self.nonlinearity.lower() == "softmax":
            return softmax()
        if self.nonlinearity.lower() == "softplus":
            return softplus()
        if self.nonlinearity.lower() == "tanh":
            return tanh()
        raise NotImplementedError()
loss.py 文件源码 项目:pumil 作者: levelfour 项目源码 文件源码 阅读 24 收藏 0 点赞 0 评论 0
def ramp_loss(z):
  """
  Ramp loss function.

  l(z) = 1           if z <= -1
  l(z) = (1-z) / 2   if -1 < z <= 1
  l(z) = 0           if 1 < z
  """
  return F.hard_sigmoid(- 2.5 * z)
test_hard_sigmoid.py 文件源码 项目:chainer-deconv 作者: germanRos 项目源码 文件源码 阅读 21 收藏 0 点赞 0 评论 0
def check_forward(self, x_data):
        x = chainer.Variable(x_data)
        y = functions.hard_sigmoid(x)
        self.assertIs(y.data.dtype, x_data.dtype)
        expect = numpy.minimum(1.0, numpy.maximum(0.0, self.x * 0.2 + 0.5))
        gradient_check.assert_allclose(
            y.data, expect, **self.check_forward_option)
function.py 文件源码 项目:ddnn 作者: kunglab 项目源码 文件源码 阅读 27 收藏 0 点赞 0 评论 0
def __init__(self):
        self._function = "hard_sigmoid"
        pass
function.py 文件源码 项目:ddnn 作者: kunglab 项目源码 文件源码 阅读 25 收藏 0 点赞 0 评论 0
def __call__(self, x):
        return F.hard_sigmoid(x)
functions.py 文件源码 项目:unrolled-gan 作者: musyoku 项目源码 文件源码 阅读 21 收藏 0 点赞 0 评论 0
def __init__(self):
        self._function = "hard_sigmoid"
        pass
functions.py 文件源码 项目:unrolled-gan 作者: musyoku 项目源码 文件源码 阅读 22 收藏 0 点赞 0 评论 0
def __call__(self, x):
        return F.hard_sigmoid(x)
functions.py 文件源码 项目:LSGAN 作者: musyoku 项目源码 文件源码 阅读 21 收藏 0 点赞 0 评论 0
def __init__(self):
        self._function = "hard_sigmoid"
        pass
functions.py 文件源码 项目:LSGAN 作者: musyoku 项目源码 文件源码 阅读 23 收藏 0 点赞 0 评论 0
def __call__(self, x):
        return F.hard_sigmoid(x)
functions.py 文件源码 项目:adgm 作者: musyoku 项目源码 文件源码 阅读 44 收藏 0 点赞 0 评论 0
def __init__(self):
        self._function = "hard_sigmoid"
        pass
functions.py 文件源码 项目:adgm 作者: musyoku 项目源码 文件源码 阅读 47 收藏 0 点赞 0 评论 0
def __call__(self, x):
        return F.hard_sigmoid(x)


问题


面经


文章

微信
公众号

扫码关注公众号