attention_ops.py 文件源码

python
阅读 34 收藏 0 点赞 0 评论 0

项目:hart 作者: akosiorek 项目源码 文件源码
def bbox_to_attention(self, bbox):
        with tf.variable_scope('ratm_bbox_to_attention'):
            us = bbox[..., :2] / self.inpt_size[np.newaxis, :2]
            ss = 0.5 * bbox[..., 2:] / self.inpt_size[np.newaxis, :2]
            ds = bbox[..., 2:] / (self.inpt_size[np.newaxis, :2] - 1.)

            att = tf.concat(axis=tf.rank(bbox) - 1, values=(us, ss, ds))
        return att
评论列表
文章目录


问题


面经


文章

微信
公众号

扫码关注公众号