utils.py 文件源码

python
阅读 28 收藏 0 点赞 0 评论 0

项目:attention-transfer 作者: szagoruyko 项目源码 文件源码
def distillation(y, teacher_scores, labels, T, alpha):
    return F.kl_div(F.log_softmax(y/T), F.softmax(teacher_scores/T)) * (T*T * 2. * alpha) \
            + F.cross_entropy(y, labels) * (1. - alpha)
评论列表
文章目录


问题


面经


文章

微信
公众号

扫码关注公众号