split_tokens_decoder.py 文件源码

python
阅读 28 收藏 0 点赞 0 评论 0

项目:seq2seq 作者: google 项目源码 文件源码
def decode(self, data, items):
    decoded_items = {}

    # Split tokens
    tokens = tf.string_split([data], delimiter=self.delimiter).values

    # Optionally prepend a special token
    if self.prepend_token is not None:
      tokens = tf.concat([[self.prepend_token], tokens], 0)

    # Optionally append a special token
    if self.append_token is not None:
      tokens = tf.concat([tokens, [self.append_token]], 0)

    decoded_items[self.length_feature_name] = tf.size(tokens)
    decoded_items[self.tokens_feature_name] = tokens
    return [decoded_items[_] for _ in items]
评论列表
文章目录


问题


面经


文章

微信
公众号

扫码关注公众号