data.py 文件源码

python
阅读 35 收藏 0 点赞 0 评论 0

项目:dong_iccv_2017 作者: woozzu 项目源码 文件源码
def split_sentence_into_words(sentence):
    tokenizer = RegexpTokenizer(r'\w+')
    return tokenizer.tokenize(sentence.lower())
评论列表
文章目录


问题


面经


文章

微信
公众号

扫码关注公众号