training_data.py 文件源码

python
阅读 25 收藏 0 点赞 0 评论 0

项目:vanilla-neural-nets 作者: cavaunpeu 项目源码 文件源码
def _tokenize_corpus_into_list_of_tokenized_sentences(cls, corpus):
        tokenized_corpus = nltk.sent_tokenize(corpus)
        tokenized_corpus = [cls._clean_sentence(sentence) for sentence in tokenized_corpus]
        return [nltk.word_tokenize(sentence) for sentence in tokenized_corpus]
评论列表
文章目录


问题


面经


文章

微信
公众号

扫码关注公众号