lang_proc.py 文件源码

python
阅读 20 收藏 0 点赞 0 评论 0

项目:Search-Engine 作者: SoufianEly 项目源码 文件源码
def stem_and_tokenize_text(text):
    sents = sent_tokenize(text)
    tokens = list(itertools.chain(*[TreebankWordTokenizer().tokenize(sent) for sent in sents]))
    terms = [Term(token) for token in tokens]
    return filter(lambda term: not term.is_punctuation(), terms)
评论列表
文章目录


问题


面经


文章

微信
公众号

扫码关注公众号