text_clustering.py 文件源码

python
阅读 19 收藏 0 点赞 0 评论 0

项目:text_clustering 作者: WennieZhi 项目源码 文件源码
def tokenize(sentence):
    cn_sent = get_cnstr(sentence)
    term_list = jieba.lcut(cn_sent, cut_all=False)
    final_term_list = [term for term in term_list if len(term)>1 and is_cn_char(term)]
    return final_term_list
评论列表
文章目录


问题


面经


文章

微信
公众号

扫码关注公众号