test_tokenize.py 文件源码

python
阅读 25 收藏 0 点赞 0 评论 0

项目:Malicious_Domain_Whois 作者: h-j-13 项目源码 文件源码
def cuttest(test_sent):
    global g_mode
    result = jieba.tokenize(test_sent,mode=g_mode)
    for tk in result:
        print("word %s\t\t start: %d \t\t end:%d" % (tk[0],tk[1],tk[2]))
评论列表
文章目录


问题


面经


文章

微信
公众号

扫码关注公众号