tokenizer.py 文件源码

python
阅读 27 收藏 0 点赞 0 评论 0

项目:word_segmentation 作者: CongSon1293 项目源码 文件源码
def save_model(self, model, path):
        print('saving %s ...' % (path))
        utils.mkdir('model')
        joblib.dump(model, path)
        return
评论列表
文章目录


问题


面经


文章

微信
公众号

扫码关注公众号