tokenizer.py 文件源码

python
阅读 27 收藏 0 点赞 0 评论 0

项目:word_segmentation 作者: CongSon1293 项目源码 文件源码
def save_training(self, X_train, y_train, X_test, y_test):
        utils.mkdir('model')
        self.save_model(X_train, 'model/X_train.pkl')
        self.save_model(X_test, 'model/X_test.pkl')
        self.save_model(y_train, 'model/y_train.pkl')
        self.save_model(y_test, 'model/y_test.pkl')
评论列表
文章目录


问题


面经


文章

微信
公众号

扫码关注公众号