def tokenize(data): tokenizer = RegexpTokenizer(r'\w+') return [tokenizer.tokenize(d) for d in data]
提 问题
写 面经
写 文章
微信 公众号
回到 顶部
没有帐户? 立即注册
已有帐号?立即登录