tokenizer.py 文件源码

python
阅读 24 收藏 0 点赞 0 评论 0

项目:yargy 作者: natasha 项目源码 文件源码
def compile(self, rules):
        mapping = {}
        patterns = []
        for rule in rules:
            name = 'rule_{id}'.format(id=id(rule))
            pattern = r'(?P<{name}>{pattern})'.format(
                name=name,
                pattern=rule.pattern
            )
            mapping[name] = rule
            patterns.append(pattern)

        pattern = '|'.join(patterns)
        regexp = re.compile(pattern, re.UNICODE | re.IGNORECASE)
        return regexp, mapping
评论列表
文章目录


问题


面经


文章

微信
公众号

扫码关注公众号