如何使用Python Scrapy模块列出我网站上的所有URL?

发布于 2021-01-29 15:08:48

我想使用Python
Scrapy模块从我的网站中抓取所有URL,并将列表写入文件。我查看了示例,但没有看到任何简单的示例来执行此操作。

关注者
0
被浏览
70
1 个回答
  • 面试哥
    面试哥 2021-01-29
    为面试而生,有面试问题,就找面试哥。

    这是为我工作的python程序:

    from scrapy.selector import HtmlXPathSelector
    from scrapy.spider import BaseSpider
    from scrapy.http import Request
    
    DOMAIN = 'example.com'
    URL = 'http://%s' % DOMAIN
    
    class MySpider(BaseSpider):
        name = DOMAIN
        allowed_domains = [DOMAIN]
        start_urls = [
            URL
        ]
    
        def parse(self, response):
            hxs = HtmlXPathSelector(response)
            for url in hxs.select('//a/@href').extract():
                if not ( url.startswith('http://') or url.startswith('https://') ):
                    url= URL + url 
                print url
                yield Request(url, callback=self.parse)
    

    将此保存在名为的文件中spider.py

    然后,您可以使用Shell管道来后期处理以下文本:

    bash$ scrapy runspider spider.py > urls.out
    bash$ cat urls.out| grep 'example.com' |sort |uniq |grep -v '#' |grep -v 'mailto' > example.urls
    

    这为我提供了网站中所有唯一URL的列表。



知识点
面圈网VIP题库

面圈网VIP题库全新上线,海量真题题库资源。 90大类考试,超10万份考试真题开放下载啦

去下载看看