如何使用Python Scrapy模块列出我网站上的所有URL?
发布于 2021-01-29 15:08:48
我想使用Python
Scrapy模块从我的网站中抓取所有URL,并将列表写入文件。我查看了示例,但没有看到任何简单的示例来执行此操作。
关注者
0
被浏览
70
1 个回答
-
这是为我工作的python程序:
from scrapy.selector import HtmlXPathSelector from scrapy.spider import BaseSpider from scrapy.http import Request DOMAIN = 'example.com' URL = 'http://%s' % DOMAIN class MySpider(BaseSpider): name = DOMAIN allowed_domains = [DOMAIN] start_urls = [ URL ] def parse(self, response): hxs = HtmlXPathSelector(response) for url in hxs.select('//a/@href').extract(): if not ( url.startswith('http://') or url.startswith('https://') ): url= URL + url print url yield Request(url, callback=self.parse)
将此保存在名为的文件中
spider.py
。然后,您可以使用Shell管道来后期处理以下文本:
bash$ scrapy runspider spider.py > urls.out bash$ cat urls.out| grep 'example.com' |sort |uniq |grep -v '#' |grep -v 'mailto' > example.urls
这为我提供了网站中所有唯一URL的列表。