CrawlBase.py 文件源码

python
阅读 27 收藏 0 点赞 0 评论 0

项目:Recruit 作者: Weiyanyu 项目源码 文件源码
def getListProxies(self):  
        session = requests.session()
        self.getRandomUserAgent()  
        page = session.get("http://www.xicidaili.com/nn", headers=self.headers)  
        soup = BeautifulSoup(page.text, 'lxml')  

        proxyList = []  
        taglist = soup.find_all('tr', attrs={'class': re.compile("(odd)|()")})  
        for trtag in taglist:  
            tdlist = trtag.find_all('td')  
            proxy = { 'https': tdlist[1].string + ':' + tdlist[2].string }  
            proxyList.append(proxy)  

        return proxyList

    #????????????????????
评论列表
文章目录


问题


面经


文章

微信
公众号

扫码关注公众号