4.1 注意如果网页操作太频繁的话会被冻结,这个时候可以用time库里面的sleep操作: 源代码 爬取某同城某地区全部小区信息: from random import randint import requests# 直接保存到本地from lxml import etree from time import sleep# 创建excel表格的import xlwt defget_name__url(): list_urls =[]for i inran...
resp = requests.get(url=url, headers=headers).content.decode('utf8') html = etree.HTML(resp) # 11.如果是Ajax请求 直接解析json数据 这个比较好处理 # resp = requests.get(url=url, headers=headers) # json = resp.content element = html.xpath('//*[@id="full-view-identifiers"]/li[3]/s...