# jobs为自己指定的爬虫的名称,后边的URL注意不需要添加https://,因为scrapy会自己添加 1. 2. 这时scrapy会自动在当前目录建立一个python项目,基本框架已经搭好,使用pycharm打开项目,树状图如下图所示 jobs.py文件此时内容如下 # -*- coding: utf-8 -*- import scrapy class JobsSpider(scrapy.Spider): name...
et=etree.HTML(resp)tr_list=et.xpath('//table//tr')foriintr_list:# 获取电影信息,并去掉前面的多余的那个圆点 data=", ".join(i.xpath('./td//text()')[1:])+'\n'# 追加写入文件withopen('电影.csv','a',encoding='utf-8')asf:f.write(data) 这个代码亲测好使,不过还有更好的思路。 ...
data =", ".join(i.xpath('./td//text()')[1:]) +'\n' # 追加写入文件 with open('电影.csv','a', encoding='utf-8') as f: f.write(data) 这个代码亲测好使,不过还有更好的思路。 这里【月神】给出了一个代码,如下所示: import requests from lxml import etree url ='https://piaofan...
data =", ".join(i.xpath('./td//text()')[1:]) +'\n' # 追加写入文件 with open('电影.csv','a', encoding='utf-8') as f: f.write(data) 这个代码亲测好使,不过还有更好的思路。 这里【月神】给出了一个代码,如下所示: import requests from lxml import etree url ='https://piaofan...