3.2 情况二:encode或decode某个含有非法字符的字符串时报错 当我们在爬取某些网站时,无论是无意还是有意反爬,有可能该网页含有非法字符,这时我们使用str.decode('utf-8')就会得到下面的异常: UnicodeDecodeError:‘utf-8’codec can't decode byte in position :illegal multibyte s
Python requests关于爬虫下载下来的数据乱码问题 1.html下载后乱码 直接用浏览器检查原网页的编码,然后把你下载下来的网页数据设置为网页上显示的编码,result.encoding=“网页上的编码” 2.直接获取api的json数据乱码 最近几年网页传输出现了新的br压缩方式,在请求的时候如果你的headers里面 Accept-Encoding是“gzip, de...
可以注意下面几点:如果涉及到大文件数据,可以数据脱敏后,发点demo数据来(小文件的意思),然后贴点代码(可以复制的那种),记得发报错截图(截全)。代码不多的话,直接发代码文字即可,代码超过50行这样的话,发个.py文件就行。