关于Requests与Response的认识
一、关于Requests的认识
1、定义:在前面的章节中我们介绍了使用
Requests建立连续性爬虫(我们爬取一页数据需要重新发送一个请求的时候触发的),这个类需要传递一些参数,2、导包方式
from scrapy.http import Request3、使用方式
yield Request(url='', callback=''...)4、关于
Request的主要参数介绍class Request(object_ref): def __init__(self, url, callback=None, method='GET', headers=None, body=None, cookies=None, meta=None, encoding='utf-8', priority=0, dont_filter=False, errback=None, flags=None):url: 字符串类型url地址callback:回调函数名称method:字符串类型请求方式,如果GET,POSTheaders:字典类型的,浏览器用户代理cookies:设置cookiesmeta:字典类型键值对,向回调函数直接传一个指定值encoding:设置网页编码priority:默认为0,如果设置的越高,越优先调度dont_filter:默认为False,如果设置为真,会过滤掉当前urlerrback: 在发生错误的时候执行的函数
二、关于Response的认识
- 1、定义:
Response对象一般是由Scrapy给你自定构建的.因此开发者不需要关心如何创建Response对象,而是直接知道他有哪些属性就可以。主要包括下面这些常用属性:meta:从上一个请求传递过来的,常用于多个请求之间数据交互encoding: 返回当前字符串编码和解码的格式text: 将返回的数据作为unicode字符串返回body:将返回的数据作为bytes字符串返回xpath:使用xpath选择器css: 使用css选择器