关于Requests与Response的认识
一、关于Requests
的认识
1、定义:在前面的章节中我们介绍了使用
Requests
建立连续性爬虫(我们爬取一页数据需要重新发送一个请求的时候触发的),这个类需要传递一些参数,2、导包方式
from scrapy.http import Request
3、使用方式
yield Request(url='', callback=''...)
4、关于
Request
的主要参数介绍class Request(object_ref): def __init__(self, url, callback=None, method='GET', headers=None, body=None, cookies=None, meta=None, encoding='utf-8', priority=0, dont_filter=False, errback=None, flags=None):
url
: 字符串类型url
地址callback
:回调函数名称method
:字符串类型请求方式,如果GET,POST
headers
:字典类型的,浏览器用户代理cookies
:设置cookies
meta
:字典类型键值对,向回调函数直接传一个指定值encoding
:设置网页编码priority
:默认为0,如果设置的越高,越优先调度dont_filter
:默认为False
,如果设置为真,会过滤掉当前url
errback
: 在发生错误的时候执行的函数
二、关于Response
的认识
- 1、定义:
Response
对象一般是由Scrapy
给你自定构建的.因此开发者不需要关心如何创建Response
对象,而是直接知道他有哪些属性就可以。主要包括下面这些常用属性:meta
:从上一个请求传递过来的,常用于多个请求之间数据交互encoding
: 返回当前字符串编码和解码的格式text
: 将返回的数据作为unicode
字符串返回body
:将返回的数据作为bytes
字符串返回xpath
:使用xpath
选择器css
: 使用css
选择器