Spiders Contracts
0.15 新版功能.
注解
这是一个新引入(Scrapy 0.15)的特性,在后续的功能/API更新中可能有所改变,查看release notes 来了解更新。
测试spider是一件挺烦人的事情,尤其是只能编写单元测试(unit test)没有其他办法时,就更恼人了。Scrapy通过合同(contract)的方式来提供了测试spider的集成方法。
您可以硬编码(hardcode)一个样例(sample)url,设置多个条件来测试回调函数处理repsponse的结果,来测试spider的回调函数。每个contract包含在文档字符串(docstring)里,以 @
开头。查看下面的例子:
- def parse(self, response):
- """ This function parses a sample response. Some contracts are mingled
- with this docstring.
- @url http://www.amazon.com/s?field-keywords=selfish+gene
- @returns items 1 16
- @returns requests 0 0
- @scrapes Title Author Year Price
- """
该回调函数使用了三个内置的contract来测试:
- class
scrapy.contracts.default.
UrlContract
该constract(@url
)设置了用于检查spider的其他constract状态的样例url。该contract是必须的,所有缺失该contract的回调函数在测试时将会被忽略:- @url url
- class
scrapy.contracts.default.
ReturnsContract
该contract(@returns
)设置spider返回的items和requests的上界和下界。上界是可选的:- @returns item(s)|request(s) [min [max]]
- class
scrapy.contracts.default.
ScrapesContract
该contract(@scrapes
)检查回调函数返回的所有item是否有特定的fields:- @scrapes field_1 field_2 ...
使用
check
命令来运行contract检查。
自定义Contracts
如果您想要比内置scrapy contract更为强大的功能,可以在您的项目里创建并设置您自己的contract,并使用 SPIDER_CONTRACTS
设置来加载:
- SPIDER_CONTRACTS = {
- 'myproject.contracts.ResponseCheck': 10,
- 'myproject.contracts.ItemValidate': 10,
- }
每个contract必须继承 scrapy.contracts.Contract
并覆盖下列三个方法:
- class
scrapy.contracts.
Contract
(method, *args) -
参数: - method (function) – contract所关联的回调函数
- args (list) – 传入docstring的(以空格区分的)argument列表(list)
adjustrequest_args
(_args)
接收一个字典(dict)
作为参数。该参数包含了所有Request
对象参数的默认值。该方法必须返回相同或修改过的字典。
该样例contract在response接收时检查了是否有自定义header。在失败时Raise
scrapy.exceptions.ContractFaild
来展现错误:
- from scrapy.contracts import Contract
- from scrapy.exceptions import ContractFail
- class HasHeaderContract(Contract):
- """ Demo contract which checks the presence of a custom header
- @has_header X-CustomHeader
- """
- name = 'has_header'
- def pre_process(self, response):
- for header in self.args:
- if header not in response.headers:
- raise ContractFail('X-CustomHeader not present')
当前内容版权归 scrapy-chs 或其关联方所有,如需对内容或内容相关联开源项目进行关注与资助,请访问 scrapy-chs .