调试(Debugging)Spiders

本篇介绍了调试spider的常用技术。考虑下面的spider:

  1. import scrapy
  2. from myproject.items import MyItem
  3.  
  4. class MySpider(scrapy.Spider):
  5. name = 'myspider'
  6. start_urls = (
  7. 'http://example.com/page1',
  8. 'http://example.com/page2',
  9. )
  10.  
  11. def parse(self, response):
  12. # collect `item_urls`
  13. for item_url in item_urls:
  14. yield scrapy.Request(item_url, self.parse_item)
  15.  
  16. def parse_item(self, response):
  17. item = MyItem()
  18. # populate `item` fields
  19. # and extract item_details_url
  20. yield scrapy.Request(item_details_url, self.parse_details, meta={'item': item})
  21.  
  22. def parse_details(self, response):
  23. item = response.meta['item']
  24. # populate more `item` fields
  25. return item

简单地说,该spider分析了两个包含item的页面(start_urls)。Item有详情页面,所以我们使用 Requestmeta 功能来传递已经部分获取的item。

Parse命令

检查spier输出的最基本方法是使用parse 命令。这能让你在函数层(method level)上检查spider各个部分的效果。其十分灵活并且易用,不过不能在代码中调试。

查看特定url爬取到的item:

  1. $ scrapy parse --spider=myspider -c parse_item -d 2 <item_url>
  2. [ ... scrapy log lines crawling example.com spider ... ]
  3.  
  4. >>> STATUS DEPTH LEVEL 2 <<<
  5. # Scraped Items ------------------------------------------------------------
  6. [{'url': <item_url>}]
  7.  
  8. # Requests -----------------------------------------------------------------
  9. []

使用 —verbose-v 选项,查看各个层次的状态:

  1. $ scrapy parse --spider=myspider -c parse_item -d 2 -v <item_url>
  2. [ ... scrapy log lines crawling example.com spider ... ]
  3.  
  4. >>> DEPTH LEVEL: 1 <<<
  5. # Scraped Items ------------------------------------------------------------
  6. []
  7.  
  8. # Requests -----------------------------------------------------------------
  9. [<GET item_details_url>]
  10.  
  11.  
  12. >>> DEPTH LEVEL: 2 <<<
  13. # Scraped Items ------------------------------------------------------------
  14. [{'url': <item_url>}]
  15.  
  16. # Requests -----------------------------------------------------------------
  17. []

检查从单个start_url爬取到的item也是很简单的:

  1. $ scrapy parse --spider=myspider -d 3 'http://example.com/page1'

Scrapy终端(Shell)

尽管 parse 命令对检查spider的效果十分有用,但除了显示收到的response及输出外,其对检查回调函数内部的过程并没有提供什么便利。如何调试 parse_detail 没有收到item的情况呢?

幸运的是,救世主 shell 出现了(参考在spider中启动shell来查看response):

  1. from scrapy.shell import inspect_response
  2.  
  3. def parse_details(self, response):
  4. item = response.meta.get('item', None)
  5. if item:
  6. # populate more `item` fields
  7. return item
  8. else:
  9. inspect_response(response, self)

参考 在spider中启动shell来查看response

在浏览器中打开

有时候您想查看某个response在浏览器中显示的效果,这是可以使用open_in_browser 功能。下面是使用的例子:

  1. from scrapy.utils.response import open_in_browser
  2.  
  3. def parse_details(self, response):
  4. if "item name" not in response.body:
  5. open_in_browser(response)

open_in_browser 将会使用Scrapy获取到的response来打开浏览器,并且调整base tag 使得图片及样式(style)能正常显示。

Logging

记录(logging)是另一个获取到spider运行信息的方法。虽然不是那么方便,但好处是log的内容在以后的运行中也可以看到:

  1. def parse_details(self, response):
  2. item = response.meta.get('item', None)
  3. if item:
  4. # populate more `item` fields
  5. return item
  6. else:
  7. self.logger.warning('No item received for %s', response.url)

更多内容请参见 Logging 部分。