Scrapy SgmlLinkExtractor игнорирует допустимые ссылки

Пожалуйста, посмотрите этот пример паука в документации Scrapy. Объяснение:

Этот паук начнет сканирование домашней страницы example.coms, сбор ссылок категории и ссылок на элементы, разбор последних с помощью метода parse_item. Для каждого ответа элемента некоторые данные будут извлечены из HTML с помощью XPath, и элемент будет заполнен им.

Я скопировал тот же самый паук точно и заменил example.com на другой начальный URL.

from scrapy.contrib.spiders import CrawlSpider, Rule
from scrapy.contrib.linkextractors.sgml import SgmlLinkExtractor
from scrapy.selector import HtmlXPathSelector
from scrapy.item import Item
from stb.items import StbItem

class StbSpider(CrawlSpider):
    domain_name = "stb"
    start_urls = ['http://www.stblaw.com/bios/MAlpuche.htm']

    rules = (Rule(SgmlLinkExtractor(allow=(r'/bios/.\w+\.htm', )), callback='parse', follow=True), )

    def parse(self, response):
        hxs = HtmlXPathSelector(response)

        item = StbItem()
        item['JD'] = hxs.select('//td[@class="bodycopysmall"]').re('\d\d\d\d\sJ.D.')
        return item

SPIDER = StbSpider()

Но мой паук "stb" не собирает ссылки из "/bios/", как это должно быть сделано. Он запускает исходный url, scrapes item['JD'] и записывает его в файл, а затем завершает работу.

Почему это SgmlLinkExtractor игнорируется? Rule читается, потому что он улавливает синтаксические ошибки внутри строки Rule.

Это ошибка? что-то не так в моем коде? Ошибок нет, кроме ошибок, которые я вижу при каждом запуске.

Было бы неплохо узнать, что я здесь делаю неправильно. Спасибо за любые подсказки. Я не понимаю, что делать SgmlLinkExtractor?

Ответ 1

Функция parse фактически реализована и используется в классе CrawlSpider, и вы непреднамеренно переопределяете ее. Если вы измените имя на что-то еще, например parse_item, тогда правило должно работать.