Я изучаю Scrapy веб-фреймворк.
по умолчанию он не сканирует повторяющиеся URL-адреса или URL-адреса, которые уже сканированы scrap.
Как заставить Scrapy сканировать дубликаты URL или уже просканированные URL?
Я пытался узнать в Интернете, но не смог найти соответствующую помощь.
Я нашел DUPEFILTER_class= RFPDupeFilter
и SgmlLinkExtractor
из Scrapy - Spider сканирует дубликаты URL, но этот вопрос противоположен тому, что я ищу