Я изучаю Scrapy веб-фреймворк. 
 по умолчанию он не сканирует повторяющиеся URL-адреса или URL-адреса, которые уже сканированы scrap.
 Как заставить Scrapy сканировать дубликаты URL или уже просканированные URL? 
 Я пытался узнать в Интернете, но не смог найти соответствующую помощь.
 Я нашел DUPEFILTER_class= RFPDupeFilter и SgmlLinkExtractor из Scrapy - Spider сканирует дубликаты URL, но этот вопрос противоположен тому, что я ищу