Мне интересны публичные сайты (ничего за логином/аутентификацией), которые имеют такие вещи, как:
- Высокое использование внутренних перенаправлений 301 и 302
- Антискользящие меры (но не запрещение сканеров через robots.txt)
- Не-семантическая или недопустимая разметка
- Содержимое, загруженное через AJAX в виде onclicks или бесконечной прокрутки
- Множество параметров, используемых в URL-адресах
- Канонические проблемы
- Структура встроенных внутренних линий
- и все остальное, что обычно сканирует сайт на головную боль!
Я построил сканер/паук, который выполняет целый ряд анализов на веб-сайте, и я нахожусь в поисках сайтов, которые будут препятствовать этому.