Ниже приведен пример файла robots.txt для разрешения нескольких пользовательских агентов с несколькими задержками обхода для каждого пользовательского агента. Значения Crawl-delay предназначены для иллюстрации и будут отличаться в реальном файле robots.txt.
Я искал по всему Интернету правильные ответы, но не смог найти его. Слишком много смешанных предложений, и я не знаю, какой из них правильный/правильный.
Вопросы:
(1) Может ли каждый пользовательский агент иметь собственную задержку обхода? (Я предполагаю, что да)
(2) Где вы помещаете линию задержки обхода для каждого пользовательского агента до или после строки Разрешить/Запретить?
(3) Должен быть пустой пробел между каждой группой пользовательских агентов.
Литература:
http://www.seopt.com/2013/01/robots-text-file/
http://help.yandex.com/webmaster/?id=1113851#1113858
По сути, я ищу, чтобы узнать, как должен выглядеть последний файл robots.txt, используя значения в примере ниже.
Спасибо заранее.
# Allow only major search spiders
User-agent: Mediapartners-Google
Disallow:
Crawl-delay: 11
User-agent: Googlebot
Disallow:
Crawl-delay: 12
User-agent: Adsbot-Google
Disallow:
Crawl-delay: 13
User-agent: Googlebot-Image
Disallow:
Crawl-delay: 14
User-agent: Googlebot-Mobile
Disallow:
Crawl-delay: 15
User-agent: MSNBot
Disallow:
Crawl-delay: 16
User-agent: bingbot
Disallow:
Crawl-delay: 17
User-agent: Slurp
Disallow:
Crawl-delay: 18
User-agent: Yahoo! Slurp
Disallow:
Crawl-delay: 19
# Block all other spiders
User-agent: *
Disallow: /
# Block Directories for all spiders
User-agent: *
Disallow: /ads/
Disallow: /cgi-bin/
Disallow: /scripts/
(4) Если я хочу, чтобы все пользовательские агенты имели задержку обхода 10 секунд, было бы правильно?
# Allow only major search spiders
User-agent: *
Crawl-delay: 10
User-agent: Mediapartners-Google
Disallow:
User-agent: Googlebot
Disallow:
User-agent: Adsbot-Google
Disallow:
User-agent: Googlebot-Image
Disallow:
User-agent: Googlebot-Mobile
Disallow:
User-agent: MSNBot
Disallow:
User-agent: bingbot
Disallow:
User-agent: Slurp
Disallow:
User-agent: Yahoo! Slurp
Disallow:
# Block all other spiders
User-agent: *
Disallow: /
# Block Directories for all spiders
User-agent: *
Disallow: /ads/
Disallow: /cgi-bin/
Disallow: /scripts/