Я хочу остановить поисковые системы от сканирования всего моего сайта.
У меня есть веб-приложение для использования членами компании. Это размещается на веб-сервере, чтобы сотрудники компании могли получить к нему доступ. Никто другой (общественность) не нуждается в нем или не считает это полезным.
Итак, я хочу добавить еще один уровень безопасности (в теории), чтобы попытаться предотвратить несанкционированный доступ, полностью удалив доступ к нему всеми поисковыми роботами/искателями. Благодаря индексу Google наш сайт, чтобы сделать его доступным для поиска, бессмысленно с точки зрения бизнеса и просто добавляет другой способ для хакера найти веб-сайт в первую очередь, чтобы попытаться его взломать.
Я знаю, что в robots.txt
вы можете указать поисковым системам не сканировать определенные каталоги.
Можно ли сказать ботам, чтобы они не сканировали весь сайт без необходимости перечислять все каталоги, которые не сканируются?
Это лучше всего сделать с помощью robots.txt
или лучше сделать это с помощью .htaccess или другого?