У меня есть какой-то промежуточный сервер в общедоступном Интернете, на котором запущены копии производственного кода для нескольких сайтов. Мне бы это не понравилось, если индексированные сайты.
Есть ли способ изменить мой httpd.conf на промежуточном сервере, чтобы блокировать поисковые роботы?
Изменение файла robots.txt действительно не работает, поскольку я использую скрипты для копирования одной и той же базы кода на оба сервера. Кроме того, я бы предпочел не изменять файлы конфигов виртуального хоста, так как есть куча сайтов, и я не хочу забывать копировать по определенной настройке, если я создаю новый сайт.