После исправления кода веб-сайта для использования CDN (переписывая все URL-адреса на изображения, js и css), Мне нужно проверить все страницы в домене, чтобы убедиться, что все ресурсы извлечены из CDN.
Все страницы сайтов доступны через ссылки, без изолированных страниц.
В настоящее время я использую FireBug и проверяю представление "Net"...
Есть ли какой-либо автоматизированный способ дать доменное имя и запросить все страницы + ресурсы домена?
Update:
ОК, я нашел, что могу использовать wget
так:
wget -p --no-cache -e robots=off -m -H -D cdn.domain.com,www.domain.com -o site1.log www.domain.com
варианты объяснены:
-
-p
- также загружать ресурсы (изображения, css, js и т.д.). -
--no-cache
- получить реальный объект, не возвращать серверный кешированный объект -
-e robots=off
- игнорироватьrobots
иno-follow
направления -
-m
- зеркальный сайт (следуйте ссылкам) -
-H
- промежуточные хосты (также следуйте за другими доменами) -
-D cdn.domain.com,www.domain.com
- укажите домены ведьм, чтобы следовать, в противном случае будет следовать каждая ссылка со страницы -
-o site1.log
- войти в файл site1.log -
-U "Mozilla/5.0"
- необязательно: подделка пользовательского агента - полезно, если сервер возвращает разные данные для разных браузеров -
www.domain.com
- сайт для загрузки
Наслаждайтесь!