Я хочу скачать локальную копию веб-страницы и получить все CSS, изображения, JavaScript и т.д.
В предыдущих обсуждениях (например, здесь и здесь, которым более двух лет), обычно выдвигаются два предложения: wget -p
и httrack, Однако оба эти предложения терпят неудачу. Я был бы очень признателен за помощь в использовании любого из этих инструментов для выполнения задачи; альтернативы тоже прекрасны.
Вариант 1: wget -p
wget -p
успешно загружает все необходимые компоненты веб-страницы (css, images, js). Однако когда я загружаю локальную копию в веб-браузер, страница не может загрузить предварительные условия, поскольку пути к этим предварительным требованиям не были изменены из версии в Интернете.
Например:
- На странице html необходимо исправить
<link rel="stylesheet href="/stylesheets/foo.css" />
, чтобы он указывал на новый относительный путьfoo.css
- В файле css
background-image: url(/images/bar.png)
также необходимо отрегулировать.
Есть ли способ изменить wget -p
так, чтобы пути были правильными?
Вариант 2: httrack
httrack
кажется отличным инструментом для зеркалирования целых веб-сайтов, но мне неясно, как использовать его для создания локальной копии одной страницы. На форумах httrack есть много дискуссий на эту тему (например, здесь), но ни у кого, похоже, нет пуленепробиваемого решения.
Вариант 3: другой инструмент?
Некоторые люди предлагают платные инструменты, но я просто не могу поверить, что там нет бесплатного решения.