Nie chcesz tylko artykuł lub indywidualny obraz, chceszcały stronie internetowej. Jaki jest najłatwiejszy sposób na spuszczenie tego wszystkiego?
Dzisiejsza sesja pytań i odpowiedzi przychodzi do nas dzięki uprzejmości SuperUser - poddziału Stack Exchange, społecznościowego forum z pytaniami i odpowiedziami.
Obraz dostępny jako tapeta w GoodFon.
Czytnik SuperUser Joe ma proste żądanie:
Jak mogę pobrać wszystkie strony ze strony internetowej?
Każda platforma jest w porządku.
Każda strona, bez wyjątku. Joe jest na misji.
Pomocnik SuperUser Axxmasterr oferuje rekomendację zastosowania:
http://www.httrack.com/
HTTRACK działa jak mistrz do kopiowania zawartości całej witryny. To narzędzie może nawet pobrać elementy potrzebne do utworzenia witryny internetowej z aktywną zawartością kodu działającą w trybie offline. Jestem zdumiony materiałami, które można replikować w trybie offline.
Ten program zrobi wszystko, czego potrzebujesz.
Udanego polowania!
Możemy gorąco polecić HTTRACK. To dojrzała aplikacja, która wykonuje swoją pracę. A co z archiwistami na platformach innych niż Windows? Inny współpracownik, Jonik, sugeruje kolejne dojrzałe i potężne narzędzie:
Wget to klasyczne narzędzie wiersza poleceń dla tego rodzaju zadania. Pochodzi z większością systemów Unix / Linux i można go również uzyskać w systemie Windows (nowsza wersja 1.13.4 dostępna tutaj).
Zrobilibyśmy coś takiego:
wget -r --no-rodzic http://site.com/songs/
Aby uzyskać więcej informacji, zobacz Wget Manual i jego przykłady lub spójrz na te:
- http://linuxreviews.org/quicktips/wget/
- http://www.krazyworks.com/?p=591
Czy masz coś do dodania do wyjaśnienia? Dźwięk w komentarzach. Chcesz przeczytać więcej odpowiedzi od innych użytkowników Stack Exchange, którzy znają się na technologii? Sprawdź cały wątek dyskusji tutaj.