Strona 1 z 1

Archiwizacja stron www

: 10 grudnia 2009, 23:24
autor: sihdi
Witam,

znacie jakiś program linuxowy, który zarchiwizuje daną stronę internetową razem z x podstronami? Coś w stylu WebCloner'a.

: 10 grudnia 2009, 23:47
autor: lessmian2
Wget. Zwróć uwagę na opcję --recursive.

: 11 grudnia 2009, 00:42
autor: fnmirk
Sprawdź jeszcze na swoim komputerze z zainstalowanym Debianem:

Kod: Zaznacz cały

apt-cache search  websites copy

: 11 grudnia 2009, 00:45
autor: jaqbeu
Httrack Website Copier.
Jest w repozytorium i jest bardzo dobre. ;)

: 11 grudnia 2009, 00:55
autor: fnmirk
jaqbeu, sprawdź moje polecenie?