Aby ściągnąć daną stronę www musimy wydać następującą komendę:
$ wget --recursive --no-clobber --page-requisites --html-extension --convert-links --restrict-file-names=windows --domains kursyonline.pl --no-parent www.kursyonline.pl/kursy/php
Dobrze, a teraz przeanalizujmy poszczególne wpisy:
--recursive - ściągaj całą stronę z podstronami.
--no-clobber - nie nadpisuj plików, które już istnieją (przydatne jeszcze wcześniej nie ściągnęliśmy całej strona a teraz chcemy kontynuować ściąganie).
--page-requisites - ściągaj wszystkie pliki związane ze stroną, czyli css, js, etc.
--html-extension - zapisuj pliki używając rozszerzenia html.
--convert-links - skonwertuj linki tak aby działały lokalnie, czyli off-line.
--restrict-file-names=windows - zmodyfikuj nazwy linków tak by działały również na windowsie.
--domains kursyonline.pl - ściągaj strony tylko z domeny kursyonline.pl. Nie podążaj za linkami zewnętrznymi.
--no-parent - nie podążaj za linkami z poza katalogu /kursy/php/.
Brak komentarzy:
Prześlij komentarz