Baixando conteúdo de sites inteiros com o wget
Dica publicada em Linux / Comandos
Baixando conteúdo de sites inteiros com o wget
Olá pessoal, esta dica é fácil de usar. Para
baixar o conteúdo de um site inteiro, para por
exemplo ler offline, basta usar o wget:
$ wget -crp http://www.meusite.com.br/index.html
Isto fará o wget ler o arquivo index.html (um exemplo) e fazer o download de todos os outros arquivos que estão sendo referenciados por ele. Por exemplo, digamos que neste arquivo tenha um link para a página historia.html, então ele irá ler este arquivo também e baixar os outros arquivos que estão sendo referenciados nele. A operação se repete até que todos os arquivos sejam baixados, arquivos HTML e imagens.
Para maiores informações consulte:
$ man wget
T+ galera!
$ wget -crp http://www.meusite.com.br/index.html
Isto fará o wget ler o arquivo index.html (um exemplo) e fazer o download de todos os outros arquivos que estão sendo referenciados por ele. Por exemplo, digamos que neste arquivo tenha um link para a página historia.html, então ele irá ler este arquivo também e baixar os outros arquivos que estão sendo referenciados nele. A operação se repete até que todos os arquivos sejam baixados, arquivos HTML e imagens.
Para maiores informações consulte:
$ man wget
T+ galera!
$wget -r -nd -A *.jpg http://apaginacheiadefotos
-r para recursividade
-nd para não criar subdiretorios
-A *.jpg para pegar somente os jpegs.