Pular para o conteúdo

Baixando conteúdo de sites inteiros com o wget

Dica publicada em Linux / Comandos
Neriberto neriberto
Hits: 15.792 Categoria: Linux Subcategoria: Comandos
  • Indicar
  • Impressora
  • Denunciar
O Viva o Linux depende da receita de anúncios para se manter. Ative os cookies aqui para nos patrocinar.
Não conseguimos carregar os anúncios. Se usa bloqueador, considere liberar o Viva o Linux para nos patrocinar.

Baixando conteúdo de sites inteiros com o wget

Olá pessoal, esta dica é fácil de usar. Para baixar o conteúdo de um site inteiro, para por exemplo ler offline, basta usar o wget:

$ wget -crp http://www.meusite.com.br/index.html

Isto fará o wget ler o arquivo index.html (um exemplo) e fazer o download de todos os outros arquivos que estão sendo referenciados por ele. Por exemplo, digamos que neste arquivo tenha um link para a página historia.html, então ele irá ler este arquivo também e baixar os outros arquivos que estão sendo referenciados nele. A operação se repete até que todos os arquivos sejam baixados, arquivos HTML e imagens.

Para maiores informações consulte:

$ man wget

T+ galera!

O Viva o Linux depende da receita de anúncios para se manter. Ative os cookies aqui para nos patrocinar.
Não conseguimos carregar os anúncios. Se usa bloqueador, considere liberar o Viva o Linux para nos patrocinar.
O Viva o Linux depende da receita de anúncios para se manter. Ative os cookies aqui para nos patrocinar.
Não conseguimos carregar os anúncios. Se usa bloqueador, considere liberar o Viva o Linux para nos patrocinar.

Instalando o Maya 5 no Red Hat 9 e Slackware

Deixe seu servidor web mais seguro

Instalando pacotes mascarados no Gentoo

Limpando sua memória cache de forma simples

Como fazer logout forçado pela linha de comando no GNOME

Comandos para a distribuição Solus OS - Gerenciamento de Pacotes

Copiando CDs e DVDs pelo terminal com facilidade

Iniciando o Mplayer em tela cheia na segunda placa de vídeo

#1 Comentário enviado por jose_maria em 03/02/2005 - 17:33h
Bom para albuns, baixando uma página cheia de imagens (jpegs):
$wget -r -nd -A *.jpg http://apaginacheiadefotos

-r para recursividade
-nd para não criar subdiretorios
-A *.jpg para pegar somente os jpegs.
#2 Comentário enviado por neriberto em 03/02/2005 - 17:42h
hmm.. legal josé :)
#3 Comentário enviado por davysonguto em 10/12/2005 - 18:17h
valeu brother pela dica. agora vai ficar mais facil estudar sobre o linux da internet, e principalmente mais barato... HEHEHEHEHEHE (conexão discada é sofrimento) :)
#4 Comentário enviado por gabrielsp em 09/11/2007 - 21:33h
ótima dica! e a jose_maria tbm =D

Abs!

*favoritado

Contribuir com comentário

Entre na sua conta para comentar.