Enviado em 26/02/2018 - 17:58h
Olá galera, estou com o seguinte "problema".
preciso salvar 160 imagens de um site, só que para cada imagem existe um url ou seja, são 160 urls que cada uma delas possui uma imagem.
já tentei usar o wget para isso mas, tem que logar na conta do site para poder baixar as imagens e por isso ão consegui com o wget.
se eu entrar nessa url e der um Ctrl + S ele vai salvar a pagina e imagem também, ai eu queria saber se tem como eu baixar a pagina .html completa apenas utilizando o campo da url, pq se der eu apenas digito no terminar googe-chrome (url) e ai iria baixar.
Alguém ai tem uma sugestão?
preciso salvar 160 imagens de um site, só que para cada imagem existe um url ou seja, são 160 urls que cada uma delas possui uma imagem.
já tentei usar o wget para isso mas, tem que logar na conta do site para poder baixar as imagens e por isso ão consegui com o wget.
se eu entrar nessa url e der um Ctrl + S ele vai salvar a pagina e imagem também, ai eu queria saber se tem como eu baixar a pagina .html completa apenas utilizando o campo da url, pq se der eu apenas digito no terminar googe-chrome (url) e ai iria baixar.
Alguém ai tem uma sugestão?