
removido
(usa Nenhuma)
Enviado em 19/02/2018 - 16:46h
amarildosertorio escreveu:
O script foi uma sugestão com base na necessidade apresentada. Há N formas de se fazer isso, mas como existe a necessidade de testar link a link para identificar o 404 não pensei em algo mais performático.
Seria algo assim? Tem erros nos comandos abaixo:
CURL=$(curl -I '/etc/squid3/lista.txt' 2>/dev/null | head -n 1 | cut -d$' ' -f2)
xargs -t -P0 -L1 sed '/etc/squid3/lista.txt' / '/etc/squid3/lista1.txt' < $CURL
O sed seria melhor do que o cp?
Teria que identificar o site ( echo "PULA" $i) e jogar numa outra lista temporária ou usar o sed?