A muito tempo tempo se fala dos "Google hacks", mas o que não é divulgado é como evitar que o Google e outros sistemas de busca disponibilizem informações e/ou arquivos que não sejam interessantes para seu site.
Cada dia surge um Robot novo, então agora além de se preocupar
com vírus/spywares/DoS/Porn entre outros, temos que nos previnir
desses fogo-amigo dos Search Engine.
É isso pessoal, espero que gostem e que cometem!
Gabriel Abner Coppini
gcoppini@katatudo.com.br
ICQ: 74343533
MSN: gabriel@2up.com.br
[10] Comentário enviado por Hernando em 03/05/2005 - 12:10h
Parabens geralmente eu uso o google para testar falhas pois se o cara souber usar a busca avançada do google ele tem acesso total a conteudos restritos...
[11] Comentário enviado por _m4n14c_ em 01/06/2007 - 18:50h
Camaradas, em tempo de lembra-los: o arquivo robots.txt e as metatags sao lidos e utilizados pelo robot e nao pelo servidor, bem como a informacao do user-agent tb eh fornecida pelo robot.
As configuracoes citadas no artigo funcionam bem para crawlers "bonzinhos", mas nao oferece seguranca alguma contra programas que enviam user-agent's falsos ou ignoram as instrucoes do robots.txt. A melhor politica de seguranca eh nao tornar documentos sigilosos publicamente acessiveis, exceto se forem devidamente protegidos por senha e preferencialmente servidos sobre https.
[12] Comentário enviado por Teixeira em 20/10/2007 - 20:20h
Muito embora no momento eu pretenda exatamente o contrário, isto é, dar maior visibilidade às minhas páginas atuais, a dica é muito valiosa para proteger dados. Vou guardá-la para alguma necessidade futura.
Parabéns!