Script que obtém informações disponibilizadas a bots pelos sites
Publicado por Renato Alencar (última atualização em 05/02/2014)
[ Hits: 5.842 ]
O script é uma mão na roda pra quem cria bots pra vasculhar sites, é com esse arquivo que não se permite mostrar algum arquivo que o admin do site não quer que apareça nas pesquisas (do Google, por exemplo). É também útil pra se aprender como usar o pacote httplib2.
O script é bem simples e funciona via linha de comando. Se você não tem o httplib2 instalado, você pode baixá-lo em: http://code.google.com/p/httplib2/
Uso:
$ ./getrobots.py <URL>
#!/usr/bin/python # -*- coding: utf-8 -*- # Baixa o arquivo robots.txt do site dado como parametro # # O arquivo robots.txt contem definições para bots que acessam o site # é usado por exemplo pelo bot de pesquisa do Google. # É necessario o pacote httplib2 para se conectar import httplib2 import sys # Faz a requisição HTTP e obtem o arquivo def getRobot(site): # TODO: Criar rotina de validação client = httplib2.Http() response = client.request('http://%s/robots.txt' % site) # Retorna o objeto response return response def main(): if len(sys.argv) < 2: raise Exception, "Use: %s <site>" % sys.argv[0] r = getRobot(sys.argv[1]) if r[0]['status'] <> '200': raise Exception, "CODE %s" % r[0]['status'] print r[1] if __name__ == '__main__': main()
Cliente/Servidor Usando Python
Nenhum comentário foi encontrado.
Novidades Linux: Kernel 6.17, distros em ebulição e segurança em foco
Kernel ganha novos linters Rust e distros avançam com recursos de IA
Firewire resiste, Bcachefs sai: destaques Linux do dia
Kernel 6.18 em foco, betas fervilhando e avanços em IA no Linux
O que é o THP na configuração de RAM do Linux e quando desabilitá-lo
Adicionando o repositório backports no Debian 13 Trixie
Como definir um IP estático no Linux Debian
Como instalar Counter-Strike 1.6? [RESOLVIDO] (11)
intervenção politica pode interver no Fedora Linux [RESOLVIDO] (14)
Como colocar atalho para uma pasta na área de trabalho do Ubuntu 24.04... (0)