Fue desarrollada para utilizarse en la primera fase de un Pentest "Recogida de Información", en el cual se necesita saber la correlación con otras empresas, archivos públicos, entre otras cosas.
Utilidad:
- Web Crawler
- Divide subdominios y enlaces externos encontrados
- Finder Admin
- Busqueda de Archivos PDF
- Descargar los Archivos PDF encontrados
- Python 2.7.x.
- Tener el Modulo pycurl (Si se corre sobre alguna distribución de Linux, no es necesario descargarla, ya que la tiene por defecto).
- Todas las clases deben de estar en la misma ruta.
¿Como usarla?
Dirigirse desde la Terminal o CMD a la ruta en donde esta alojado el proyecto.
Ejecutar Main.py seguido de los parametros.
Parámetros:
-d
-t
-l
-h
-i
-f: (Buscar pagina de Login-Search page Login) Default No.
Descargar . GitHub
pd. Si tu también has desarrollado tu propia herramienta y quieres hablar de ella no lo dudes y escríbenos!
0 comentarios :
Publicar un comentario