web-backup

La idea es crear una copia de seguridad de la información pública en los portales web. La misma que sacarías haciendo scraping, pero aprovechando el tener acceso a la base de datos para que sea mucho más rápido y eficiente.

Actualmente solo funciona para wordpress, phpbb y parcialmente mediawiki y mailman pero lo deseable es que se extienda a todos los servicios posibles. Adicionalmente busca en la configuración de apache dominios que no se hayan detectado aún.

En funcionamiento básico es el siguiente:

  1. Mediante un tunel ssh nos conectamos a la base de datos en el servidor
  2. Detectamos los esquemas que nos interesan
  3. Construimos las consultas que extraigan la información pública
  4. Enriquecemos la información con:
  5. Obtenemos un mapa de mailman generado con mailman-map.py
  6. Buscamos en apache más sitios web
  7. Creamos la base de datos SQLite con dicha información

Fichero de configuración y scripts

Diagrama de la base de datos SQLite

Diagrama de la base de datos