La solución al «ejerccio SEO» es: cambio de urls y crear un fichero robots.txt con enlace al sitemap sin vincularlos en Google Webmaster Tools, en el fondo es un chorrada como un piano, pero parece que el robots.txt algún efecto produce aunque no se en que proporción respecto al cambio de URL’s con sus respectivas redirecciones 301 of course.
Lo que me queda como incógnita es la bajada del tiempo de descarga, ni idea de como puede ser eso a ver si alguién se atreve?, serán bienvenidas las ideas.
Puede ser que al leer el sitemap a través del robots.txt, tenga mas clara la estructura de la web y no tenga que ir haciendo de crawler y se limite a solo indexar? puede ser que vaya tan rápido porque solo estaba reorganizando el contenido ya indexado con las nuevas URLS? o son solo las típicas teorias conspiratorias de SEO loco.
Eso es todo
Gracias a Miguel de TallerSEO, al Seo Teacher (Ani para los enemigos), a Otger de Disseny Webs Catalunya y a Edgar Granados (aprovecho para pidir un Gadget SEO con la palabra analítica web marciano)
Ahora van mis preguntas:
Edgar, tanto crees que influye aumentar la frecuencia de rastreo? Te ha funcionado?
Ani: no se ha comprimido nada, te refieres a la compresión del sitemap o a la web?
Miguel: al palo!! el aumento del consumo del ancho de banda para esta web, creo que sería un regalo.
Lo último: la subida es solo en la indexación no en el tráfico, esperemos que en pocos días empiece a acompañar.