Teniendo en cuenta algunos de los factores que nos benefician en el posicionamiento en buscadores, son a su vez un aspecto que corre en contra del tiempo.
Es sabido que Google tiene en cuenta la cantidad de contenido clasificable por unidad de superficie, por lo que a mayor contenido respecto a elementos de diseño como imágenes, menúes, videos, beneficia la posibilidad de alcanza mejor posición, pero a su vez es más complicado clasificar todo, sobre todo si se encuentra en un sitio que a su vez tiene un creciente contenido que respeta ese principio, mayor cantidad de contenido clasificable por unidad de superficie de diseño de cada página.
Otro factor que cambia la ecuación es el tipo de sitio, los robots para sitios de prensa y blogs, pasan más rápido que para sitios; y a su vez, los de prensa y sitios, se subdividen según sean de e-commerce o no.
Los sitios de prensa y blogs, para ser clasificados en esas categorías es porque están diseñados con un tipo formato en XML, el llamado RSS o Feed, es un estándar de prensa, por lo que los robot que revisan esos sitios no andan a los tumbos, sino que saben qué tipo de elementos encontrarán dentro del lenguaje y van al punto, esto acelera el proceso de búsqueda y clasificación.
Pero, el objetivo de publicar en prensa o en blogs, usualmente no es posicionar esos medios, sino posicionar nuestro sitio. La pregunta que se hacen los usuarios es por qué colocar contenido en sitios externos al propio, la respuesta es otro de los factores de posicionamiento web, los buscadores llaman popularidad, al hecho de ser mencionado nuestro sitio en medios externos al mismo. Este factor tiene incluso mayor relevancia que otros, porque es un voto de confianza en el sitio mismo.
Es por ello que nos conviene hacer la presentación de nuestros productos en sitios de prensa, la clasificación será más rápida que nuestro sitio y suma el hecho de que al ser un vínculo externo, tiene una relevancia importante para nuestro sitio.
La estrategia de distribuir publicaciones es buena política, sobre todo en sitios que respetan la misma consigna, mayor superficie de contenidos clasificables que los que no.
Estos vínculos externos, son más valiosos si provienen de sitios con el mismo tema que el nuestro, esto ha generado la actividad de intercambio de vínculos, pero al final ese tipo de estrategia es poco confiable, muchos aceptan, y luego sacan tu vínculo mientras vos mantenés el de ellos, por una parte, por la otra, la ignorancia de los que no comprenden que es beneficioso y rechazan el intercambio, al ser una actividad incierta y de mucha gestión en relación a la ganancia, desde DataGestion descartamos ese sistema. Un método intermedio que aún persiste es pagar por el vínculo, pero Google tiene identificado a ese tipo de actividad y penaliza la actividad de cobrar por clics, supongo que porque es competencia, de todos modos es un método poco eficaz, las empresas no proveen métodos seguros para comprobar la eficacia, inflan los números y nunca se acomodan a un sistema de administración que nos beneficie.
El mejor método es un equilibrio entre publicaciones propias en medios de prensa, en blogs propios y procurar informar a las redes sociales de la novedad.
Teniendo en cuenta que las redes sociales participan de este proceso para formas de contacto o análisis de tendencia, Google ignora la actividad de redes sociales en su ecuación de posicionamiento porque es fácil de manipular y el clic en compartir suele ser artificioso y no verdadero interés.
Luego la diferencia entre cualquier sitio, prensa y blog con e-commerce, es que mientras los primeros se posicionan por tema, lo que es más fácil de ejecutar porque se tienen pocos elementos en palabras clave, en los sitios comerciales se deberían posicionar por productos, lo que requiere que haya mejor velocidad en el posicionamiento, para un producto cuya presencia depende de un stock, quizás sale de un sitio y el vínculo aún está indexado por Google.
El consejo es que para los comerciales, no se saque el producto ni la dirección que conduce al producto aún cuando ya no pertenece al stock y que se señale al público ese hecho, sin borrarlo, toma mucho trabajo indexar un contenido para luego desecharlo.
Teniendo en cuenta estos factores, la mejor forma de acelerar el proceso de indexación es colaborando con las herramientas que propone el mismo Google, uno de ellos es genera un archivo llamado robot.txt, o su similar sintemap.xml que como sus extensiones indican, txt o XML, representan el tipo de lenguaje con que se informa el número de archivos representados por una dirección url; el buscador lo primero que hace es buscar si este archivo existe y lo usará para acelerar el proceso.
Luego, los robots de clasificación visitan un sitio en diferentes momentos, y se queda en él diferente tiempo, dependiendo de su contenido, se puede acelerar esa visita si se le informa cambios a los robots con anterioridad, pero hay que tener una muy buena medición de esos cambios, si se informa que deben hacer una visita diaria y a 3 veces que pasa el robot y no encuentra cambios, desestimará ese factor y jugará en contra, se puede informar cuándo puede un robot revistar un sitio regularmente, teniendo como criterio el tiempo en que se incorporan cambios en el sitio. En los medios de prensa y e-commerce, es probable la situación de cambios diarios. En blogs, según el uso.
Esta información se incorpora en el atributo metatag de la cabecera del sitio.
En conclusión incorporar un aviso de revisitas, y crear el archivo robot.txt cada vez que se suma una dirección con contenido debería ser parte del diseño propio del sitio, se pueden generar automáticamente el archivo robot.txt cada vez que se aumenta el contenido del sitio.