Con la introducción de Google Panda y Google Cafeina, muchas paranoias se han vuelto cosa cotidiana, en especial el contenido dinámico de nuestros propios sitios web que presentan varias veces el mismo contenido. ¿Pero realmente Google penaliza al contenido duplicado solamente por estar duplicado?
Existen muchas condiciones o muchos contextos bajo los cuales una información se duplicada dentro de un mismo sitio -un blog es un buen ejemplo-, pero eso no quiere decir que Google penalice solo porque un contenido se presente varias veces, sino la forma en que se presente, según evalué su software de detección de SPAM.
Para un blog de Blogger existen tres formas de generar contenido duplicado, dos de estas formas, sin embargo, están bloqueadas por el archivo robots.txt, la única excepción es el Archivo de Blogger; sistema que no tienen un modelo de calendario como Wordpress, y si han hecho análisis de los resultados, notarán varios inconvenientes con el uso de este sistema de archivo.
Archivo de enlaces para hacer fluir el jugo de enlaces
En Blogger la única forma de hacer fluir el jugo de los enlaces internos (esto es; el Pagerank de cada página dividida entre los enlaces), es mediante el Archivo de Blogger, que además de ser un compendio de enlaces, genera páginas dinámicas que agrupa por años, meses, semanas o días, todo el contenido del blog, esto es un problema, porque compite con las posiciones en las SERP con nuestros artículos o post individuales, aunque Google puede con precisión en la mayoría de los casos, separar un post individual del archivo general.
Como fuere, el archivo de Blogger no está correctamente optimizado para los buscadores, por lo que recordarán el caso de las páginas dinámicas del archivo que aparecerán en los resultados de los Enlaces de sitio, generalmente los Meses, como ocurre en la imagen de abajo pues dichas páginas dinámicas son enlazadas por todos los post del blog dándoles preferencias sobre el resto del contenido:
Clásico problema del Archivo de Blogger apareciendo los meses en Enlaces de sitio |
Los enlaces de sitios con el Archivo de blogger optimizado |
1. Aplicar la meta Noindex usando condicionales
Este sería el método más recomendable agregando la metatag noindex entre las etiquetas <head> y </head> como se ve abajo:
<b:if cond='data:blog.pageType == "archive"'>Esto hará que Google no indexe el archivo, pero si seguirá los vínculos dentro del mismo. Noindex lo usamos debidos a que Blogger no permite configurar robots.txt, ni los .htaccess u otros archivos que permitirían una mejor optimización.
<meta name="robots" content="noindex" />
</b:if>
2. Sumarios sin javascript
Además de evitar que Google indexe el contenido del Archivo, quizas de cara a la usabilidad del usuario sea necesario reducir su tamaño, al hacer que se presente un sumario con miniaturas sin javascript, con un hack que encontré en oloblogger [Ver tutorial], usando snippets (fragmentos del texto del post), yo uso uno particularmente modificado -para este sitio-, que me gusta más pero como no he hecho un tutorial, les recomiendo el de oloblogger.
Se optimizará así la velocidad de carga de todo el sitio, el problema de este hack, es que solamente podemos mostrar 150 letras y una miniatura demasiado pequeña, nada configurable y por el hecho de que también se aplica a las etiquetas y la navegación general del sitio quizás no a todos les guste.
Por otro lado, el usar este tipo de artilugio sin el noindex con condicionales que vimos en el punto 1, hace que cobre mucha relevancia el contenido de los meses del archivo sobre los artículos individuales en los Enlaces de sitio que ofrece Google a sitios con más 6 meses de antigüedad, ya que le da la idea de que estas páginas dinámicas de meses que ahora muestran resúmenes, son de hecho artículos muy relevantes al que que se es deseable.
Conclusiones
Mezclados, ambos métodos son una buena forma de evitar contenido duplicado, aumentar la velocidad de carga general y que Google indexe dando prioridad a los artículos individuales sobre la navegación y el archivo de la plataforma de Blogger que es quizás la que más desventajas presenta a la hora de tratar de optimizarla de forma apropiada para los buscadores, muchos quisiéramos que Google sacara alguna versión de pago que tuviera más características y fuera más configurable, pero es algo que quizás nunca pase.
Como sea, ninguno de estos métodos afectan el número de visitas a su web y pueden evitar a la larga muchos dolores de cabeza.
Este artículo ha sido corregido para mejorar su comprensión, algunos términos técnicos sobre SEO quizas sea mejor buscarlos en la Web.
Comentarios y Consultas
Los mensajes serán revisados a veces. No te olvides que soy una persona, no se trata de faltar al respeto, todos tenemos opiniones, no hay que enojarse.
Puedes marcar Notificarme para recibir la notificación de la respuesta.