Tarsis.net — Agencia Web y Marketing Digital — Tel: (+34) 911 413 259 EN

Tarsis.net › Agencia Web y Marketing Digital

Actualizaciones del algoritmo de Google

Tarsis.net

La búsqueda de resultados de calidad para responder a una consulta es la principal preocupación de cualquier buscador. Google tiene un largo historial de modificación de sus algoritmos de indexación, que muchas veces actúan reactivamente contra la incansable marea de administradores web que tratan de encontrar el atajo hacia los primeros puestos en los resultados del buscador.

GoogleEn este artículo se ofrece un histórico de las principales actualizaciones que, a lo largo de su historia, ha llevado a cabo Google sobre los algoritmos que posicionan páginas en los resultados de búsqueda.

No se trata de una relación exhaustiva, sino que se ha centrado en aquellas actualizaciones más relevantes para el posicionamiento de pequeñas y medianas empresas, y se han dejado de lado muchas actualizaciones de menor tamaño o bien que solamente se sospecha que se han producido.

Los ingenieros de Google han confirmado que el buscador lleva a cabo una media de tres actualizaciones diarias de su lógica, por lo que se trata de un trabajo siempre en marcha, que mantiene a los operadores SEO en continua vigilancia del posicionamiento de sus páginas.

¿Quiere mejorar su posicionamiento en buscadores? Contacte con nosotros.

2017 Owl. Mejora en la detección de noticias falsas para evitar su aparición en los resultados de búsqueda, una de las preocupaciones tanto de los buscadores como de las redes sociales tras las pasadas elecciones presidenciales estadounidenses. Anuncio de Google.
2017 Fred. Sin confirmar. Una posible actualización para penalizar sitios web más centrados en la obtención de ingresos que en la publicación de contenidos de alta calidad.
2017 Interstitials intrusivos. Penalización de páginas que incluyen anuncios del tipo interstitial por considerar que bajan la calidad de la experiencia de usuario.
2016 Possum. Actualización que busca ampliar el ámbito de los resultados de búsqueda a sitios web locales en áreas próximas a la buscada.
2015 RankBrain. Google anunció que su algoritmo de indexación utilizaba aprendizaje automático (machine learning) como uno de los factores más relevantes para ofrecer sus resultados.
2015 Mobilegeddon. Actualización para mejorar el posicionamiento de sitios web adaptables a dispositivos móviles, y penalización de aquellos que no lo sean. Anuncio de Google.
2014 HTTPS/SSL. Potenciación de los sitios web que ofrecen sus contenidos a través del protocolo seguro HTTPS, y consecuente minusvaloración de aquellos sitios que permanecen con el tradicional HTTP.
2014 Pidgeon. Modificación sustancial del tratamiento de los resultados locales, que alteró muchos de los posicionamientos de este tipo.
2013 Hummingbird. En la misma línea que Caffeine, se trata de una actualización para mejorar aspectos semánticos que permitan relacionar significados entre páginas, texto de los enlaces y términos de búsqueda.
2013 Panda Recovery. Corrección de Panda para mitigar algunas de las penalizaciones impuestas, que habían producido una caída significativa en el posicionamiento de ciertas páginas legítimas.
 2012 Exact-Match Domain. Disminución en la importancia adjudicada a la presencia de las palabras clave exactas en el nombre de dominio del sitio que aloja la página, para evitar el spam web.
 2012 Pirate. Penalización de páginas que infringen el acta DMCA de derechos de propiedad intelectual.
2012 Penguin. Otra de las actualizaciones de gran impacto en el tiempo. Se trata de nuevo de potenciar en los resultados las páginas con contenidos de calidad y dejar fuera a aquellas que no lleguen a un mínimo. Modificaciones para el refinamiento de Panda se han ido desplegando a lo largo del tiempo. Anuncio de Google.
2012 Ads above the fold. Penalización de páginas con abuso de anuncios en la parte superior de la página.
2011 Freshness. Potenciación de la aparición en los resultados de búsqueda de contenidos más recientes sobre otros más antiguos.
2011 Encriptación de las búsquedas. Google desplegó HTTPS en sus servidores web y dejó de informar a través de sus estadísticas de cuáles son los términos de búsqueda que condujeron a una visita orgánica a un sitio web.
2011 Schema.org. Inclusión del soporte para el estándar de datos estructurados con el fin de ayudar a los buscadores a comprender mejor la oferta de una página web, y actuar consecuentemente en su posicionamiento.
2011 Panda. Una de las más importantes actualizaciones de Google hasta ese momento. Su objetivo era la penalización de sitios web con contenidos de baja calidad, granjas de contenidos y abuso de anuncios. Una declaración de intenciones de Google respecto a la importancia que concede a los contenidos como indicador de la calidad de un resultado. Panda tuvo varias actualizaciones en los meses siguientes, refinando aspectos en busca de la calidad de contenidos. Anuncio de Google.
2010 Social Signals. Google confirma que utiliza datos procedentes de redes sociales para posicionar una página.
2010 May Day. Penalización de sitios con páginas que trataban de abusar de la “larga cola” del posicionamiento.
2010 Google Places. Potenciación de los aspectos locales de los resultados de búsqueda a la vez que el servicio de localización de negocios de Google veía una considerable potenciación.
2009 Caffeine. Google amplía su infraestructura para permitir indexación prácticamente en tiempo real. Anuncio de Google.
2009 Vince. Actualización cuyo principal efecto fue posicionar preferentemente a páginas pertenecientes a grandes empresas.
2009 Canonical. Los mayores buscadores alcanzaron un acuerdo para soportar la etiqueta “canonical” para declarar la URL estándar con la que una página debía ser accedida, facilitando a los buscadores la tarea de encontrar contenidos duplicados y dejando de penalizar a sitios web en los que un mismo contenido podía ser accedido a través de varias URL.
2005 Big Daddy. Actualización para mejorar el indexado de páginas a través de la canonización de sus URL.
2005 Jagger. Penalización de páginas con enlaces de baja calidad (enlaces recíprocos, granjas de enlaces y enlaces de pago).
2005 XML Sitemaps. Google permite a los administradores web enviar manifiestos de páginas en formato XML, a modo de sugerencias de páginas a indexar.
2005 Bourbon. No se tiene certeza del alcance de esta actualización, pero se especula que se trata de evitar páginas con contenidos duplicados (por ejemplo cuando la página es accesible doblemente a través de un dominio con y sin “www”).
2005 Nofollow. Los mayores buscadores introducen simultáneamente el atributo nofollow en los enlaces externos, lo que permite evitar spam en los enlaces, por ejemplo en los comentarios de los blog.
2004 Brandy. Inclusión de capacidades semánticas para mejorar los resultados utilizando sinónimos tanto en las claves como en los textos enlazados.
2004 Austin. Penalización de páginas con textos ocultos y exceso de palabras clave en los campos meta.
2003 Florida. Primera modificación del algoritmo para descartar páginas con saturación de palabras clave, una práctica muy utilizada desde los años 90.
2003 Cassandra. Modificación del algoritmo con el punto de mira en los enlaces entrantes desde dominios propiedad del mismo propietario.

 

Fuente: Moz.com

Publicado en: Marketing digital Web

Etiquetas:

Puede usted hacer un comentario, o enlazar desde su propio sitio web o blog.

Escriba un comentario