historia del seo

[Mega Post] La Historia del SEO y del Algoritmo de Google

Intenté hacer el artículo más completo de los cambios algorítmicos de Google y de la historia del seo en español. Son más de 2500 palabras, que seguramente algo se me escape y probablemente no sea el más grande, pero si me lo haces notar te lo agradeceré para mejorarlo.

Antes de que comencemos con el tema en cuestión, cabe destacar que conforme vayan habiendo nuevos cambios oficializados por la gran G, estarán aquí. Y que pronto lo haré en infografía, pdf o algo del estilo, para que sea más fácil de leerlo.

No me gustan las introducciones largas ni el contenido de relleno. Pero antes de ir al grano, por favor comparte, comenta o ayúdame a la difusión por favor! También aclarar que hay referencias oficiales y no oficiales pero de sitios de la más alta confianza, ya lo verás.

Disfruta de la lectura!

Los primeros buscadores

Todo empezó el 6 de agosto de 1991, cuando Tim Berner-Lee creó el primer sitio web del mundo. Ese fue el comienzo de la revolución en la cual el internet comenzó a expandirse. Fue en esta época cuando aparecieron los primeros buscadores para ayudarte a acceder más fácilmente a los contenidos.

En 1993, plataformas como Excite fueron las que establecieron la forma en que se catalogaba la información. Aparecieron también otros competidores como AltaVista, Lycos y Yahoo. Se tomaban en cuenta algunos factores como los links internos y externos, las etiquetas HTML y la cantidad de veces que aparecía una keyword.

En 1997 nace el SEO como concepto. Pero fundamentalmente las estrategias para alcanzar los primeros puestos en esta época solían ser técnicas de black hat SEO, incluyendo etiquetas excesivas, backlinks e incluso spamming de keywords. Todo esto caos hacia que si en cada búsqueda obtuvieses información de mala calidad.

La era de Google y el Page Rank

Si todo esto hasta ahora te suena lejano pues ha llegado el momento de que hable de alguien familiar. Todos hemos oído de Google, el buscador líder, el cual nació en 1997 pero no fue muy conocido hasta el año 2000 (cuando Yahoo empezó a utilizar su buscador para obtener resultados orgánicos).

Google consiguió el éxito gracias a su algoritmo de Page Rank. Este no solo se enfocó en la página, sino en su relevancia, basándose principalmente en los links externos que apuntaban a una página y en los sitios que estos lo enlazaban. Básicamente si muchas webs hablan de un sitio web entonces debe ser bueno y en efecto eso mejoró los resultados.

Así mismo Google continuó desde entonces introduciendo nuevas actualizaciones para combatir las malas prácticas y ofrecer cada vez mejores contenidos. Este algoritmo se actualiza anualmente. Aquí una lista de las actualizaciones hechas proporcionado por la wikipedia en su página de PageRank.

Google AdWords y AdSense

Ahora que Google te estaba mostrando los mejores resultados necesitaba una forma de obtener dinero. Por eso apareció Adwords (2000), una serie de resultados pagados por anunciantes los cuales aparecen junto a los resultados orgánicos. Además apareció AdSense (2003), para colocar publicidad en sitios webs de publicadores.

Ambas herramientas ayudaron a definir las formas de posicionarse en la web y también monetizar.

Actualizaciones Cassandra y Florida

En 2003 Google tomó una aproximación directa para combatir el spam de keywords y el intercambio de links. Fue uno de los mayores cambios de la historia y una enorme cantidad de sitios web perdieron sus posiciones privilegiadas.

Las páginas que usaban las keyword más pagadas en Google Adwords recibirían controles estrictos para el Spam. Además se permitió que en las búsquedas aparecieran resultados con palabras derivadas de la palabra buscada. Finalmente, los intercambios de link recibieron menos relevancia.

Referencias:

Actualizaciónes Jagger y Big Daddy

En 2005 se realizaron otros cambios muy relevantes. Apareció la actualización Jagger, atacando directamente a: 1)las páginas con contenido duplicado. 2) los enlaces spammy (enfocandose en el contexto del enlace, entre otros varios factores). 3) prácticas técnicas blackhat, concretamente texto oculto mediante css, redireccionamientos con el fin de engañar al usuario y al buscador, y cloaking (mostrar un contenido al buscador y otro al usuario).

Más adelante en 2005 se liberaron nuevas estrategias para combatir el Spam de links (Jagger y Big Daddy). En general se determinó con ellas el valor de las relaciones entre sitios que comparten links. También se vio un decline en la importancia de los anchor text, lo cual disminuyó en gran medida los intercambios de links.

Referencias:

Maps Plus Box

En 2004 Google realizó mejoras importantes en las búsquedas por segmentos geográficos. En particular se le daría prioridad a las páginas de negocios cercanos a la localidad de quien realiza la búsqueda.

Pero eso no fue todo, pues para el año 2006 se añadió a las búsquedas la opción de Google Maps. Por lo tanto la integración con esa herramienta sería vital para obtener un buen posicionamiento.

Google Webmaster Tools y Google Analytics

También en 2006 aparecieron estas 2 herramientas tremendamente importantes para el SEO actual. Google Analytics, se integra con Adwords y presenta métricas actualizadas de tu página de forma automática sin agregar información de rastreo. En particular se resalta la importancia del retorno de la inversión y las conversiones generadas.

Por su parte, Webmaster Tools (ahora Search Console) permitió que los desarrolladores observasen sus errores de rastreo. Los webmaster podrían determinar que URLs estaban disponibles para el rastreo y mayor información para ayudar una indexación más inteligente en las busquedas.

2007 fue otro año de evolución en lo concerniente a actualizaciones, siendo la Universal Search la más importante de todas. Es en este momento cuando los resultados orgánicos tradicionales comenzaron a mezclarse con todo tipo de contenido. Se permite la aparición de imágenes, videos y noticias, alterando así la forma en que se concibe el SEO.

Gracias a este sistema integrado es que puedes disfrutar del mundo audiovisual que nos rodea hoy en día. Por supuesto, las páginas con estos contenidos saldrían claramente favorecidas y además recibirían incluso mejor tratamiento para sus búsquedas locales.

Pero esto va más allá, pues el comportamiento de los usuarios alteraría los resultados de formas distintas. Así podría cambiar por los comentarios y número de visualizaciones de un video, en lugar de parámetros como el PageRank.

Actualizaciones Vince y Caffeine

En 2009 apareció Vince, una actualización para darle un mayor peso en el algoritmo a la confianza de los usuarios. Con este sistema terminaron favorecidas las grandes marcas y sería más difícil que marcas pequeñas rankeasen. Sin embargo también permitió mayor relevancia en las búsquedas y una oportunidad importante para el marketing digital.

Por su parte Caffeine fue un nuevo sistema de indexado para rastrear, almacenar y mostrar la información más eficientemente (muy enfocado en la velocidad). Con este, no solo Google incrementó su alcance, sino que también obtuvo resultados más actualizados. Gracias a ello los cambios en un sitio web no serían notados por Google en días, sino más bien en pocos segundos.

Sin dudas fue un cambio pensando en los nuevos tiempos. En los cuales los contenidos como imágenes y videos cambian constantemente y deben ser tomados en cuenta.

Actualizaciones Panda y Penguin

Si bien Caffeine reestructuró el sistema de indexado, el algoritmo permaneció relativamente igual hasta 2011. Pues a partir de allí aparecieron dos cambios mayores que alteraron nuevamente las reglas. Favoreciendo de esta manera a los sitios web con contenido de mayor calidad y tambien combatiendo a los balchateros.

Panda, viene a resolver un problema extremadamente común en la época: el contenido de baja calidad. Claro, como era posicionar mediante el link building (por eso vino penguin y otras constantes actualizaciones), no se preocupaban por el contenido. Por esto, no se esforzaban en ofrecer un contenido útil al usuario. En muchas oportunidades era un plagio literal de otras webs. Ahora, el contenido, era (y es) factor de posicionamiento. Es decir, si no cumples con las directivas, te penalizan.

Siguiendo con lo de “fácil posicionar mediante link building”, para esa época existía el fenómeno de las granjas de contenido y muchas otras técnicas de enlazado. Las cuales tenían el simple objetivo de dejar un enlace saliente. Obviamente ese link no tenía contexto alguno, puesto que su propio ecosistema eran enlaces salientes a sitios que MUY probablemente no tenía absolutamente nada que ver.

La respuesta de Google a este problema fue Penguin, el cual apareció en 2012 y se ha renovado a lo largo de los años. Es un algoritmo que busca contenido genuinamente único, que provea información de valor para los usuarios.

Se basa solamente en el contenido, no verifica aspectos técnicos como el uso de etiquetas o metra descripción. El indicador clave sería una formula denominada TF*IDF. La cual mide la proporción de ciertas palabras (relacionadas a la palabra clave) y su relevancia a lo largo de un documento. Así se pueden crear contenidos más originales y con buen peso a la hora de ser indexado.

Gracias a ambos algoritmos se evita que el contenido de baja calidad ocupe posiciones prominentes en los resultados orgánicos.

Knowledge Graph

Sucede en 2012 una adición importante a los resultados de búsquedas: Gráficos de Conocimientos. Ejemplo:

DESKTOP:

knowledge graph explicacion

MOBILE

Como puedes ver en las imágenes, lo resaltado dentro del recuadro en rojo, es el Kowledge Graph o Gráfico del Conocimiento. Y es una base de datos de conocimiento semántico, estructurado y compilado para ofrecer esta clase de resultados.

Actualización Hummingbird

En septiembre de 2013 apareció otro algoritmo para identificar de mejor manera el lenguaje natural en las búsquedas. Es un cambio gordo. Más que cambio, es un nuevo algoritmo. Afectó al 90% de las búsquedas.

Hablando en criollo, lo que hace es mejorar el buscador en términos conversacionales y empieza a contextualizar las búsquedas en función de tu historial.

También comienza a ser mucho más responsivo a las consultas por voz y esto evidentemente presenta una mejora notable en este apartado.

Goolge Payday Loan

Esta actualización de Google se da en 2013 y con actualizaciones durante el 2014 (aunque algunas otras en el actual Google Ads en el 2016) y viene a atacar a los nichos turbios como seguros, préstamos, y otros nichos financieros; así como la pornografía, productos farmacéuticos, etc.

Aquí te dejo un artículo super completo, con casos de estudios y repercusiones que sucedieron en aquella época: https://www.searchenginejournal.com/google-algorithm-history/payday-loan-update/

Mobile First Indexing (Mobilegeddon)

Seguro ya has notado lo diferente que es el acceso a internet desde un smartphone en comparación con el ordenador. Los usos que se le da son distintos y también deben serlo los resultados de búsqueda.

Sin embargo Google había pospuesto dicha actualización (a pesar de ser el desarrollador de Android). Hasta 2015, año en el cual los usuarios móviles superaron a los de ordenador.

Mobile First Indexing es una actualización pensada en ese contexto. Aquí se le da completa prioridad a las páginas que son amigables para los smartphone. Así mismo cualquier página que no cumpla ese criterio simplemente no será elegible como parte de los primeros resultados.

Técnicamente, el cambio es que, primero envia al robot de google de smartphones rastrear (leer) e indexar (almacenar) tu web, luego cuando este proceso ya terminó hace lo mismo pero con el google bot que se dedica a desktop. Es importante destacar que el proceso de clasificación (rankeo) se da en otro momento. Esto solo afecta al rastreo e indexación. Es decir, a renderizar y almacenar tu web en su base de datos.

Y obviamente si tu web no es responsive, adaptable o no tienes un desarrollo mobile, simplemente no serás tenido en cuenta para dichas consultas a menos que seas el mejor contenido disponible.

SEO Técnico

Este es un elemento que ha cobrado gran notoriedad en los últimos años. A partir de 2015 Google ha anunciado la importancia de parámetros como los bajos tiempos de carga y el bajo porcentaje de rebote. Todo ello acompañado de la encriptación de websites.

Estas son características que deben poseer todas las páginas webs optimizadas. Se trata de un trabajo que debe ser llevado a cabo por programadores con gran conocimiento técnico, pero con buenos resultados. Pues en varias actualizaciones sucesivas Google ha hecho hincapié en la necesidad de mejorar la experiencia de los usuarios al visitar tu página, independientemente de la calidad de su contenido.

https://en.ryte.com/wiki/Search_Engine_Optimization#History_of_Search_Engine_Optimization

Algoritmo RankBrain de Google

En el 2015 se conoce a RankBrain el tercer factor más importante. Este algoritmo aprende de sí mismo, para ofrecer así los mejores resultados posibles a los usuarios. Determina lo más apropiado en búsquedas que no son muy realizadas, lo cual es muy importante cuando se toma en cuenta que en el lenguaje natural existen cientos de formas para expresar una misma idea.

Otro punto extremadamente importante es que RankBrain modifica la relevancia de los factores de posicionamiento dependiendo de la consulta. Las SERPs son monitoreadas constantemente para continuamente aprender de los usuarios y los mejores resultados para estos.

Referencias:

Medical Update

En Agosto del 2018 muchos sitios de varios sectores han sido afectados por esta actualización del algoritmo de Google. Los sectores que ingresan en esta lista son los que están dentro de YMYL (Your Money Your Life). Que son básicamente sitios que tratan sobre temáticas sensibles y donde son muy rentables debido a que las personas están buscando una solución al respecto con un sentido de urgencia importante. Aunque según Google entran otras temáticas que para uno no serían tan YMYL, uno de los principales mercados es el de la salud, por eso el nombre de Medical Update.

Lo que sucedió fue una actualización profunda en sus Quality Guidelines, en donde se profundizó en un concepto llamado EAT (“Expertise, Authoritativeness, Trustworthiness”). Es decir, que se basan en tres factores principales para calificar a un sitio de confianza, de autoridad y competente en su temática y poder así brindar sus contenidos como resultados relevantes en las búsquedas de los usuarios.

Como por el momento no tengo escrito ningún artículo profundo sobre esto, te dejo dos referencias importantes:

Referencias:

Actualización Florida 2

Casi al final, con el sucesor en nombre de una de las actualizaciones más revolucionarias. Se trata de otro cambio muy grande al algoritmo general, aunque sin nada que ver con el Florida original. Fue liberado en abril de 2019 y afectó a una gran cantidad de sitios web.

Sin embargo, no se sabe a ciencia cierta qué ha sido afectado aunque hay muchas especulaciones. Pero en definitiva solo es una parte más de esta evolución explosiva del SEO. La cual nos ha llevado desde la época del caos hasta un momento en el cual a ti como usuario se te facilita la vida.

Muchos dicen que puede ser un roll back de la actualización del Medical Update, cosa que en parte pareciera, pero tambien puede suceder que al hacer cambios en su algoritmo luego tengan que hacer reajustes (dicho por el propio John Mueller).

Dean Romero tiene un excelente artículo en su blog al respecto, que te lo dejo aquí: https://blogger3cero.com/florida-marzo-2019/

Site Diversity

El más reciente de todos, anunciado el 6 de Junio del 2019. Tiene el objetivo de dar variedad a los resultados de las búsquedas, limitando así la cantidad de páginas por dominio (a solamente 1) que aparecen en la página de resultados. Solo en los casos que Google considere relevante se imprimirán más de una página en una consulta por dominio. Hubieron sitios que han perdido hasta el 50% del tráfico (caso Daily Mail de UK).

Fin!

Por fin! Si te gustó, por favor comparte, comenta, depositame un cheque o lo que quieras con el fin de que otras personas conozcan este artículo y el blog. Aunque el cheque en sí no contribuiría para eso, pero tampoco es mala idea (pst: que no sea sin fondos bandido/a).

Gracias por leerme y aguantarme y nos vemos en otra oportunidad! Que tus deSEOs se cumplan!

Otras referencias:

Leave a Comment

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll to Top