Desde la puesta en marcha de Google Panda (el cambio de algoritmo de clasificación en los resultados de búsqueda de Google) en febrero de 2011; la dinámica para lograr el posicionamiento de un sitio web cambió considerablemente.
Como bien sabemos; Google Panda es un guarismo diseñado para detectar y penalizar el contenido duplicado o de baja calidad que se sube a cualquier página web.
Su función principal estriba en bajar el rango o PageRank de los portales digitales que aplican malas prácticas a la hora de generar contenidos en sus blogs.
De esta forma; el algoritmo de Google destaca por encima de todos los resultados en su motor de búsqueda aquellas páginas web que se han dedicado a producir contenido único y de valor para todos los internautas.
Su nombre proviene del apellido del ingeniero que desarrolló la tecnología: Navneet Panda. Este algoritmo les da más realce a las webs de noticias y sitios de redes sociales; y castiga las páginas que contienen grandes volúmenes de publicidad.
Este importante twist de posicionamiento en los índices de Google afectó aproximadamente el 13 % en todos los resultados de búsqueda.
Luego de su implementación, muchos portales digitales, incluyendo el foro para desarrolladores de Google; se atiborraron de quejas y denuncias por propiedad intelectual o derechos de autoría.
También salieron a relucir las webs scraping; o portales que copian los contenidos de otras páginas utilizando programas de software para conseguir un mayor ranking o clasificación.
La patente establece que un sitio crea una porción de backlinks (enlaces externos entrantes) y consultas de referencia para la clasificación del sitio.
Y toda esta porción se utiliza para crear un factor de modificación de todo el sitio en cuestión.
Para hacer esto posible se valieron en los porcentajes de rebote, el tiempo de permanencia, el CTR, las Keyword LSI y el total de páginas vistas; para determinar el grado de importancia que tenía una página web para el usuario.
Mientras todo esto ocurría, las actualizaciones de Google Panda se hacían sentir y aproximadamente cada mes la compañía de Silicon Valley lanzaba una versión mejorada de su propuesta.
Y no fue hasta el mes de marzo de 2013 cuando integraron todas las actualizaciones a su algoritmo de búsqueda.
Fue así como, por medio de operaciones matemáticas; la compañía tecnológica logró analizar todos los portales web y determinó cuáles sitios realmente sí ofrecían contenido auténtico y de calidad que los hizo llamativos para sus SERPs o arañas de búsqueda.
También te puede interesar: E-commerce: evoluciona tu negocio físico a una tienda digital