Krypton Solid

Comprobación de la cordura de SEO, parte 1: actualizaciones de pingüinos y pandas de Google

Comprobación de la cordura de SEO, parte 1: actualizaciones de pingüinos y pandas de Google

El SEO siempre ha sido un negocio complicado, los expertos no solo tienen que dedicar tiempo a investigar palabras clave y seguir las mejores prácticas, sino que también deben estar preparados para los cambios que inevitablemente implementan los motores de búsqueda.

El año pasado, el gigante de las búsquedas Google realizó dos actualizaciones importantes de algoritmos, Panda y Penguin, que hicieron que muchos sitios cayeran en picado en la clasificación, ya que fueron penalizados por las nuevas reglas.

Esto se debió a que los cambios se implementaron para clasificar los sitios de baja calidad, como las fábricas de contenido y las granjas de enlaces, y dar más peso a los sitios que producen contenido de calidad.

Esto se lleva a cabo al realizar cambios en la forma en que las arañas de Google reconocen un sitio, lo que brinda una mejor clasificación a los sitios con calidad, contenido bien escrito y participación en las redes sociales. Para los profesionales de la web, esto creó algo de pánico, ya que los sitios estáticos que no estaban particularmente bien escritos y llenos de palabras clave comenzaron a fallar.

Las actualizaciones de Penguin y Panda se basaron en un nuevo conjunto de reglas y algoritmos más complejos diseñados para clasificar un sitio en una serie de factores diferentes.

Éstas incluyen:

  • Contenido: Las arañas de Google ahora pueden saber si un sitio está mal escrito, con errores ortográficos y gramaticales, muchos anuncios y enlaces de mala calidad. Este cambio se considera bienvenido para muchos profesionales de SEO y digitales, ya que inmediatamente derribó a los sindicatos de artículos de mala calidad y a los molinos de contenido, de modo que la alta calidad podría ocupar su lugar y ser más útil para los buscadores.
  • Frescura: la «frescura» del texto se ha vuelto más importante para Google que los enlaces entrantes. Esto significa que para competir en Google, es necesario agregar contenido nuevo con frecuencia. El ranking de frescura analiza 3 áreas clave: # 1: Temas de actualidad como los Juegos Olímpicos o las elecciones de EE. UU. # 2: Eventos famosos recurrentes como el Superbowl # 3: Qué tan recientemente se ha agregado el contenido.
  • Contenido único: ¿Alguna vez ha copiado y pegado algún contenido en un sitio web para recortar gastos? Ahora también reducirá la clasificación del sitio. El contenido original es uno de los aspectos más importantes para determinar la posición. El contenido que contenga enlaces no naturales también será penalizado, por lo que es importante asegurarse de que los enlaces aparezcan de forma orgánica y sean muy relevantes para el contenido. Esto solo se volverá aún más importante a medida que Clasificación de autor de Google despega.
  • Social: Como muchos de ustedes sabrán, las redes sociales son el nuevo marketing y son una herramienta muy poderosa para SEO. Google ahora usa las redes sociales en los resultados de búsqueda para determinar qué tan útil es un sitio en todos los ámbitos. Ahora es importante que los especialistas en marketing en línea y los expertos en SEO incluyan las redes sociales, lo que garantiza que todos los colores y logotipos de la marca sean uniformes en todos los canales sociales y sitios web. Además, es importante que la presencia social esté bien gestionada; gravemente, las redes sociales gestionadas por bots dañarán la clasificación de un sitio.
  • Libre de errores técnicos: esto en particular es importante para los profesionales de la web, y sin duda sacará a muchos sitios de blogs de la cima. Un sitio que tenga una arquitectura de sonido funcionará mejor que un sitio creado a partir de plantillas, Flash o que tenga más de dos años. Esto significa que el código debe estar basado en estándares con etiquetas CSS válidas y metadatos ordenados.

Cómo abordar los problemas con la clasificación de un sitio

Incluso algunos de los sitios más grandes se vieron afectados por los cambios en los algoritmos de Google, leí uno que tuvo que ser eliminado de inmediato para cambiar todas las palabras clave y las páginas duplicadas.

Un sitio que está mal escrito debe tener todo su contenido actualizado, preferiblemente por alguien que sepa escribir. Esto incluye publicaciones de blog y artículos, por lo que si un sitio tiene mucho contenido como este, entonces puede ser una mejor idea eliminarlo todo del sitio y agregarlo a medida que lo obtenga, o contenido diferente, escrito.

Los metadatos también deben estar limpios y ordenados, y Google tiende a ignorar las palabras clave y concentrarse en las descripciones aquí. Las palabras clave, por supuesto, todavía tienen su lugar y es importante asegurarse de que todavía estén bien investigadas y analizadas, pero es probable que los artículos y blogs con una alta densidad de palabras clave sean penalizados. Esto se debe a que las palabras clave, cuando se usan en exceso, tienden a comprometer la calidad de la escritura.

Panda se concentró en deshacerse de aquellos sitios que intentaron «engañar» a sus algoritmos con el uso excesivo de palabras clave y el envío de enlaces no deseados. Si ha determinado que un sitio tiene enlaces de spam apuntando a él, utilice Herramienta de rechazo de Google, que los eliminará por ti. Sin embargo, en este punto es importante tener en cuenta que se debe realizar una auditoría cuidadosa del sitio para identificar los enlaces defectuosos y se debe tener cuidado al utilizar la herramienta.

Para Panda, también vale la pena comprobar que el contenido de un sitio es único; tiene que ser un 60% único en todo el sitio, además de accesible, para poder aprobar las reglas de Panda.

Penguin se concentró más en el contenido real y ambos algoritmos aún se actualizan regularmente para perfeccionarlos. En su mayor parte, Penguin se concentra principalmente en el relleno de palabras clave dentro de artículos y enlaces de spam.

Esencialmente, ambos están preocupados por la accesibilidad, el contenido, las técnicas de spam y las nuevas reglas diseñadas para prevenir el SEO de sombrero negro.

¿Qué es el SEO de sombrero negro?

Básicamente, esta es una forma de intentar manipular los motores de búsqueda para que esencialmente los «engañe» para que piensen que un sitio es valioso. Black hat usa tácticas agresivas y está orientado hacia el motor de búsqueda, en lugar de una audiencia humana.

En los próximos artículos, echaré un vistazo a las técnicas de sombreros negros, blancos y grises para dar una descripción clara de cuáles se pueden usar de forma segura y cuáles no. El problema que muchos han encontrado es que algunos ‘expertos’ en SEO, menos que respetables, han empleado técnicas de sombrero negro para ganar más clientes y ganar dinero rápido. Esta es la razón por la que algunos sitios comerciales han caído como una piedra en la clasificación, a menudo sin saber que han hecho algo mal.

Las técnicas de sombrero negro incluyen:

  • código de embalaje con ‘texto oculto;
  • granjas de enlaces donde un grupo de sitios se enlazan entre sí para enviar spam al índice de un motor de búsqueda;
  • spam de blog, usar el campo de comentarios en blogs y foros para colocar enlaces a otros sitios;
  • raspado, una práctica en la que un sitio toma contenido de otro para parecer más valioso para los motores de búsqueda;
  • páginas de entrada utilizado con la intención de atraer a los buscadores con frases no relacionadas con el contenido del sitio;
  • alojamiento parasitario , donde un sitio está alojado en el servidor de otra persona sin permiso;
  • encubierto, una técnica en la que la araña del motor de búsqueda ve un contenido diferente al del usuario final que lo ve a través de un navegador.

Muchos profesionales de la web consideran que los métodos de sombrero negro no son éticos, ya que utilizan tácticas que prometen rendimientos rápidos, pero tienen la posibilidad de dañar la reputación, el sitio web y, a su vez, las ganancias de una empresa.

El uso de métodos de sombrero negro a menudo significa que un sitio no tiene que esperar meses para obtener enlaces, como lo haría con los métodos tradicionales de sombrero blanco. Sin embargo, también llena Internet con información inútil y spam, y a lo largo de los años ha afectado seriamente a las búsquedas.

También es más barato para el estratega de SEO llevar a cabo con tanta frecuencia, una red de blogs ya estará configurada para enlazar y no depende en gran medida de análisis y contenido, como lo hace la práctica de sombrero blanco.

No solo el empleo de métodos de sombrero negro a menudo conduce a la amenaza de acciones legales, si se utilizan junto con una campaña de PPC, el anfitrión de la publicidad puede incurrir en fuertes sanciones.

No se recomienda que un sitio use técnicas de sombrero negro debido a las sanciones involucradas, en términos de acciones legales, reputación y la amenaza de no clasificar. Sin embargo, no hay duda de que eso no detendrá a todos, a pesar de las actualizaciones de Google.

Dicho esto, ya estamos viendo que las fábricas de contenido caen rápidamente en la clasificación, por lo que las actualizaciones obviamente están funcionando, ya que esta es una de las áreas clave que Google quería abordar.

Google y todos los principales motores de búsqueda tienen una visión, una que pretende limpiar la web y acabar con las malas prácticas, lo que lleva a que el contenido más útil aparezca en la parte superior de las búsquedas para todos nosotros. Ya sea que uses técnicas de sombrero negro o no, queda entre tú y tu conciencia, pero ciertamente estoy contento de poder buscar y no encontrar una página llena de basura antes de llegar a lo que quiero.

¿Qué problemas te has encontrado como resultado de Panda y Penguin? ¿Cómo ha resuelto las técnicas de sombrero negro empleadas por sus predecesores? Háznoslo saber en los comentarios.

Imagen destacada / miniatura, imagen de búsqueda a través de Shutterstock.

Si te ha interesado el artículo y estas buscando información sobre cómo realizar una página web no te pierdas nuestro servicio personalizado de creación de páginas web.

Deja un comentario