Tip SEO: Eliminar problemas técnicos

Uno de los pasos en la salud básica de SEO es garantizar que tu sitio web está libre de cualquier problema técnico que pueda estar impidiendo que tu sitio sea rastreado.

Como nota aclaratoria, me voy a referir a Google ya que es el mayor buscador ahora mismo. Pero todo lo que cuento es lo mismo para cualquier otro buscador como por ejemplo Bing o cualquier otro que casi nadie usa.

Has de saber que una cosa es tener problemas de indexación en Google, y otra muy distinta es tener problemas de posicionamiento en Google. Te lo cuento de forma muy resumida para que al menos sepas los conceptos.

Indexación es todo lo relativo a que Google encuentre todas las urls de tu web.

Posicionamiento es todo lo relativo a si las urls de tu web aparecen o no en la primera página de Google.

Es bastante común que google te indexe pero que aparezcas en la página número 50, y por tanto nadie te encuentra.

Dicho todo esto, hay varia cosas que afectan al SEO. En este post voy a nombrar las típicas que se han de revisar a nivel técnico.

Sitemap

El mapa del sitio o también conocido como sitemap.xml

Es un archivo que ayuda a Google a saber qué urls aún no ha indexado.

No ayuda en nada al posicionamiento, pero sí que es de gran ayuda en la indexación y afecta bastante a como de rapido encuentra Google tus nuevas páginas.

El sitemap no le hace falta a todos los proyectos web. Aunque es recomendable tenerlo siempre.

Le hace falta a las webs:

  •  donde hay contenido nuevo constantemente y quieres que se indexe rápidamente (webs de noticias)
  • donde hay contenido que no es fácilmente encontrable/indexable (directorios con muchos niveles)

No le hace falta a las webs:

  • donde todas las páginas se indexan (tardan algunos días pero se indexan)
  • no te importa el tiempo que tarda en indexar (te es igual 1 dia que una semana)
  • webs con muy pocas páginas

Las típicas webs que no notan tener el sitemap son webs pequeñas con poco contenido, webs corporativas simples.

Ante la duda, siempre deberías tener un sitemap actualizado. Nunca te va a perjudicar tener un sitemap.

Tanto en Drupal como en wordpress, hay varios módulos/plugins gratuitos que te crean un sitemap de forma automática.

Robots.txt

Este fichero contiene las recomendaciones de bloqueo que han de seguir los robots en el momento de indexar tus páginas.

En algún caso me he encontrado que un robots.txt mal configurado (porque cliente lo toco sin tener idea de como funciona) estaba bloqueando a Google y por tanto ninguna de las urls de la web aparecía en el buscador.

El sitemap.xml es una lista de urls que queremos que Google tenga en cuenta y que las indexe cuanto antes mejor.

El robots.txt es una lista de urls que queremos bloquear y que Google no las indexe y por tanto que no queremos que muestre en los resultados de las búsquedas.

¿Porque queremos bloquear urls?

  • Pues los típicos casos son las urls de /admin, donde solo se puede acceder si estás registrado como usuario de la web. Gente que no sean usuarios de la web solo verán un error 403 (Acceso denegado)
  • También hay casos concretos como urls internas que no debería poder accederse sin haber pasado primero por otras específicas de la web (estamos haciendo un funnel o similar).
  • O queremos evitar que los bots sigan urls con parámetros específicos en las urls para evitar contenido duplicado.

Aclarar que el fichero robots.txt es una “recomendación” para los bots. No están obligados a seguir lo que dice el fichero. Esto a veces puede ser un problema, ya que no tenemos control sobre lo que hacen los bots en nuestra web.

Velocidad de carga de la página

Ya hace años que Google dijo que posiciona mejor las webs que cargan más rápido.

No es ningún secreto, el problema es tener una web que cargue rápido y que sea barata.

Hay varias cosas a tener en cuenta, las primeras que se miran son:

  • imágenes optimizadas para tener un tamaño decente
  • código js optimizado
  • código de backend optimizado
  • servidores potentes
  • versiones de php/mysql en sus últimas versiones

Que quede claro que no todo es pagar más para tener un servidor más potente o mejor configurado.

  • Se puede ganar mucho más actualizando PHP (si tu web es un Drupal/Wordpress/Joomla) de las versiones antiguas a las últimas. (En varios clientes he visto mejoras que reducían el tiempo de carga casi 4 veces comparado con lo que tenían antes).
  • También se puede ganar mucho reduciendo el tamaño de las imágenes (Esto Drupal lo puede hacer de forma automática si se configura).
  • Y también se gana mucho teniendo codigo optimizado. Esto se nota mucho cuando tienes webs con un gran volumen de datos o con muchos usuarios concurrentes.

Duplicar páginas/contenido

El contenido duplicado afecta básicamente al distribuir la puntuación que tendría una única url bien posicionada en todos sus clones o páginas similares.

Dicho de otro modo y simplificando mucho, si tienes una pagina que tiene una url que sale en posición n1 en google, y le creas 4 urls que permiten acceder a la misma página … seguramente la puntuación que tenía se verá reducida y por tanto bajará de posiciones en Google. Esto es muy relativo, y depende de la puntuación de tu competencia.

Si tu competencia y tu tenéis una lucha feroz para manteneros en la primera página de Google … no te haces ningún favor teniendo contenido duplicado. Tu puntuación bajará y tu competencia se verá beneficiada.

Por el contrario, si tu estas muy bien posicionado, y tu competencia ni se acerca a la puntuación que tienes tu … pues seguramente no notes mucho el tener contenido duplicado. Mi recomendación es que, aunque ahora no lo notes, intentes arreglar el contenido duplicado antes de que te salga competencia mejor posicionada que tu.

¿Que puede provocar urls duplicadas?

  • Crear manualmente páginas con contenido idéntico. Si, es estupido, pero he tenido clientes que lo tenían. (literalmente copiar/pegar y crear página nueva)
  • No redirigir url http a httpS. A día de hoy deberías tenerlo todo siempre con https, o lo que es lo mismo, tener un certificado SSL (hay de gratuitos).
  • No redirigir el dominio con o sin www. No es bueno que se pueda acceder a cualquier página de tu web con y sin las www. Básicamente estas duplicando toda tu web.
  • No redirigir las urls canónicas a sus alias con palabras clave en la url. Estas urls son las urls internas. Por ejemplo en drupal podria ser /node/1234 -> /alias-url-molona-con-palabras-clave

Redirigir las urls canónicas, las urls con SSL y poner o quitar www … son cosas que pueden afectar a tu web de forma muy negativa, y que se arreglan muy fácilmente (sobretodo en Drupal y wordpress).

SSL

Como he dicho antes, hay certificados gratuitos de SSL.

Un certificado SSL sirve para poder tener las urls de tu web con https://

Google ya ha dicho que posiciona mucho mejor las webs que tienen https.

De hecho, si usas chrome verás que te sale un icono de candado al lado de la url de esta web. Si no tubiera SSL verías un mensaje de alerta “Esta web no es segura”.

Más que dar puntos a las webs con SSL, Google les está quitando puntos (las castiga) a las que aún no usan el SSL

SEO de imágenes

Todas las imágenes de tu web deberían tener las etiquetas ALT y TITLE, y tambien deberian tener un nombre “bonito”.

Estas etiquetas sirven entre otras cosas para que la gente ciega pueda interpretar de qué va la imagen, y también sirve para que Google sepa interpretarlo (google es ciego, pero con la inteligencia artificial cada vez menos).

Con nombre bonito me refiero a por ejemplo “casa-con-piscina.jpg” en vez de “13vdfg34.jpg”

Esto te puede ser muy útil si tu web es muy visual y tienes usuarios que te encuentran gracias a las imágenes. También se supone que sirve para poder poner frases con palabras clave para ayudar a la página a posicionar esas palabras clave.

Por poner ejemplos:

  • tener una web donde se venden fotografías (te encuentran directamente con imagenes con marca de agua en google, luego les vende la imagen sin marca de agua)
  • conseguir enlaces desde artículos que han puesto tus imágenes (los redactores de una web de noticias han encontrado imágenes únicas de tu web, han creado un artículo y han puesto tu imagen con un enlace a tu web. Esto es el ORO del SEO). En este caso has de tener en cuenta poner una marca de agua o tener algún sistema de revisar constantemente quien esta usando tus imágenes para asegurarte que te enlazan.

Mi opinión, es que esto es mucho trabajo manual. En muchos casos no vale la pena renombrar las imagenes existentes. Lo que sí que vale la pena es tener la opción de poder hacerlo a partir de ahora, y que lo tengas en cuenta en las nuevas páginas que crees.

Enlaces salientes rotos y errores 404

Cuando tienes enlaces rotos desde tu web a webs de terceros … le estas indicando a Google que seguramente tus páginas son antiguas y que no tienen mantenimiento. Por tanto son poco relevantes y pierden posicionamiento.

Hay herramientas que te permiten analizar tus contenidos y ver cuando tienes enlaces rotos para que puedas editar estas páginas, poner un link nuevo o directamente eliminar el link.

Errores 404

Los errores 404 no te perjudican directamente en el SEO, pero si los aprovechas te beneficiaran mucho.

Los errores 404 se producen cuando alguna url de tu web ha dejado de existir. Esto puede ser porque has eliminado la página, cambiado la url existente, o porque has rehecho la web y hay urls que han dejado existir.

Idealmente deberías redirigir las páginas 404 a páginas que hablen de la misma temática. No es buena idea redirigirlas todas a la Home de tu web.

Por poner un ejemplo, imagínate que tienes un ecommerce y que tienes un producto descatalogado que está en posición n1 en Google. Cómo está descatalogado lo has eliminado y acabas de perder una url que estaba muy bien posiciona en Google.

La solución es simple, has de hacer una redirección a otra página de un producto equivalente/similar. En este ejemplo se debería hacer una redirección a la página de la nueva versión del producto.

Otro ejemplo sería cuando se ha rehecho la web para pasar por ejemplo de Wordpress a Drupal. Hemos aprovechado para cambiar el patrón de las urls y ahora son más amigables para el SEO, pero las urls antiguas han dejado de existir.

La solución en este caso es que en el momento de importar los contenidos también se han de importar las urls viejas como redirecciones.

Diseño responsive para móviles/tablets

Tener una web responsive significa que el diseño de la web se adapta al tamaño de pantalla. Para hacer esto se han de tener en cuenta varias cosas, pero me quiero centrar específicamente en la imagenes, ya que son el mayor problema en este tipo de diseños.

Aquí la gracia está en que en móviles, tablets y pantallas de escritorio no se han de cargar las mismas imágenes. Ni el mismo tamaño ni la misma proporción.

Por ejemplo en móvil queremos tener imágenes con forma más cuadrada y de unos 300px de ancho. En cambio en escritorio podemos querer tener la imagen más panorámica y que minimo tenga 1200px de ancho. Como podrás imaginarte esto afecta mucho en el peso final de la imagen.

Drupal por defecto tiene una solucion a esto ya incluida en su core, que permite especificar estilos de imagen distintos para distintos tamaños de pantalla. Lo que permite optimizar muy bien la carga de imágenes en dispositivos móviles.

Y otra cosa a tener en cuenta de los diseños responsive es que webs viejas de hace 10 años no son responsive. Google detecta si una web “se escala” para distintas pantallas, y les da mayor puntuación SEO.

Meta descripción y meta título

Todas las páginas de tu web debería tener etiquetas meta. Estas etiquetas son las que usa google para mostrar la info en sus resultados de búsqueda.

¡¡¡El meta título y la meta descripción son los títulos/descripción que ves en la página de google !!!!

Hay otras etiquetas meta, pero estas dos las has de tener si o si.

O las pones manualmente o lo automatizas. Por ejemplo en Drupal se puede automatizar para que los valores de distintos campos se usen en estos campos meta.

Conclusiones

Algunos de estos problemas pueden resolverse simplemente. Si estás utilizando un CMS como Drupal o WordPress, la mayoría ofrecen complementos (plugins o módulos) para solucionar varios de estos problemas.

Las páginas y el contenido duplicados se pueden juntar o eliminar. Los enlaces rotos se pueden corregir. Y, las páginas 404 se pueden redirigir o volver a agregar si se eliminan accidentalmente.

Si no eres una persona técnica, otros problemas como la velocidad del sitio pueden requerir la participación del desarrollador de tu sitio web para solucionarlo. Muchos de estos errores se informan dentro de Google Search Console.

Si está buscando información aún más profunda sobre la "capacidad de rastreo" y el estado general de SEO, las herramientas como Ahrefs y Moz, pueden ofrecer información detallada sobre tus esfuerzos de SEO.

 

Tags