Guía básica sobre SEO en Google

0
366

Introducción

El SEO puede ser un poderoso aliado si sabemos usarlo bien, pero también puede ser nuestro mayor enemigo. Google nos proporciona un gran (pero denso) tutorial sobre cómo poner al SEO de nuestro lado. Aquí te hemos facilitado cómo conectar todas las piezas de este intrincado rompecabezas.

Índice de contenidos

  1. Prácticas generales
    1. Simplificar la estructura de las URLs
    2. Evitar contenido generado aleatoriamente
  2. Prácticas específicas
    1. Meta tags
    2. JSON-LD
    3. Sitemaps
      1. XML
      2. RSS,MRSS y Atom 1.0
      3. Texto
      4. ¿Cómo construir un sitemap válido?
    4. Versiones localizadas
    5. Robots.txt
  3. JavaScript
  4. Rastrear vs Indexar
  5. Conclusiones

1. Prácticas generales

Existen unas prácticas generales válidas y genéricas que podemos aplicar, que nos serán de gran ayuda para mejorar nuestro SEO sin necesidad de profundizar en otras algo más complejas y concretas.

1.1. Simplificar la estructura de las URLs

Google recomienda que las estructuras url sean lo más simples posibles. Por ejemplo:
http://en.wikipedia.org/wiki/Aviation

Una URL más complicada y menos atractiva sería esta:

http://www.example.com/index.php?id_sezione=360&sid=3a5ebc944f41daa6f849f730f1

Tener urls demasiado complejas acarrea dos problemas: el primero es que el usuario puede llegar a consumir un alto ancho de banda; el segundo, que puede quedar parte del contenido sin indexar.

Otra recomendación por parte de Google es utilizar guiones para las separaciones de palabras:

http://www.example.com/green-dress.html (Esto estaría bien)

http://www.example.com/greendress.html (Esto estaría mal)

La primera opción es más recomendable que la segunda. También conviene evitar los guiones bajos.

1.1.1 ¿Por qué ocurren las URLs complejas?

Fuente: https://developers.google.com/search/docs/advanced/guidelines/url-structure

Google nos proporciona algunas respuestas a las posibles causas de este problema:

    1. Demasiados filtros para un elemento: Cuando se realizan búsquedas con múltiples condiciones, éstas se van acumulando y van volviendo más compleja la URL que se construye.

Los enlaces que aparecen a continuación son solo ejemplos; no son enlaces reales.

Por ejemplo: Cuando se quiere comprar una prenda de ropa y se van añadiendo características: https://example.com/productos/mujeres?categoria=vestidos&color=verde. En este caso, los parámetros categoría y color no se están utilizando (solo los valores que tienen), así que una solución más limpia sería la siguiente: https://example.com/productos/mujeres/vestidos/verde.html.

También se le puede indicar a Google que no rastree ni indexe esas páginas mediante el uso del archivo robot.txt.

RECUERDA: No rastrear no es lo mismo que no indexar. En 4. Rastrear vs Indexar
puedes conocer las diferencias, o puedes acudir a la fuente original: https://www.google.com/intl/es_es/search/howsearchworks/crawling-indexing/

  1. Eliminar los parámetros innecesarios.
  2. Calendarios dinámicos. Los calendarios que se generan dinámicamente pueden generar enlaces a fechas pasadas y futuras sin restricciones.Para evitar esto, se puede añadir el atributo nofollow a los enlaces que lleven a páginas de calendario futuras. De esta manera, Google no las indexará.

Puedes saber más en la fuente original:

https://support.google.com/webmasters/answer/6080548?hl=es

1.2 Evitar contenido generado aleatoriamente

El contenido generado automáticamente no puede intentar manipular el posicionamiento de la página en Google, porque de lo contrario, en lugar de ayudar al posicionamiento, tomará medidas al respecto.

Evitar las siguientes prácticas ayudará al SEO indirectamente:

    1. Texto:
      • Que no tenga sentido al leerlo pero que contenga palabras clave.
      • Que sea la combinación de fragmentos de otras páginas sin valor añadido.
      • Que se haya generado usando sinónimos o técnicas de ofuscación.
      • Que se haya generado mediante procesos automáticos, como las cadenas de Markov.
    2. Texto traducido de manera automática, y que se haya publicado sin revisión ni edición humana. Mira la parte de metatags para saber cómo controlar esto.

2. Prácticas específicas

2.1 Meta Tags

Fuente original: https://developers.google.com/search/docs/advanced/crawling/special-tags

Si bien antiguamente era necesario escribir una exhaustiva lista de metatags, esto ya no es exactamente así. En palabras del propio Google:

 “Nosotros no utilizamos las palabras clave de los metatag. Pero sí usamos la etiqueta meta descripción”

Google deja a nuestra disposición una lista de metatags a las cuáles prestan atención, siendo la más importante la etiqueta meta description (puedes ver la lista completa en el enlace anterior). Algunas de ellas son:

Las etiquetas meta robots sirven para indicar a los robots cómo rastrear o indexar (o no rastrear ni indexar) las páginas deseadas. El primer ejemplo hace alusión a cualquier robot, mientras que el segundo alude únicamente al robot de Google.

Para usar el meta tag Robots debes situarlo dentro de la etiqueta header, como el resto:

Sus valores predeterminados son index y follow; es decir, que por defecto indexarán y rastrearán la página, pero ese valor es modificable. Si, como en el caso anterior, especificamos content=”noindex” , entonces los robots no indexarán ni rastrearán la página en la cual se ha especificado la cabecera.

Otras metaetiquetas importantes son:

Nositelinksearchbox

Notranslate

Esta etiqueta indica a Google que no ofrezca ninguna traducción de esa página. Esto, al contrario de lo que pueda parecer, ayuda a mantener un buen SEO, puesto que a Google no le gustan las traducciones automáticas que no cuenten con una revisión manual. Si disponemos de traducciones (versiones localizadas) para
nuestras páginas, es mejor relacionarlas utilizando la técnica del sitemap combinada con el la etiqueta link:

Si quieres saber más sobre cómo combinar Notranslate con sitemaps y la etiqueta link, acude a 2.4 Versiones localizadas

Google-site-verification

Esta etiqueta indica a Google que nuestra página ha sido verificada. Cada cierto tiempo, Google rastrea las páginas que han sido verificadas y comprueba su actividad. De esta manera, deja apartadas las páginas abandonadas, y da prioridad a las páginas que muestran actividad.

Content-type

Etiqueta básica que define el conjunto de caracteres de una página. Google recomienda Unicode/UTF-8.

2.2 JSON-LD

JSON-LD es una estructura de datos utilizada por Google para interpretar el contenido de la página.

En este ejemplo que vamos a poner a continuación se está describiendo un objeto que se trata de una receta. Esta receta tiene una descripción, el nombre de la propietaria de la receta y la fecha de publicación, entre otros datos:

Los datos estructurados etiquetan cada uno de los elementos del objeto, lo que facilita su aparición cuando el usuario utiliza palabras clave. Puedes profundizar más en este tema en los enlaces dejados a continuación:

https://developers.google.com/search/docs/advanced/structured-data/intro-structured-data

Convertir tus datos en JSON-LD: https://json-ld.org/

Probar datos JSON-LD: https://developers.google.com/search/docs/advanced/structured-data

2.3 Sitemaps

Fuentes originales:

https://youtu.be/JlamLfyFjTA
https://developers.google.com/search/docs/advanced/sitemaps/build-sitemap

Un sitemap es, literalmente, un mapa web que ayuda a Google a definir cuál es la relación entre las distintas páginas que componen la web.

También se utilizan para otras causas, como definir cuáles son las versiones de
lenguaje alternativas.

Los sitemap son recomendados por Google cuando se cumple, al menos, 1 de estas 4 condiciones:

      1. Es una página con mucho contenido.
      2. Es una página donde los links o las conexiones entre las diferentes páginas no están muy bien esclarecidos.
      3. Cuando la página es nueva, o hay pocos enlaces que redirigen a ella.
      4. Cuando tu página cambia de contenido habitualmente.

Los sitemaps pueden hacerse en tres formatos:

2.3.1 XML

Fuente: https://developers.google.com/search/docs/advanced/sitemaps/build-sitemap#xml

Este es un ejemplo pequeño de cómo luce un sitemap

Los sitemaps definidos en XML empiezan y acaban por el tag:

donde se especifica el namespace (xmlns=»http://www.sitemaps.org/schemas/sitemap/0.9″).

Contienen una etiqueta url por cada URL que se quiere situar en el sitemap. Por ejemplo: el home sería una etiqueta url, el perfil del usuario sería otra etiqueta url, la página de un catálogo sería otro url, e, incluso, si ese catálogo varía por cada región, entonces cada región sería un url.

Dentro de las etiquetas url existen otras etiquetas que son opcionales, como lastmod, changefreq o priority.

En la siguiente página https://www.sitemaps.org/protocol.html se tiene una información más detallada del uso de cada etiqueta y de las etiquetas de las cuáles se componen los sitemaps.

2.3.2 RSS, MRSS y Atom 1.0

En el caso de los blogs con RSS o Atom, se puede enviar la URL del feed como sitemap (aunque solo proporciona información sobre las urls más recientes).

Los sitemaps no son necesarios cuando se tiene una página web pequeña (cuando los resultados de búsqueda pueden ser de 500 páginas o menos), pero Google recomienda tener uno, pues siempre pueden sumar a la capacidad SEO de tu página web. No sustituyen las vías normales que utiliza Google para indexar tu página, ni tampoco para
posicionarla, sino todo lo contrario; supone, más bien, una ayuda extra.

2.3.3 Texto

Nota: Las siguientes direcciones no son reales, solo son ejemplos.

Si el sitemap solo incluye URLs de páginas web, se puede proporcionar un texto simple que contenga una URL por línea:

http://www.example.com/file1.html
http://www.example.com/file2.html

2.3.4 ¿Cómo construir un sitemap válido?

Para poder construir un buen sitemap, Google nos ayuda ofreciéndonos las siguientes indicaciones:

  1. Se debe guardar el archivo con la codificación UTF-8.
  2. No incluir una URL que no sea del sitemap.
  3. Se le puede dar al fichero el nombre que se desee, siempre y cuando termine en la extensión .txt.
  4. Las URL deben estar completas y seguir una misma estructura. A continuación exponemos un ejemplo de lo que se considera una buena estructura:

  https://www.example.com está BIEN.

Y estos otros serían un ejemplo de malas estructuras:

https://example.com está MAL. Le falta www al inicio.

/mypage.html está MAL. No se deben de usar URL’s relativas.

  1. Publicar el sitemap a raíz del directorio, porque de esta manera afectará a todos los archivos.
  2. No incluir identificadores de sesión en las URL.
  3. Incluir etiqueta hreflang para indicar a Google la existencia de versiones en otros idiomas de tu página. Puedes combinarlo con la metatag notranslate. Si quieres saber cómo combinar ambas herramientas, puedes ver el punto 2.4 Versiones localizadas.
  4. Los archivos de sitemaps deben de seguir la codificación UTF-8 y las URLs deben contener los caracteres de escape adecuados.
  5. Divide los sitemaps grandes en sitemaps más pequeños. Un sitemap debe:
      • Contener menos de 50.000 Urls.
      • No superar los 50MB sin comprimir.
  6. Cuando se divide un sitemap, se debe de utilizar un archivo como índice de los sitemaps.
  7. Utilizar solo URLs canónicas. Si existen dos versiones de una misma página, utiliza una URL representativa de este contenido. Aportan beneficios como ahorrar tiempo de rastreo, simplificar las métricas de seguimiento de un mismo producto o tema, entre otras cosas. Sin embargo, como dijimos anteriormente, Google no se opone a que se utilicen urls específicas para dispositivos móviles, por ejemplo. Los sitemaps no deben incluir caracteres especiales (o de ASCII extendido). Caracteres como <, >, &, “”, ‘’ deben evitarse. La manera en la cual deben de incluirse es utilizando caracteres de escape. (Por ejemplo: en lugar de escribir ‘<‘ escribe:

Google también nos facilita un poco las cosas.

  • No te preocupes por la posición de las URL en el sitemap.
  • Tampoco te preocupes por el orden de las etiquetas internas a un URL. Google no las rastrea en el orden en que aparecen.
  • Tampoco te esfuerces en utilizar las etiquetas priority y changefreq. Google las ignora.

2.3.4.1 Cómo dividir un sitemap grande en sitemaps pequeños

Fuente: https://developers.google.com/search/docs/advanced/sitemaps/large-sitemaps

Tiene un formato muy parecido al XML de un sitemap:

La etiqueta

Engloba el archivo, y es la etiqueta principal para cada sitemap que figura en el archivo. Es decir, cada subdivisión de un sitemap debe de ir comprendido en su propia etiqueta sitemap.

La etiqueta

es la ubicación del sitemap. Por tanto, por cada loc debe de haber un sitemap.

Este sitemap «padre» debe de estar situado en el mismo sitio donde están el resto de los sitemaps a los que se hace referencia (aunque los ficheros a los cuales se haga referencia pueden estar un nivel por debajo en la jerarquía).

2.4.3.2 URLs canónicas

Fuente: https://developers.google.com/search/docs/advanced/crawling/consolidate-duplicate-urls

Siempre es preferible utilizar una única url representativa en la mayoría de los casos (por consejo de Google).
Sin embargo, debemos tener en cuenta que existen ciertas excepciones para esto, y para los cuales puede ser
beneficioso o necesario tener URLs duplicadas:

      1. Versiones de una página web según el dispositivo. Por ejemplo:

Nota: Las siguientes urls no son reales, son solo un ejemplo

https://example.com/news/koala-rampage

https://m.example.com/news/koala-rampage

https://amp.example.com/news/koala-rampage

En este caso, queremos mostrar la misma página de diferente manera según si el usuario está accediendo desde un dispositivo móvil, un ordenador o una tablet. En este punto concretamente Google recomienda utilizar una única URL canónica. Sin embargo, también acepta la inclusión de ambas siempre y cuando se utilicen urls diferentes. Para indicarlo en el sitemap se puede hacer de la siguiente manera:

Y en el html:

  • Cuando en un blog se puede llegar a una misma página web desde distintas rutas. Por ejemplo:

Nota: Los siguientes enlaces no son reales, son solo un ejemplo:

https://blog.example.com/dresses/green-dresses-are-awesome/

https://blog.example.com/green-things/green-dresses-are-awesome/

  • Si tu contenido depende de variantes http. Por ejemplo:

Nota: Los siguientes enlaces no son reales, son solo un ejemplo:

http://example.com/green-dresses

https://example.com/green-dresseshttp://www.example.com/green-dresses

2.4 Versiones localizadas

Fuente: https://developers.google.com/search/docs/advanced/crawling/localized-versions

Cuando se dispone de varias versiones traducidas de una página, es ideal indicárselo a Google para que recomiende esas versiones traducidas al usuario, basándose en el idioma de éste último. Existen varias maneras de indicar estas versiones:

      • En el propio HTML mediante la etiqueta link.
      • En el encabezado HTTP.
      • En el sitemap.

Cada opción no es excluyente de las otras, pero tampoco aporta ningún beneficio utilizar más de una.

2.4.1 Sitemap

Fuente: https://developers.google.com/search/docs/advanced/crawling/localized-versions#sitemap

Si estás incorporando un sitemap a tu proyecto, lo mejor es utilizar esta vía. Utilizando el ejemplo que Google nos proporciona, imaginemos que una página dispone de tres versiones: la inglesa, la alemana y la suiza, donde se habla alemán.

A continuación proponemos un sitemap xml sobre cómo estaría construido.

El namespace xhtml se especifica de la siguiente manera:

Cada versión del idioma debe estar comprendido en su propia etiqueta loc, y cada etiqueta loc debe estar comprendida entre su propia etiqueta url:

Y dentro de cada etiqueta url debe haber un elemento secundario por cada variante/versión, incluyendo la variante/versión de la url actual:

Google no establece ningún orden predefinido, pero recomienda que se repita el mismo orden/patrón en todos para facilitar la búsqueda de errores. Por tanto, la conexión entre el sitemap y la url del idioma se realiza mediante la etiqueta:

Es decir:

Donde href contiene la url de la página de la versión, y que buscará Google en el sitemap (mediante la etiqueta).

Es importante tener en cuenta los siguientes puntos a la hora de definir las etiquetas xhtml del sitemap:

      • Las urls deben incluir el método de transporte (http/https) tal y como se ha indicado en los ejemplos anteriores.
      • Para aquellos idiomas no traducidos, es buena idea tener un respaldo. Añade un valor por defecto para que el usuario sea redirigido a la página principal con el idioma por defecto:
      • No hay que preocuparse por posibles duplicaciones. Google tiene un sistema de seguridad por el cual evita que webmasters de otros sitios web apunten a nuestras etiquetas alternativas. Comprueba que dos etiquetas se apuntan entre sí, por ejemplo:

        En este caso, la url:

        apunta a:

        y viceversa.
      • Por último, el cógido hreflang es independiente de la región, y es donde se debe incluir el código del idioma: Este primer ejemplo indica que el contenido está en alemán:

        En este otro, se indica que el contenido está en alemán pero dirigido a los habitantes de Suiza (es decir, que es un dialecto).

        Dependiendo del contexto puede emplearse para diferentes propósitos como, por ejemplo, para indicar que la página está en un idioma pero utilizando el sistema monetario de la región.

        También existen casos excepcionales, como que, por ejemplo, no sea necesario especificar una diferenciación entre dos lenguajes que tienen uno neutro (por ejemplo, en el caso del español, que puede utilizarse una versión neutra entre el español de España y el español de Latinoamérica) o el inglés (una versión neutra entre el inglés británico y el estadounidense), siempre y cuando el contenido semántico no se vea afectado por denominaciones específicas de cada lenguaje (los cajeros automáticos se llaman cash machine en inglés británico pero ATM en inglés estadounidense).

2.5 Robots.txt

Robots.txt es una tecnología de Google que juega un papel importante en el SEO. Es un fichero que previene a los buscadores de acceder a partes de tu web que tú indiques. También ayuda a Google a saber cómo debe rastrear tu web de manera más eficiente.

Los archivos robots.txt deben crearse en la raíz del documento, y son ficheros sin formato. Además, siguen las siguientes reglas:

        • Constan de uno o varios grupos. Cada grupo comienza con la línea User-agent, en la que se indica el objetivo de los grupos.
        • Cada grupo tiene varias reglas o directivas (instrucciones), y cada directiva va en una línea.
        • En un grupo se proporciona la siguiente información:
          1. A quién o quiénes se aplica el grupo; es decir, el user-agent.
          2. A qué directorios o archivos puede acceder ese user-agent.
          3. A qué directorios o archivos no puede acceder ese user-agent.

          Para entenderlo mejor, desarrollemos el siguiente ejemplo:

          En este ejemplo, el user-agent es Googlebot. Con la instrucción disallow le indicas que Google no puede acceder a la url principal del sitio web, es decir, no puede rastrear todo el sitio web.

          En este otro ejemplo:

          Se le indica al agente Googlebot que no puede acceder a los directorios /calendar/ ni /junk/.

        • Por cada user-agent al cual se quiere hacer referencia, se debe de añadir una línea:

          En este otro ejemplo, tenemos dos user-agent, uno para Googlebot (el robot de Google) y otro para AdsBot, el robot de Google que comprueba la calidad de los anuncios.

          Mientras que allow / disallow son obligatorias (es decir, se debe hacer al menos, una), sitemap es opcional.

          Puede haber varios, uno, o ninguno, e indica la ubicación de un sitemap de este sitio web. La URL debe ser una URL cualificada, ya que Google no comprueba alternativas con o sin www, o con http o https.

          A continuación pongo algunos ejemplos completos:

Una vez formalizado el fichero robots.txt, se puede subir el fichero y ponerlo a disposición de los rastreadores.

Google no proporciona ninguna herramienta para ello, sino que su subida depende de la arquitectura del servidor y del sitio.

Tras subirlo, comprueba si robots.txt es de acceso público y si Google puede analizarlo.

Comprobar si funciona es sencillo, escribe:

Y si ves el contenido, es que es accesible y se puede probar el marcado. Para probar el marcado, se pueden usar dos herramientas que Google proporciona:

      1. El probador de robots.txt: https://support.google.com/webmasters/answer/6062598
      2. O, si eres desarrollador, se puede utilizar la biblioteca de robots.txt de código abierto de Google: https://github.com/google/robotstxt. Permite probar los archivos robots.txt en el propio ordenador.

Si quieres saber más sobre los diferentes user-agent que maneja Google, puedes comprobarlo en esta página:
https://developers.google.com/search/docs/advanced/crawling/overview-google-crawlers?hl=es

Puedes explorar y/o utilizar algunas de las siguientes reglas que Google proporciona para tu fichero robots.txt en el siguiente enlace:
https://developers.google.com/search/docs/advanced/robots/create-robots-txt#useful-robots.txt-rules

3. Javascript

Modelo “app shell” o “esqueleto web”

Fuente: https://developers.google.com/web/fundamentals/architecture/app-shell#cu%C3%A1ndo_utilizar_el_modelo_de_shell_de_app

El modelo app shell es el esqueleto de la IU que contiene los componentes mínimos necesarios para que la aplicación funcione (aunque todavía no disponga de todos los datos cargados). Esto permite al usuario tener una «vista previa» de los componentes que se van a cargar en la aplicación, en lugar de, simplemente, una página en blanco. Esta técnica también ayuda al posicionamiento.

4. Rastrear vs Indexar

Fuente:
https://www.google.com/intl/es_es/search/howsearchworks/crawling-indexing/

Cuando un usuario realiza una búsqueda en la página web, no realiza realmente una búsqueda en la web, sino en un archivo donde Google ha indexado todas las webs de manera automática.

Por tanto, cuando un usuario escribe “viajes baratos”, Google utiliza esos términos para rastrear entre las webs indexadas aquellas que contengan esos términos.

Basándose en aspectos como dónde aparecen esas palabras clave, si se hace uso de sinónimos, si se usan en frases con sentido, si esas páginas son consideradas spam, Google establece el posicionamiento.

Es importante comprender estas diferencias para poder realmente entender cómo funciona la búsqueda de un usuario en Google, y cómo explotar estos aspectos para obtener los mejores resultados posibles.

5. Conclusiones

Aprender sobre SEO es relativamente fácil. Google se convierte en un gran aliado y nos ofrece una amplia cantidad de herramientas que nos permiten mejorar el posicionamiento de nuestra página, pero masterizarlo es una tarea algo más compleja. Sin embargo, pronto nos damos cuenta que todos los puntos están relacionados, y que es cuestión de práctica y de profundización convertir al SEO en nuestro mejor aliado.

Aunque nunca está de más contar con un experto.

Dejar respuesta

Please enter your comment!
Please enter your name here