Posicionamiento en buscadores (SEO)

  • Alfredo Hernández-Díaz Fernández de Heredia

     Alfredo Hernández-Díaz Fernández de Heredia

    Diplomado en Ciencias Empresariales por la Universidad de Sevilla y licenciado en Investigación y Técnicas de Mercado, en Administración y Dirección de Empresas, y en Ciencias de Trabajo por la Universitat Oberta de Catalunya. Posee, además, un máster en Economía social y dirección de entidades sin ánimo de lucro por la Universidad de Barcelona y un programa ejecutivo en Dirección avanzada de personas por la ESADE Business School. También está certificado como técnico en dirección y gestión de la seguridad de la información y protección de datos en línea por AMETIC.

    Imparte docencia en diferentes centros: es profesor de marketing móvil y geolocalización en la Escuela de Negocios de la Innovación y los Emprendedores (IEBS), y profesor de analítica de medios sociales en el máster de Gestión de marketing digital de la WindUp School; así como tutor de posicionamiento web (SEO) en el Centro de Enseñanzas Virtuales de la Universidad de Granada (CEVUG).

    Además, ha publicado en distintas revistas y sitios especializados de marketing en línea (Granada Digital, ABC Tecnológico, IEBS Business School, Directivo Plus, Merca 2.0,Revista Marketing Táctico y Estratégico, La Cultura del Marketing, Qué Aprendemos Hoy, Territorio UOC, Eroski Consumer, etc.), y es autor de un blog especialista en marketing en línea y medios sociales.

PID_00246546
Ninguna parte de esta publicación, incluido el diseño general y la cubierta, puede ser copiada, reproducida, almacenada o transmitida de ninguna forma, ni por ningún medio, sea éste eléctrico, químico, mecánico, óptico, grabación, fotocopia, o cualquier otro, sin la previa autorización escrita de los titulares del copyright.

1.Visión general del SEO y los motores de búsqueda

1.1.¿Qué es el SEO?

La expansión de internet, y el acceso a los buscadores como principal vía de entrada a los contenidos de la red, han convertido el posicionamiento natural web, o SEO, en un elemento importante dentro de la estrategia global de marketing digital de cualquier organización. El SEO supone una actividad en constante crecimiento desde que las empresas se han convencido de su importancia estratégica para mejorar la presencia de sus marcas, productos y servicios en internet.
A lo largo de esta primera parte, vamos a llevar a cabo una introducción al SEO, y presentaremos algunos conceptos de base relacionados con el posicionamiento web. Nos plantearemos dos objetivos:
  • Entender qué es el SEO y familiarizarnos con la terminología más utilizada en este entorno.

  • Conocer sus factores internos y externos.

SEO son las siglas en inglés de search engine optimization, optimización de motores de búsqueda, que significa «mejora del posicionamiento web». Se define como el conjunto de técnicas empleadas para mejorar la posición orgánica, sin el uso de enlaces patrocinados (anuncios de pago), de un sitio web en los resultados de los buscadores. Por tanto, son las prácticas orientadas a mejorar la posición de una página web en los resultados naturales de los buscadores, para unos términos de búsqueda concretos.
La expresión SEO también se utiliza para definir a un profesional en marketing de buscadores, también denominado consultor SEO. Bajo este concepto, la tarea principal del SEO es indagar, analizar y descubrir lo que una audiencia necesita, así como las palabras que utiliza para satisfacer una necesidad, que son las búsquedas.
1.1.1.Conceptos básicos
  • Buscadores / motor de búsqueda (search engine). Son sistemas informáticos que permiten buscar información en internet. Mediante algoritmos avanzados, el contenido se clasifica y se valora para mostrar las páginas web más relevantes cuando un usuario lleva a cabo una consulta.

  • Palabras clave (keywords). Son los términos que los usuarios utilizan para hacer búsquedas en internet. Cuando un usuario efectúa una consulta a través de una palabra clave, el buscador ofrece las páginas web más relevantes para dicha búsqueda en sus resultados.

  • SERP (search engine results page). Son las páginas de resultados de búsqueda. En SEO, se hace referencia a los resultados orgánicos y se distinguen de los resultados de pago, que aparecen de forma diferenciada en la misma página de resultados.

  • Metaetiquetas. Son etiquetas de información que se añaden al código HTML de cada página web para resumir el contenido de la misma. Las metaetiquetas no son visibles al usuario, ya que se trata de una información dirigida a los buscadores. Las principales son la etiqueta «title», que corresponde al título de la página; «metadescripción», que describe la página web, y las etiquetas <h1><h6>, que son encabezados que se utilizan para distribuir y ordenar los contenidos.

  • Linkbuilding. Se trata de una técnica para generar enlaces externos, con el objetivo de incrementar la autoridad de una página web. El linkbuilding es uno de los tres grandes pilares del SEO (aspectos técnicos, contenidos y gestión de enlaces externos). Si un sitio web tiene un gran número de enlaces de calidad que apuntan hacia el mismo, su autoridad aumentará y será más fácil alcanzar un buen posicionamiento.

  • Autoridad. La autoridad web representa el valor y la calidad de una página web. La autoridad en internet viene determinada por múltiples factores, entre los cuales destacan los enlaces recibidos y la calidad del contenido. Cada motor de búsqueda mide su autoridad de un modo distinto, al proporcionar más relevancia a unos factores u otros. Podemos distinguir dos tipos de autoridad: autoridad de página y autoridad de dominio.

  • Pagerank. Es una parte integrante del algoritmo de Google. Se determina según la cantidad y calidad de los enlaces externos que recibe una página web. Se puede comparar con el índice de impacto que utilizan las publicaciones científicas. Este ranking, que clasificaba las páginas web con un valor entre cero y diez, ya no es público. Como sustitución, los indicadores más aceptados en la actualidad para medir la autoridad web son la domain authority (DA) y la page authority (PA), de la empresa Moz.

  • Fuerza de un enlace (link juice). Es la autoridad que transmite una página web a otra a través de un enlace. Esta fuerza del enlace se puede transmitir entre páginas del mismo sitio web, o a una página web externa.

1.1.2.SEO frente a SEM
La optimización en motores de búsqueda se integra dentro de lo que se denomina marketing en buscadores, que incluiría tanto las prácticas SEO como el search engine marketing (SEM), en el que los anunciantes pagan un precio para aparecer en un lugar preferente en los resultados de búsqueda. A nuestros efectos, nos referiremos indistintamente a optimización de buscadores y a SEO como la actividad de posicionar de la mejor manera posible una página web dentro de los resultados naturales u orgánicos (no de pago) en un motor de búsqueda, dejando fuera del alcance las prácticas de publicidad de enlaces patrocinados. Las posteriores alusiones al SEM como posicionamiento de pago en buscadores se harán siempre como pago por clic (PCP) o coste por clic (CPC).
1.1.3.Tipos de resultados
Los resultados de los buscadores se clasifican en dos tipos:
1) Resultados patrocinados o de pago (SEM). Se basan en un sistema de publicidad a través de una subasta, por el cual los anunciantes pujan por una serie de términos o palabras clave. Cuando los usuarios buscan dichos términos, se muestran sus anuncios. El orden de los resultados depende de varios factores, entre los cuales está el sistema de puja. El anunciante solo paga cuando se hace clic en un anuncio, razón por la que también se llama PPC (pago por clic) o CPC (coste por clic). Estos resultados patrocinados son conocidos como «enlaces patrocinados», «enlaces de pago» o «anuncios de pago».
2) Resultados orgánicos o naturales (SEO). Los resultados orgánicos son generados por el buscador de forma independiente de los resultados patrocinados. La aparición en los resultados orgánicos depende de aplicar una serie de técnicas que constituyen la disciplina SEO.
La diferencia más importante entre los dos tipos de resultados es que, mediante una estrategia de PPC, los anuncios tienen la posibilidad de aparecer de forma casi inmediata, mientras que aparecer en los resultados orgánicos requiere de cierto tiempo (semanas o meses). No existe ninguna interrelación entre los resultados patrocinados y los resultados orgánicos.
Los criterios que usan los algoritmos de los buscadores en los resultados de búsqueda orgánicos no son una información pública, con lo que la mayor parte de la información se extrae de los experimentos efectuados por profesionales SEO y de la información básica que ofrecen algunos buscadores, como es el caso del buscador Google (principal motor de búsqueda del mundo por número de usuarios). Este motor de búsqueda ofrece una guía para principiantes sobre optimización para motores de búsqueda y otros recursos, la mayoría en inglés, como el blog oficial del Centro para Webmasters de Google, el foro de debate o el canal de vídeo de Google Webmasters.
A través de experimentos empíricos de los profesionales SEO, se deducen, de una forma aproximada, los criterios usados por los algoritmos para posicionar una página web en los SERP. Si a esto añadimos los cambios constantes que se producen en los múltiples algoritmos de un motor de búsqueda, nos daremos cuenta de que el SEO es un campo experimental.
El SEO no es una ciencia cierta, y nadie puede asegurar actualmente la posición en la que puede aparecer un sitio web en los resultados de un buscador.
1.1.4.Buenas prácticas
Los buscadores han implementado múltiples acciones con el objetivo de evitar el spam y neutralizar las técnicas de black hat SEO. El black hat SEO son prácticas usadas para intentar engañar a un buscador y conseguir un posicionamiento web más inmediato. El uso de este tipo de prácticas está fuertemente penalizado por los motores de búsqueda. Algunas prácticas habituales de este tipo son los textos o enlaces ocultos, la generación de contenido automático o duplicado, comentarios spam en blogs, repetición frecuente de palabras clave y la creación de una red de blogs con contenido de poca calidad, para obtener enlaces entrantes. En nuestro caso, todas las recomendaciones y estrategias que se describen en este documento siguen las directrices marcadas por los buscadores denominadas «buenas prácticas SEO» o white hat SEO. Mientras que en el black hat SEO se alcanzan unos resultados inmediatos, en las técnicas white hat SEO se obtienen de forma gradual.
1.1.5.Factores SEO
A la hora de optimizar un sitio web, hay dos tipos de factores: los internos de la página web (factores on page) y los externos (factores off page).
  • Los factores internos abarcan los aspectos técnicos y los contenidos. Mientras que los aspectos técnicos están relacionados con el desarrollo de un sitio web, y se refieren principalmente a las URL, al código fuente (HTML) y a la estructura del sitio web, el contenido se refiere el texto del sitio más las metaetiquetas (principalmente, los títulos y las descripciones meta), así como los formatos audiovisuales (imágenes, vídeos, infografías, audio, etc.). Los buscadores necesitan texto para interpretar los contenidos. Es recomendable aplicar el SEO on page desde el momento en que un sitio web se está desarrollando, y no una vez finalizado.

  • Los factores externos (off page) se refieren a la gestión de enlaces externos o linkbuilding, de forma que intentaremos conseguir el mayor número de enlaces que apunten hacia nuestro sitio, ya que los buscadores los consideran una forma de voto o mención. A mayor cantidad de enlaces, mayor es la autoridad de nuestro sitio web para los buscadores. No todos los enlaces valen igual. El valor viene determinado, principalmente, por el texto del enlace, por el posicionamiento donde esté ubicado y por la autoridad del sitio web que enlaza.

1.2.Búsqueda de información

Han pasado años desde los inicios de la red de redes, cuando la falta de información hacía de internet un sistema poco desarrollado y sin un objetivo claro en un ámbito de servicios. En los años ochenta, eran pocos los que publicaban contenidos en internet, y el servicio que hoy conocemos como World Wide Web (www) no existía.
El proceso de búsqueda de información era una ardua tarea por parte del usuario, dado que la información estaba almacenada en archivos y distribuida en servidores aislados.
Se requería un conocimiento técnico elevado para acceder a dichos servidores, lo que hacía que el proceso de búsqueda fuese poco accesible. Con el tiempo, se creó un índice de referencia con una lista de todos los servidores donde encontrar la información, y comenzaron a aparecer los primeros servidores anónimos, hasta la creación del primer motor de búsqueda, en el año noventa, denominado Archie.
Servidor Archie Polonia
Fuente: http://archie.icm.edu.pl/archie-adv_eng.html
Gracias a estos primeros avances, podemos decir que hoy día existen motores, como Google o Bing, que han facilitado enormemente la exploración de la información. Con la experiencia que adquirieron del pasado, los motores actuales han conseguido mejorar significativamente la tarea de búsqueda en internet.
La entrada del servicio World Wide Web significó una forma sencilla de compartir y consumir información en internet. Permitió establecer enlaces entre diferentes documentos, con ayuda del protocolo de comunicación HTTP (hyper text transfer protocol) y el lenguaje HTML (hyper text markup language), para el intercambio de información. Este proceso creciente de accesibilidad a la información ha significado que, en la actualidad, cualquiera pueda buscar información a través de internet.
El exceso de información que existe en la actualidad es uno de los mayores retos en la llamada era de la información. Se han desarrollado múltiples sistemas o programas que permiten encontrar información en internet, pero también encontramos un gran volumen de información escondida, denominada «internet profunda» o deep Web, término acuñado por Bergman, cuyo acceso es únicamente posible mediante algún tipo de pasarela (gateway) o formulario web y que, por tanto, no puede recuperarse y ser procesada por los buscadores.
Un internauta encuentra solo aquello que está registrado en algún buscador o en un gran motor de búsqueda. Estos motores no pueden alcanzar la información que resulta de una búsqueda en una base de datos, o a la que se accede mediante una clave de acceso (password). Según Aguillo (2003), entre los recursos de información invisibles a los buscadores encontramos:
  • Catálogos de bibliotecas y bases de datos (bibliográficas, numéricas, a texto completo, etc.).

  • Revistas electrónicas y archivos de documentos, tanto de acceso gratuito como por suscripción, protegidas por clave de acceso.

  • Depósitos de documentos en formatos no indexables.

  • Material archivado como documentos sin hipervínculos, que permanecen ocultos en los servidores, como las separatas y los reprints, los dos en versión electrónica.

  • Recursos estadísticos que permanecen invisibles en instituciones académicas y centros de conocimiento.

La búsqueda de información en internet se ha convertido en una tarea fundamental para el usuario en línea. De manera independiente del motor de búsqueda seleccionado, la definición de una estrategia de búsqueda efectiva es esencial para encontrar y recuperar información pertinente.
A la hora de construir la estrategia de búsqueda, deben considerarse los siguientes aspectos:
  • Determinar el tipo de información que se necesita, dónde y cómo encontrarla. Es muy importante seleccionar previamente las posibles palabras clave y conceptos que hay que emplear, en el idioma que corresponda, así como los sinónimos y variantes de estos términos.

  • Determinar el tipo de herramienta de búsqueda que hay que utilizar (buscador general o especializado, metabuscador o directorio).

  • Definir la estrategia de búsqueda con precisión y claridad, según las posibilidades que abarque cada buscador.

  • Diseñar una estrategia de búsqueda en la que se empleen los operadores lógicos o booleanos más conocidos.

  • Evaluar los resultados obtenidos, para modificar la estrategia de búsqueda planteada.

En las búsquedas de información, es aconsejable utilizar más de una palabra y hacer uso de los operadores lógicos o booleanos para evitar resultados no deseados.
¿Qué operadores lógicos principales deberíamos usar para nuestras consultas en los buscadores? El siguiente listado está centrado en los principales operadores booleanos que se utilizan para la optimización en buscadores.
1) AND. Para encontrar dos términos o más en una página o sitio web (por ejemplo, «SEO AND SEM»).
2) OR. Para mostrar resultados de las páginas que incluyan uno de los dos términos de la búsqueda, o los dos (por ejemplo, «SEO or SEM»).
3) NOT. Para excluir páginas en las que aparece el término precedido por el signo negativo o «NOT» (por ejemplo, «SEO -SEM»).
4) Asterisco (*). Para abrir una búsqueda aprovechando la raíz inicial o final de una palabra (prefijo o sufijo), o en medio de la palabra clave. Es muy útil en estos casos:
  • Para que el buscador muestre sugerencias relacionadas con la búsqueda.

  • Cuando no se recuerda una palabra dentro de una frase.

  • Para completar búsquedas, cuando no se conoce exactamente lo que se está buscando.

Por ejemplo, si se desea que el buscador nos proponga sugerencias sobre qué es el SEO:
Uso del operador booleano asterisco
Fuente: Elaboración propia
Fuente: Elaboración propia
5) Entrecomillado (“”). Para encontrar una frase (dos o más palabras) que coincida exactamente con las palabras escritas (por ejemplo, “Definición de SEO”).
6) Site. Para localizar en un buscador las páginas indexadas para un determinado dominio web (por ejemplo, «site:www.uoc.edu»).
7) Link. Para saber las páginas o sitios web que enlazan a un dominio web (por ejemplo, «link:www.uoc.edu»).
8) Related. Para localizar sitios web similares o relacionados. Es muy útil para encontrar a la competencia que utiliza las mismas palabras clave en sus contenidos web (por ejemplo, «related:www.uoc.edu»).
9) Allintitle. Para descubrir textos con la palabra clave en el título (por ejemplo, «allintitle:“posicionamiento natural en buscadores”»).
10) Allintext. Para buscar la información o texto deseado dentro del cuerpo de un artículo (por ejemplo, «allintext:“posicionamiento natural en buscadores”»).
11) Allinurl. Para hallar las páginas web que contengan las palabras clave seleccionadas en sus URL (por ejemplo, «allinurl:“posicionamiento natural en buscadores”»).

1.3.Herramientas de búsqueda de información

Además de un buen criterio, una búsqueda en internet requiere un uso acertado de herramientas de búsqueda. Existen diferentes herramientas de búsqueda de información en internet. Cada una de ellas funciona de una manera distinta, y tiene su propio propósito y alcance. Hay múltiples clasificaciones de herramientas de búsqueda. Una de las más aceptadas por la literatura está integrada por motores de búsqueda, metabuscadores y directorios:
  • Motores de búsqueda. Los motores de búsqueda, o buscadores, son un tipo de software especial que localiza e indexa las páginas web y todos los documentos referenciados a las mismas, de manera automática. Google o Bing son ejemplos de motores de búsqueda.

  • Metabuscadores. Son servidores web que llevan a cabo búsquedas en los índices de un gran número de buscadores y/o directorios. Ordenan sus recursos de manera cronológica o geográfica, por temas, categorías o por una combinación de estos. Entre los más conocidos, están Startpage de Ixquick y Dogpile.

  • Directorios temáticos. Los buscadores temáticos, o directorios, son un tipo de sitio web que lista páginas y sitios web útiles sobre una temática. Son organizados de forma manual por expertos, que deciden qué sitios incluir en su base de datos. Presentan la información por medio de categorías y subcategorías que registran las direcciones (URL), y una descripción de los sitios. El primer directorio que apareció en internet fue Yahoo, en 1994.

1.4.Motores de búsqueda

Antes de empezar una estrategia SEO, es importante formarse como usuario y familiarizarse con los elementos principales de un motor de búsqueda y su funcionamiento.
Un motor de búsqueda, también conocido como buscador, es un sistema informático que permite a un usuario hacer búsquedas en internet para localizar las páginas web que tengan contenido relacionado con los términos de la consulta. Los resultados que presentan los buscadores al usuario no vienen directamente de internet, sino de sus bases de datos, que crean recopilando información de las webs.
Los buscadores rastrean la web, recopilan información, la almacenan, clasifican y evalúan. Dado que todo el proceso se lleva a cabo de manera automatizada, con una gran infraestructura técnica (servidores, líneas de comunicación y programas), pueden tratar una gran cantidad de información.
Este aspecto los diferencia esencialmente de los directorios que se clasifican de forma manual. En este caso, las bases de datos son creadas por personas especializadas en evaluar y clasificar las webs, que se presentan mediante criterios alfabéticos, temáticos y/o geográficos. Aunque los resultados que ofrecen pueden ser de gran calidad, no pueden competir en volumen con los principales motores de búsqueda, que rastrean millones de páginas automáticamente, a una gran velocidad. De ahí que los directorios hayan cedido su protagonismo a los motores de búsqueda.
1.4.1.Partes de un motor de búsqueda
Los motores de búsqueda constan de cinco partes principales:
1) Robot. También denominado spider (‘araña’), crawler (‘reptil’) o worm (‘gusano’). Es un software dedicado a rastrear la web de forma constante, para extraer información. La araña recorre las páginas web a través de los enlaces que existen entre distintas páginas. Esta operación se repite periódicamente para detectar cambios. Una vez efectuado el rastreo, este contenido es añadido a la base de datos y al índice del motor de búsqueda. En el caso de Google, el robot principal que emplea se denomina Googlebot, y en el caso de Bing, se trata de Bingbot.
2) Índice. Es una base de datos para almacenar el contenido, la cual contiene una copia de los documentos recopilados por la araña, lo que facilita los mecanismos de búsquedas.
3) Sistema de relevancia. Es la clasificación de resultados que presenta el motor cuando un usuario lleva a cabo una búsqueda. Lo ordena bajo un concepto denominado relevancia, que es calculada por los algoritmos a través de múltiples factores.
4) Algoritmo. Reglas de cálculo que aplican los buscadores para evaluar el contenido y la relevancia de una página web.
5) Interfaz del usuario. Es visible al navegante, y se trata de una interfaz en la que el usuario puede hacer las búsquedas y recibir los resultados de las mismas, así como filtrar estos resultados bajo diferentes criterios (fecha, idioma, país, etc.). Una vez hecha la búsqueda, los resultados se presentan en varias páginas, ordenados de mayor a menor relevancia.
1.4.2.Funcionamiento de un motor de búsqueda
A la hora de rastrear internet, los robots interpretan los diferentes elementos y atributos HTML de la página web, desde las metaetiquetas a los encabezados, imágenes, enlaces, tablas, etc., y leen el contenido, extrayendo las palabras clave del mismo. También obtienen las características generales del servidor web y de cada una de las páginas. Almacenan en el índice del buscador la URL y una copia de cada página.
La información recopilada por los robots se almacena en bases de datos, mediante un proceso previo de indexación por el que se crean unas tablas que relacionan palabras clave y páginas web. Cuando alguien lleva a cabo una búsqueda, lo hace sobre las bases de datos de los buscadores, no directamente sobre la información publicada en internet. De esta forma, la búsqueda es mucho más rápida. Para evitar que la información que se muestra en los resultados de búsqueda pueda quedar desactualizada, los motores de búsqueda rastrean continuamente internet para mantener frescos los datos y proporcionar mejores resultados.
Para ordenar los contenidos, los primeros algoritmos tenían únicamente en cuenta el número de veces que aparecía una palabra clave en una página web. Cuantas más veces aparecía, más relevante era esa página para una búsqueda. Una forma de mejorar este sistema fue calcular la densidad, es decir, cuántas veces aparecía el término de búsqueda respecto al número total de palabras de la página. Con el tiempo, este método tuvo un efecto rebote, ya que empezaron a proliferar páginas spam con palabras repetidas, lo que provocó la introducción progresiva de nuevos criterios y el inicio del uso de criterios semánticos por parte de los motores.
Un cambio relevante fue incorporar, como factor de calidad de una página web, la cantidad de enlaces recibidos. Así, para un buscador, un enlace de una web a otra es parecido al hecho de que la primera le otorgue un voto a la segunda: si la enlaza, es porque considera que la información que tiene esa web es de interés. Por ello, cuantos más enlaces, mayor número de votos, y mayor relevancia adquiere el sitio que recibe los votos. La incorporación de este criterio propició que muchas páginas se llenaran de enlaces artificiales desde otros sitios, por medio de la creación de webs instrumentales con el único objetivo de incrementar el número de enlaces, o recurriendo a la compra de enlaces. La reacción de los creadores de los algoritmos fue idear nuevos mecanismos para detectar mejor la relevancia de los enlaces.
El algoritmo pagerank de Google
El algoritmo pagerank de Google ha sido uno de los que han intentado corregir estos problemas para mejorar la calidad de los resultados. Se trata de un sistema de clasificación desarrollado por Google para medir la autoridad de una página web, es decir, la cantidad y la calidad de enlaces externos que apuntan hacia una web. Mediante un cálculo complejo, proporcionaba un valor de cero a diez. En la actualidad, este valor web ya no es público, pero existen otros indicadores alternativos que nos pueden revelar la autoridad de un sitio o página web, como los indicadores DA (domain authority) y PA (page authority) de la empresa SEO Moz.
La evolución de la tecnología de los buscadores, y la mejora en sus algoritmos, han implicado la llegada de nuevas funcionalidades:
  • Resultados de búsqueda diseñados y adaptados para dispositivos móviles.

  • Resultados de búsqueda geolocalizados que tienen en cuenta la posición del dispositivo y, por tanto, del usuario.

  • Indexación de elementos multimedia (vídeo, animaciones, etc.) más allá del texto.

  • Resultados de búsqueda adaptados al perfil del usuario y a sus preferencias, según su historial de búsqueda.

  • Resultados de búsqueda influenciados por las acciones de los usuarios (recomendaciones, valoraciones, etc.).

  • Búsquedas no textuales a través de la voz.

  • Búsquedas semánticas reconociendo la intención del usuario y el contexto de su consulta.

1.5.Metodología del SEO

Una vez expuesto qué es la optimización para buscadores, por qué es relevante y cómo funcionan los buscadores, nos preguntaríamos:
  • ¿Por dónde se empieza un proyecto SEO?

  • ¿Cuáles son los pasos que se deben dar para empezar nuestra estrategia SEO?

Para responder a estas preguntas, lo aconsejable es usar una metodología que ordene nuestro trabajo SEO. Cada profesional o firma SEO usa la suya propia. En nuestro caso, presentamos un método con cinco etapas:
1) Conocer el negocio y el sitio web.
2) Análisis web.
a) Estudios de palabras clave.
b) Aspectos técnicos (estructura web y HTML).
3) Optimización de contenidos.
4) Optimización de enlaces externos.
5) Medición y resultados.
La primera parte del proceso SEO es conocer el negocio, determinar los objetivos y, a continuación, evaluar si el sitio web está preparado para posicionarse. Si fuera un sitio web de nueva creación, estudiaríamos previamente la arquitectura web (estructura futura del sitio) más adecuada para el sitio del negocio, así como su distribución de contenidos. Esta evaluación del sitio abarca una investigación sobre las palabras clave, sobre el contenido y el código HTML. La segunda parte es la implementación de los cambios sugeridos en el análisis, la elaboración de un informe de evaluación y el seguimiento de los resultados. Veamos cada una de las cinco etapas.
1.5.1.Conocer el negocio y el sitio web
Como parte de la estrategia de marketing de la empresa, el SEO debe atender a los objetivos que esta tenga estipulados y seguir la misma línea para llegar al público objetivo. En tal sentido, el primer paso para definir un proyecto SEO con éxito es conocer los requerimientos del negocio y qué se desea lograr con el desarrollo del mismo.
Nos tendríamos que hacer las siguientes preguntas:
  • ¿Cuáles son los objetivos de marketing de la empresa?

  • ¿Qué acciones de marketing en línea y fuera de línea se están llevando a cabo?

  • ¿Se trata de un nuevo sitio web, o de uno ya existente?

  • ¿Cuáles son los principales competidores de la empresa?

  • ¿Qué métricas se utilizarán para medir la estrategia SEO?

  • ¿Existe un equipo para el desarrollo y mantenimiento de la página web, o está subcontratado?

  • ¿Se dispone de un equipo o una persona dedicados a la generación de contenidos?

Todas estas cuestiones se tratan en una reunión introductoria entre las áreas involucradas de la organización y el analista, en la que se determinan las necesidades y características del negocio.
1.5.2.Análisis de la web
Una vez establecidos los objetivos del negocio, en la fase anterior se procede a analizar la página web para detectar cualquier elemento que esté afectando negativamente a la indexación por parte de los buscadores.
Comprobar el «robots.txt» (archivo que indica a las arañas a qué partes del sitio web pueden acceder), por si existen indicaciones de bloquear algún elemento que se quiera indexar.
En términos generales, lo que se evalúa del sitio web está en estrecha vinculación con los factores fundamentales del SEO: aspecto técnico de la web, contenidos y enlaces desde otros sitios web.
Se parte de un análisis o estudio de palabras clave:
1) Análisis de palabras clave. Con las ideas claras sobre el negocio, se procede a hacer un análisis de los criterios de búsqueda del sector, para lo cual se lleva a cabo un análisis de palabras clave vinculadas al negocio y una investigación de las características principales de su competencia. En este punto, cabe destacar que se puede tener una lista de competidores identificados en el ámbito del negocio que no necesariamente corresponden con la competencia en línea. Para empezar el análisis de palabras clave, se elabora una lista de las que interesan al público objetivo y que, además, están en consonancia con la línea de marketing del negocio.
¿Qué fuentes se pueden usar para extraer palabras clave?
  • Palabras clave derivadas de una lluvia de ideas (compañeros, familia, socios, clientes, proveedores, etc.).

  • Palabras clave obtenidas del sitio web a partir de herramientas de analítica web.

  • Palabras clave sugeridas por herramientas gratuitas o propietarias.

  • Palabras clave incluidas en campañas de PPC.

  • Palabras clave utilizadas por la competencia.

  • Palabras clave derivadas de informes o estudios del sector.

A la hora de construir esa lista de palabras clave, no solo se debe prestar atención a las que tengan más búsquedas, sino también las palabras clave long tail, es decir, aquellos términos (o conjunto de términos) menos genéricos y con menos competencia, y que puedan ofrecer un buen rendimiento.
Long tail
El término long tail proviene del libro The Long Tail de Chris Anderson, publicado en el 2004, donde introducía la teoría de «la larga cola» para referirse a segmentos del mercado minoritarios que, sumados en conjunto, llegan a ser igual de importantes, o más, que los segmentos (nichos) más populares. Además, Anderson observaba que, gracias a los bajos costes de distribución de internet y la deslocalización física (el análisis era para productos digitales que podían servirse a cualquier parte), podía haber negocios rentables en segmentos muy minoritarios donde antes era casi imposible, debido a la dispersión de la oferta.
Una vez creada una lista amplia de palabras clave, hacemos uso de herramientas que estiman el tráfico potencial de estas palabras y el nivel de competencia que tiene cada una. Sobre ese listado llevamos a cabo varios filtros, hasta alcanzar un listado final acorde al tamaño de la página de la empresa y a la capacidad de generación de nuevos contenidos. Una vez cerrada la lista, se efectúan revisiones periódicas y se actualiza a partir de cambios en las tendencias de búsqueda o la entrada de nuevas marcas, productos y servicios de la empresa, que deben incluirse en el listado de palabras clave.
Análisis de palabras clave
Fuente: El libro Blanco de IAB (Interactive Advertising Bureau)
Fuente: El libro Blanco de IAB (Interactive Advertising Bureau)
Como una parte más del proceso de análisis de palabras clave, se debe prestar atención también a lo que hacen nuestros competidores, no solo para monitorizar su actividad, sino para aprender de sus aciertos y evitar sus errores de posicionamiento web. Se parte por identificar los sitios web bien posicionados, los que aparecen en la primera página de resultados de búsquedas, para las palabras clave principales del sector y sobre las que queremos posicionarnos. Una vez detectados, se procede a llevar a cabo un análisis de visibilidad y de factores técnicos de cada uno de ellos. Con este análisis de benchmarking, identificamos las buenas prácticas que están aplicando para captar ideas y trasladarlas al sitio web que se desea optimizar.
2) Aspectos técnicos: estructura web y HTML. ¿Cómo organizamos un sitio web y sus múltiples páginas web? Para establecer una estructura óptima para el sitio web, consideraremos el análisis de palabras clave efectuado anteriormente. Si una tienda electrónica tuviera todos sus productos en línea en una misma página web, por ejemplo, en la página de inicio, sería muy difícil para el usuario encontrar el producto que busca. Por ello, es importante dividir el sitio web en categorías y subcategorías.
Estructura web
Fuente: Adaptación traducida de Moz
Fuente: Adaptación traducida de Moz
Lo importante es saber que una buena estructura web parte de un buen análisis de los términos de búsqueda, en el que las palabras clave más importantes deben aparecer en los lugares más destacados dentro del sitio web.
La página de inicio tiene que enlazarse a las categorías, y estas a las subcategorías. Y viceversa, desde las subcategorías deberíamos poder llegar a las categorías y, desde estas, a la página de inicio. Esto significa que siempre se puede hacer un clic para descender o subir de nivel. Es recomendable crear enlaces hacia todos los niveles a través de las migas de pan (en inglés, breadcrumbs) o hilo de Ariadna, que indican al usuario y al buscador en qué pagina del sitio se encuentran.
Ejemplo de miga de pan
Inicio > Marketing Digital > SEO
De esta forma, también se ayuda a los buscadores a comprender qué páginas son más importantes dentro de un sitio web. En general, ellos consideran que las páginas de los niveles superiores son las más importantes, ya que la página de inicio es la que tiene mayor peso. La mejor forma de planificar una estructura es crear un árbol jerárquico, empezando con la página de inicio, y de ahí hacia abajo generar los niveles por categorías y subcategorías. Lo lógico es que los términos más competitivos con información general estén en las páginas superiores, y las páginas con información específica, como los productos, en los lugares inferiores.
Otro aspecto técnico que hay que considerar es el lenguaje HTML. Los buscadores, cuando visitan los sitios, leen el código HTML y, así, son capaces de determinar el tema de la página y cuáles son los elementos importantes. Cuando se crea un sitio web, lo primero que se hace es construir la estructura a través de código HTML. De cara a implementar una estrategia SEO, es aconsejable disponer, como mínimo, de un conocimiento básico de HTML, para comprobar si está bien implementado el código, aunque no es totalmente imprescindible, puesto que hoy día gran parte de los sitios web están creados bajo CMS (content management system); es decir, gestores de contenidos que permiten controlar de manera independiente, a través de una interfaz, el contenido y el diseño. La gran mayoría de los gestores de contenido disponen de opciones SEO fácilmente configurables y, en la mayoría de los casos, no requieren modificar el código HTML.
1.5.3.Optimización de contenidos
El contenido es uno de los aspectos más importantes para la optimización en buscadores. Antes de empezar a escribir el contenido para el sitio, hay que pensar qué buscan los usuarios potenciales. El objetivo principal de un sitio web es generar tráfico de calidad, y para ello es imprescindible conocer a nuestros usuarios, las palabras que utilizan y el tipo de información que buscan.
Escribir para internet requiere comprender cómo se comporta el usuario. El usuario tiende a mirar las páginas web en una pantalla como si fuera un escáner, y dedica poco tiempo a ello. Por eso, especificamos seis reglas básicas que serán de ayuda a la hora de redactar para una página web.
1) La página de inicio debe exponer el propósito principal del sitio web, y cada página, un tema específico. Una vez que el usuario ha entendido el propósito de la web, será capaz de determinar si es o no lo que está buscando y, en caso afirmativo, se dirigirá hacia las categorías específicas para ampliar la información. Los buscadores hacen especial énfasis en el contenido del sitio a la hora de indexar las páginas. En este sentido, se aconseja el uso de un mapa del sitio o «sitemap.xml» (fichero donde se recoge un mapa de contenidos del sitio web). Si en una página web existen múltiples temas, a los buscadores les será difícil comprender la temática de la misma y la página será menos relevante. Por este motivo, es recomendable que cada página tenga una temática concreta y una palabra clave específica por la que intente posicionarse.
2) Los buscadores necesitan una página web con contenido suficiente para interpretarlo y relacionarlo con los términos de búsqueda de los usuarios. Se debe escribir la esencia del mensaje en la introducción, cuerpo del mensaje y en el final, repitiendo el proceso incluso en los subtítulos. Es muy importante que el contenido tenga una estructura clara, mediante el uso de títulos y subtítulos, así como de las etiquetas de encabezado (<h1><h6>).
3) Es aconsejable que las oraciones no sean muy extensas y que tengan pocas líneas en un mismo párrafo, así como ofrecer pistas visuales (imágenes, subtítulos descriptivos, listas, etc.) para que el contenido no sea muy denso para el lector, especialmente para los usuarios de dispositivos móviles.
4) Ofrecer contenidos claros, únicos y relevantes es muy importante para el posicionamiento de una página web, siguiendo las reglas gramaticales y ortográficas del idioma. Para ello, nos ayudará situarnos en el lugar del que busca la información y qué le resultaría interesante saber acerca del tema. Asimismo, al usuario le será muy útil encontrar enlaces internos, dirigidos hacia otras páginas web del mismo sitio, para aclarar o ampliar la información.
5) No existe una regla de oro respecto a la extensión del contenido, ni un mínimo ni un máximo, pero es necesario un cierto volumen de palabras para que el buscador interprete el contenido de una página web. Es importante lograr de forma natural una repetición óptima y lógica de la palabra clave. Para ello, haremos uso de sinónimos y, así, evitaremos repetir en exceso la palabra clave en el mismo texto. Este es uno de los grandes retos en lo que respecta a optimización de contenidos, ya que queremos potenciar las palabras clave, sin ir en detrimento del contenido del sitio.
6) La palabra clave principal debe aparecer unas cuantas veces en el contenido, pero sin forzar una alta aparición, puesto que los buscadores pueden considerar esto como una práctica abusiva y clasificarla como spam o hat black SEO. Aunque no existe una regla estandarizada para los buscadores, puede servir de orientación el hecho de que, en un texto de 300 palabras, bastaría con añadir la palabra clave en cinco ocasiones:
  • En la etiqueta «title».

  • En <h1>.

  • Al principio, en medio y al finalizar el texto.

  • Incluir palabras clave secundarias o sinónimos a lo largo del contenido.

Metaetiquetas
Las metas son etiquetas de configuración que le dan información adicional a los buscadores sobre las páginas. Son los fragmentos de texto que aparecen en los SERP: el title o ‘título’ y la metadescription o ‘metadescripción’, además de los encabezados o subtítulos (desde h1 a h6).
1) Title. La etiqueta «title» es el elemento más importante del contenido de una página web en términos de posicionamiento. Los buscadores le otorgan mucho valor, pues si está bien escrita y es atractiva, incitará al usuario a hacer un clic en ella. Aparece en los resultados de búsqueda, pero no en la publicación del contenido. No debe superar los 65 caracteres para que el texto no sea acortado por los buscadores. Es conveniente que la palabra clave se encuentre lo más a la izquierda posible del título, y que haya un único título por cada página web.
2) Metadescripción. La metadescripción corresponde al fragmento de texto que se muestra en los resultados de búsqueda debajo de la etiqueta «title», y se trata de un breve resumen sobre lo que trata la página web. No debe superar los 150 caracteres, para que no sea acortado por los buscadores. La metadescripción debe ser única para cada página web. Aunque las descripciones no inciden directamente en el posicionamiento de la página web, conviene incluir la palabra clave en la misma, pues reafirma lo que dice el título y explica con mayor detalle lo que el usuario se encontrará en la página web. Además, si la palabra clave principal utilizada coincide con el término de búsqueda del usuario, el buscador lo resalta en negrita, al igual que el título y la URL, de modo que se gana mayor visibilidad.
Etiqueta «title» y metadescripción
Fuente: Elaboración propia
Fuente: Elaboración propia
3) Encabezados y subencabezados. Son etiquetas para organizar y jerarquizar el contenido de cada página. Los encabezados y subencabezados se identifican por la etiqueta <h>, que significa header en inglés. La etiqueta <h1> correspondería al encabezado principal, la etiqueta <h2> identificaría un subtítulo, y así sucesivamente, por orden de relevancia y tamaño, hasta la etiqueta <h6>. Quien esté familiarizado con los procesadores de texto sabrá que ofrecen la opción de organizar y estructurar los documentos. Por ejemplo, el encabezado uno es el más importante, y se usa para indicar un titular. El encabezado dos podría usarse para un párrafo. El encabezado tres, para un subpárrafo, y así sucesivamente.
Según los estándares web, y como norma básica para el posicionamiento web, hay que definir solo un título <h1> por cada página web, al ser un resumen del contenido de la página. Cuando alguien sitúa una parte del texto en la etiqueta <h1>, los buscadores entienden que esta parte del contenido es importante para la página web, es decir, define la temática. El encabezado número uno debe incluir la palabra clave principal de la página web. En los encabezados secundarios, hay que usar palabras clave secundarias y sinónimos de la principal. Es generalizado el error de utilizar los encabezados como elementos de diseño (epígrafes de distinto tamaño), y no para proporcionar una estructura ordenada al contenido.
1.5.4.Optimización de enlaces externos
La búsqueda de enlaces externos, o linkbuilding, consiste en obtener enlaces que apunten al sitio web, con el objetivo de aumentar la autoridad y mejorar el posicionamiento en buscadores. Dado que se trata de un factor externo SEO, y necesita de terceros, su control es más complicado.
¿Qué entendemos por un enlace externo? Un enlace es una mención de un sitio web a otro. En el código HTML, aparecería como:
<ahref=http://www.ejemplo.com”>Texto del enlace</a>
Los enlaces pueden ser de texto, como el del ejemplo, pero pueden tener otros formatos, como una imagen, vídeo, etc. Los enlaces externos se valoran por su cantidad y por su calidad. La calidad de un enlace se determina a partir de cuatro aspectos principales:
1) Relevancia. Está determinada por el sector o temática de los sitios web. Por ejemplo, una página web de coches que enlaza a una página sobre astronomía no es relevante para los usuarios, ni para los buscadores. Por tanto, un enlace externo tendrá mayor valor cuando tanto la página receptora como la que enlaza traten un tema similar. Por ello, es preferible que un sitio web reciba 25 enlaces desde 20 dominios web distintos, relacionados con su temática, a que reciba 200 enlaces desde un único sitio web con temática distinta.
2) Texto ancla. También denominado anchortext, en inglés. Se trata del texto que se usa para enlazar una página, y que incluye el contenido del enlace, es decir, un texto con una descripción corta de la página web enlazada. Si se usa con frecuencia el mismo texto ancla, los buscadores entenderán que las palabras clave que se repiten son relevantes para la página web. Por tanto, cuantos más enlaces reciba con dichas palabras clave, mejor se posicionará para estos términos de búsqueda. Debemos tener la precaución de que no todos los textos ancla sean iguales, para evitar que los buscadores crean que los enlaces no se han obtenido de forma natural. Por ello, es recomendable que el texto ancla sea variado.
3) Autoridad. Un sitio web recibirá gran cantidad de enlaces si ofrece información de calidad y es percibido como una autoridad en su sector. La autoridad del enlace vendrá determinada por tres factores:
  • Número de enlaces entrantes que tiene la página web que enlaza.

  • Número de enlaces entrantes que posee el dominio de la página web que enlaza.

  • Número de enlaces salientes que tiene la página web que enlaza.

4) Legitimidad. Los enlaces legítimos son los obtenidos de forma natural y los que los buscadores aprecian, es decir, enlaces recibidos por la calidad del contenido. En este sentido, los buscadores penalizan la compra de enlaces como método para alcanzar un mejor posicionamiento en los resultados de búsqueda. Esto no significa que no se pueda comprar un enlace en un portal relevante de nuestro sector, pero debe ir acompañado con el atributo nofollow, con el que indicaremos a los buscadores que no lo tengan en cuenta en su algoritmo. De esta forma, no nos arriesgamos a ser penalizados por incumplir las directrices de calidad de los motores.
Atributo nofollow
En código HTML, un enlace nofollow se indica de la siguiente manera:
<ahref=http://www.ejemplo.com” rel=”nofollow”>Texto del enlace</a>
El atributo nofollow asegura que el enlace no será tenido en cuenta cuando se calcule el valor de la página web de destino, pero esto no quiere decir que recibir un enlace nofollow no sea beneficioso, pues no deja de ser una referencia o mención de una web externa. Según la política de Google, se recomienda su uso cuando haya:
  • Contenidos spam o de no confianza.

  • Enlaces de pago.

  • Información invisible.

En el caso del motor Bing, solo indica su uso para evitar spam en el caso de la publicidad, es decir, con los enlaces de pago.
Posición del enlace
Para la optimización web, no solo son importantes los enlaces de calidad de webs de igual temática y de distintos dominios, sino también su ubicación en la página web que enlaza. Un enlace en la parte central del contenido es más valioso que un enlace en el pie de página o en el blogroll. Para crear una estrategia eficaz de enlaces, es conveniente encontrar enlaces relevantes que provengan de sitios con autoridad web distinta y mantener un equilibrio en los textos ancla y en el porcentaje de enlaces nofollow. Todo esto, para que sea natural a los ojos de los buscadores.
El enlace que todo el mundo pueda conseguir fácilmente no es un enlace de valor.
Conseguir enlaces externos es una inversión a largo plazo que demanda tiempo y esfuerzo, pero reporta grandes beneficios al posicionamiento de un sitio web.
Obtención de enlaces
Veamos algunas estrategias para obtener enlaces externos de una forma sencilla:
  • Solicitar enlaces. Es posible obtener enlaces solicitándolos directamente a nuestros clientes, proveedores, trabajadores o compañeros que tengan sitios web o blogs. También se pueden solicitar si patrocinamos algún evento o actividad.

  • Intercambio de enlaces. Una práctica habitual es solicitar un intercambio de enlaces, que es recomendable hacer con sitios web de igual o similar temática, y sin abusar en su uso.

  • Alta en directorios. Consiste en darse de alta en directorios y sitios web de calidad. Se trata de una técnica que requiere seleccionar muy bien los directorios y sitios web, revisando:

    • El tráfico web y las palabras clave posicionadas del sitio web.

    • La autoridad del sitio web.

    • El resto de las webs que se han dado de alta.

  • Alta en medios sociales. Con respecto a las plataformas sociales, es aconsejable darse de alta en aquellas más populares (mayor número de usuarios) para conseguir uno o más enlaces desde la página de perfil en cada uno de estos sitios. Además de redes sociales, otra técnica en medios sociales es la creación de blogs con contenido de temática similar, que enlacen hacia el sitio web que se desea optimizar.

  • Alta en agregadores de noticias. Los agregadores son herramientas que permiten combinar un gran número de fuentes de información, y ofrecen un espacio para que los usuarios puedan interaccionar a través de comentarios y valoraciones. Si una noticia es valorada muy positivamente, puede aparecer en portada y ser muy compartida por la comunidad.

  • Alta en sitios de noticias. Los sitios de noticias son buscadores automatizados que rastrean y seleccionan la información de los principales medios de comunicación. Si nuestro blog o sitio web genera noticias habitualmente, es conveniente darlo de alta como fuente en los sitios de noticias de los distintos buscadores.

  • Generación y difusión de contenidos. Generar contenidos de calidad para los usuarios puede convertirse en el mejor aliado a la hora de obtener enlaces externos. Es lo que se denomina linkbaiting, o generación natural de enlaces a través de contenidos que captan la atención del usuario. Conviene que la estrategia de creación de contenido enlazable se desarrolle en el marco de una estrategia SEO. No solo se trata de crear un contenido excelente (guías, listas, consejos, manuales, libros digitales, etc.) para el usuario, sino que es preciso hacerle llegar este contenido. Para ello, se difunde por distintos canales:

    • Sitio web propio.

    • Blog propio.

    • Redes sociales.

    • Redes profesionales.

    • Vídeos.

    • Presentaciones.

    • Agregadores de noticias.

    • Medios de comunicación.

    • Portales especializados o temáticos.

    • Foros.

    • Marketing de correo electrónico.

    • Etc.

  • Guess blogging. También es importante la generación de contenidos para otros sitios web. Por ejemplo, después de mantener contacto durante algún tiempo con un bloguero, podemos proponerle escribir un artículo en su blog, y lo enlazaremos a nuestro sitio web de la forma que hayamos acordado con él.

  • Notas de prensa. Con la creación de notas de prensa, es posible incluir un enlace a nuestra web. Existen servicios especializados con los que se pueden hacer desde internet.

  • Concursos. Otra técnica para obtener enlaces de calidad es presentarse a premios de blogs y sitios web de gran repercusión, en los que el enlace puede aparecer en las clasificaciones de los candidatos o seleccionados.

  • Análisis de la competencia. El conocimiento de la estrategia de linkbuilding de nuestra competencia nos permite aprender de ella y usar las mismas técnicas, o similares.

1.5.5.Medición y resultados
Tan importante como aplicar todos los consejos y técnicas SEO tratados hasta ahora es medir los resultados que se van consiguiendo.
Para ello, debemos tener a nuestro alcance buenas herramientas y, por supuesto, debemos conocer qué factores son los que hay que medir para seguir optimizando el sitio web. Factores como qué palabras clave usaron los usuarios para entrar en el sitio web, qué palabras clave están mejor posicionadas, qué tráfico web generan, cuáles convierten más, etc. En resumen, descubrir qué aportación al negocio genera el posicionamiento de las palabras clave seleccionadas en la estrategia SEO de cualquier organización.
Una buena implementación de herramientas de analítica web y de posicionamiento es clave para dar respuesta al cumplimiento de los objetivos SEO. Para ello, es necesario segmentar los datos, aplicando filtros que nos muestren de manera separada el tráfico que llega a través de búsquedas orgánicas, del resto de las fuentes de entrada de nuestros visitantes; así como analizar cuáles son las palabras clave que generan una mayor conversión, y en qué páginas se producen las mismas. Una vez que se dispone de estos datos, y que se saben las palabras clave que tienen un mejor rendimiento, es el momento de optimizar el sitio web en función de dichos resultados. Cuando se hayan implementado estos cambios, el proceso debe comenzar de nuevo desde la primera fase.
El principal problema que nos podemos encontrar en esta fase es que la analítica ofrece muchos datos e informes, en los cuales nos podemos perder. Por ello, antes de iniciar la revisión de datos que proporcionan estas herramientas, hay que determinar qué datos queremos encontrar y en qué nos pueden ayudar. Y entonces, ¿qué datos son fundamentales para analizar nuestras campañas SEO? Para determinarlo, usaremos métricas, asociadas al cumplimiento de los objetivos SEO, que suministran información relevante sobre el rendimiento del sitio web. Estas métricas son los indicadores clave de rendimiento o, en inglés, key performance indicators (KPI).

1.6.Métricas SEO

En ocasiones, los indicadores de tráfico orgánico procedente de buscadores parecen no reflejar todos los resultados SEO de una página, o no abordar suficientes datos relevantes. Cada página es diferente, y un negocio de consultoría no buscará los mismos datos que una tienda en línea, al igual que una página de publicidad no analizará las mismas métricas que un directorio. Aunque los aspectos que hay que analizar pueden diferir en función del tipo de sitio web y de sus objetivos, en SEO podemos hablar de unos KPI comunes que, con pequeñas modificaciones o añadidos, nos servirán para medir, analizar y evaluar los resultados de nuestras acciones SEO. Se basan en dos criterios distintos:
1) KPI de posicionamiento en buscadores
  • Ranking en buscadores. Una buena forma de comprobar el resultado de los esfuerzos SEO consiste en analizar en qué posición aparece un sitio en los resultados de búsqueda de los distintos buscadores para las palabras clave más relevantes.

  • Número de palabras clave. Cuando una página web no está bien optimizada, el número de palabras clave a través de las cuales entran los visitantes suele ser bajo. En un proyecto SEO, se debe medir el aumento de estas palabras clave. A mayor número de palabras clave, mayor número de visitas.

  • Porcentaje de páginas indexadas. Este indicador expresa el número total de páginas web indexadas por un buscador respecto del número total de páginas de un sitio web. La indexación de páginas web es imprescindible para que puedan aparecer en los resultados de búsqueda. Su medición la podemos hacer a través del operador «site:» o desde el panel de control de búsqueda de algunos motores, como Search Console de Google o Webmaster Tools de Bing.

  • Enlaces entrantes. Otra métrica importante para medir nuestras campañas de linkbuilding es el número de enlaces entrantes. Este dato debe medirse en conjunción con su origen, es decir, las páginas y los dominios web de donde proceden estos enlaces

2) KPI de tráfico y conversión web
Vamos a distinguir dos KPI principales (visitas por palabra clave y tasa de conversión de tráfico orgánico), aunque cada negocio debe disponer de sus propios KPI, adaptados a su actividad y a sus objetivos.
a) Visitas por palabras clave. Una visita o sesión sucede cuando un usuario llega a la web. Un mismo visitante puede acceder a nuestra web en múltiples ocasiones, y generar múltiples visitas. En el caso del SEO, nos interesa analizar las visitas procedentes de resultados orgánicos por palabras clave (marca, productos, servicios, uso o beneficio, etc.), y distinguir el tráfico que proviene de palabras clave relacionadas con la marca del resto de las visitas.
b) Tasa de conversión de tráfico orgánico. La tasa de conversión es el KPI que mejor mide el rendimiento de una web, ya que se trata del objetivo final de un sitio web. Por tanto, uno de los análisis más importantes desde cualquier enfoque, incluido el SEO, es comprobar el resultado de conversiones del tráfico natural procedente de buscadores y compararlo con otros canales a lo largo del tiempo. Se calcula de la siguiente manera:
Tasa de conversión del sitio web = número de conversiones totales / número total de visitas.
Es el porcentaje de conversiones u objetivos conseguidos entre el número total de visitas, que en este caso serán visitas provenientes de tráfico orgánico. Las conversiones pueden variar según el tipo de negocio: pueden ser número de ventas, número de descargas, número de clics en anuncios, número de registros, etc.
A estas métricas orientativas se podrían añadir muchas otras, como usuarios o visitantes, número de páginas vistas por visita, tiempo de visita, tasa de rebote, búsquedas internas (proporciona las búsquedas por palabras clave, siempre que haya un buscador interno en el sitio web), etc.
A la hora de medir las acciones de una estrategia SEO y comparar datos, debemos recordar compararlos por periodos, teniendo en cuenta la estacionalidad y cualquier factor, interno o externo, que pueda haber hecho variar las cifras de un modo anormal.

1.7.Herramientas SEO

Una de las tareas principales en SEO es monitorizar la actividad web y la competencia.
Existen cientos de aplicaciones de pago y gratuitas relacionadas con el posicionamiento en buscadores. Hemos tratado de seleccionar algunas, imprescindibles para llevar a cabo todas las fases que supone una estrategia SEO. La selección dependerá de cada proyecto y de la experiencia adquirida. En este sentido, esta clasificación es orientativa y está dividida por temáticas:
1) SEO técnico y análisis web (herramientas de administrador de webs). Este tipo de herramientas nos permiten saber el análisis que llevan a cabo los motores de búsqueda de nuestro sitio web. Todos los grandes buscadores disponen de alguna de ellas: Search Console (antigua Webmaster Tools) y Analytics, en el caso de Google, y Webmaster Tools, en el caso de Bing.
2) Análisis de enlaces. Estas herramientas proporcionan información sobre la evolución de los enlaces externos (temática, autoridad, texto ancla, dominios de procedencia, nofollow, etc.) para evaluar la estrategia de linkbuilding de nuestro sitio web y de nuestros competidores. Algunas destacadas son Ahrefs, Open Site Explorer o Majestic SEO.
3) Velocidad de carga web. Las herramientas que miden la velocidad de carga de las páginas web ofrecen el tiempo de carga desglosado por elementos, y proporcionan sugerencias para mejorar su rendimiento. Entre ellas están Pingdom Page Speed, Google Page Speed y GTmetrix.
4) Contenido duplicado. Dentro de la optimización web, un factor esencial es la generación de contenido único. Para detectar el contenido duplicado de nuestro sitio web y de otros sitios, se usan herramientas como Siteliner o Copyscape.
5) Auditoría SEO. Las herramientas de auditoría SEO, no pertenecientes a los buscadores, miden cómo está optimizado nuestro sitio web en múltiples aspectos relacionados con contenidos, estructura web, código HTML, etc. Algunas de ellas ofrecen una puntuación orientativa para conocer en qué grado hemos implementado cada uno de sus apartados SEO. Para esta función, se utilizan aplicaciones del tipo ScreamingFrog, Woorank, Nibbler o Website Auditor.
6) Optimización móvil. Para saber en qué medida nuestro sitio web o el de la competencia está adaptado a dispositivos móviles, se usan herramientas como la prueba de optimización de Google (en inglés, mobile friendly test) o MobiReady.
7) Estudio de palabras clave. Este tipo de herramientas permiten buscar palabras clave en internet y analizar cuáles son las mejores y más competitivas, según la estrategia SEO que estemos llevando a cabo. Dentro de esta categoría, destacan herramientas como el planificador de palabras clave de Google, Google Trends, Semrush o Keyword Tool IO.
8) Monitorización de palabras clave. El control de las posiciones de nuestras palabras clave en los resultados de los buscadores es imprescindible para conocer la evolución de nuestra estrategia SEO, las palabras clave que debemos potenciar y para analizar la estrategia de la competencia. Dos herramientas que nos pueden ayudar en este sentido son Rank Tracker de SEO PowerSuite y SERPWoo.
9) Simulador de robots de búsqueda. Estas herramientas permiten ver las páginas web como las vería un robot de búsqueda, y recogen información de dicha simulación. Bot Simulator y Spider Tool son dos herramientas que ofrecen esta funcionalidad.
10) Usabilidad y validación del código. Como hemos tratado, uno de los pilares del SEO son los aspectos técnicos, que incluyen la adecuación del código a estándares reconocidos de accesibilidad y usabilidad. Para ello, usaremos herramientas como los validadores del W3C para HTML y CSS.

2.Caso práctico

En este caso ficticio, se analiza desde el punto de vista del SEO un centro de biomagnetismo médico que imparte formación y lleva a cabo tratamientos par biomagnético.
El biomagnetismo (también conocido como par biomagnetismo) es una terapia complementaria a la medicina tradicional que, a través del uso de la magnetoterapia ––tratamiento usando imanes–, busca equilibrar el pH del cuerpo, es decir, trata de curar dolencias y estados depresivos de los pacientes mediante la restauración del pH del cuerpo provocado por las enfermedades, y favoreciendo la eliminación de los microorganismos patógenos.
El centro ubicado en Sevilla dispone de dos gabinetes para sus tratamientos, y de dos salas de formación, destinadas a las personas interesadas en recibir la metodología del par biomagnético, principalmente terapeutas. La actividad principal que quieren impulsar a través de internet son los cursos de biomagnetismo. Las sesiones de terapia funcionan muy bien, debido principalmente al boca a boca, y en ocasiones tienen listas de espera de hasta 3 meses.
Cada curso tiene una duración de 3 fines de semana, repartidos entre viernes tarde y sábado por la mañana. Se hacen 6 ediciones al año:
  • 2 ediciones en febrero-marzo.

  • 2 ediciones en mayo-junio.

  • 2 ediciones en octubre/noviembre.

La empresa dispone, desde hace tres años, de un sitio web en el cual ofrece sus servicios (cursos y tratamientos), y desea mejorar su posicionamiento orgánico en buscadores para ampliar su público objetivo a través de internet. El sistema de gestión de contenidos usado para crear el sitio web fue Wordpress.org (https://es.wordpress.org/).
La razón principal de esta decisión han sido los bajos resultados alcanzados. Hasta ahora, la responsable de las acciones SEO es una administrativa que atiende a los pacientes. Le falta cualificación profesional para desempeñar dicha función y, además, su ocupación principal son funciones de atención al paciente; por tanto, su dedicación al SEO es escasa. Sus acciones para optimizar el sitio web se han centrado principalmente en escribir para un blog, siguiendo las recomendaciones adquiridas en un curso en línea de posicionamiento natural en buscadores.
Para empezar a crear una estrategia SEO, se decide contratar una empresa especializada, para que lleve a cabo una auditoría SEO –análisis de la situación actual con recomendaciones de mejora– sobre los pasos que debe acometer para el desarrollo de la misma. A partir de dicho informe, la empresa decidirá si contrata externamente a un profesional o agencia SEO o si, por el contrario, asume dicha función alguna persona de la propia organización, que reciba previamente una formación amplia, con las horas que se estime en el informe.
Estrategia de empresa
Aunque no se haya definido un plan de marketing, el centro par biomagnético efectúa varias acciones de marketing digital:
  • SEO. La empresa, desde que creó su sitio web, ha intentado posicionarse en internet de forma orgánica a través de publicaciones en su blog. Estas publicaciones tienen una extensión de entre 100 y 300 palabras, y en ellas se aplican algunas técnicas SEO.

  • Redes sociales. Dispone de varios perfiles en redes sociales, la mayoría sin actividad, con una página de Facebook activa (3-4 publicaciones a la semana) y su canal de YouTube, en el cual se suben vídeos dos veces al mes.

  • Analítica web. Hay una cuenta dada de alta en Google Analytics que se usa para comprobar la evolución del tráfico web y su origen geográfico.

  • Blog. En su apartado de noticias, suelen publicar artículos propios e insertan vídeos de YouTube dos veces al mes.

  • Boletín informativo. Se envía mensualmente un boletín con las últimas novedades del centro.

No se utiliza publicidad ni promociones, siguiendo un código ético de su profesión. En este sentido, lo único que se aplica en los cursos es un pequeño descuento si se abona el importe íntegro 30 días antes de empezar el curso.
Respecto a actividades de marketing fuera de línea, la única que se hace es la siguiente:
Buzoneo. Se llevan a cabo repartos publicitarios todos los años, dos meses antes de empezar los cursos.
Su objetivo principal es incrementar el número de alumnos, para crear nuevas ediciones de sus cursos. Para ello, se plantea como objetivo principal del sitio web:
Incrementar las suscripciones a los cursos. Se dispone de una página web con toda la información sobre los cursos, que incluye un formulario de contacto y los datos del centro (dirección y teléfono).
Como objetivo secundario del sitio web:
Aumentar los potenciales pacientes para consultas y tratamientos. Principalmente, ellos se ponen en contacto telefónico con el centro. El número de teléfono aparece en una página web de contacto y en la parte superior del sitio web.
La competencia directa son tres centros, dos situados en Madrid y uno en Barcelona, que también imparten cursos similares.
Respecto a las palabras clave que la empresa cree adecuadas para empezar el proyecto, sin haber hecho ningún tipo de estudio previo, son «par biomagnético», «cursos par biomagnético», «opiniones biomagnetismo» y «cursos de biomagnetismo».
Hasta ahora, no se habían medido de forma constante los resultados SEO. Lo único que se hacía era comprobar en Google, sin un criterio fijo temporal, algunas palabras clave que se consideraban importantes. Hasta la emisión definitiva del informe, se establecen tres posibles acciones sencillas para medir los resultados SEO:
1) La posición de las palabras clave principales en los buscadores.
2) El tráfico al sitio web cuyo origen sean las búsquedas orgánicas (canal Organic Search en Google Analytics).
3) Objetivos de conversión relacionados con visitas a las páginas web de los cursos y a la página de contacto.

3.Estudios de palabras clave

El objetivo de una campaña de posicionamiento en buscadores consiste en alcanzar los primeros puestos en los resultados de búsqueda de los usuarios, cuando estos introducen consultas con palabras clave sobre productos y servicios.
Si se puede identificar cuáles son los términos de búsqueda que emplearían los usuarios, sería más fácil determinar las palabras clave adecuadas para el sitio web.
La investigación de las palabras clave es un objetivo de posicionamiento básico, puesto que guiará todo el proceso de optimización. En los proyectos de creación de nuevos sitios web, este factor es esencial para definir la arquitectura de la información, mientras que en proyectos ya desarrollados, se emplea este análisis para identificar posibles contenidos que faciliten el cumplimiento de los objetivos de posicionamiento.
Para mejorar el conocimiento de las búsquedas empleadas por los usuarios, Google aporta varias herramientas muy útiles.
1) Google Analytics. A partir del 2011, Google anunció que el uso de su buscador para usuarios se llevaría a cabo en un entorno seguro (SSL). Esto significó que la información sobre las palabras clave que originaban estas visitas dejaba de estar disponible para su análisis, es decir, quedarían especificadas como not provided (‘no disponible’) en cualquier sistema de analítica web. Esto ha significado la pérdida de una información que era muy valiosa para el SEO.
Palabras clave not provided
Fuente: Google Analytics
Fuente: Google Analytics
En la figura anterior, desde Adquisición > Campañas > Palabras clave orgánicas, en Google Analytics, se puede apreciar que el 97,23 % del tráfico de búsqueda orgánica es not provided.
En Analytics, se puede extraer información sobre palabras clave desde cuatro informes distintos:
  • Informe de palabras orgánicas de campañas. Adquisición > Campañas > Palabras clave orgánicas.

  • Informe sobre búsquedas internas en el sitio web. Comportamiento > Búsquedas en el sitio > Términos de búsqueda.

  • Informe de Search Console. Adquisición > Search Console > Consultas.

  • Informe de Adwords. Accesible siempre que se invierta en publicidad desde esta plataforma. Adquisición > Adwords > Palabras clave.

Desde que las búsquedas not provided comenzaron a aparecer, se ha intentado encontrar alternativas, principalmente extrapolación de datos, para identificar las palabras clave. Avinash Kaushik propuso un método para solucionarlo, consistente en la asimilación de que una visita not provided llegue con una palabra clave, si había entrado al sitio web por la misma página de destino de Google Analytics, y presentaba indicadores cualitativos similares a visitas cuya búsqueda de origen sí conocíamos. En Google Analytics, se sigue esta ruta:
Comportamiento > Contenido del sitio > Páginas de destino, y se segmenta por tráfico de búsqueda.
Página de destino segmentado por tráfico de búsqueda
Fuente: Google Analytics
Fuente: Google Analytics
A continuación, se selecciona la página de entrada que se desea analizar y se aplica Dimensión secundaria > Palabra clave. Otra opción interesante sobre la base de Avinash, partiendo de la identificación de las páginas de destino por las que entraron las visitas not provided, es efectuar una asociación externa de los resultados derivados de Analytics con otras herramientas, y cruzar los datos desde una hoja de cálculo.
Se trata de encontrar para cada página de destino not provided de Analytics la palabra clave más popular y mejor posicionada para la que esta página está posicionada desde otra herramienta; lo que Iñaki Huertas define como modelo «landing-centrista».
Existen otras alternativas a Google Analytics, cada una con sus limitaciones, para identificar las consultas de búsqueda:
  • Google Search Console. Tiene limitadas sus búsquedas principales diarias a unas 2.000.

  • Google Adwords. Sus inconvenientes son que es necesario invertir en publicidad, y que el comportamiento de su tráfico no es totalmente asimilable al tráfico que viene por resultados naturales.

  • Análisis de búsqueda interna. Su limitación consiste en que el comportamiento del usuario, una vez dentro del sitio web, es distinto al que tiene cuando hace consultas en un buscador.

2) Google Search Console. En Google Webmaster Tools, también denominado Google Search Console, se dispone de acceso a las búsquedas más importantes, consultas por palabras clave y a las páginas de entrada donde se encuentran. También es posible consultar los datos de palabras clave en las que alguna de las páginas de nuestro sitio web apareció en los resultados de búsqueda, así como los clics obtenidos. Si se dividen estas dos últimas métricas (número de clics / número de impresiones), se obtiene la CTR (click through rate o ‘ratio de clics’), que muestra la frecuencia con la que el usuario reacciona, al hacer clic en un enlace que aparece en los resultados de búsqueda.
Una vez que se accede a la herramienta, desde Tráfico de búsqueda > Analítica de búsqueda, se puede filtrar y comparar los resultados para entender los mejores patrones de búsqueda de los usuarios.
Analítica de búsqueda
Fuente: Google Search Console
Fuente: Google Search Console
De este modo esclareceremos los resultados not provided obtenidos en Google Analytics, siempre que se disponga de una cuenta habilitada en esta herramienta.
Además de las palabras sugeridas por los responsables del centro par biomagnético, se añaden los nuevos términos extraídos de Google Analytics y Search Console. Por tanto, nuestro primer listado inicial se centra en las siguientes palabras clave:
  • Par biomagnético

  • Biomagnetismo

  • Curso de biomagnetismo

  • Cursos de biomagnetismo

  • Biomagnetismo opiniones

  • Biomagnetismo Sevilla

  • Par biomagnetico Sevilla

  • Biomagnetismo en España

Dos palabras clave iguales, una con tilde y otra sin ella, los buscadores las tratan como términos independientes. Cada una de ellas tendrá su propio volumen de búsquedas y nivel de competencia.
3) Google Trends. Mientras que el planificador de palabras clave de Google es una herramienta enfocada a evaluar el potencial de búsquedas de palabras clave, Google Trends aporta información sobre la evolución o tendencia que experimentan las búsquedas registradas por Google de un término o frase a lo largo del tiempo.
Por tanto, es útil para identificar tendencias a largo plazo y estacionalidades, búsquedas que suben y bajan de forma cíclica. También ofrece los países y ciudades en los que con mayor frecuencia se registran las búsquedas, además de consultas y temas relacionados. Se introducen dos términos, «biomagnetismo» y «par biomagnético», con un volumen suficiente de búsquedas.
Google Trends requiere un volumen de búsquedas significativo y mínimo (no especificado por la herramienta) para que un término de búsqueda aparezca en sus resultados y le otorgue una valoración de 1 a 100. Al término con mayor número de búsquedas se le asigna una puntuación de 100. El resto de los términos con menores búsquedas obtienen puntuaciones relativas a este resultado principal. Esta es la razón por la que Google Trends no ofrece resultados de búsquedas absolutos, sino relativos, y siempre con puntuaciones de 1 a 100.
Análisis de términos de búsqueda
Fuente: Google Trends
Fuente: Google Trends
Del análisis efectuado en Google Trends (figura anterior), se extraen algunas conclusiones:
  • Tendencia alcista en las búsquedas para los términos «biomagnetismo» y «par biomagnetico», con potencial de seguir así en el futuro.

  • Por regiones, existe un interés generalizado por el biomagnetismo en España (excepto en Extremadura, Asturias y País Vasco). El mayor interés se centra en Navarra, Aragón, Cataluña, Comunidad Valenciana y Andalucía. Respecto al término «par biomagnetico», el mayor interés se produce en Cataluña, Andalucía y Madrid. En el resto de las comunidades, el volumen de búsqueda no es suficiente.

  • Por consultas relacionadas con la palabra «biomagnetismo», destacan «biomagnetismo medico», «par biomagnetico», «biomagnetismo opiniones» y «magnetoterapia», y por la palabra «par biomagnetico», el término «biomagnetismo».

4) SEMRush. Se trata de una herramienta SEO que ayuda a analizar un sitio web o un término de búsqueda por múltiples aspectos de optimización SEO y de pago (palabras clave, tráfico de búsqueda, enlaces, etc.). Del análisis llevado a cabo de la palabra «biomagnetismo» para España (figura siguiente), se extraen palabras clave coincidentes y relacionadas, como por ejemplo «par biomagnetico», «biomagnetismo medico», «pares biomagneticos», «terapia biomagnetica», etc.
Visión general del panel de SEMRush
Fuente: SEMRush
Fuente: SEMRush
Después, se haría de igual forma el análisis con «par biomagnetico». También es recomendable analizar las URL de la competencia para sugerir nuevos términos interesantes, así como estudiar la dificultad de posicionamiento de cada una de las palabras seleccionadas.
La propia herramienta calcula la dificultad para optimizar una palabra clave, en virtud de varios factores, e indica un porcentaje entre 0 y 100 % (figura siguiente). Por ejemplo, para la palabra clave «biomagnetismo», proporciona una dificultad alta del 70,62 %.
Dificultad de posicionamiento de la palabra clave
Fuente: SEMRush
Fuente: SEMRush
5) Google Keyword Planner. El planificador de palabras clave es una herramienta que pertenece a Google AdWords, programa de anuncios patrocinados de Google que, a partir de la introducción de unos términos de búsqueda, retorna un listado con una estimación de búsquedas registradas mensualmente, tanto para estas búsquedas como para otras consultas relacionadas. Aunque esta herramienta es gratuita, Google obliga a registrar una cuenta de AdWords para su uso. Cuanto mejor enfocadas estén las palabras introducidas, más acertadas serán las sugerencias. Del estudio previo efectuado en Google Analytics, Search Console, Google Trends y SEMRush, se procede a analizar con el planificador de palabras clave los siguientes términos: «biomagnetismo», «par biomagnetico», «biomagnetismo medico», «biomagnetismo opiniones», «curso de biomagnetismo», «cursos de biomagnetismo» y «biomagnetismo Sevilla».
En Google Keyword Planner, se introducen las búsquedas iniciales en «Encontrar palabras clave nuevas y obtener datos de volumen de búsquedas» para buscar palabras clave nuevas mediante un sitio web, frase o categoría (figura siguiente). La herramienta ofrece varias opciones de segmentación y personalización. Para nuestro caso práctico, dejamos por defecto idioma y país en «Todos los idiomas» y «España», así como un periodo de 12 meses en «Periodo». Seleccionamos «Google y socios de búsqueda» para ampliar las palabras sugeridas en nuestro primer estudio, y después ya habrá tiempo de filtrar más los resultados.
Encontrar palabras clave nuevas
Fuente: Planificador de palabras clave de Google AdWords
Fuente: Planificador de palabras clave de Google AdWords
Una vez que se hace clic en «Obtener ideas», se ordenan los resultados de más a menos volumen en la columna de «Promedio de búsquedas mensuales», teniendo en cuenta que mientras menos competencia defina la herramienta, más fácil será posicionarse por este término.
Como muestra la figura siguiente, entre los primeros resultados aparecen «reiki», «imán neodimio», «medicina alternativa», «imanes», etc., palabras que no interesan, ya que no están directamente relacionadas con el objetivo que desea el centro de biomagnetismo.
Resultados de ideas para palabras clave
Fuente: Planificador de palabras clave de Google AdWords
Fuente: Planificador de palabras clave de Google AdWords
De esta forma, con una lista inicial de unas 700 búsquedas, se descartan todos los términos que no cumplen el objetivo del estudio. Si nos fijamos en las tendencias del volumen de búsqueda mensual de las palabras clave sugeridas, se advierte que existen múltiples palabras con poco volumen de búsqueda. El siguiente paso que hay que considerar es el nivel de competencia. Es más fácil competir por una palabra clave que tiene competencia baja-media que por una con competencia alta, especialmente para sitios web nuevos que no tiene autoridad ni una popularidad elevada.
Una vez identificadas las palabras clave más interesantes, se hace un segundo análisis con la herramienta, y se filtran aquellos campos que sean necesarios. Por ejemplo, incluyendo palabras negativas o excluyentes, o mostrando únicamente ideas directamente relacionadas con los términos de búsqueda. Como resultado final, deberíamos alcanzar una lista de no más de 50 palabras clave, sobre las cuales empezar a trabajar nuestra estrategia SEO.
Otra herramienta que se puede emplear como alternativa a Google Keyword Planner es Keyword Tool, que extrae su información del autocompletador de Google y aporta términos relacionados sugeridos, aunque no suministra información sobre el potencial de búsquedas o tendencias de cada una de las consultas.

3.1.Estrategia de selección de palabras clave

Después de analizar algunas herramientas, ¿cómo se aplican en nuestro escenario de trabajo?
Si se trata de un análisis de palabras clave para un sitio web nuevo en el cual no se dispone de un histórico:
  • Se emplea Google Keyword Planner para analizar las palabras clave identificadas:

    • En la lista elaborada para la futura arquitectura de la información de nuestro sitio web.

    • En el estudio de los principales competidores y en el análisis con otras herramientas, como SEMRush.

  • Se utiliza Google Trends para identificar tendencias de búsqueda a largo plazo.

En el caso de un análisis de palabras clave para un sitio web ya creado:
  • Se emplea Google Analytics y Google Search Console para preparar una lista con palabras clave que generan tráfico durante un periodo de tiempo.

  • Se identifica si los contenidos posicionados para las distintas palabras clave son los óptimos en la arquitectura del sitio web.

  • Se utiliza Google Keyword Planner para medir el potencial de tráfico de las búsquedas.

  • Se usa Google Trends para conocer qué palabras se buscan más y cuáles pierden interés a lo largo del tiempo.

4.Factores internos. SEO on page

Para llevar a cabo el análisis de los factores SEO on page, se hace uso de los datos que se pueden extraer de los buscadores y de varias herramientas en línea.

4.1.Dominio

A la hora de seleccionar un dominio pensando en el SEO, es preciso evaluar:
  • Con guión o sin guión. Hay que evitar en la medida de lo posible los dominios con guiones. En caso contrario, usar un guión medio como máximo.

  • La extensión. Registrar al menos un dominio de nivel superior genérico (gTLD) y un dominio de nivel superior geográfico (ccTLD). Por ejemplo, reservar las extensiones del dominio .com y .es haciendo una redirección 301 de un dominio a otro. La elección de la extensión dependerá de si el ámbito de actuación es un país concreto (por ejemplo, usar .es) o es más internacional (por ejemplo, usar .com). Los dominios geolocalizados (.es, .mx, etc.) funcionan muy bien para las SERP (search engine results pages o ‘páginas de resultados del buscador’) locales.

  • Número de palabras clave. Lo aconsejable es no exceder de 3 palabras clave en el dominio. Si se puede acceder a un dominio de una o dos palabras que ejemplifique el negocio, mejor.

  • Stop words (palabras que no son importantes para el posicionamiento, como conjunciones, preposiciones, etc.). «CentroDeBiomagnetismo.com» no tiene ninguna ventaja SEO frente a «CentroBiomagnetismo.com». Es recomendable no usar caracteres extraños del tipo ñ, tildes, etc.

La herramienta Google Search Console proporciona información para diagnosticar problemas de indexabilidad de un dominio. Una vez se accede a la interfaz de la aplicación, podemos añadir distintos dominios. Para acceder a los datos, se precisa que Google valide al propietario del dominio a través de distintos métodos.

4.2.Alojamiento web

¿De qué infraestructura se dispone para alojar el sitio web? Algunas recomendaciones básicas al contratar un hosting web (servicio de alojamiento web en el que se alquila un servidor) son las siguientes:
1) Ancho de banda. Tanto si el sistema está alojado en instalaciones propias, como en un servicio externo contratado, es aconsejable un ancho de banda proporcional al volumen de tráfico que genera nuestro sitio web. Si no es así, impactará sobre la velocidad de acceso, lo que afectará a los usuarios y a los robots de búsqueda y, por ende, al posicionamiento web.
2) Fiable. No solo es importante disponer de un ancho de banda adecuado, sino también que el nivel de prestaciones se cumpla el mayor tiempo posible, sin interrupciones de servicio. Una caída ocasional de un sitio web no debería tener consecuencias, pero si las desconexiones son frecuentes o no hay disponibilidad, es probable que surjan problemas con la indexación por parte de los buscadores, lo que puede afectar al posicionamiento SEO.
3) Uso de encriptación HTTPS. Este es un aspecto relacionado con la seguridad en internet, y se refiere al uso del cifrado seguro para el intercambio de información. Para cifrar los datos, se instala un certificado SSL. Este certificado se implementa en el sitio web para utilizar el protocolo HTTPS (seguro), en vez del tradicional HTTP. Google comenzó a comunicar en el 2014 que tendría en cuenta el uso de HTTPS como factor de posicionamiento web, y se centraría principalmente en las páginas en las que se incluían datos sensibles (páginas de pago en comercio electrónico, páginas de login con contraseña, formularios de alta de usuarios, etc.).
Aunque no se sabe a ciencia cierta cómo afecta este factor a los resultados de búsqueda de Google, se está empezando a potenciar avisos que alertan al usuario desde el navegador de que un sitio web no es seguro (a partir del 2017, con la versión 56 de Chrome). Firefox también se ha sumado a esta iniciativa para impulsar el uso de HTTPS con avisos similares en sus versiones más actualizadas, así que, aunque como factor SEO pueda influir más o menos, sí afecta al hecho de que el usuario pueda decidir no navegar por nuestra web al visualizar este aviso en las SERP. Se puede comprobar si un sitio web cumple con la navegación segura (figura siguiente).
Estado del sitio web según navegación segura
Fuente: Google
Fuente: Google
4) Geolocalización del servidor. Los buscadores otorgan más relevancia a los dominios geolocalizados en la zona donde un usuario lleva a cabo la búsqueda. La geolocalización de un servidor se basa, en primer lugar, en la existencia de un dominio geográfico (ccLTD) y, después, en la localización del servidor, así como en los dominios de los que proceden los enlaces entrantes. Desde la herramienta Hosting Checker se puede extraer la IP del servidor, así como dónde se geolocaliza esta IP (figura siguiente).
Comprobacion IP del servidor
Fuente: Hosting Checker
Fuente: Hosting Checker
5) Vecindario IP. Un aspecto relacionado con el hosting que hay que tener en cuenta es qué tipo de «vecinos» tenemos en nuestro alojamiento. Habitualmente, al contratar un servicio de alojamiento, se tiene que decidir si queremos una IP dedicada o compartida. No suele ser un problema, pero el hecho de compartir IP con un dominio conflictivo, o clasificado como spam por los buscadores, puede afectar negativamente al posicionamiento. Para su comprobación, se emplea la herramienta IP Neigbours. Una vez introducida la URL se revisa la lista, en la que se muestran 72 resultados, y se comprueban aquellos dominios cuyos nombres puedan parecer sospechosos (figura siguiente). En nuestro caso, no hemos encontrado ningún dominio conflictivo.
Encontrar Vecindario IP
Fuente: IP Neigbours
Fuente: IP Neigbours
En este estudio de los vecinos de IP, también se ha usado la herramienta What is my IP Blacklisted y MX Toolbox, para identificar si algunos de los sitios web que podían ser sospechosos están incluidos en una «lista negra» por ser spam.
6) Código de error 404 no encontrado. Cuando los buscadores reciben un código de error 404, significa que suprimirán dicha URL de su índice, al no existir el contenido, es decir, indica que el servidor no ha encontrado la URL solicitada. Desde el punto de vista de los usuarios, puede ser un mensaje estándar del servidor o bien una página de error 404 personalizada. Estas páginas no encontradas no son indexadas por los robots de búsqueda, pero además, si el robot accede a un mensaje estándar del servidor, puede marcharse del sitio web. Para evitar esta situación, se revisa el sitio web para solucionar el problema y se hace apuntar los enlaces al sitio correcto.
Existen múltiples herramientas para detectarlos (por ejemplo, Google Search Console y Screaming Frog). Desde Search Console, es posible comprobar los errores de las URL (Rastreo > Errores de rastreo), incluidos los códigos de error 404 (figura siguiente).
Comprobación de errores de URL
Fuente: Google Search Console
Fuente: Google Search Console
También se puede usar Screaming Frog desde Responses Code > Filter: Client Error (4xx).
Error de código 4XX
Fuente: Sreaming Frog SEO
Fuente: Sreaming Frog SEO
La mejor opción para tratar los errores 404 del servidor es no utilizar la plantilla que viene por defecto, sino personalizarla siguiendo ciertas pautas. Para los buscadores no tiene mucha utilidad, pero para el usuario es mucho mejor mostrarle el mapa del sitio o una página similar en la que se le indique que la página ya no existe, pero que puede seguir navegando por la web sin problemas.
Algunos consejos para personalizar una página de error son:
  • Transmitir un mensaje claro.

  • Buscador en la página de error.

  • Enlace a la página principal.

  • Contenidos a temas relacionados.

  • Opción a volver a la página anterior visitada.

  • Aspecto conservando la plantilla del sitio web.

No es aconsejable crear una redirección hacia la página principal del sitio. Puede confundir a los usuarios y hacer que un robot indexe la página de error con el mismo contenido que la página principal, lo que podría ser penalizado por duplicado de contenidos.

4.3.Arquitectura del sitio

La estructura de un sitio web o arquitectura de la información es la forma en que se organiza su información, es decir, cómo se disponen y distribuyen las páginas y los contenidos incluidos en la misma.
Lo primero que se debe verificar es el número de páginas indexadas del sitio web, y después hay que comparar este dato con el número real de páginas.
Para ello, se inserta directamente en el buscador el comando siguiente:
site:http://sitioweb.com o site:www.sitioweb.com
Y se obtiene un número aproximado de páginas indexadas o resultados.
En Search Console (Índice de Gogle > Estado de indexación) también se puede comprobar el estado de indexación (figura siguiente).
Estado de indexación de una URL
Fuente: Google Search Console
Fuente: Google Search Console
Otra comprobación complementaria que se puede hacer en esta misma herramienta (Rastreo > Sitemaps) es comparar el número de páginas enviadas frente al número de páginas indexadas a través de la información recopilada por Google de los mapas web (figura siguiente).
Páginas enviadas frente a páginas indexadas
Fuente: Google Search Console
Fuente: Google Search Console
El número de páginas indexadas a través de los mapas web no es todo lo que Google tiene indexado. Es una vía importante, pero no la única, dado que Google utiliza también otros procesos naturales de rastreo.
Una vez calculada la saturación, la relación porcentual que existe entre el número de páginas indexadas y el número de páginas publicadas (páginas indexadas / páginas reales × 100), se extrae el diagnóstico siguiente:
1) El menú está muy por debajo del 100 %. Probablemente, el sitio web contiene problemas de indexabilidad:
  • Flash, Ajax, JavaScript, Marcos Frames. Se comprueba con la opción de «Explorar como Google» en Search Console si los enlaces de estos menús son rastreables.

  • Ventanas emergentes. Se programan a través de funciones JavaScript para controlar las características de la ventana (situación, dimensiones, etc.). En algunos casos, el contenido abierto en la nueva ventana puede ser no accesible.

  • Formularios autoenviados y de búsqueda interna. Se trata de formularios con forma de pequeños menús desplegables, en los que el usuario puede seleccionar entre varias opciones, o formularios que impiden la indexación de una gran cantidad de contenido.

2) El porcentaje supera el 100 %. Significa que hay más páginas indexadas que publicadas. Puede ser por:
  • Coexistencia de direcciones URL. De una antigua versión de un sitio web con las nuevas direcciones URL, en el caso de transiciones de un sitio web.

  • Existencia de contenido duplicado. Por ejemplo, mismo contenido bajo protocolo HTTP y HTTPS.

3) El porcentaje se acerca al 100 %. Es una buena señal de indexabilidad.
Ante los problemas de indexabilidad, se deben revisar los errores de rastreos y el archivo o archivos del mapa web. Además, se debe llevar a cabo un diagnóstico para detectar contenido duplicado. En el caso del empleo de Flash, se recomienda sustituir la programación Flash o Silverlight por programación estándar HTML 5, y evitar el empleo de marcos o marcos en línea.
Desde Search Console, se comprueba también la frecuencia de rastreo, es decir, la frecuencia con la que Google visita nuestro dominio. En el panel de control, se accede a Configuración del sitio > Frecuencia de rastreo (figura siguiente). Si la velocidad de rastreo puede ser un obstáculo para que aumente el número de páginas indexadas, Google permite aumentar la frecuencia del rastreo.
Frecuencia de rastreo de Google
Fuente: Google Search Console
Fuente: Google Search Console
En esta fase inicial del diseño de la arquitectura web, se lleva a cabo un análisis de la información para establecer una clasificación por categorías, contextos y niveles jerárquicos, además de un sistema de navegación para enlazar todo este contenido.
4.3.1.Niveles de jerarquía
Un sitio web se organiza a partir de una página raíz, que suele ser la página de entrada al sitio web, ya que es la que aparece por defecto si se busca directamente el dominio web. Suele tener el nombre de index o home. A partir de esta página, se crea una estructura jerárquica de directorios o carpetas, en la que la información más general se ubica en los niveles superiores, hasta llegar al contenido más específico, en los inferiores.
Se recomienda una estructura jerárquica plana, es decir, de pocos niveles, para que cualquier página esté a pocos clics de la página principal. Prestando atención al estudio de palabras clave efectuado («biomagnetismo», «biomagnetismo Sevilla», «par biomagnetico», «par biomagnetico Sevilla», «biomagnetismo opiniones», «curso de biomagnetismo», «cursos de biomagnetismo», «terapia de biomagnetismo», «biomagnetismo médico» y «centro de biomagnetismo»), así como a los objetivos web, se establece una estructura principal de dos niveles:
  • Primer nivel: home o página de inicio.

  • Segundo nivel: par biomagnético, cursos de biomagnetismo, terapia de biomagnetismo, opiniones, blog y contacto.

4.3.2.Navegación
En el sitio web se establece un menú principal de navegación visible en todas las páginas, de forma que el visitante sepa siempre cómo moverse de manera rápida y fácil entre las diferentes secciones principales del sitio.
Para facilitar la navegación del usuario, se aconseja incluir las «migas de pan», no visibles en el sitio web actual, que muestran la ruta y nivel en el que se encuentra en todo momento. Su colocación será en la cabecera debajo del título de la página, y tendrá un aspecto parecido al siguiente:
Inicio > Cursos de biomagnetismo
Otro aspecto que se detecta en el sitio web del centro de biomagnetismo es que las páginas más importantes (por ejemplo, la página de cursos o terapia) no reciben enlaces internos para indicar que su contenido es más relevante que otros. Se incluye esta recomendación.
4.3.3.Diseño
Tanto los buscadores como los usuarios suelen otorgar más importancia a la información según su orden de aparición. Entienden que lo primero que se presenta en una página es lo que mejor define el contenido.
Por su parte, los buscadores también leen la información en forma descendente, por lo que la manera de organizar la información influirá tanto en la visibilidad de los usuarios, como en el rastreo por parte de los buscadores.
Con las hojas de estilo CSS, se define cómo quedan situados los textos, imágenes y demás elementos en la página web. Se puede independizar la estructura –optimizando el código HTML que rastrea el buscador para SEO– de la presentación final efectuada con CSS que se muestra al usuario.
Cada sitio web tiene unas necesidades específicas de diseño. No obstante, en general, la página se suele dividir en distintas secciones, a modo de columnas y filas. Una plantilla habitual es como la de la figura siguiente, con tres columnas centrales y dos filas, superior e inferior, aunque también son muy utilizados los diseños de dos columnas o incluso de una sola sección central:
Estructura de diseño estándar de una página web
Fuente: Elaboración propia
Fuente: Elaboración propia
Una gran mayoría de los sitios web tienen divisiones o secciones similares, con un encabezado en la parte superior, seguido de un cuerpo principal que suele estar flanqueado por una columna lateral (ya sea a la izquierda o a la derecha, que es más habitual) o dos columnas laterales, y en la parte inferior de la página, un pie de página.
1) Cabecera (header). En esta zona se suele situar el nombre/título de la página, alguna imagen principal, el buscador y otros elementos similares. También es habitual colocar en esta zona, o justamente debajo de ella, el menú o barra de navegación general que dan acceso a las secciones principales del sitio.
2) Navegación. Esta zona incluye las barras laterales (sidebar), y suele contener los menús de navegación o enlaces a ciertos contenidos destacados del sitio, o que tengan relación contextual con la página. Puede haber una barra lateral única, situada a la izquierda o derecha, o dos barras laterales.
3) Contenidos. En esta zona está el contenido principal de la página, en cualquiera de los formatos en los que pueda presentarse (textos, fotos, vídeos, etc.).
4) Pie de página (footer). Contiene información sobre datos de contacto, legales, copyright, mapa del sitio, etc.
Validación de código
El código validable no es garantía de un mejor posicionamiento, pero sí de que el buscador no encontrará problemas en su labor de rastreo en un ámbito de código. El principal motivo para seguir los estándares es mejorar la accesibilidad del sitio web.
Algunos beneficios son:
  • Uniformidad de presentación en los distintos navegadores.

  • Dos herramientas para comprobar cómo se visualiza un sitio web en los principales navegadores y versiones son: http://browsershots.org/ y https://www.browserling.com/.

  • Accesibilidad de los usuarios.

  • Accesibilidad para los robots.

  • Desarrollo eficiente. Seguir los estándares facilita un desarrollo normalizado y redunda en un mejor diseño. Además, facilita el mantenimiento si las páginas deben ser editadas por otros diseñadores.

Para la elaboración de un buen diseño, y para intentar cumplir con los estándares, es recomendable prestar atención a los siguientes aspectos:
1) Doctype. Es una declaración con el tipo de código HTML/XHTML empleado para crear una página web. En doctype, también se puede indicar que la página es compatible con formatos adaptados para móviles. No afecta al SEO, pero sí puede hacerlo en la manera en que los navegadores muestran nuestra página web. En HTML 5, esta etiqueta se ha simplificado a: <!DOCTYPE html>.
2) Cabecera (sección <head>). La cabecera de una página web es la información que se incluye al principio del código, entre las etiquetas <head ></ head>. Puede contener:
  • Información sobre su contenido (utilizando las denominadas metaetiquetas).

  • Ficheros externos vinculados (hojas de estilo CSS o programas de JavaScript).

  • Hojas de estilo internas.

  • Título de la página.

Lo primero que rastrean los buscadores es la cabecera, para conocer el tipo de página web y cómo está configurada. Por tanto, es importante que su elaboración sea cuidadosa.
Un código XHTML típico de una cabecera podría ser el siguiente:
Código XHTML del <head> de una página web
Fuente: Elaboración propia
Fuente: Elaboración propia
Como recomendaciones, se deben incluir, al menos, las siguientes metaetiquetas:
3) Contenttype. Indica el tipo de contenido de la página (por ejemplo, HTML) y la codificación del texto (por ejemplo, UTF8 o ISO88591). Si se pretende que el sitio web se muestre correctamente en otros países, lo aconsejable es disponer de una codificación UTF8.
<meta httpequiv=” ContentType” content=”text/html; charset=UTF8″/>
En HTML 5, se ha simplificado a: <meta charset="UTF8">.
4) Language. Indica el idioma en el que está el contenido. Por ejemplo, en el caso de España, viene representado por «es».
<meta httpequiv=”ContentLanguage”content=”es” />
5) Description. Contiene una breve descripción del contenido de la página.
6) Keywords. Es una lista de palabras clave separadas por comas, que describen el contenido de esa página. Esta etiqueta tenía gran valor en los primeros buscadores, pero ha dejado de ser considerada en la mayoría de los casos, por los abusos o intentos de engaño que se producían, según Google.
7) Author. Indica quién ha creado la página/contenido.
<meta name=”author” content=”UOC”/>
8) Viewport. Si se dispone de un diseño responsive, o para indicar cómo debe verse la página en un dispositivo móvil.
9) Metaetiqueta «refresh». Se usaba para refrescar o redirigir el navegador a otro lugar, pero actualmente los navegadores la perciben como una técnica SEO penalizable.
10) Metaetiqueta «robots». Permite indicar a los buscadores si se quiere no indexar una página web (<meta name=”robots” content=”noindex” />).
11) Elemento o etiqueta <title>. Sirve para proporcionar un título a una página web.
12) Ficheros externos. Si se utiliza una hoja de estilos (CSS) o librería JavaScript, lo ideal es incluirla en archivos distintos y enlazarlos a la página HTML mediante la etiqueta <link>. Esta configuración facilita el mantenimiento de nuestras páginas en un ámbito de presentación (solo necesitamos cambiar la hoja externa CSS, y no cada página individualmente), y se mejora el rendimiento, ya que muchos navegadores «cachean» (almacenan temporalmente) estos ficheros externos. De esta forma, los navegadores no necesitan descargarlos nuevamente cuando se consultan.
La herramienta que hay que emplear es el propio validador de código HTML de W3C, disponible en: https://validator.w3.org/.
Validador estándar para URL de W3C
Fuente: W3C
Fuente: W3C
Resulta especialmente importante detectar las diferencias entre la codificación declarada en la cabecera del documento (ISO, UTF-8, etc.) y la codificación real del texto en la página, porque los buscadores pueden tener dificultades identificando adecuadamente las palabras con caracteres especiales que no estén bien codificados.
4.3.4.Robots.txt
Se trata de un fichero que comprueba los robots de los motores de búsqueda al acceder a un sitio web, y les indica qué partes del sitio web pueden o no indexar.
El archivo «robots.txt» se debe colocar en el directorio raíz del sitio web, y utiliza varias reglas que proporcionan instrucciones a los buscadores para que no indexen una parte del sitio web (páginas web, directorios, etc.). Por defecto, los robots indexan todo el sitio web. Algunos conceptos que hay que tener en cuenta, antes de crear el «robots.txt», son los siguientes:
  • Usuraren: el robot al que se aplica esta regla.

  • Sisallo: conjunto de páginas o directorios que se desea no indexar.

  • Ello: páginas o directorios que sí se desea indexar.

En el siguiente ejemplo de fichero «robots.txt», se indica a todos los robots (el * significa «todos») que no indexen el directorio «dir», excepto el archivo «mi archivo», que sí deseamos que lo hagan.
User-Agent: *
Disallow: /dir/
Allow: /dir/miarchivo.html
Las instrucciones más habituales son:
  • Incluir todos los robots – User-agent: *

  • Especificar el robot de Google – User-agent: Googlebot

  • Especificar el robot de Bing – User-agent: Bingbot

  • Denegar todo el sitio – Disallow: /

  • Denegar un directorio – Disallow: /directorio/

  • Denegar directorios que comienzan por «algo» – Disallow: /algo*/

  • Denegar una página – Disallow: /pagina-web.htm

  • Denegar directorios y páginas que comienzan por «algo» – Disallow: /algo

  • Denegar la extensión .gif – Disallow: /*.gif$

  • Permitir un subdirectorio – Allow: /directorio/subdirectorio/

  • Señalar el mapa del sitio – Sitemaps: http://www.example.com/sitemaps.xml

Para verificar el «robots.txt» del sitio web del centro de biomagnetismo (creado en Wordpress), desde el panel Search Console se accede a Rastreo > Probador de robots.txt:
Robots.txt
Fuente: Elaboración propia
Fuente: Elaboración propia
La figura anterior indica a todos los robots que no indexen el directorio «cgi-bin» (directorio con programas que se ejecutan en el servidor y que se utiliza para tareas no soportadas por el estándar HTML básico), ni tampoco «wp-admin» (panel de control de Wordpress).
Existe una base de datos con la lista de robots (http://www.robotstxt.org/db.html), donde también se explica cómo confeccionar un «robots.txt».
Atributo nofollow
El atributo nofollow es una forma de indicar a los buscadores que no sigan un enlace concreto.
Por ejemplo:
<a href=“http://sitioweb.com/aviso-al-motor-para-no-seguir -este-enlace” rel=”nofollow”>Aviso al motor: No seguir este enlace</a>
El atributo nofollow ha caído en desuso, puesto que actualmente Google distribuye la fuerza, o zumo de popularidad (link juice), de una página entre todos los enlaces salientes e independientes que tengan el atributo nofollow. Es recomendable usar el enlace nofollow en los casos en que la página web a la que dirigimos el enlace no sea de confianza, en los enlaces patrocinados derivados de campañas de pago y en otros enlaces de acceso o registros a foros, intranets, etc. Se trata de una forma de comunicar a los buscadores que no transmitan ningún valor de nuestro sitio web a la página de destino, aunque sean referenciados.
Desde la barra de Moz, podemos comprobar los enlaces nofollow.
Una vez se accede a la barra de Moz, se despliega el lápiz y se hace clic sobre «No-Followed». Se remarcan entonces los enlaces con el atributo nofollow en el mismo color que las letras «No-Followed» (en este caso, en morado).
Barra de Moz
Fuente: Extensión en Chrome de Moz
Fuente: Extensión en Chrome de Moz
4.3.5.Mapa del sitio
Los archivos «sitemap.xml» comunican directamente a los buscadores un listado de todas las páginas de un sitio web que se desean indexar. En los sitios web nuevos, es recomendable darlos de alta en Google Search Console y en el resto de las herramientas de administradores de webs de otros buscadores (Bing, Baidu, Yandex, etc.). Una vez comprobado que la arquitectura de la información del sitio web y su navegabilidad funcionan bien, es aconsejable generar el archivo o los archivos sitemaps. En Search Console, se puede consultar la información en el menú Rastreo > Sitemaps para comprobar si existe o no existe este archivo en su sitio web. Si existe, la herramienta aporta información sobre el número de páginas indexadas del total de páginas registradas en sitemaps.
Páginas indexadas en sitemaps
Fuente: Elaboración propia
Fuente: Elaboración propia

4.4.Contenidos

Una vez diseñada la arquitectura de la información con una estructura jerárquica que refleja la importancia de cada página, y agrupadas por temáticas o tipologías afines, hay que distribuir las palabras clave de acuerdo con la organización, y tratar cada página en lo que respecta a su finalidad y contenido propio.
4.4.1.Ubicación de las palabras clave
Además del propio texto, los puntos más relevantes de un sitio web relacionados con las palabras clave son:
1) Palabras clave en el dominio. Algunas recomendaciones básicas a la hora de incluir palabras clave en el nombre del dominio:
  • Una página que contiene palabras clave en el nombre del dominio alcanzará normalmente un mejor posicionamiento que otra que no las tenga.

  • Es más difícil posicionar un dominio con el nombre de una marca, sin palabras clave.

En este caso, se valora si nos interesa más construir una buena imagen de marca (branding) o si lo que se desea es mejorar rápidamente el SEO. Dependerá del tipo de proyecto y finalidad de la web, pero si somos una empresa como en este supuesto, a largo plazo será mejor incluir un nombre de marca.
2) Direcciones URL. Algunas recomendaciones a la hora de construir las URL:
a) Palabras clave. Incluir palabras clave de manera lógica. Al igual que con los títulos, no se deben repetir y el contenido de la página debe estar relacionado con lo que indica su URL.
b) Longitud. Cuantas más palabras tenga la URL, menos relevancia tendrá cada una de ellas. Se debe cuidar que los nombres de carpetas o categorías no sean excesivamente largos.
Por ejemplo, si la palabra clave que hay que destacar es «biomagnetisimo avanzado» para una página, dos posibles direcciones URL podrían ser:
  • Dirección 1: www.sitioweb.com/escuela-de-formacion/clases-presenciales/cursos/biomagnetismo-avanzado

  • Dirección 2: www.sitioweb.com/cursos/biomagnetismo-avanzado

La segunda dirección URL es más adecuada que la primera.
c) Guiones. Mejor usar guión medio («-») que guión bajo («_»): cuando un motor de búsqueda encuentra una palabra que contiene un guión medio, interpreta con seguridad cada parte como palabras independientes.
d) Mayúsculas y minúsculas. No hay que usar mayúsculas. En las URL se diferencia entre mayúsculas y minúsculas, de modo que, para que no haya errores, lo mejor es escribir todo en minúscula.
3) Metaetiquetas (título, metadescripción y metakeywords). Algunas recomendaciones específicas sobre las palabras y el contenido que hay que incluir en estas etiquetas.
Figura 30. SERP en Google
Fuente: Elaboración propia
Fuente: Elaboración propia
En la figura anterior, podemos visualizar las SERP de los buscadores: la etiqueta «title» está marcada en rojo, y «metadescription», en verde.
a) Title. La etiqueta <title> contiene el título de la página web que muestran los navegadores en su cabecera al acceder a la página web y, además, es utilizado por los buscadores como texto para nuestro enlace en la página de resultados. Por tanto, es muy importante una buena selección de la misma.
Dos posibles estructuras recomendables para el nombre del título podrían ser:
<title>frase corta con palabras clave | nombre de la página, empresa o identificativo</title>
<title>nombre de la página, empresa o identificativo | frase corta con palabras clave</title>
Su elección dependerá de la dificultad de la palabra clave para posicionarse, y si el objetivo es potenciar la marca. Si la palabra clave es muy competitiva, es recomendable colocar la palabra clave al inicio y dejar el nombre del sitio web al final.
Un ejemplo de página de inicio
<title>Centro de cursos de biomagnetismo y terapia biomagnética | Nombre de la Empresa</title>
Dos ejemplos de página interna
<title>Curso de Par Biomagnético Avanzado | Nombre de la empresa</title>
<title>Curso de Par Biomagnético Avanzado | Formación en Biomagnetismo</title>
Recomendaciones para la etiqueta <title>:
  • Extensión entre 50 y 65 caracteres, espacios incluidos. Un título muy largo se mostrará cortado en navegadores y buscadores. Se puede usar la herramienta SEOmofo para ver cómo quedaría antes de publicarse.

  • Incluir palabras clave que tengan relación con el contenido de esa página.

  • Las palabras clave más importantes deben ir lo más a la izquierda posible.

  • No es aconsejable repetir la misma palabra clave varias veces, porque podría considerarse spam.

b) Metadescripción. También denominada metadescription o etiqueta descripción. Es una etiqueta que contiene una descripción breve de una página web. Este texto suele ser el que el buscador muestra en los resultados de búsqueda a modo de resumen, debajo del título de la página (figura anterior). El contenido de la metadescripción no mejora el posicionamiento de una página en los resultados de los buscadores. Su auténtica importancia radica en su capacidad de seducir al usuario para que haga clic en el resultado de la búsqueda. Algunas recomendaciones para hacer una buena description son:
Hay que considerar el conjunto del resultado en una página del buscador (título de la página + descripción + URL) como nuestra «ficha de presentación», por lo que si no es atractiva o suficientemente descriptiva para el usuario, este probablemente decida hacer clic en otros resultados que se identifiquen mejor con lo que está buscando. Si la descripción es lo bastante atractiva, se puede incluso conseguir que el usuario haga clic antes que en otros resultados mejor posicionados.
La descripción debe ser única para cada página de nuestro sitio, y estar en consonancia con el contenido de cada una de las mismas. Debe ser breve, sin superar los 150 caracteres. Ha de contener palabras clave, pero sin que el texto carezca de sentido. Las palabras clave situadas más a la izquierda son las más importantes para los buscadores.
Ejemplo
<meta name=”description” content=”Nuestro centro de biomagnetismo ofrece cursos presenciales para todos los niveles en aulas de 15 plazas máximo. Solicita información en el XXX-XXXXXX.” />
En este ejemplo, se describen los servicios que se ofrecen. Incluye, además, una llamada a la acción para que el usuario solicite información.
c) Metakeywords. Consiste en una lista de palabras clave separadas por comas, relacionadas con el sitio web y que describen el contenido de esa página. Al igual que en la metadescripción, las metakeywords deben ser específicas para cada página.
Ejemplo
<meta name=”keywords” content=”biomagnetismo, par biomagnético, cursos biomagnetismo, cursos par biomagnético, biomagnetismo médico, biomagnetismo opiniones>.
Esta etiqueta es una de las más antiguas en el SEO, y también una de las que más manipulaciones han sufrido a lo largo del tiempo, lo que ha supuesto su desuso.
Dado que han sido consideradas como una señal negativa (spam) en el pasado por los buscadores, y que su aportación actual es nula –al menos en los principales motores de búsqueda–, no se recomienda su uso.
Etiquetar apropiadamente los diferentes elementos del contenido (los que se incluyen en la sección <body>) facilitará a los buscadores la correcta interpretación de la naturaleza e importancia de las distintas partes de dicho contenido.
4.4.2.Estructura de las URL
El empleo de palabras clave relevantes en el nombre del dominio, subdirectorios, archivos y variables dinámicas presentes en las URL influye positivamente sobre la relevancia de la página, y ofrece una ventaja para posicionarse.
Por ello, conviene analizar las direcciones de las páginas web en profundidad, y revisar su estructura, así como comprobar si emplean las palabras clave relevantes para el posicionamiento de cada contenido.
Ejemplo de URL poco relevante
Título de la noticia: I encuentro internacional de biomagnetismo con ponentes de reconocido prestigio internacional.
Ejemplo de URL relevante
Título de la noticia: El biomagnetismo, una terapia complementaria a la medicina tradicional.
La estructura de la URL puede contener parámetros que se detectan a través de las herramientas para administradores de webs de Google (Rastreo > Parámetros de la URL), y que permiten sugerir cómo se quiere que Google la interprete.
Parámetros de la estructura de la URL
Fuente: Google Search Console
Fuente: Google Search Console
Por defecto, los parámetros detectados por Google aparecen como «Dejar que el robot de Google decida» (figura anterior). En nuestro caso, no se detectan otros tipos de configuración posibles, como por ejemplo «Todas las URL», «Solo URL con el valor» y «Ninguna URL» (figura siguiente).
Configuraciones de los parámetros de las URL
Fuente: Google Search Console
Fuente: Google Search Console
Redirecciones de páginas
Existen algunos casos en los que es interesante que cuando un usuario o robot de buscador intente acceder a una de las páginas web, sea dirigido hacia otra. Es lo que se denomina una redirección.
¿Por qué se suele hacer una redirección? Puede haber varios motivos para ello:
1) Cambio de lugar de una página. El cambio puede ser a otra carpeta dentro de la misma web, o a un dominio distinto. Por ejemplo, si tenemos la página «sitioweb.com/curso-biomagnetismo-basico», y creamos una categoría «cursos», la nueva URL será <sitioweb.com/cursos/curso-biomagnetismo-basico>.
Cuando se publique la nueva URL, si no se hace ninguna acción adicional, podría ocurrir que los usuarios que accedan a las webs con vínculos al primer enlace desde sus páginas se encuentren con un código de error.
2) Cambio del nombre de una página. Se modifica la URL de una página no amigable a una página amigable a los buscadores, para mejorar el SEO, incluyendo palabras clave:
  • «sitioweb.com/bio01». Pasa a llamarse:

  • «sitioweb.com/curso-biomagnetismo-basico»

3) Apuntar un dominio a otro. Se decide crear un dominio nuevo para un sitio web. Por ejemplo, «sitioweb.com», que apunte hacia «misitioweb.com».
4) Evitar contenido duplicado (URL canónicas). Este es un caso detectado en el sitio web del centro biomagnético, por el cual se accede a la página de inicio desde diferentes URL. Al acceder desde distintas URL, los buscadores pueden llegar a la conclusión de que el contenido está duplicado. Un ejemplo de ello sería que, si se hace clic en cualquiera de estas URL, se acceda siempre a la página de inicio.
  • http://sitioweb.com/home

  • http://sitioweb.com/session_id=xyz

  • http://sitioweb.com/

En este caso, es adecuado el uso del elemento «rel=”canonical”», que evita la generación de contenido duplicado. Aunque en ocasiones se puede usar de forma parecida a un redireccionamiento, el efecto no es el mismo, ya que no se transfiere la fuerza del enlace (zumo de popularidad o link juice), mientras que si se lleva a cabo un redireccionamiento, sí se transmite esta fuerza.
Para resolverlo, se incluye una línea de código en la sección head o header del código HTML:
  • URL: http://sitioweb.com/home

  • URL: http://sitioweb.com/session_id=xyz

  • URL canonical: <link rel=”canonical” href=”http://sitioweb.com” />

Con este código, los buscadores sabrán que la única dirección web que hay que tener en cuenta es la que posee el atributo canonical. El resto son redireccionadas, pero no transmiten link juice.
La redirección permite mantener el tráfico habitual de visitas, ya que los usuarios son dirigidos a la nueva página web. Una vez que se hace la redirección, los motores de búsqueda actualizarán sus bases de datos con la nueva URL, y se transferirá el jugo de los enlaces que tuviera el antiguo.
Tipos de redirección de URL
Los dos tipos de redirección más usados en SEO son:
  • Redirección permanente 301: redirige de forma automática cualquier dirección antigua de una página a su nueva dirección. Es la forma más eficiente de sustituir una URL obsoleta por otra nueva, con el impacto más reducido sobre el posicionamiento y la popularidad que disfrutaba la URL antigua. Desde el punto de vista de los usuarios, la redirección se hace de forma imperceptible.

  • Redirección temporal 302: en este caso, la redirección de una página antigua a una nueva es temporal. Para los usuarios, el resultado es exactamente el mismo que el de la redirección 301. Sin embargo, esta redirección indica a los buscadores que el contenido que hay que rastrear y posicionar se encuentra en una URL distinta, pero que la dirección URL asociada a este contenido es, en realidad, la solicitada. Las redirecciones 302 causan muchos problemas, y se desaconsejan a menos que se tenga una gran experiencia y se conozcan todos los efectos que pueden producir.

¿Cómo hacer redirecciones de las URL?
Las redirecciones se pueden hacer de una forma automática desde el servicio de hosting, o manualmente.
1) Automáticamente desde el hosting. En general, la mayoría de los proveedores de hosting ofrecen esta opción de forma sencilla desde el panel de control del alojamiento web. Bastará con indicar el tipo de redirección, ya sea temporal o definitiva, el dominio origen y el destino, y si se desea, también, redirigir las subcarpetas. Automáticamente, modificarán el fichero «.htaccess» con los datos de la redirección.
2) Redirección manual en el fichero «.htaccess». En esta segunda alternativa, se modifica directamente el fichero «.htaccess» de forma manual y, si es necesario, se utiliza «expresiones regulares».
Ejemplos de redirección manual
Redirección de un directorio. Redireccionar de un «directorio_antiguo» a un «directorio_nuevo», dentro de la misma carpeta:
Redirect 301 /directorio/directorio_antiguo.html http://sitioweb.com/directorio/directorio_nuevo.html
Redirección de un dominio. Redireccionar todo el contenido del viejo dominio a la página web nueva:
RedirectMatch 301 (.*) http://www.sitioweb.com/
Redirección de una IP. Redireccionar la IP (por ejemplo, 198.40.200.11) de nuestro servidor a un dominio con la regla siguiente:
<IfModule mod_rewrite.c>
RewriteCond %{HTTP_HOST} ^198\.40\.200\.11
RewriteRule (.*) http://www.sitioweb.com/$1 [R=301,L,QSA]
</IfModule>
Redirecciones perjudiciales para el SEO
Existen dos redirecciones utilizadas habitualmente, pero que son penalizadas por los motores de búsqueda, por lo que se debe evitar su uso siempre que sea posible:
  • Redirección mediante la etiqueta metarefresh: consiste en definir una etiqueta meta en el código HTML que indica al navegador que se redirija a otra URL. El problema es que puede ser tomada por una «página puerta», lo que está penalizado por los buscadores como técnica de cloacking o ‘encubrimiento’ (https://support.google.com/webmasters/answer/66355?hl=es).

  • Redirección mediante JavaScript: se lleva a cabo usando la sentencia «window.location». El problema de esta instrucción es que los robots no la rastrean y no indexan la página nueva.

Ejemplo
<html>
<head>
<script type="text/javascript">
function redirection(){
window.location ="http://www.sitioweb.com";
} setTimeout ("redirection()", 10000); //tiempo en milisegundos
</script>
</head>
<body>
<p>Hemos cambiado de dirección. En 10 segundos, enlazarás a la nueva página. En caso contrario, pulsa en el siguiente enlace:
<a
href="http://www.sitioweb.com">www.sitioweb.com</a></p>
</body>
</html>
Contenido duplicado
Los buscadores indexan cada contenido con un identificador único, que es la dirección URL de cada página web. Si se presenta el mismo contenido bajo dos URL distintas (por ejemplo, una noticia y la versión imprimible), puede ser detectado por los buscadores como contenido duplicado (figura siguiente).
Es detectable en las herramientas para administradores de webs de los buscadores. Por ejemplo, en Search Console, se comprueban las etiquetas de título o metadescripciones duplicadas en Apariencia en el buscador > Mejoras HTML.
Contenido duplicado en dos URL distintas
Fuente: Google Search Console
Fuente: Google Search Console
Para su comprobación, seleccionamos un fragmento del texto lo bastante significativo de la página sobre la que se sospecha, y se hace una búsqueda de este fragmento. En el campo de Google, introduciríamos:
“fragmento entrecomillado” site:sitioweb.com
Si se dispone de dos páginas con el mismo título:
site:misitioweb.com intitle:“título entrecomillado”
URL con HTTP y HTTPS
Es habitual encontrar el mismo contenido bajo el protocolo HTTP y bajo el protocolo de seguridad HTTPS. El protocolo HTTPS se reserva para información sensible o personal (datos personales, datos financieros, datos de salud, etc.), aunque Google recomienda que se aplique de manera genérica a todos los contenidos del sitio web desde agosto del 2014 (https://webmasters.googleblog.com/2014/08/https-as-ranking-signal.html).
Una forma sencilla de evitar la indexación de contenidos bajo el protocolo HTTPS es incluir un «robots.txt» en la raíz del servidor seguro: https://sitioweb.com/robots.txt. La sintaxis del archivo sería:
User-agent: *
Disallow: /
En la primera línea, expresado con el asterisco, se indica a todos los buscadores que no indexen ningún subdirectorio (identificado por la barra «/» en la segunda línea).
Dominio con WWW y sin WWW
Es habitual, si se deja la configuración por defecto de un servidor, que se pueda alcanzar el mismo contenido, tanto si introducimos el dominio con «www» como si no lo hacemos. En este caso, los contenidos en las dos configuraciones serían tratados por los buscadores como contenidos duplicados. Para solucionarlo, es recomendable, desde Search Console, añadir los dos dominios y seleccionar la opción de dominio preferida (Configuración del sitio > Dominio preferido).
Establecimiento del dominio preferido
Fuente: Google Search Console
Fuente: Google Search Console
Adicionalmente, se puede configurar en el servidor un código de redireccionamiento permanente 301 para la opción del dominio que no desee emplear. En este caso, el dominio preferido sería «sitioweb.com», sin «www». Indistintamente, es posible utilizar cualquiera de las dos alternativas (con «www» o sin «www») como dominio preferido.
Subdominios
Es posible acceder a ciertas páginas desde subdominios distintos. En ocasiones, puede deberse a la existencia de subdominios de prueba como, por ejemplo:
  • desarrollo.sitioweb.com

  • produccion.sitioweb.com

  • pruebas.sitioweb.com

Ante estos casos, es aconsejable disponer de un acceso autorizado con usuario y contraseña, accesible solo desde ciertas IP autorizadas o bien mediante una VPN (red privada virtual). También se puede complementar esta acción con la creación de un archivo «robots.txt» en la raíz de cada subdominio, con las siguientes directivas:
User-agent:
Disallow: /
O incluir un comando metarobots en cada página:
<META NAME=”ROBOTS” CONTENT=”NO INDEX, NO FOLLOW”>
Otra situación es que pueda surgir contenido duplicado en varios subdominios por la existencia de varias versiones del mismo sitio web para distintos países, como los siguientes:
  • es.sitioweb.com

  • uk.sitioweb.com

  • fr.sitioweb.com

En estos casos, es conveniente seleccionar un país preferido por defecto desde la opción del menú Tráfico de búsqueda > Segmentación internacional > País de las herramientas de Search Console (figura siguiente). Para ello, primero se añade cada subdominio por país, como un sitio web distinto desde la página principal de la herramienta para administradores web de Google.
Segmentación internacional
Fuente: Google Search Console
Fuente: Google Search Console
En el ejemplo de arriba, si se hubiera añadido el subdominio de Francia en Search Console, se marcaría este país en «Segmentación internacional». Además de esta medida, también es necesario incluir en los subdominios elementos de enlace hreflang (https://support.google.com/webmasters/answer/189077?hl=es) para la identificación correcta del país, además de generar contenido distinto para cada país. Así se evita que el buscador lo considere contenido duplicado, y también lograr enlaces entrantes, procedentes de dominios de cada país y dirigidos hacia el subdominio que corresponda.
Caracteres especiales en la URL
Muchos servidores aceptan indistintamente diferentes signos de la URL. Para evitar la posibilidad de contenido duplicado, es mejor incluir una meta canonical. Los gestores de contenidos admiten URL con signos distintos, y aceptan caracteres especiales (signo «+», guión medio «-», guión bajo «_», parámetros «?», o bien la transcripción de espacio en la URL por «%30»).
Ejemplo de URL con signos distintos
http://www.sitioweb.com/
http://www.sitioweb.com/default.php?gclid=biomagnetismo
http://www.sitioweb.com/Encuentro+Internacional+de+Biomagnetismo
http://www.sitioweb.comm/Encuentro%30Internacional%30de%30Biomagnetismo
Si el gestor de contenidos admite distintos signos en la URL, es recomendable incluir una meta canonical con la definición adecuada de la URL.
4.4.3.Etiquetas
Entre las metaetiquetas, la etiqueta «title» (‘título’) es uno de los elementos más relevantes de una página web, al igual que el propio dominio. A través del comando «site:sitioweb.com», es posible analizar la existencia de títulos duplicados, títulos demasiado largos, títulos demasiado cortos, títulos ausentes, etc.
Las herramientas para administradores de webs de Google suministran información sobre esta etiqueta, así como sobre las etiquetas metadescripciones (metaetiquetas «description»).
Desde Apariencia en el buscador > Mejoras de HTML.
Incidencias en las metaetiquetas
Fuente: Google Search Console
Fuente: Google Search Console
En nuestro caso práctico, se identifican 18 páginas sin título y 4 duplicadas. Esto quiere decir que Google puede generar títulos, aunque carezcan de ellos o estén duplicados, a partir del contenido textual que puede rastrear.
Los títulos o metaetiquetas «description» duplicados suelen ser un buen indicio de contenido duplicado.
También se detectan en el sitio web 2 metadescripciones cortas que hay que corregir.
4.4.4.Texto
Los contenidos escritos de nuestra web son esenciales para su posicionamiento. Aunque el análisis de palabras clave es un inicio básico en cualquier estrategia SEO, el contenido del sitio web es lo que sustenta estos términos.
Unos buenos contenidos suponen:
  • Atraer visitas y fidelizar a los usuarios y clientes.

  • Mayor indexación por parte de los buscadores.

  • Obtener mejor ranking en los buscadores.

  • Conseguir enlaces, referencias y recomendaciones externas.

Para el centro de biomagnetismo, se aconseja incluir las siguientes secciones de contenidos, además del blog, para mejorar el posicionamiento en buscadores:
  • Página de preguntas frecuentes o FAQ (frequently asked questions). El objetivo es responder a múltiples usuarios que hacen las mismas consultas. Algunas cuestiones que se podrían preguntar en las FAQ:

    • ¿Imparten cursos en línea?

    • ¿En qué países y ciudades imparten los cursos presenciales?

    • ¿Los resultados de un tratamiento biomagnético son los mismos para todas las personas?

  • Testimonios. Las declaraciones de pacientes, con sus impresiones, son muy importantes para ganar credibilidad y confianza ante el usuario de internet.

También podríamos añadir páginas de foros, aplicaciones, comparativas, análisis, páginas de categoría por temática, etc.
A continuación, se exponen sugerencias para la estrategia de contenidos en el centro de biomagnetismo:
1) Información original y no copiada. Este factor es muy importante para los buscadores, los cuales son capaces de identificar la relevancia del autor por los contenidos publicados en un sitio web. En este caso, al tratarse de un sitio web relacionado con la salud, la información tiene que ser rigurosa, es decir, considerarse una fuente fiable.
2) Contenido útil y atractivo para el usuario. Hacer un seguimiento de las páginas más vistas en Google Analytics permite identificar los contenidos de mayor y menor interés. Con el análisis de métricas (tiempo de duración en una página, la tasa de rebote de la misma y el número de páginas que visualiza un visitante durante una sesión), se puede identificar si el usuario ha encontrado lo que buscaba y si le ha resultado útil y de interés la información que ha encontrado. Desde Analytics, se accede a Informe de Comportamiento > Contenido del sitio > Páginas de destino.
Páginas de destino
Fuente: Google Analytics
Fuente: Google Analytics
En el ejemplo, la página de testimonios tiene un porcentaje de rebote alto (89,14 %) frente al resto de las páginas. En esta página, puede ser aconsejable incluir algún enlace dirigido hacia otra página de interés o, quizá, modificar el diseño o contenido de la misma.
El porcentaje de rebote informa de si el usuario ha encontrado lo que buscaba (una mayor tasa de rebote significa un mayor abandono por parte del usuario). Por otro lado, a mayor número de páginas web vistas en una sesión, y mayor tiempo de permanencia en la página, más interés tiene el usuario y mayor atractivo siente por el contenido de dicha página. Es interesante posicionar aquellos contenidos que mayor rentabilidad generan en el sitio web.
3) Actualización de contenidos. Los usuarios, al igual que los buscadores, priman las webs que mantienen su información actualizada y publican periódicamente nuevos contenidos, pero siempre que sean de calidad (https://www.youtube.com/watch?v=d6-KA20QqL8&feature=relmfu).
En este sentido, además de la comprobación visual en secciones dinámicas de un sitio web, como puede ser un blog, se puede analizar el feed del sitio web (http://www.microsiervos.com/archivo/general/que-es-un-feed-rss.html), que en la plataforma Wordpress viene instalado por defecto. En la barra del buscador, se introduce «http://sitioweb.com/feed» para comprobar las últimas actualizaciones. Además de noticias, se aconseja incluir actualizaciones de Twitter, carrusel de productos (cursos de biomagnetismo), etc., para generar un mayor dinamismo.
4) Densidad de palabras clave. No existe ninguna regla por parte de los buscadores sobre el número de veces que debe repetirse una palabra clave en un texto. Este tiene que ser natural a los ojos del lector (https://www.youtube.com/watch?v=Rk4qgQdp2UA). Es muy importante, dado el papel del SEO semántico, incluir sinónimos de las palabras clave. En nuestro caso práctico, se detecta que los textos del blog son muy cortos, no superiores a 300 palabras. Para insertar palabras clave y sinónimos sin correr el riesgo de saturar el texto con muchas de las mismas, es recomendable aumentar la extensión de los artículos.
En los primeros párrafos de texto, conviene incluir palabras clave que coincidan con las utilizadas en el título o encabezamiento de la página, y que pertenezcan al mismo campo semántico: sinónimos, expresiones análogas, etc. El motivo SEO es que los buscadores tengan la oportunidad de confirmar que el tema de la página coincide con lo expresado en las etiquetas «title», «description» y encabezados, si los hubiera.
En los contenidos de texto, se utilizan tres elementos complementarios que ayudan a que los buscadores entiendan el contenido. Se trata de los encabezados, acrónimos y sinónimos.
1) Encabezados (títulos y subtítulos). Es imprescindible un encabezado principal o título (no confundir con etiqueta <title>) que se identifique con la etiqueta de encabezamiento de primer nivel <h1>. Según los estándares de usabilidad, solo debería haber un <h1> por página. Si se necesita incluir apartados o subtítulos (desde <h2> a <h6>), es preciso usar las otras etiquetas de encabezamiento de menor nivel (figura siguiente).
Con estas etiquetas, se define la importancia de las distintas partes del contenido en la página, ya que se indica la jerarquía de las mismas: <h1> es la más importante (por defecto, es el título principal) y <h6>, la menos importante. Se trata de estructurar el contenido por epígrafes y subepígrafes.
El titular <h1> resume en una frase el contenido de cada página, y debe ser único. Como título, cuanto más arriba aparezca, mejor, tal y como lo haría el título de una noticia. No debe ser extenso, pues la importancia de las palabras clave que contiene el titular irá perdiendo fuerza cuanto más largo sea. Puede, o no, coincidir con la metaetiqueta «title», que es la que se muestra en los resultados.
La etiqueta «title» tiene menos importancia que <h1> para el SEO. Por tanto, es aconsejable que <h1> esté más focalizado hacia el SEO y, en cambio, la meta «title» esté más orientada a captar la atención del usuario. Por otro lado, <h2> y siguientes marcan las diferentes secciones de un texto, y deben reunir las mismas directrices que <h1>, a excepción de su número. En <h1>, se debe incluir la palabra clave principal y en los subtítulos, palabras clave secundarias o sinónimos de la principal.
2) Etiquetas de énfasis. Si queremos remarcar o enfatizar ciertas palabras, frases o conceptos, es necesario usar las negritas o las cursivas. Es recomendable el uso de las etiquetas «semánticas» <strong> y <em>, respectivamente, pero sin abusar de ellas, pues de lo contrario los motores de búsqueda no sabrán diferenciar las verdaderas palabras clave de entre todas las que hemos marcado.
Si se quiere remarcar palabras por efecto estético, y no por su significado, es recomendable utilizar estilos CSS, por ejemplo, utilizando etiquetas <span>. Si se incluyen acrónimos o abreviaturas, conviene utilizar las etiquetas específicas para ello, <acronym> y <abbr>, lo que permitirá indexarlos por las siglas o abreviatura.
La etiqueta <acronym> no se admite en la versión 5 de HTML (https://www.w3schools.com/tags/tag_acronym.asp).
4.4.5.Imágenes
Los buscadores solo pueden leer el texto para clasificar un contenido, es decir, actualmente no son capaces de leer una imagen con un texto incluido, como si lo hiciera un humano. Por ello, es importante que las imágenes incluyan al menos un nombre de la imagen y un texto «alt» (alternate text) que las describa, aspectos que analiza el algoritmo del motor de búsqueda.
Las imágenes deben tener nombres significativos, y contener palabras clave acordes a su contenido. Los principales motores de búsqueda tienen un buscador específico de imágenes que ayuda a atraer tráfico.
Por ejemplo, «cartel-congreso-biomagnetismo.jpg» tiene más probabilidades de posicionarse que «cartel1012.jpg».
Por otro lado, el texto «alt», o texto alternativo, indica al buscador una descripción de la imagen. Tanto en el nombre como en el texto alternativo, se debe incluir la palabra clave. Veamos un ejemplo.
Si en el sitio web del centro de biomagnetismo se quiere insertar una imagen de la Asociación Española de Biomagnetismo Médico, para informar de que son miembros de la misma, es necesario incluir, como mínimo, un texto alternativo para que pueda posicionarse en los buscadores. De manera complementaria, se le puede incluir un título (es el texto que se muestra cuando el visitante pasa el ratón por encima de la imagen) u otros elementos que no afectan al posicionamiento SEO, como por ejemplo una leyenda.
Logo de la AEBM
Fuente: Asociación Española de Biomagnetismo Médico
Fuente: Asociación Española de Biomagnetismo Médico
Título de la imagen: Logo de la Asociación Española de Biomagnetismo Médico.
Ejemplo de URL de la imagen: www.sitioweb.com/logo-asociacion-espanola-biomagnetismo-medico.
El título de la imagen aparecerá por defecto en la URL, aunque después esta última se puede personalizar. Para que aparezca el título completo en los resultados de los buscadores, se debe prestar atención al límite de caracteres. La extensión del título debe contener entre 50 y 70 caracteres. Por ello, el título suele contener entre 4 y 8 palabras y, si fuera necesario, es aconsejable eliminar las palabras que no aporten valor, como preposiciones, conjunciones, etc., para que el título completo aparezca en los resultados del buscador.
Texto «alt»: Logo de la Asociación Española de Biomagnetismo Médico creado en Madrid por discípulos del Dr. Goiz.
Con este elemento, se amplía la información ofrecida en el título. La etiqueta encargada de mostrar la imagen en HTML sería:
<img title=”texto emergente” src=”ruta-de-la-imagen” alt=”descripción de la imagen”/>
Aplicado a nuestro ejemplo:
<img title=”Logo de la Asociación Española de Biomagnetismo Médico” alt="Logo de la Asociación Española de Biomagnetismo Médico creado en Madrid por discípulos del Dr. Goiz" src=”http://sitioweb.com/logo-asociacion-espanola-biomagnetismo-medico”/>
Para asegurarse de que las imágenes tengan un texto «alt», se puede hacer una comprobación desde la herramienta Screaming Frog (Images > Filter: Missing Alt text):
Verificación del texto alternativo de las imágenes
Fuente: Screaming Frog SEO
Fuente: Screaming Frog SEO
Otro aspecto relevante es el tamaño de la imagen, que debe ser lo más reducido posible, pero siempre preservando una calidad adecuada para mostrarse en internet. Se recomienda no publicar imágenes superiores a 1 megabyte y, si es posible, que no superen los 100 kilobytes, excepto en imágenes de muchos píxeles.
En Screaming Frog, se pueden comprobar también las imágenes que superan los 100 kb (kilobytes) desde Images > Filter: Over 100 kb.
4.4.6.Enlaces
En el contenido de un sitio web, encontramos enlaces externos e internos. La autoridad o popularidad de una página web se distribuye entre todos los enlaces salientes de la misma. Si el número de enlaces salientes es muy elevado, se está entregando más fuerza –o zumo de popularidad– a estos dominios del que se transfiere a sus páginas internas.
Con la barra de herramientas de Web Developer para Firefox, se detectan los enlaces y su número (Menu Information > View Link Information), además del detalle de los mismos (Menú Information > Display Link Details), y se comprueba la proporción de enlaces salientes e internos. Debe existir un equilibrio en la proporción entre los dos tipos de enlaces. Es aconsejable minimizar el número de enlaces salientes, especialmente los ubicados en el pie de página, pues afectan a todas las páginas y desvían una parte importante de la fuerza del sitio web hacia los dominios externos.
Información sobre los enlaces
Fuente: Web Developer
Fuente: Web Developer
Con Screaming Frog, también se puede comprobar el número total de enlaces internos y externos en el resumen «Overview», así como un detalle de los mismos desde los apartados «internal» y «external» del menú superior principal.
Resumen del total de enlaces internos y externos
Fuente: Screaming Frog SEO
Fuente: Screaming Frog SEO
4.4.7.Fragmentos enriquecidos
Los rich snippets, también denominados «fragmentos enriquecidos», son un tipo de contenido semántico que se puede incluir en el sitio web, y sirven para proporcionar a los buscadores más información sobre el contenido de la página. Permiten complementar el título, URL y descripción (snippets), y de ese modo les ayudan a comprender y categorizar mejor ese contenido, y utilizarlo para mostrar datos adicionales en sus resultados de búsqueda.
Fragmento enriquecido en Facebook con «Valoración»
Fuente: Google
Fuente: Google
En la figura anterior, se puede ver un ejemplo de rich snippets de una página de Facebook, en la cual la valoración en votos efectuados por los usuarios aparece como información adicional.
Cuando esta información adicional aparece en un resultado concreto de la búsqueda, aumenta su visibilidad y el número de clics que recibe, lo que es tenido en cuenta de manera positiva por algunos buscadores.
Para incluir los rich snippets en un sitio web, se utiliza un conjunto de formatos de datos abiertos que se pueden insertar en cualquier documento XML, especialmente HTML/XHTML. Para el sitio web del centro de biomagnetismo, se aconseja la implementación de los siguientes tipos de contenidos:
  • Empresas locales: informan sobre datos de la empresa (nombre, URL, dirección, horario de apertura, etc.), valoración y reseñas.

  • Artículos: suministra información sobre el autor, fecha de publicación, editor y valoración media.

Marcador de datos
Fuente: Google Search Console
Fuente: Google Search Console
Creación de fragmentos enriquecidos
Aunque existen distintos tipos de formatos (microdatos y RDFa, JSON-LD, y microformatos y Open Graph), se recomienda el uso de los microdatos, que asocian el contenido de las páginas con el vocabulario Schema.org (diccionario universal para el marcado semántico de datos web, creado en el 2011, fruto del acuerdo alcanzado por los buscadores Google, Bing, Yahoo y Yandex). Los microdatos usan atributos en etiquetas HTML como <span> o <div>, para añadir información semántica al contenido.
Ejemplo de microdatos
Un ejemplo sencillo de microdatos sería el que permite indicar que un texto es el nombre de una persona:
<div itemscope itemtype="http://data‐vocabulary.org/Person">
Mi nombre es <span itemprop="name">Nombre Apellido</span>
</div>
El atributo itemscope indica que el contenido es un elemento; el atributo itemtype, que ese elemento es una persona; finalmente, se añade el atributo itemprop, con el valor «name» para indicar que lo que contiene son características conocidas de una persona (nombre, imagen y URL).
Existen distintas alternativas para marcar los datos (con plugins o extensiones, copiando el código recopilado de generadores de datos y, finalmente, aplicando marcadores de datos). Se aconseja esta última opción, que consiste en etiquetar los datos sobre la propia página web mediante una herramienta del buscador. Google ofrece esta opción a través de Search Console (figura 44).
En el sitio web schema.org es posible encontrar los estándares que unifican el uso de los formatos enriquecidos (son estándares acordados por Google, Bing, Yandex y Yahoo), así como ver los tipos de fragmentos enriquecidos que existen.
4.4.8.Optimización del rendimiento web
La velocidad de descarga tiene un impacto directo sobre la indexación y el posicionamiento de los sitios web, además de la experiencia del usuario.
Con la evolución de la web, las páginas han ido incorporando elementos (multimedia, scripts, etc.), de modo que han multiplicado su tamaño y el tiempo que necesitan los navegadores para visualizarlas.
Para corregir estos problemas, aparecen las técnicas de optimización del rendimiento web o, como se conoce en inglés, WPO (web perfomance optimization). Se encargan de analizar y proponer cambios para reducir el tiempo de espera de los usuarios en la visualización de una página.
Un sitio web con un rendimiento optimizado tiene un funcionamiento más ágil, una descarga más rápida y un uso más eficiente de las cachés de los servidores y navegadores, además de su repercusión en la experiencia de navegación.
Por tanto, lo primero es analizar el tiempo de descarga de las páginas web a través de un test que mida la velocidad y el tiempo de descarga web. Recomendamos las siguientes herramientas para su medición:
Para optimizar el tiempo de carga, siempre que sea técnicamente posible, es aconsejable:
1) Reducir el tamaño de las páginas. A menor número de bytes para transmitir, menor tiempo de descarga. Algunas mejoras recomendables son:
a) Reducir el tamaño de las imágenes (y su calidad, según el caso)hasta el tamaño que se muestra en internet. No tiene sentido descargar una imagen de 800 × 600 píxeles cuando se muestra solo como 200 × 150 píxeles. Así se evita al navegador llevar a cabo ese proceso de escalado. También es interesante especificar su dimensión, para que el navegador no tenga que hacer ningún cálculo adicional para mostrarla. El código para determinar un tamaño de imagen de 200 × 150 píxeles es:
<img src="imagen.jpg" width="200px" height="150px"/>
En el mercado, encontramos múltiples herramientas de pago y gratuitas para optimizar las imágenes: de edición de imágenes (Photshop CC, Pixlr Editor, etc.), de compresión en distintos formatos (Riot, Compress Now, etc.) y también específicas para extensiones (JPEG Optimizer, PNG Optimizer, etc.).
b) Comprimir ficheros grandesde código HTML, CSS o JavaScript usando la compresión Gzip, la cual puede reducir el tamaño de los ficheros del 50 % al 80 %. Su configuración se puede llevar a cabo a través de «.htaccess». Los gestores de contenidos también disponen de esta funcionalidad para activarla. Se puede comprobar si está activada la comprensión Gzip con HTTP Compression de la herramienta Whatsmyip.
Test de compresión
Fuente: WhatsmyIP
Fuente: WhatsmyIP
En nuestro caso, no se ha hecho la comprensión Gzip y se recomienda implementarla. Las siguientes instrucciones, para la configuración de Gzip, dependerán del servidor web en el que se tenga alojado el sitio web:
c) Eliminar comentarios y líneas en blanco innecesarias en el código HTML. Aunque suelen ocupar poco, es una posibilidad si se quiere optimizar lo máximo posible.
2) Reducir las peticiones del navegador a ficheros externos (reducir llamadas HTTP). Si se tienen muchos ficheros externos, para cada uno el navegador deberá hacer una petición de descarga, por lo que le llevará tiempo. Si se reducen estas peticiones, se reduce el tiempo de descarga. Algunas mejoras pueden ser:
  • Unificar ficheros JavaScript externos.

  • Cargar al principio del código solo los ficheros JavaScript imprescindibles para mostrar la parte superior de la página (se suelen situar antes de la etiqueta de cierre de la cabecera </head>), y el resto, cargarlos al final (justo antes de </body>) o hacerlo de forma asíncrona, como ocurre con el código de Google Analytics, para evitar, así, que puedan bloquear el proceso de carga de la página.

  • Unificar ficheros de hojas de estilos CSS externos.

  • Usar CSS y JavaScript inline. Consiste en evitar crear ficheros CSS y JavaScript cuando su tamaño es reducido o se usan solo en una página HTML. Por tanto, se trata de incrustar directamente el código de CSS o de JavaScript en el HTML, mediante la etiqueta <script>, y reducir así el número de llamadas a ficheros externos. En cualquier caso, para ficheros grandes es preferible que sean externos.

  • Usar sprites en CSS para cargar todas las imágenes a la vez, como si fueran una sola, y luego mostrarlas de manera individual. Ejemplo de CSS sprites: https://www.w3schools.com/css/tryit.asp?filename=trycss_sprites_img.

  • Establecer fechas de expiración para los archivos y objetos que se abren en la página del navegador, de modo que si la fecha de expiración no se ha superado, el cliente no los descargará de nuevo, sino que utilizará los que tiene en caché. Algunos proveedores de hosting tienen alguna opción en el panel de control para especificarlo. En caso contrario, se puede añadir el código a «.htaccess».

Fechas de expiración de ficheros
Fuente: Elaboración propia
Fuente: Elaboración propia
En este ejemplo, se puede ver que hay periodos de tiempo de entre un mes (1 month) y un año (1 year) que están asociados a los distintos tipos de archivos y objetos. Por ejemplo, los PDF se almacenan en caché durante un mes.
La fecha de caducidad «Expires» se establece a través de un periodo de tiempo (día, semana, mes, año), mientras que en «Last Modified» se hace a través de una fecha.
Es recomendable que la fecha «Expires» sea entre una semana y un año, para evitar problemas. El valor «Expires» es prioritario como cabecera de caché.
3) Utilizar una CDN (red de distribución de contenidos). Si tenemos muchas imágenes, vídeos o elementos que puedan ralentizar la carga, existe la posibilidad de distribuir copias de estos elementos en una red de servidores para hacer el proceso más eficiente. Hay distintos proveedores que suministran este servicio CDN (content delivery network), o red de distribución de contenidos; por ejemplo:
  • CDN por subdominios, como Amazon CloudFront o Max CDN.

  • CDN por proxy inversos, como CloudFare.

En nuestro caso, un sitio web que no posee mucho contenido, se recomienda implementar CloudFare por su coste mínimo o nulo, por su fácil configuración y también por sus opciones de optimización del código y algunas mejoras de seguridad global.
Panel de control de la CDN CloudFare
Fuente: CloudFare
Fuente: CloudFare
4.4.9.Adaptación a dispositivos móviles
Con el gran avance en el uso de dispositivos móviles para acceder a la web, principalmente móviles inteligentes y tabletas, se creó la necesidad de diseñar sitios web que pudieran ser visualizados correctamente en un rango más amplio de tamaños de pantallas. De ahí surgió la técnica denominada responsive web design, propuesta en el 2005 por el diseñador Ethan Marcotte.
Actualmente, esta técnica es la más empleada y la que recomiendan buscadores como Google o Bing. Los sistemas de gestión de contenidos más populares, como WordPress, Joomla o Drupal, tienen disponibles muchas plantillas de presentación que incorporan esta técnica, por lo que si se usa alguna de estas plataformas para crear un sitio web, se debe seleccionar una plantilla que cumpla estas características de diseño.
Para saber que se emplea esta técnica, existen herramientas como la prueba de optimización móvil de Google o PageSpeed Insights.
Una vez detectados los problemas, e implementados los cambios para solucionarlos, se verifica que la usabilidad es la adecuada, con Search Console (Tráfico de búsqueda > Usabilidad móvil).
Usabilidad móvil
Fuente: Google Search Console
Fuente: Google Search Console
Para nuestro caso práctico, existen problemas de usabilidad móvil con una página web que Google detectó hace casi cuatro meses. Al comprobar esta página web con su herramienta de prueba de optimización para móviles, se detecta que la página está optimizada, con lo cual no es necesario hacer ningún tipo de cambio.
Verificación de un diseño adaptado a dispositivos móviles
Fuente: Prueba de optimización de móviles de Google
Fuente: Prueba de optimización de móviles de Google
La optimización móvil se extiende más allá del diseño responsive o adaptativo. Actualmente, encontramos otras dos alternativas:
1) Publicación dinámica. Se publica una sola URL pero, en este caso, se sirve diferente código HTML, según cuál sea el dispositivo desde el que se visita el sitio web. Para su detección, se puede utilizar la extensión de Google Chrome o Firefox denominada User Agent Switcher.
Su comprobación consiste en navegar a cualquier URL desde Chrome o Firefox y navegar a la misma URL desde una nueva pestaña, activando la opción Herramientas > Default Agent. Una vez se disponga de las dos páginas, se accede al código fuente de cada una de ellas desde el menú Herramientas > Desarrollador Web > Código fuente de la página, y se comprueba si el código HTML descargado es idéntico, o no.
2) Crear una versión móvil de la web. En esta opción se publicarían diferentes URL, y se haría una versión específica para móvil del contenido de nuestras páginas web originales. En este caso, se activa la opción Herramientas > Default User Agent y se navega por el sitio web. Si el servidor nos redirecciona a una dirección distinta (normalmente, subdominio del tipo «m.dominio.ext» o similar), significa que el sitio web emplea una versión móvil específica.
Nuestra última comprobación es verificar que el sitio web dispone de páginas AMP (en inglés, accelerated mobile pages). Google puso en marcha el proyecto AMP con el objetivo de acelerar al máximo la descarga de las páginas web en los dispositivos móviles. Su funcionamiento consiste en crear una nueva versión de la página (aunque esta tenga un diseño adaptativo o responsive), con una URL ligeramente modificada respecto a la original y con una serie de restricciones que hacen que la carga sea mucho más ágil y rápida. Así se establece, mediante etiquetas, la relación entre las versiones originales y las AMP, de tal manera que todas las páginas del sitio web que disponen de versión AMP deberán tener una etiqueta «link=rel”amphtml”», cuyo «href» sea la URL de la versión AMP.
Se puede comprobar la evolución de las páginas AMP a través de las herramientas para administradores de webs de Google (Apariencia en el buscador > Accelerated Mobile Pages).
Accelerated Mobile Pages (AMP)
Fuente: Google Search Console
Fuente: Google Search Console

5.Factores externos. SEO off page

La arquitectura de la información y contenidos es una parte fundamental del trabajo del SEO, pero debe ser apoyado también por señales de relevancia procedentes de menciones externas, para incrementar la popularidad y la autoridad.
Los factores off page, o externos a un sitio web, se refieren a los enlaces que recibe desde otras webs (enlaces entrantes), que funcionan igual que el modelo de menciones en el mundo académico.
Se debe intentar conseguir el mayor número posible de enlaces entrantes (linkbuilding) de calidad, desde páginas con la mayor relevancia posible y de temática acorde con el contenido del sitio web.
Para medir la relevancia off page, se usan indicadores que valoran la popularidad y autoridad de las páginas web que enlazan. Entre estos indicadores, destacan los de Moz (empresa de referencia SEO en un ámbito mundial), por su aceptación como estándar en el mundo SEO:
  • Autoridad del dominio (DA).

  • Autoridad de la página (PA).

Los dos indicadores ofrecen un ranking de 0 a 100 para determinar la autoridad de una página o un dominio web. Actualmente, se trata del valor más aceptado para medir la autoridad web y sustituye el page rank de Google, desde que dejó de ser público.

5.1.Linkbuilding y linkbaiting

Aunque es posible conseguir enlaces entrantes de forma natural con contenidos de calidad, se recomienda impulsar la generación de los mismos de una manera proactiva. Para ello, los expertos en SEO y en marketing de redes sociales han ido exponiendo recomendaciones o técnicas para conseguir este objetivo. Estas técnicas, por norma general, se suelen clasificar en dos grandes grupos:
  • Linkbuilding: conseguir enlaces mediante alta en directorios o peticiones a otros administradores de webs.

  • Linkbaiting: obtener enlaces sin solicitarlos directamente, ofreciendo contenidos de calidad y motivando a otros blogueros, administradores de webs y usuarios de redes sociales a que mencionen o enlacen un sitio web.

5.1.1.Enlaces
Las actualizaciones de los algoritmos, en especial Penguin de Google, representan un aumento del control sobre la legitimidad de los enlaces entrantes. Los buscadores, además, penalizan el posicionamiento de aquellos sitios web de los que sospechan que han manipulado sus enlaces de forma artificial. Las recomendaciones que se deben tener en cuenta a la hora de construir la popularidad o autoridad de un sitio web son los siguientes:
  • Enlaces procedentes de dominios variados, con distinta autoridad. Son importantes la antigüedad, la popularidad y la autoridad temática del dominio que enlaza, así como que sean coherentes con la temática y la ubicación geográfica. Contar con algunos enlaces con extensión .edu, .org y .gov añade un plus de autoridad, así como recibir más enlaces dentro de un contenido amplio de la página –por ejemplo, un artículo– que desde una lista de enlaces situados en una columna lateral o en un pie (footer) de la página web.

  • Evolución natural en el crecimiento de los enlaces. El ritmo de aumento debería ser irregular, con picos y valles, sin que responda a estrategias artificiales.

  • Textos de enlaces variados con predominio de la marca. Por ejemplo, sería sospechoso recibir un gran número de enlaces en la página de inicio con una palabra clave optimizada, como «cursos de biomagnetismo fantásticos». Además, no se analiza solo el texto del enlace, sino el contexto en torno al propio enlace. Se busca coherencia entre la temática del contexto, el propio texto del enlace y el contenido al que apunta el enlace.

¿Cómo se evalúa un enlace?
No todos los SEO evalúan de la misma forma. Muchos tienen en cuenta solo métricas de autoridad, otros, sin embargo, incluyen métricas de visibilidad.
La autoridad o popularidad se mide por los enlaces entrantes recibidos en un sitio web, tanto en número como en calidad. La visibilidad se mide por el tráfico SEO proveniente de los buscadores. Los enlaces de mayor valor son los que disponen de una autoridad y una visibilidad altas.
Las dos métricas son importantes en el análisis de un enlace. Vamos a proponer una estrategia para evaluar un enlace teniendo en cuenta las dos métricas. Para ello, usaremos las herramientas siguientes:
Para medir la visibilidad, también se podría haber incluido el tráfico orgánico, aunque es un dato menos aproximado que las palabras clave posicionadas usando herramientas externas.
Para evaluar un enlace y medir su visibilidad, se determina primero el número de palabras clave a través de SEMRush.
Visibilidad de palabras clave
1.5 K = 1.500 palabras clave, que se considera un número medio-alto de palabras clave. Fuente: SEMrush
1.5 K = 1.500 palabras clave, que se considera un número medio-alto de palabras clave. Fuente: SEMrush
En segundo lugar, se analiza la autoridad con la barra de herramientas de Moz, descargada previamente en Google Chrome. La autoridad de la página, que corresponde a la URL que estamos analizando, es de 36, y la del dominio web es de 26 (figura siguiente). Estos valores se consideran medios para las dos métricas.
Mozbar
Fuente: Moz
Fuente: Moz
Por último, en Ahrefs se comprueba el número de dominios entrantes (referring domains). El resultado son 268 dominios entrantes, que consideramos también un número medio.
Dominios entrantes
Fuente: Ahrefs
Fuente: Ahrefs
Por último y, no menos importante, se comprueba el número de enlaces salientes (outgoing links) y se compara con el número de enlaces entrantes de la página web donde está ubicado el enlace. También se puede consultar con Ahrefs. Una proporción desequilibrada, con muchos más enlaces salientes que entrantes, significará menor fuerza de transmisión de la autoridad web; por tanto, recibir un enlace de esta web será menos beneficioso.
Finalmente, se hace una tabla en Excel con los resultados y se lleva a cabo una valoración propia, en la cual:
  • La cifra en SEMRush significa el número de palabras clave posicionadas.

  • DA es la autoridad del dominio web que enlaza, determinada por Moz.

  • PA es la autoridad de la página web que enlaza, proporcionada por Moz.

  • Referring domains se refiere a dominios entrantes, según Ahrefs.

  • Outgoing links son los enlaces salientes, según Ahrefs.

  • Backlinks son los enlaces entrantes, según Ahrefs.

Cuadro comparativo para evaluar enlaces entrantes
Fuente: Elaboración propia
Fuente: Elaboración propia
Una vez que se usen habitualmente estas herramientas, cada SEO dispondrá de unos valores de referencia. Los siguientes valores se deben tomar con precaución, y solo como referencia inicial:
1) SEMRush:
a) Palabras clave orgánicas:
  • Número bajo de palabras clave inferior a 100.

  • Número medio de palabras clave de 100 a 1.000.

  • Número alto de palabras clave de 1.000 a 10.000.

  • Número muy alto de palabras clave por encima de 10.000.

2) Moz:
a) Autoridad del dominio y de la página web.
  • DA y PA bajas si son menores de 20.

  • DA y PA medias si están entre 20 y 40.

  • DA y PA altas si están entre 40 y 70.

  • DA y PA muy altas si están por encima de 70.

3) Ahrefs:
a) Dominios entrantes (referring domains).
  • Número bajo si es menor de 30.

  • Número medio, de 30 a 1.000 dominios.

  • Número alto, de 1.000 a 10.000 dominios.

  • Número muy alto, por encima de 10.000 dominios.

b) Proporción enlaces salientes / enlaces entrantes:
  • Una proporción alta de enlaces salientes frente a entrantes es un buen indicio.

Además de evaluar los enlaces de otros sitios web, es importante hacer un seguimiento de los enlaces entrantes. En estos últimos, debe haber una proporción equilibrada entre enlaces dofollow (transmiten linkjuice) y nofollow (no transmiten linkjuice). Para controlar los enlaces que apuntan a nuestro sitio web, además de SEMRush, se pueden emplear múltiples herramientas (Google Search Console, Bing Webmaster Tools, OpenSiteExplorer, Sistrix, Majestic, OpenLinkProfiler, etc.). Cualquiera de ellas ayuda a revisar los enlaces entrantes, su evolución en el tiempo (ritmo de adquisición), su geolocalización, etc.
5.1.2.Linkbuilding
La construcción de enlaces, o linkbuiding, consiste en las acciones llevadas a cabo para conseguir que un sitio web sea enlazado por terceros y, así, aumentar la autoridad web. El objetivo es conseguir enlaces desde IP y dominios distintos, así como desde fuentes y ubicaciones geográficas variadas, intentando que el enlace provenga de un dominio con autoridad.
Para el centro de biomagnetismo, se recomienda una estrategia de linkbuilding con siete acciones específicas:
1) Dar de alta la página en buscadores y envío de sitemap. Consiste en registrar el sitio web en los principales buscadores:
2) Alta en perfiles de cuentas de redes sociales. Dado que el centro de biomagnetismo dispone de varias cuentas en redes sociales (Facebook y YouTube), se recomienda incluir enlaces del sitio web en los perfiles y en las publicaciones de las mismas:
  • Enlaces al sitio web desde la página de fans de Facebook.

  • Enlaces al sitio web desde las descripciones de los vídeos en YouTube.

  • Apertura de otros perfiles sociales (Google Plus, Twitter, Pinterest, etc.) o profesionales (linkedIn, Xing, etc) con un mínimo de actividad. Incluir enlaces del sitio web en los perfiles y contenidos de estas cuentas.

3) Registro en sitios especializados de la misma temática. Consiste en darse de alta en asociaciones y sitios especializados relacionados con terapia y medicina alternativa, e incluir un enlace al sitio web siempre que sea posible. Para ello, se ha efectuado un estudio, y es posible incluir enlaces en todos estos sitios:
4) Darse de alta en Google My Business. Se trata de un servicio de Google que proporciona una mayor visibilidad en el buscador, especialmente en posicionamiento SEO local y geolocalizado. Una vez dado de alta, se registra información sobre la empresa (nombre, categoría, dirección, URL, teléfono, horario, imágenes, etc.), que puede aparecer en las búsquedas de Google, en Google Maps y en Google+.
Acceso web a Google My Business: https://www.google.es/business/.
5) Difusión de artículos en otros sitios web. Una buena práctica es solicitar como invitado la publicación de artículos en otros sitios web de la misma temática. Es aconsejable, antes de hacer la solicitud, mantener una relación previa con el administrador de webs. Para la elección, se debe prestar atención a la popularidad y autoridad del sitio web, así como al hecho de que sea de la misma temática relacionada. Para seleccionar potenciales objetivos web, extraemos del buscador los primeros resultados para las palabras clave principales sobre las que se está trabajando, y se evalúa cada uno de los dominios web (análisis de la visibilidad y de la autoridad) que se muestran en los resultados, así como la calidad de sus contenidos.
6) Publicación de notas de prensa. Otro método aconsejado es la difusión de notas de prensa relacionadas con la actividad de la empresa, y que permitan enlazar el sitio web. Aunque las notas de prensa han sido una actividad llevada a cabo en el marketing tradicional desde hace mucho tiempo, encontramos plataformas de difusión específicas para internet. No solo puede favorecer el SEO, sino también potenciar la popularidad del sitio web. Conviene elegir un buen motivo para generar la nota de prensa. Algunas ideas pueden ser un nuevo producto o servicio, casos de éxito, acuerdos de colaboración, premios o galardones recibidos, organización de un evento, creación de un nuevo departamento o área, incrementos de cuota de mercado, patrocinios, cambio significativo de una web, etc. En nuestro caso, un buen motivo es la organización de un congreso de biomagnetismo.
Panel de control de servicio en línea de notas de prensa
Fuente: Comunicae.es
Fuente: Comunicae.es
7) Directorios importantes. Otra forma de dirigir tráfico hacia nuestra página es a través de los directorios. Un directorio es una lista de páginas web clasificadas por categorías, a través de las cuales los usuarios pueden navegar y hacer búsquedas. En cualquier caso, cada vez está más en entredicho la utilidad de los directorios para el SEO, dado que muchos están llenos de spam y disponen de webs de dudosa reputación. Por lo tanto, a la hora de registrase e introducir los datos del sitio web, se debe comprobar que sean sitios de calidad, para evitar una penalización en el futuro. Algunas sugerencias al darse de alta en directorios son las siguientes:
  • Analizar el directorio y determinar si es de calidad o no según la autoridad web, visibilidad web, proceso de registro y admisión, tipos de empresa que se muestran, etc.

  • Seleccionar la categoría que más se ajuste a nuestro sector o temática.

  • Seleccionar un título que coincida con una palabra clave, siempre y cuando no parezca spam.

  • Respetar las normas del directorio respecto a su uso y la extensión de cada uno de los campos.

  • Seleccionar distintos textos ancla y descripciones, así como cambiar de orden la lista de palabras clave.

  • Llevar a cabo el alta manualmente, y no con aplicaciones automáticas.

Algunos directorios sugeridos son los siguientes (a junio del 2017):
Otros, también interesantes, son Yelp, Yalwa e Hispatop.
Por último, existen muchas otras técnicas de linkbuilding en las cuales la creatividad es nuestra mejor aliada, como el alta en agregadores y sitios de noticias (Digg, Reddit, Menéame, Divúlgame, Feedly, Flipboard, etc.), actividades de patrocinio, eventos en línea, presentación a premios en línea (por ejemplo, a los mejores blogs en la temática que corresponda), etc.
5.1.3.Linkbaiting
Es una técnica que consiste en generar contenido muy atractivo para captar la atención del usuario. Su estrategia es buscar una alta viralidad por medio de la creación de contenidos de calidad que hagan que nuestro sitio sea enlazado por muchos sitios webs. Existen distintas fórmulas o estrategias para intentar conseguir un linkbaiting beneficioso para nuestra estrategia SEO. Entre estas técnicas, se recomiendan las siguientes:
  • Opinión de expertos. Mencionar en un artículo a expertos influyentes del biomagnetismo, hablar sobre el trabajo que hacen y por qué son los más influyentes.

  • Vídeo de alto interés. Con los vídeos no solo se consigue captar la atención del público, sino que, subiéndolos a YouTube, se consigue un primer enlace desde la plataforma de vídeos. Por ejemplo, publicar un artículo que incorpore un vídeo sobre qué es una terapia de biomagnetismo, sus beneficios y contraindicaciones.

  • Crear un producto gratis. Un curso gratis puede ser una fantástica forma de conseguir enlaces, pero la clave es diseñar un contenido de gran cantidad y calidad, como si fuera uno de pago. También puede ser una guía, un manual, un libro digital, etc.

  • Organizar un evento. En este caso, el hecho de ser el organizador principal de un congreso de biomagnetismo es una excelente oportunidad para que el sitio web sea referenciado en múltiples sitios web del sector.

  • Crear contenido de mucha calidad. Por ejemplo, crear un artículo detallado en el que se expliquen cada uno de los mitos y leyendas del biomagnetismo, y se muestre su punto de vista como profesionales.

  • Generar infografías. Es uno de los formatos más conocidos para hacer linkbaiting. Son ideales para transformar un concepto en imágenes y presentar la información en un formato mucho más atractivo.

  • Elaborar encuestas, informes, estadísticas, estudios, etc. Se trata de buscar algo verdaderamente único e interesante, para desarrollar un estudio que todo el mundo en el sector, tanto usuarios como expertos, quiera compartir y difundir.

5.1.4.Penalizaciones
La mejor medida de prevención para no recibir una penalización por enlaces es analizar regularmente los enlaces entrantes desde Google Search Console (Tráfico de búsqueda > Enlaces a tu sitio > Más información > Descargar enlaces más recientes).
Enlaces entrantes
Fuente: Google Search Console
Fuente: Google Search Console
Una vez descargados los enlaces más recientes en una hoja de cálculo o CSV, llega el momento de evaluar los enlaces potencialmente conflictivos. Si se detectan enlaces entrantes de baja calidad, o con contenido fraudulento, con origen en sitios web que pueden ser spam, se recomienda contactar con el administrador del sitio web para solicitarle que suprima este enlace al nuestro. Si se hace todo lo posible por eliminar estos enlaces, y no se encuentra la forma de retirarlos, se le puede solicitar a Google que no tenga en cuenta estos enlaces al evaluar nuestro sitio web. Para ello, se usa una herramienta denominada «desautorizar enlaces» o, en inglés, disavow, a la cual se envía un archivo con los enlaces que se quiere desautorizar.
Desautorización de enlaces
Fuente: Google Search Console
Fuente: Google Search Console
Penalización manual y algorítmica
Si se recibe una penalización manual, aparecerá en la cuenta de Google Webmasters Tools, accediendo a Tráfico de búsqueda > Acciones manuales, con un mensaje de que Google ha encontrado enlaces artificiales.
En estos casos, se mostrarán los motivos de las penalizaciones, además de enlaces a la documentación necesaria para solucionarlos. Simplemente, hay que seguir las instrucciones y cuando se resuelva el incumplimiento de las directrices de Google sobre enlaces, se podrá enviar una solicitud de reconsideración, con la herramienta de Google para desautorizar enlaces (disavow).
Sin embargo, también es posible que no se reciba notificación alguna de Google, aunque el sitio web tenga síntomas de haber sido penalizado.
Algunas señales sospechosas por las que probablemente haya una penalización:
  • El tráfico procedente de Google se reduce drásticamente.

  • El sitio web pierde visibilidad para una palabra clave o varias.

  • Ciertas páginas web desaparecen de los resultados del buscador.

  • El dominio deja de aparecer al buscarlo por su nombre, o se desindexa.

Es lo que se conoce como una «penalización algorítmica», a la que es más difícil dar una solución, puesto que no se sabe exactamente el motivo y, además, tampoco se puede enviar una solicitud de reconsideración. Ante ella, solo se puede investigar, intentar darle una solución y esperar a que el sitio web recupere lo perdido en el buscador.
5.1.5.Redes sociales
Se ha discutido mucho sobre si Google incluye en su cálculo de relevancia ciertos aspectos relacionados con las veces que un determinado contenido es compartido en las redes sociales, los «me gusta» en Facebook, un retuit en Twitter, un +1 en Google+, etc. Independientemente de que Google ya haya incorporado dichas señales sociales como factor de posicionamiento SEO, los responsables de Google lo niegan. Parece evidente que si muchos usuarios comparten, recomiendan y votan por un determinado contenido, existe un interés por el mismo. Por ello, se recomienda usar las redes sociales como medio de difusión para ampliar la visibilidad de los contenidos. El objetivo a corto plazo es lograr difusión y menciones sociales que puedan convertirse a medio y largo plazo en enlaces y menciones de otros sitios web.
Por lo tanto, para establecer una buena estrategia SEO off page hay que tener en cuenta las interacciones producidas en las redes sociales. En estas, las personas comparten información de manera activa, y son, por tanto, una fuente cada vez más importante para conseguir enlaces externos a nuestra web.
De este modo, se recomienda:
  • Enlazar nuestros perfiles, blog y web desde cada red social en la que estemos.

  • Enlazar los contenidos web en las redes sociales.

  • Incluir enlaces desde nuestros sitios web a cada uno de nuestros perfiles en redes sociales, por dos razones:

    • Invitar a los usuarios a seguirnos en cada una de estas redes sociales.

    • Estos enlaces aumentan la relevancia de la página web del perfil de la red social. Si se mide la autoridad de distintos perfiles de Twitter, se puede comprobar que la PA de Moz es distinta y, por tanto, la autoridad de la página aumenta cuanto más enlazada está.

Algunas redes sociales permiten fragmentos enriquecidos y añadir metadatos. En el caso de Facebook e Instagram, el protocolo que lo ofrece se llama Open Graph. De esta manera, cuando un usuario comparte un enlace directo en cualquiera de estas dos plataformas sociales, obtiene varios parámetros del sitio web para identificar el contenido y mostrarlo correctamente en el muro de las últimas noticias de los usuarios.
En el caso de Twitter, las tarjetas o cards también añaden metadatos, y Google Plus utiliza Schema.org. Para su implementación, se puede insertar un código directamente en el <head> del sitio web. Otra alternativa es utilizar plugins o extensiones, que permiten su uso en la mayoría de los sistemas de gestión de contenidos.
Ejemplo de código que incluye algunos datos para poder compartir de forma optimizada en Twitter, Facebook, Google+ y Pinterest. Metadatos en redes sociales
Fuente: Google
Fuente: Google

6.Analítica web aplicada a SEO

Tan importante como aplicar todos los consejos y técnicas SEO tratados en este caso práctico, es medir los resultados que se van obteniendo. Los KPI propuestos para el centro de biomagnetismo son:
1) KPI de posicionamiento en buscadores
a) Ranking en buscadores. Para el análisis de posiciones de palabras clave en distintos buscadores, se usa la herramienta Rank Tracker.
Posiciones de palabras clave
Fuente: Rank Tracker
Fuente: Rank Tracker
b) Número de palabras clave. Para identificar el número de palabras clave, se puede utilizar SEMRush (Análisis de dominio > Analíticas de palabras clave) o Google Search Console (Tráfico de búsqueda > Analítica de búsqueda).
c) Porcentaje de páginas indexadas. Se utiliza el operador booleano «site:sitioweb.com», y se hace la consulta directamente en el buscador o desde Search Console (Índice de Google > Estado de indexación).
d) Enlaces entrantes. Se pueden usar herramientas como Ahrefs, Search Search Console, Bing Webmaster Tools, Majestic, SEMRush, Sistrix, OpenSiteExplorer, OpenLinkProfiler, etc.
2) KPI de tráfico y conversión web
a) Visitas por palabras clave. Desde Google Analytics (Adquisición > Canales), segmentamos por tráfico orgánico y seleccionamos como dimensión secundaria «palabras clave».
Palabras clave desde tráfico web orgánico
Fuente: Google Analytics
Fuente: Google Analytics
b) Tasa de conversión de tráfico orgánico. En Google Analytics, se accede a Conversiones > Objetivos > Visión general y se segmenta de nuevo por tráfico orgánico.
Objetivos de conversión por tráfico orgánico
Fuente: Google Analytics
Fuente: Google Analytics

7.Resumen

En este caso práctico, hemos empezado con una introducción a los conceptos básicos del posicionamiento orgánico en buscadores y al funcionamiento de los motores de búsqueda. Estos últimos son los encargados de mostrar los resultados de las consultas que hacen los usuarios, y que usan sofisticados algoritmos para seleccionar el orden de resultados de cada búsqueda.
La primera fase de la metodología SEO, como guía de nuestra estrategia, es el conocimiento de la empresa y del sitio web para identificar los objetivos del mismo. Una vez identificados los objetivos, se debe hacer un estudio de las palabras clave que resultan más relevantes para el negocio, prestando atención al volumen de búsquedas y al nivel de competencia.
Este estudio nos permitirá establecer una arquitectura de la información óptima para estructurar nuestros contenidos en el futuro. Dichos contenidos únicos deben prepararse cumpliendo con dos objetivos, uno de optimización para los buscadores y otro para atraer al usuario con información útil y de calidad.
Las dos últimas fases del método propuesto son obtener el mayor número posible de referencias externas –es decir, enlaces provenientes de otros sitios web con autoridad en la misma temática– y analizar a través de KPI los resultados de todas las acciones que se vayan acometiendo.
En la segunda parte, se ha presentado un caso ficticio de una empresa que desea detectar por qué su estrategia SEO no está funcionando, y solicita un conjunto de recomendaciones para mejorar los resultados.
En este análisis de mejora, se ha empezado con un análisis de palabras clave, haciendo uso de varias herramientas específicas para dicha tarea, para después profundizar en todos los aspectos prácticos del SEO interno (factores on page) y del SEO externo (factores off page) del sitio web. En la última parte, se han identificado los indicadores de rendimiento para medir todas las acciones llevadas a cabo anteriormente, según los objetivos establecidos.