¿Os gustó la primera parte? Si aún no la leíste y te apetece leer los primeros 5 factores clave del SEO On-Page, puedes acceder a través de este enlace: SEO On-Page (parte 1)

Llegados a este momento, seguro que estás interesado en saber los otros 6 factores que te ayudarán a escalar posiciones en el posicionamiento orgánico de tu página web. ¡Comencemos!

6. Optimización de imágenes

Google ni cualquier buscador son capaces de leer imágenes.

De este modo, lo que se añade es texto alternativo a las imágenes (Alt text) para facilitar el trabajo de lectura de Google. Este texto alternativo se tiene que incluir en todas las imágenes y al menos debe de contener 8 palabras en el que se incluya la palabra clave.

7.Contenidos Multimedia

Cuanta más información complementaria demos a nuestros usuarios sobre un producto, servicio… más “caso” nos hará Google. Por tanto, utilizar otro tipo de contenido como audios, videos, infografías… nos hará aumentar nuestras posiciones en los buscadores.

Optimización SEO on page

8. Enlaces internos y enlaces salientes

Los enlaces internos son muy importantes de cara al SEO On-Page de nuestra web. Con cada enlace interno estaremos pasando autoridad a las páginas que enlacemos. Por lo menos cada página de la web debe tener al menos un enlace interno hacia otra. Además, de esta forma estaremos guiando a los bots y facilitando la navegación por la web.

Los enlaces salientes son aquellos en los que Google valora positivamente cuando realizamos marketing de contenidos en nuestro blog. Si añadimos 1 o 2 enlaces salientes a otras páginas que puedan ampliar la información que ofrecemos en el contenido Google lo premia. ¡Ojo! No es lo mismo enlaces salientes que backlinks. Estos sí que son importantes para conseguir un posicionamiento orgánico, pero no son parte del SEO On-Page sino que se considera SEO Off-Page (ya hablaremos de este tema más adelante).

9. Velocidad de carga de la página

Otro de los factores que influyen en el SEO interno es la velocidad de carga de las páginas. Cuando una web tarda en cargar genera rechazo por parte del usuario, que lo único que querrá es irse de nuestra página y acceder a otra que tarde poco tiempo en cargar. A nadie le gusta esperar y Google lo sabe, lo detecta y además lo toma como una señal de que nuestra web no es tan buena como para estar en las primeras posiciones del SERP (páginas de resultados de búsqueda) de Google.

Por tanto, es imprescindible que cuidemos la optimización del código y la calidad de las imágenes, para crear una buena experiencia de usuario, que al final es lo que importa.

Aquí os dejo alguna página web, en la cual podéis ver la velocidad de carga de vuestra web: PageSpeed Insights y Pindgom Tools.

10. Enlaces rotos y Errores 404

Para los que no estén familiarizados con estos términos, lo resumiré de la forma más sencilla. Los enlaces rotos son aquellos enlaces que van a una página que no existe y pueden causar problemas con la usabilidad y el SEO. Una vez hacemos clic en esos enlaces dan lugar a los denominados errores 404. El navegador mostrará algo similar a esto:  “ERROR 404, la página solicitada no existe”.

No es penalizable pero sí que es negativo para el posicionamiento orgánico en buscadores y también para el usuario, por lo que, se hace imprescindible eliminar estos errores y redirigirlos a páginas que sí existan y de contenido similar al anterior.

Con el uso de herramientas como Google Search Console, Broken link... podemos detectar errores 404 de nuestra página web y así poder corregirlos una vez detectados.

11. Sitemap.xml y Robots.txt

Estos son dos archivos que son necesarios para mejorar el SEO on page si queremos que Google indexe correctamente nuestras páginas.

Sitemap.xml

Es un archivo XML que indica a los buscadores que pueden rastrear nuestras URLs para después mostrarlas.

Mediante este archivo podemos decirle que páginas queremos que indexe y que sea casi instantáneo.

El problema viene cuando no queremos que Google indexe cierto contenido de nuestra página web. Para esto está lo que llamamos archivo robots.txt.

Robots.txt

Este archivo le va a indicar a Google justo lo contrario, qué archivos o páginas no queremos que vea. Es importante transmitirle a Google que páginas queremos que no pierda el tiempo rastreándolas de cara a mejorar el SEO on page. Es decir, con el archivo robots.txt le podemos decir a Google que no indexe alguna URL de nuestra página web, prohibirle la indexación de un directorio o sub-directorio o incluso prohibirle la indexación de toda tu página web (que dudo que quieras hacer esto)... Por ejemplo: Páginas del carrito de compra, archivos internos…

Para ello es mejor que Google analice nuestra web y lo haga al 100% con páginas productivas.

robots.txt

Ahora bien, si que es cierto que existen más factores a la hora de mejorar el SEO interno de tu web, pero estos son los principales y con los que deberías de empezar a desarrollar tu estrategia SEO On-Page si quieres empezar a estar en los primeros resultados de Google. Y no olvides que una vez estructurada tu página web, debes de analizarla para poder conseguir mejores resultados en el futuro:

  • Analizar a tu competencia si está mejor posicionada que tú.
  • Evitar contenido duplicado.
  • Cuidado los errores 404, debes revisarlos y solucionar los problemas. "Scremingfrog" es una herramienta gratuita que te proporciona esta información.
  • Indexar las páginas de tu web, sobre todo las más importantes.

¿Te ha parecido interesante?

Si quieres compartir algo con nosotros, quieres saber más o tienes alguna duda, no dudes en contactar con nosotros. 

Para estar atento a nuevas publicaciones, ayudas o subvenciones... Hemos creado perfiles en Facebook Linkedin. ¡Síguenos!