Manuales

Sitemap y robots.txt para mejorar tu web

Crear los archivos sitemap.xml y robots.txt

.....es un proceso relativamente sencillo pero es muy importante para ayudar a posicionar de manera orgánica tu página web. 

 

¿Qué es un sitemap y para qué sirve?

 
Un Sitemap o mapa del sitio Web, es un listado de URL's que contiene todas las páginas internas de una sitio Web que quieres que sean indexadas, es decir un indice de na web que es diseñado para ofrecer mayor información a los buscadores como Google.
 

¿Qué son los archivos robots txt?

 
Un archivo robotstxt indica a los robots de Google qué páginas de tu sitio se deben agregar a su buscador y cuáles no, los motores de búsqueda más importantes como Google, Yahoo y Bing sí que se ajustan a las normas del protocolo “robots.txt“.
 
Pues bien, después de terminar de crear tu sitio web el primer paso es configurar un archivo sitemap y un archivo robots.txt. Sin estos dos pasos esenciales, será más complicado posicionar tu sitio en buscadores.
 

CÓMO DECIRLE A GOOGLE QUE EXISTES?

Google, y también el resto de motores de búsqueda, ofrecen sus resultados a los usuarios basándose en sus labores de rastreo e indexación.

Los robots rastrean la red en búsqueda de las páginas web que existen. Una vez localizadas, analizan su contenido y lo clasifican según su relevancia. Cuando un motor de búsqueda llega a tu página web añade tus contenidos a su índice de resultados.

En función de diferentes factores, Google asigna una posición en el listado de resultados que muestra a los usuarios. Dos de estos factores son los archivos sitemap y robots.txt.

Para tener un mayor control sobre lo que indexa Google de tu sitio es ideal utilizar Search Console

 

¿CÓMO SE CREA UN SITEMAP?

No es un archivo obligatorio pero si es muy recomendable para lograr un buen posicionamiento orgánico de tu página.

No es necesario aprender un lenguaje de programación para crear un archivo sitemap.xml, existen múltiples herramientas que ayudan a rastrear todas las ligas de tu sitio y crear un archivo sitemap de manera automática, si utilizan Wordpress un plugin como Yoast puede facilitar el trabajo, pero también existe una herramienta en línea que genera el sitemap xml-sitemaps.com

El paso final es comunicar a Google que ya tienes tu sitemap.xml. Para ello, tienes que entrar en Google Search Console, acceder al apartado Sitemaps y añadirlo.

 

Ejemplo de un robots.txt

User-agent: *
Disallow: /wp-admin/
Disallow: /administrator/
allow: /templates
allow: /images
Sitemap: /sitemap.xml
 
 

El archivo robots.txt es un fichero de texto que ayuda a mejorar el rastreo de tu página web. Principalmente, se usa para indicar a los motores de búsqueda qué páginas no deseas que se visiten en busca de novedades.

Generador automático de Robots.txt robotstxt.pro

Una vez creado el archivo robots.txt, tendrás que subirlo a la raíz de tu dominio. Con Google Search Console podrás comprobar que se ha generado bien y que no contiene ningún error.

Estos archivos te servirán, entre otras cosas, para detectar errores de rastreo, para saber si las páginas de tu sitio están siendo indexadas y para conocer qué páginas son más lentas. En definitiva, podrás tener mayor control de tu sitio y estarás ayudando a mejorar su posicionamiento.

imagenes gratis banner hosting.jpg

 

 
 




¿Fue útil la respuesta?

Artículos Relacionados

TinypngEs imprescindible optimizar imagenes para que la velocidad de la pagina web sea la...

Que tipo de letra usar para una pagina Web 13 Marzo, 2020 Por Gustavo Ramos. La tipografía...

Menú Digital para tu Restaurante   En esta época de pandemia restaurantes, bares y negocios...

¿Cómo hacer un test de velocidad a mi Página Web? Hoy el día el principal medio que utilizan los...

Test de Velocidad para paginas Web La velocidad de una página web es importante para los...