Qué es robots txt y cómo configurarlo paso a paso (Guía 2025)
El archivo robots.txt es un elemento fundamental en toda estrategia SEO técnica. A través de él, los propietarios de sitios web pueden indicar a los motores de búsqueda qué partes de su web deben o no rastrear. Una correcta configuración permite ahorrar presupuesto de rastreo y proteger secciones privadas o duplicadas.
Qué es el archivo robots.txt
El robots.txt es un archivo de texto ubicado en la raíz de un dominio que comunica a los bots o rastreadores web (como Googlebot) las reglas de acceso a las páginas del sitio.
Su función principal es controlar qué páginas o recursos pueden ser indexados por los motores de búsqueda.
Ejemplo básico de un archivo robots.txt:
User-agent: *
Disallow: /admin/
Allow: /
Sitemap: https://www.tusitio.com/sitemap.xml
Este ejemplo indica que todos los bots pueden rastrear el sitio, excepto la carpeta “/admin/”, y proporciona la URL del sitemap para una indexación más eficiente.
Cómo crear y configurar un archivo robots.txt correctamente
Crear el archivo
Usa cualquier editor de texto (como Notepad, Sublime o VS Code) y guarda el archivo con el nombre exacto robots.txt.
Ubicarlo en la raíz del dominio
Debe estar accesible en la ruta https://www.tusitio.com/robots.txt, ya que los bots lo buscan automáticamente allí.
Configurar reglas de acceso
- User-agent: define el bot al que se aplican las reglas (por ejemplo, Googlebot).
- Disallow: bloquea el acceso a rutas específicas.
- Allow: permite el rastreo en directorios o archivos concretos.
- Sitemap: indica la ubicación del mapa del sitio XML.
Evita errores comunes
- No bloquees recursos esenciales como CSS o JS.
- Asegúrate de no impedir el acceso a páginas que quieras posicionar.
- Comprueba el archivo con la herramienta “Probador de robots.txt” en Google Search Console.
Ejemplo avanzado para WordPress
User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Disallow: /wp-login.php
Sitemap: https://www.tusitio.com/sitemap_index.xml
Este ejemplo es ideal para WordPress, ya que bloquea el acceso a las secciones de administración, permite las funciones necesarias de AJAX y señala el sitemap.
Conclusión
El archivo robots.txt es una herramienta poderosa y sencilla para optimizar la relación entre tu sitio y los motores de búsqueda. Una configuración cuidadosa puede mejorar la indexación, proteger áreas privadas y aumentar la eficiencia del SEO técnico.


