Guía completa del archivo robotstxt para el SEO onpage

Valorar

El archivo robotstxt es una parte fundamental de cualquier estrategia de SEO onpage. Se trata de un archivo de texto que se coloca en la raíz de un sitio web y que permite controlar qué páginas o secciones deben ser indexadas por los motores de búsqueda. Es una herramienta muy útil para garantizar que el contenido relevante de nuestro sitio web sea rastreado y mostrado en los resultados de búsqueda.

Te presentaremos una guía completa del archivo robotstxt y cómo utilizarlo para optimizar tu estrategia de SEO onpage. Te explicaremos qué es el archivo robotstxt, cómo crearlo y configurarlo correctamente, y qué directivas puedes utilizar para controlar el rastreo de los motores de búsqueda. Además, te daremos algunos consejos prácticos para evitar errores comunes y maximizar el rendimiento de tu archivo robotstxt. Si quieres mejorar el posicionamiento de tu sitio web en los motores de búsqueda, ¡no puedes perderte esta guía!

Índice
  1. El archivo robots.txt es una herramienta importante para el SEO onpage
  2. Permite a los motores de búsqueda saber qué páginas pueden rastrear y cuáles no
  3. Puedes evitar que ciertas páginas se indexen utilizando el archivo robots.txt
  4. Es importante asegurarse de que el archivo robots.txt esté correctamente configurado
  5. Debes incluir una línea "User-agent" seguida del nombre del motor de búsqueda
  6. Utiliza "Disallow" para indicar qué páginas no deseas que se indexen
  7. Puedes utilizar comodines (*) para bloquear ciertos tipos de archivos o directorios
  8. Si tienes múltiples motores de búsqueda, puedes configurar reglas específicas para cada uno
  9. Utiliza la herramienta de prueba de robots.txt de Google para verificar tu archivo
  10. Actualiza regularmente el archivo robots.txt a medida que cambie tu sitio web
  11. Preguntas frecuentes

El archivo robots.txt es una herramienta importante para el SEO onpage

El archivo robots.txt es una herramienta fundamental para el SEO onpage, ya que nos permite controlar cómo los motores de búsqueda rastrean y acceden a nuestro sitio web. Su función principal es indicar a los robots de los motores de búsqueda qué partes de nuestro sitio deseamos que sean indexadas y cuáles no.

Es importante tener en cuenta que el archivo robots.txt no impide que los motores de búsqueda accedan a las páginas o archivos que hemos especificado, sino que simplemente les indica si deben hacerlo o no. Si queremos bloquear completamente el acceso a ciertas partes de nuestro sitio web, deberemos utilizar otras técnicas como la metaetiqueta "noindex" o la restricción de acceso mediante autenticación.

Sintaxis del archivo robots.txt

La sintaxis del archivo robots.txt es bastante sencilla. Básicamente, se compone de una serie de directivas que indican a los robots de los motores de búsqueda qué pueden y qué no pueden rastrear. Cada directiva se compone de dos partes: el agente y la acción.

  • El agente especifica el robot o grupo de robots a los que se aplica la regla. Por ejemplo, podemos utilizar "User-agent: *" para aplicar la regla a todos los robots, o "User-agent: Googlebot" para aplicarla solo al robot de Google.
  • La acción indica qué deben hacer los robots con las URL que cumplen la regla. Por ejemplo, podemos utilizar "Disallow: /admin" para indicar que no pueden acceder a la carpeta "admin", o "Allow: /images" para permitirles acceder a la carpeta "images".

Ejemplos de uso del archivo robots.txt

A continuación, se muestran algunos ejemplos comunes de uso del archivo robots.txt:

  1. Bloquear el acceso a una carpeta específica para todos los robots:
    • User-agent: *
    • Disallow: /carpeta-bloqueada/
  2. Permitir el acceso a una carpeta específica solo para un robot en particular:
    • User-agent: Googlebot
    • Disallow:
  3. Bloquear el acceso a un archivo específico para todos los robots:
    • User-agent: *
    • Disallow: /archivo-bloqueado.html

Es importante tener en cuenta que la configuración del archivo robots.txt puede variar dependiendo del CMS que estemos utilizando. Algunos CMS como WordPress generan automáticamente un archivo robots.txt básico, pero si necesitamos personalizarlo, podemos hacerlo manualmente.

Permite a los motores de búsqueda saber qué páginas pueden rastrear y cuáles no

El archivo robotstxt es una herramienta crucial para el SEO onpage de un sitio web. Es un archivo de texto simple que se coloca en la raíz del dominio y permite a los motores de búsqueda saber qué páginas pueden rastrear y cuáles no.

Con el archivo robotstxt, puedes controlar cómo los motores de búsqueda interactúan con tu sitio web. Puedes indicar qué partes de tu sitio no deben ser rastreadas, como áreas de administración o archivos sensibles, al tiempo que permites el rastreo de otras secciones importantes para el SEO.

¿Cómo funciona el archivo robotstxt?

El archivo robotstxt utiliza un conjunto de directivas para comunicarse con los robots de los motores de búsqueda. Estas directivas indican a los robots qué páginas pueden rastrear y cuáles no.

El archivo robotstxt se encuentra en la raíz del dominio y tiene un nombre específico: "robots.txt". Los motores de búsqueda buscan automáticamente este archivo cuando rastrean un sitio web.

Directivas comunes en el archivo robotstxt

Existen varias directivas que se pueden utilizar en el archivo robotstxt para controlar el rastreo de los motores de búsqueda:

  • User-agent: especifica a qué robot se aplica la directiva. Puede ser "Googlebot" para Google, "Bingbot" para Bing, entre otros.
  • Disallow: indica qué páginas o directorios no deben ser rastreados por el robot.
  • Allow: permite el rastreo de páginas o directorios específicos, incluso si están incluidos en una directiva Disallow general.
  • Sitemap: especifica la ubicación del archivo de sitemap XML para ayudar a los motores de búsqueda a indexar tu sitio de manera más eficiente.

Ejemplo de archivo robotstxt

A continuación, se muestra un ejemplo básico de cómo se vería un archivo robotstxt:

User-agent: *Disallow: /admin/Disallow: /private/Allow: /public/Sitemap: https://www.ejemplo.com/sitemap.xml

En este ejemplo, se le permite a cualquier robot rastrear el directorio "/public/" y se les impide el acceso a los directorios "/admin/" y "/private/". Además, se especifica la ubicación del archivo de sitemap XML.

Es importante tener en cuenta que el archivo robotstxt es una guía y no un bloqueo absoluto. Los robots de los motores de búsqueda pueden optar por ignorar las directivas si así lo desean.

El archivo robotstxt es una herramienta esencial para el SEO onpage de un sitio web. Permite controlar qué páginas pueden ser rastreadas por los motores de búsqueda y cuáles no. Utilizando las directivas adecuadas, puedes optimizar el rastreo de tu sitio y mejorar su visibilidad en los resultados de búsqueda.

Puedes evitar que ciertas páginas se indexen utilizando el archivo robots.txt

El archivo robots.txt es una herramienta clave para el SEO onpage, ya que te permite controlar qué páginas de tu sitio web deben ser indexadas por los motores de búsqueda y cuáles no. Esto es especialmente útil cuando tienes secciones o páginas que no quieres que aparezcan en los resultados de búsqueda.

Para utilizar el archivo robots.txt, simplemente debes crear un archivo de texto llamado "robots.txt" y colocarlo en el directorio raíz de tu sitio web. Los motores de búsqueda buscarán automáticamente este archivo cuando visiten tu sitio web y seguirán las instrucciones que encuentren en él.

Sintaxis básica del archivo robots.txt

El archivo robots.txt utiliza una sintaxis bastante simple. Puedes utilizar los siguientes comandos:

  • User-agent: especifica a qué motor de búsqueda se aplica la siguiente regla. Por ejemplo, "User-agent: Googlebot" se aplica únicamente al motor de búsqueda de Google.
  • Disallow: especifica las páginas o directorios que no deben ser indexados por el motor de búsqueda. Por ejemplo, "Disallow: /admin" evitará que el motor de búsqueda indexe cualquier página dentro del directorio "admin".
  • Allow: especifica las páginas o directorios que deben ser indexados por el motor de búsqueda, incluso si hay una regla de "Disallow" que los excluye. Por ejemplo, "Allow: /images" permitirá que el motor de búsqueda indexe el directorio "images" a pesar de cualquier regla de "Disallow" previa.

A continuación, se muestra un ejemplo básico de cómo se vería el archivo robots.txt:

User-agent: *Disallow: /adminDisallow: /privateUser-agent: GooglebotDisallow: /imagesAllow: /images/public

En este ejemplo, se evita que todas las arañas de los motores de búsqueda indexen las páginas dentro de los directorios "admin" y "private". Sin embargo, se permite que el motor de búsqueda de Google indexe el directorio "images" y su subdirectorio "public" a pesar de cualquier regla de "Disallow" previa.

Errores comunes en el archivo robots.txt

Es importante tener en cuenta que los motores de búsqueda interpretan el archivo robots.txt de forma literal. Por lo tanto, un error en la sintaxis o la colocación incorrecta de una regla puede tener consecuencias no deseadas en el SEO de tu sitio web.

Aquí hay algunos errores comunes que debes evitar:

  1. No colocar el archivo robots.txt en el directorio raíz de tu sitio web. Los motores de búsqueda buscarán automáticamente el archivo en este lugar, por lo que si no está allí, no tendrá ningún efecto.
  2. No utilizar el formato correcto para las reglas. Asegúrate de utilizar los comandos "User-agent", "Disallow" y "Allow" en el formato correcto, con los dos puntos ":" y el espacio adecuado.
  3. No dejar espacios en blanco entre las reglas. Cada regla debe estar separada por una línea en blanco para que los motores de búsqueda puedan interpretar correctamente el archivo.
  4. No utilizar correctamente los caracteres comodín. Puedes utilizar el asterisco (*) como un comodín para representar cualquier conjunto de caracteres, pero debes tener cuidado de no utilizarlo de manera incorrecta y bloquear accidentalmente páginas que deseas que se indexen.

Ten en cuenta estos errores comunes y revisa cuidadosamente tu archivo robots.txt para asegurarte de que esté correctamente configurado y no esté afectando negativamente el SEO de tu sitio web.

Es importante asegurarse de que el archivo robots.txt esté correctamente configurado

El archivo robots.txt es una parte vital de cualquier estrategia de SEO onpage. Es un archivo de texto que se encuentra en el directorio raíz de un sitio web y tiene como objetivo principal comunicarse con los robots de los motores de búsqueda.

La correcta configuración del archivo robots.txt permite controlar qué páginas o secciones del sitio web deben ser rastreadas por los motores de búsqueda y cuáles deben ser ignoradas. Esto es especialmente útil cuando se desea evitar que ciertas páginas aparezcan en los resultados de búsqueda o cuando se quiere evitar el rastreo de secciones sensibles del sitio web.

¿Cómo se estructura el archivo robots.txt?

El archivo robots.txt se estructura utilizando las siguientes etiquetas y directivas:

  • User-agent: Esta directiva indica a qué robots se aplica la siguiente regla. Puede especificarse un robot específico o utilizar el comodín (*) para aplicar la regla a todos los robots.
  • Disallow: Esta directiva indica qué páginas o directorios deben ser excluidos de ser rastreados por los robots. Se especifica la ruta relativa a la raíz del sitio web.
  • Allow: Esta directiva se utiliza para permitir el acceso a páginas o directorios que de otra manera serían excluidos por la directiva Disallow.
  • Sitemap: Esta directiva se utiliza para indicar la ubicación del archivo XML del sitemap del sitio web. Esto facilita a los motores de búsqueda el rastreo e indexación de todas las páginas del sitio.

Ejemplos de uso del archivo robots.txt

A continuación, se presentan algunos ejemplos comunes de cómo utilizar el archivo robots.txt:

  1. Bloquear el acceso a todas las páginas del sitio web a los motores de búsqueda:
    • User-agent: *
    • Disallow: /
  2. Bloquear el acceso a un directorio específico:
    • User-agent: *
    • Disallow: /directorio/
  3. Permitir el acceso a un directorio específico:
    • User-agent: *
    • Disallow:
    • Allow: /directorio/
  4. Indicar la ubicación del archivo sitemap:
    • Sitemap: https://www.ejemplo.com/sitemap.xml

Es importante tener en cuenta que el archivo robots.txt es un archivo público y cualquier persona puede acceder a él. Por lo tanto, no debe incluir información confidencial o que comprometa la seguridad del sitio web.

El archivo robots.txt es una herramienta esencial para el SEO onpage, ya que permite controlar qué páginas son rastreadas por los motores de búsqueda. Su correcta configuración puede mejorar la visibilidad y el rendimiento de un sitio web en los resultados de búsqueda.

Debes incluir una línea "User-agent" seguida del nombre del motor de búsqueda

El archivo robots.txt es esencial para el SEO onpage de un sitio web, ya que permite controlar qué páginas deben ser rastreadas por los motores de búsqueda y cuáles no. Para crear un archivo robots.txt efectivo, es importante seguir ciertas reglas y directrices.

1. Incluir una línea "User-agent" seguida del nombre del motor de búsqueda

Esta línea especifica para qué motor de búsqueda se aplica la siguiente directiva. Es común utilizar el asterisco (*) para indicar todos los motores de búsqueda. Por ejemplo:

User-agent: *

Si solo deseas aplicar una directiva a un motor de búsqueda específico, debes indicar su nombre. Por ejemplo:

User-agent: Googlebot

En este caso, la directiva se aplicará solo al robot de Google.

Utiliza "Disallow" para indicar qué páginas no deseas que se indexen

El archivo robotstxt es una parte esencial del SEO onpage, ya que permite a los propietarios de sitios web controlar qué páginas deben ser rastreadas e indexadas por los motores de búsqueda.

Uno de los usos más comunes del archivo robotstxt es utilizar la etiqueta Disallow para indicar a los motores de búsqueda qué páginas no deben ser indexadas.

Por ejemplo, si deseas que los motores de búsqueda no indexen la página de "contacto" de tu sitio web, puedes agregar la siguiente línea al archivo robotstxt:

User-agent: *Disallow: /contacto

En este caso, el asterisco (*) en la línea "User-agent" indica que se aplica a todos los motores de búsqueda. Y la línea "Disallow" seguida de la ruta "/contacto" indica que no se debe indexar la página de contacto.

Es importante tener en cuenta que la etiqueta Disallow no impide que las páginas sean rastreadas por los motores de búsqueda, solo les indica que no deben ser indexadas. Por lo tanto, es posible que los motores de búsqueda aún rastreen la página de contacto, pero no la mostrarán en los resultados de búsqueda.

Puedes utilizar comodines (*) para bloquear ciertos tipos de archivos o directorios

En el archivo robotstxt, se puede utilizar el comodín (*) para bloquear ciertos tipos de archivos o directorios. Esto es especialmente útil cuando se desea evitar que los motores de búsqueda rastreen y indexen ciertas partes del sitio web.

Por ejemplo, si se quiere bloquear todos los archivos de imagen en un directorio específico, se puede usar la siguiente regla:

User-agent: *

Disallow: /images/*

Con esta regla, se bloquearán todos los archivos de imagen en el directorio "images".

Del mismo modo, si se desea bloquear un directorio completo, se puede utilizar el comodín (*) al final de la ruta del directorio, como se muestra a continuación:

User-agent: *

Disallow: /secret-directory/*

Con esta regla, se bloqueará completamente el acceso al directorio "secret-directory" y a todos sus archivos y subdirectorios.

Si tienes múltiples motores de búsqueda, puedes configurar reglas específicas para cada uno

El archivo robotstxt es una parte fundamental del SEO onpage, ya que permite a los propietarios de sitios web controlar qué páginas deben ser rastreadas por los motores de búsqueda y cuáles deben ser excluidas. Una de las ventajas más importantes de este archivo es que te permite configurar reglas específicas para cada motor de búsqueda.

Configurar reglas para un motor de búsqueda específico

Si tienes múltiples motores de búsqueda rastreando tu sitio web, puedes utilizar el archivo robotstxt para configurar reglas específicas para cada uno. Esto es especialmente útil si quieres que ciertas páginas sean rastreadas por un motor de búsqueda en particular, pero no por los demás.

Para configurar reglas para un motor de búsqueda específico, simplemente debes seguir los siguientes pasos:

  1. Asegúrate de tener el archivo robotstxt en la raíz de tu sitio web.
  2. Abre el archivo robotstxt en tu editor de texto preferido.
  3. Encuentra la sección correspondiente al motor de búsqueda para el cual deseas configurar reglas específicas.
  4. Utiliza las etiquetas User-agent y Disallow para indicar qué páginas deben ser excluidas del rastreo de ese motor de búsqueda en particular.
  5. Guarda los cambios en el archivo robotstxt y sube el archivo a la raíz de tu sitio web.

Es importante tener en cuenta que al configurar reglas específicas para un motor de búsqueda, estás indicando qué páginas deben ser excluidas del rastreo de ese motor en particular. Esto no afectará a otros motores de búsqueda, por lo que debes asegurarte de configurar reglas para cada uno de ellos si es necesario.

El archivo robotstxt te permite configurar reglas específicas para cada motor de búsqueda que rastrea tu sitio web. Esto es útil si deseas controlar qué páginas deben ser rastreadas por cada motor y cuáles deben ser excluidas. Recuerda seguir los pasos mencionados anteriormente para configurar reglas específicas para cada motor de búsqueda que utilices.

Utiliza la herramienta de prueba de robots.txt de Google para verificar tu archivo

El primer paso para asegurarte de que tu archivo robotstxt está configurado correctamente es utilizar la herramienta de prueba de robots.txt de Google. Esta herramienta te permite verificar si hay errores en tu archivo y te muestra cómo se verá para los robots de búsqueda.

Para utilizar esta herramienta, simplemente accede a la herramienta de prueba de robots.txt en la Consola de Búsqueda de Google. Luego, ingresa la URL de tu sitio web y haz clic en "Probar".

La herramienta te mostrará el contenido de tu archivo robotstxt y te indicará si hay algún problema. Si todo está en orden, verás un mensaje que dice "No se encontraron errores en este archivo".

Si encuentras errores en tu archivo robotstxt, deberás corregirlos antes de implementarlo en tu sitio web. Asegúrate de revisar detenidamente el código y de seguir las directrices de Google para crear un archivo robotstxt válido.

Recuerda que una vez que hayas hecho cambios en tu archivo robotstxt, debes volver a probarlo utilizando la herramienta de prueba de robots.txt para asegurarte de que todo esté configurado correctamente.

Actualiza regularmente el archivo robots.txt a medida que cambie tu sitio web

El archivo robots.txt es una parte fundamental de la optimización SEO onpage de un sitio web. Este archivo permite a los motores de búsqueda conocer qué partes del sitio web pueden ser rastreadas y cuáles deben ser excluidas de los resultados de búsqueda.

Es importante tener en cuenta que el archivo robots.txt es un archivo de texto sin formato específico y debe ser colocado en el directorio raíz del sitio web. Además, es crucial actualizar regularmente este archivo a medida que se realicen cambios en la estructura y contenido del sitio web.

¿Cómo actualizar el archivo robots.txt?

Para actualizar el archivo robots.txt, simplemente debes abrirlo con un editor de texto y realizar los cambios necesarios. A continuación, te mostramos algunos casos comunes en los que debes actualizar el archivo:

  1. Agregar nuevas páginas: Si has añadido nuevas páginas a tu sitio web y deseas que sean rastreadas por los motores de búsqueda, debes incluir las URL de estas páginas en el archivo robots.txt.
  2. Excluir páginas: Si hay páginas específicas que no quieres que sean indexadas por los motores de búsqueda, debes agregar las URL de estas páginas al archivo robots.txt.
  3. Cambiar la estructura del sitio web: Si has realizado cambios en la estructura de tu sitio web, como cambiar la ubicación de las páginas o modificar la estructura de las URL, debes actualizar el archivo robots.txt para reflejar estos cambios.

Es importante tener en cuenta que los cambios realizados en el archivo robots.txt pueden tardar algún tiempo en ser reconocidos por los motores de búsqueda. Por lo tanto, es recomendable utilizar herramientas como Google Search Console para verificar si los cambios se han implementado correctamente.

Consideraciones adicionales

Aquí hay algunas consideraciones adicionales a tener en cuenta al actualizar el archivo robots.txt:

Entradas relacionadas
Guía: Utiliza la analítica web para medir el rendimiento de tu sitio

En el mundo digital actual, tener presencia en línea es fundamental para cualquier empresa o proyecto. Sin embargo, no basta Leer más

La importancia del calendario editorial en tu estrategia de contenido

En el mundo del marketing de contenidos, una estrategia bien planificada y organizada es fundamental para lograr resultados efectivos. Una Leer más

10 estrategias de marketing digital para aumentar las ventas en tu ecommerce

El marketing digital se ha convertido en una herramienta fundamental para las empresas que desean aumentar sus ventas y llegar Leer más

Guía completa sobre el uso del análisis de datos en el desarrollo web

En la actualidad, el análisis de datos se ha convertido en una herramienta fundamental para el desarrollo web. A través Leer más

  • Sintaxis correcta: Asegúrate de utilizar la sintaxis correcta al agregar las reglas en el archivo robots.txt. Cada regla debe seguir el formato "User-agent: [nombre del agente de usuario] Disallow: [directorio o archivo a excluir]".
  • Comentarios: Puedes agregar comentarios en el archivo robots.txt utilizando el símbolo "#" al comienzo de la línea. Esto puede ser útil para hacer anotaciones y aclaraciones.
  • Evitar bloquear archivos importantes: Asegúrate de no bloquear archivos importantes como archivos CSS, JavaScript o imágenes, ya que esto podría afectar negativamente la experiencia del usuario y el rendimiento del sitio web.

Mantener el archivo robots.txt actualizado es esencial para garantizar una correcta indexación de tu sitio web por parte de los motores de búsqueda. Al seguir estas pautas y consideraciones, podrás optimizar aún más tu estrategia de SEO onpage y mejorar la visibilidad de tu sitio web en los resultados de búsqueda.

Preguntas frecuentes

¿Qué es el archivo robots.txt y para qué se utiliza? El archivo robots.txt es un archivo de texto utilizado por los motores de búsqueda para determinar qué páginas o secciones de un sitio web deben ser rastreadas y indexadas. Se utiliza para controlar el acceso de los robots de búsqueda a determinadas partes del sitio web.

¿Cómo se crea un archivo robots.txt? Para crear un archivo robots.txt, simplemente debes abrir un editor de texto y escribir las directivas necesarias, como los User-Agent (los robots de búsqueda a los que se aplicarán las reglas) y las directivas de Disallow (las páginas o secciones que no quieres que sean rastreadas).

¿Dónde se debe colocar el archivo robots.txt en un sitio web? El archivo robots.txt debe colocarse en la raíz del sitio web, es decir, en el mismo directorio donde se encuentran los archivos HTML y otros archivos principales del sitio. Los motores de búsqueda buscarán automáticamente este archivo en la raíz del dominio.

¿Qué pasa si no se tiene un archivo robots.txt en el sitio web? Si no se tiene un archivo robots.txt en el sitio web, los motores de búsqueda asumirán que tienen acceso completo al rastreo e indexación de todas las páginas y secciones del sitio. Esto puede no ser deseable si hay partes del sitio que no se deben indexar o si se quiere limitar el acceso de los robots de búsqueda a ciertos archivos o carpetas.

¿Qué directivas se pueden utilizar en un archivo robots.txt? Algunas de las directivas más comunes que se pueden utilizar en un archivo robots.txt son:
- User-Agent: especifica a qué robots de búsqueda se aplicarán las reglas.
- Disallow: indica qué páginas o secciones no deben ser rastreadas.
- Allow: permite a los robots de búsqueda acceder a una página o sección específica, incluso si está dentro de una sección deshabilitada por Disallow.
- Sitemap: especifica la ubicación del archivo XML del mapa del sitio.

Perfil del autor

Luis Crespo
Luis Crespo
Luis Crespo es un experimentado desarrollador web especializado en comercio electrónico. Ingeniero en Informática por la UNC y con un posgrado en Marketing Digital de la UCEMA, Luis cuenta con más de 15 años de experiencia en el diseño, programación y posicionamiento de sitios de e-commerce de alto rendimiento.

Originario de la provincia de Córdoba, Luis demostró sólida inclinación por la creación de experiencias de compra digitales desde sus años de estudio. Tras graduarse, realizó una especialización en strategia y métricas para negocios online.

En su extensa trayectoria profesional, ha desarrollado más de 100 tiendas virtuales optimizadas para una alta conversión, desde el diseño UX centrado en el usuario hasta la integración con pasarelas de pago y logistica del envío.

Comprometido con impulsar el crecimiento online de sus clientes, Luis Crespo continúa actualizándose en las últimas novedades tecnológicas para crear y potenciar sitios de comercio electrónico altamente competitivos.

Si quieres conocer otros artículos parecidos a Guía completa del archivo robotstxt para el SEO onpage puedes visitar la categoría Desarrollo de páginas web.

Artículos relacionados

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir

Usamos cookies para garantizar que le ofrecemos la mejor experiencia en nuestro sitio web. Si sigue navegando en este, asumiremos que está conforme con su uso. Más información