La guía determinante para mejorar WordPress Robots.txt

[ad_1]

En el momento en que crea un blog o cibersitio en WordPress, se crea de manera automática un fichero robots.txt para todas sus páginas de destino y publicaciones. Este es un aspecto esencial del SEO de su página web, en tanto que los buscadores lo usan al seguir el contenido de su cibersitio.

Si quiere llevar el SEO de su cibersitio al próximo escenario, mejorar el fichero robots.txt en su lugar de WordPress es esencial, pero lamentablemente no es tan simple como añadir keywords a su contenido. Por esa razón elaboramos esta guía de robots.txt de WordPress a fin de que logre perfeccionarla y prosperar su clasificación de búsqueda.

📑 Aquí podrás encontrar 👇

¿Qué es un fichero Robots.txt?

Al poner websites en las páginas de desenlaces de los buscadores (SERP), los buscadores como Google plus "rastrean" las páginas del cibersitio y examinan su contenido. El fichero robots.txt de cada portal web le afirma a los "bots" del rastreador qué páginas tienen que seguir y cuáles no, fundamentalmente una manera de Automatización Robótica de Procesos (RPA).

Puede ver el fichero robots.txt de cualquier página web escribiendo /robots.txt tras el nombre de dominio. Se va a ver algo como esto:

Archivo robots.txt

Evaluemos todos los elementos de la imagen de arriba.

Agente de usuario

El agente de usuario en un fichero robots.txt es el motor de búsqueda a través de el que se va a leer el fichero robots.txt. En el ejemplo previo, el agente de usuario está marcado con un asterisco, esto es, se aplica a todos y cada uno de los buscadores.

La mayor parte de los websites están contentos de que todos y cada uno de los buscadores rastreen su página web, pero en ocasiones posiblemente quiera denegar todos y cada uno de los buscadores, salvo Google plus, a fin de que no rastreen su portal web, o proveer normas concretas sobre de qué forma seguir su cibersitio mediante buscadores web como Google plus News o Google plus Images.

En un caso así, debe saber el ID de agente de usuario de los buscadores que quiere educar. O sea bastante simple de hallar online, pero estos son varios de los mucho más esenciales:

  • Google plus: robot de Google plus
  • Google plus News: Googlebot News
  • Imágenes de Google plus: imagen del robot de Google plus
  • Google plus Vídeo: vídeo de Googlebot
  • Bing: Bingbot
  • Yahoo: robot para sorber

Aceptar y no aceptar

En los ficheros robots.txt, aceptar y no dejar que los bots señalen qué páginas y contenido tienen la posibilidad de y no tienen la posibilidad de seguir. Como se mentó previamente, si quiere eludir que todos y cada uno de los buscadores web, salvo Google plus, rastreen su cibersitio, puede emplear el próximo fichero robots.txt:

Permitir / prohibir Robots.txt

La barra (/) tras "No aceptar" y "Aceptar" le afirma al bot que puede o no seguir todas y cada una de las páginas. Asimismo puede poner algunas páginas entre barras para aceptar o prohibir que el bot las rastree.

Índice de la página

El "mapa del lugar" en un fichero robots.txt es un fichero XML que tiene dentro una lista y datos de todas y cada una de las páginas de su cibersitio. Se semeja a esto:

Agregar archivo de mapa del sitio-robots.txt

El mapa del lugar tiene dentro todos y cada uno de los websites que el bot debería conocer. El mapa del lugar es especialmente útil si tiene webs que quiere que aparezcan en los resultados de la búsqueda, pero que no son páginas de destino habituales, como publicaciones de blog.

Los mapas del ubicación son en especial esenciales para los individuos de WordPress que procuran revitalizar su página web con publicaciones de blog y páginas de categorías. Posiblemente varios de estos no aparezcan en las SERP si no tienen su mapa del lugar robots.txt.

Estos son los puntos centrales de un fichero robots.txt. No obstante, debe tenerse presente que su fichero robots.txt no es una manera segura de eludir que los robots de los buscadores rastreen algunas páginas. Por servirnos de un ejemplo, si otro cibersitio emplea artículo de anclaje para vincular a una página que usted ha "rechazado" en su fichero robots.txt, los robots de los buscadores aún tienen la posibilidad de seguir esa página.

¿Precisa un fichero Robots.txt en WordPress?

Si tiene un portal de internet o un blog con WordPress, ahora tiene un fichero robots.txt generado de manera automática. Aquí existen algunas causas por las que es esencial tomar en consideración su fichero robots.txt al asegurarse de tener un ubicación de WordPress coincidente con SEO.

Puede mejorar su presupuesto de rastreo

Un presupuesto de rastreo, o cuota de rastreo, es la proporción de páginas que los robots de los buscadores rastrean en su cibersitio en un día preciso. Si no posee un fichero robots.txt mejorado, posiblemente esté desaprovechando su presupuesto de rastreo y eludiendo que los bots rastreen las páginas de su portal web que quiere que aparezcan primero en las SERP.

Idealmente, si vende modelos o servicios por medio de su ubicación de WordPress, quiere que los robots rastreadores prioricen las páginas con la mejor conversión de ventas.

Puede priorizar sus páginas de destino esenciales

Al mejorar su fichero robots.txt, puede cerciorarse de que las páginas de destino que deberían mostrarse primero en las SERP sean simples y veloces de hallar para los robots rastreadores. Dividir el índice de su ubicación en un índice de 'Páginas' y 'Publicaciones' es especialmente útil para ello, puesto que puede cerciorarse de que las publicaciones de blog aparezcan en las SERP y no solo en sus páginas de destino estándar.

Por poner un ejemplo, si su portal web tiene muchas páginas y los datos de sus clientes del servicio detallan que las publicaciones de su blog están provocando muchas compras, puede utilizar mapas del ubicación en su fichero robots.txt para cerciorarse de que las publicaciones de su blog aparezcan en las SERP.

Puede prosperar la calidad SEO general de su página web

Los expertos en marketing son conscientes del enorme roi de la optimización de buscadores. Impulsar la búsqueda orgánica en su cibersitio al centrarse en el SEO es mucho más económico y, de manera frecuente, mucho más eficiente que los avisos pagados y los links de afiliados, si bien los dos prosiguen siendo útiles. Consulte estas estadísticas de ROI del canal de marketing.

ROI del canal de marketing

Mejorar su fichero robots.txt no es la única forma de prosperar el top de búsqueda de su portal web o blog. Aún precisa contenido coincidente con SEO en las propias páginas, para lo que puede requerir un distribuidor de SEO SaaS. No obstante, usted mismo puede modificar de manera fácil su fichero robots.txt.

De qué forma modificar un fichero Robots.txt en WordPress

Si quiere modificar su fichero robots.txt en WordPress, hay múltiples maneras de llevarlo a cabo. La mejor y mucho más simple forma es añadir un complemento a su sistema de administración de contenido: su panel de WordPress.

Añada un complemento de SEO a su WordPress

Esta es la manera mucho más fácil de modificar su fichero robots.txt de WordPress. Existen muchos buenos complementos de SEO que puede usar para modificar el fichero robots.txt. Varios de los mucho más populares son Yoast, Rank Math y All In One SEO.

Añada un complemento Robots.txt a su WordPress

Asimismo hay complementos de WordPress singularmente diseñados a través de la edición de su fichero robots.txt. Los complementos populares de robots.txt son Virtual Robots.txt, WordPress Robots.txt Optimization y Robots.txt Editor.

De qué forma evaluar su fichero WordPress Robots.txt

En el momento en que haya editado su fichero robots.txt, es esencial que lo pruebe para cerciorarse de que no ha cometido ningún fallo. Los fallos en su fichero robots.txt tienen la posibilidad de lograr que su página web quede totalmente excluido de las SERP.

Google plus Dueño de un sitio tiene una herramienta de prueba de robots.txt que puede emplear para evaluar su fichero de manera gratuita. Para utilizarlo, sencillamente añada la dirección de Internet de su página de comienzo. Se mostrará el fichero robots.txt y va a ver "Observación de sintaxis" y "Fallo lógico" en todas y cada una de las líneas del fichero que no marchan.

Herramienta de prueba Google Webmaster Robots.txt

Entonces, puede proceder a una página concreta de su página web y elegir un agente de usuario para realizar una prueba que muestre si esa página está "admitida" o "denegada". Puede modificar su fichero robots.txt en la herramienta de prueba y realizar la prueba de nuevo si es requisito. No obstante, tenga presente que esto no cambia su fichero real. Debe copiar y pegar la información editada en su editor de robots.txt y guardarla allí.

De qué forma mejorar su fichero WordPress Robots.txt para SEO

La manera mucho más simple de mejorar su fichero robots.txt es escoger qué páginas no quiere aceptar. En WordPress hay páginas habituales que no puedes aceptar / wp-admin /, / wp-content / plugins /, /readme.html, / trace /.

Por poner un ejemplo, un distribuidor de marketing SaaS tiene muchas páginas y publicaciones distintas en su lugar de WordPress. Bloqueando páginas como / wp-admin / y / wp-content / plugins /, tienen la posibilidad de cerciorarse de que los robots rastreadores prioricen las páginas que valoran.

Cree mapas de lugar y agréguelos a su fichero Robots.txt

WordPress crea su mapa del ubicación genérico en el momento en que lo emplea para hacer un blog o portal web. En la mayoría de los casos, puede conseguir esto en example.wordpress.com/sitemap.xml. Si quiere ajustar su mapa del ubicación y hacer mapas del ubicación auxiliares, considere utilizar un fichero robots.txt o un complemento de WordPress para SEO.

Puede entrar a su complemento desde su panel de WordPress y debe tener una sección para activar y modificar su mapa del ubicación. Con buenos complementos, puede hacer y ajustar de manera fácil mapas de ubicación auxiliares, p. Ej. B. un mapa del ubicación para "Páginas" y "Publicaciones".

Con los mapas de su ubicación configurados, sencillamente agréguelos a su fichero robots.txt de la próxima forma:

Agregar mapa del sitio Robots.txt

Adopta un enfoque minimalista

Más allá de que cambiar y cambiar su fichero robots.txt de WordPress puede ser enternecedora, es esencial adoptar un enfoque minimalista donde menos es mucho más. Esto se origina por que si no deja páginas en su página web, evitará que los robots rastreadores rastreen esas páginas en pos de otras páginas. Esto puede representar que las páginas esenciales pasan inadvertidas y la integridad estructural de su cibersitio se desgasta desde la perspectiva de los robots de los buscadores web.

Tampoco es requisito "aceptar" el ingreso a todas y cada una de las páginas de su cibersitio en el fichero robots.txt. Los robots rastreadores ahora reconocen estas páginas; en su sitio, céntrese en sus mapas del lugar y las páginas que no requiere aceptar a fin de que las páginas mucho más esenciales se hallen primero.


En esta guía, le damos todo cuanto precisa entender sobre los ficheros robots.txt de WordPress. Desde argumentar qué son los ficheros robots.txt hasta por qué razón y de qué forma debe mejorar su fichero robots.txt para SEO, si quiere formas simples y funcionales de conseguir formas simples y funcionales de buscar su página web de WordPress, este producto lo va a ayudar a progresar.

[ad_2]

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir