Solución al error “Destinos que no funcionan” en Google Adwords

Seguro te ha pasado que después de configurar tus campañas de Google Adwords (o Google Ads) y someter los anuncios a revisión para que la plataforma de Google autorice tu campaña nos muestra el siguiente error “Destinos que no funcionan” o “Anomalía en el rastreo”, sin embargo, tu estas seguro que la página destino funciona de manera correcta.

En la documentación de Google se hace mención que las causas pueden ser varias, como errores en las DNS, problemas en la respuesta del servidor o quizá que exista algún problema con los redireccionamientos de los dominios. Sin embargo, la mayoría de las veces el problema se encuentra en la programación del archivo robots.txt.

¿Qué es el archivo robots.txt?

El archivo robots.txt es un documento que otorga permisos a todos los robots o bots que indexarán el sitio web, en el caso de Google, existe casi una decena de ellos, lo que se traduce en que deberás darle permiso a todos para que tu sitio sea fácilmente indexado.

Por lo que muchos optan por usar un archivo robots.txt genérico:

User-Agent: *
Disallow:
Sitemap:

Si bien, es la forma más simple de hacer un robots.txt no siempre es la más óptimas ya que podría dársele permiso a robots no deseados. En un siguiente post mencionaré los robots que debes darle permisos para indexar correctamente tu sitio web. Sin embargo, hoy solo enfoquémonos en los robots de Google. Como son:

  • Googlebot
  • Feedfetcher
  • Gooblebot News
  • Googlebot images
  • Googlebot Videos
  • Googlebot mobile
  • Google Adsense
  • Google Adsbot

Cómo lograr la autorización de tus anuncios de Google con el error “Destinos no funcionan”

Cuando creas tu archivo robots.txt es importante darle al buscador acceso correcto a todo tu sitio web, sin embargo, cuando los sitios web están almacenados en webhosting o servidores con tiempos de respuesta largo puede causar que cuando el robot de Google intente analizar el sitio simplemente sea marcado con un error indicando “Destinos que no funciona” o “Anomalías en el rastreo”.

La forma de solucionarlo es simple. Solo hay que añadir en el archivo robots.txt la siguiente línea: crawl-delay: 10

Para quedar de la siguiente forma:

User-Agent: *
Disallow:
crawl-delay: 10
Sitemap: (Aquí va la URL de tu Sitemap)

¿Qué es el Crawl-delay?

Cuando un robot empieza a rastrear tu sitio puede generar demasiadas solicitudes al mismo en un período muy corto de tiempo. Lo que se traduce en que apenas unos segundos todos tus los recursos de tu servidor se van a agotar. Por ese motivo es recomendable establecer la sentencia crawl-delay con la finalidad de limitar el tiempo (en segundos) en que los robots deberán indexar tu sitio.

Si bien, Google en su documentación menciona que está política la ignora, ya en varios sitios nos ha pasado que solo añadiendo la línea mencionada los anuncios son autorizados.

¡Dejános un comentario!

Quobit

Quobit Autor

Somos Bit a Bit, llevamos los últimos consejos de tecnología hasta tu smartphone.

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.