Hola, hola DinoRANKers! 🦖💥
Gracias por vuestra participación, motiva a seguir publicando… 😉
¿Preparados para la solución del Reto 4? (ya sabéis que en SEO no hay nada 100% correcto, siempre hay matices…)
Vamos a ello:
🚨 ¿Bloquear todas las URLs con parámetros en el archivo robots.txt es la mejor
opción para evitar problemas de indexación?
❌ FALSOOOO
Y aquí viene la chicha... os explico por qué:
🔍 Primero, los parámetros NO son el enemigo.
Muchos sitios (sobre todo ecommerces y webs con mucho contenido) los necesitan para
cosas como:
🛍 Filtrar u ordenar productos → ?color=azul, ?orden=precio
📊 Seguimiento de campañas → ?utm_source=instagram
📄 Paginación → ?pagina=2
🌍 Selección de idioma → ?lang=es
Imagina bloquear todo eso de golpe en robots.txt! Google no podría rastrear esas variaciones... ni indexarlas bien... ni pasarles autoridad si reciben enlaces…
⚠ El robots.txt solo bloquea el rastreo, NO la indexación.
Esto significa que si una URL con parámetros está bloqueada en robots.txt pero Google la
ha encontrado por otro lado (por ejemplo, por un enlace externo), puede seguir
mostrándola en los resultados... sin haberla entendido ni procesado correctamente!😢
Así que en vez de ayudar, puedes estar generando caos.
✅ Genial…Qué hacemos entonces??
Podemos hacer uso de:
Etiqueta canonical → Si el contenido con parámetros es muy similar o idéntico a
la versión principal, usa rel=canonical apuntando a esa URL "base".
🚫 Metaetiqueta noindex → Úsala si tienes páginas con parámetros que no
aportan valor y no quieres que se indexen.
No enlaces internamente las URLs con parámetros, nos interesa que google indexe las URLs limpias.
Bloquear todo en robots.txt es una solución demasiado radical y arriesgada.
Mejor entender para qué sirve cada parámetro, y aplicar soluciones más precisas:
canonical, noindex…
Os invito a que veáis los comentarios del reto 4 si no lo habéis hecho ya…os prometo que le daréis vueltas al coco con lo que se ha comentado.
Nos vemos en el siguiente reto! 🚀💪