Es el tiempo (medido en milisegundos) que Google deja disponible para rastrear todas las páginas de tu sitio web.
Mientras más relevancia tiene un sitio, en términos de tráfico orgánico, más grande será ese lapso de tiempo.
¿Cómo se puede optimizar el crawl budget?
Haciendo que sea fácil navegar por la web.
El bot debe ser capaz de recorrer tu sitio web entero en el menor tiempo posible.
¿Cuál es el parámetro que se optimiza para lograr esto?
El Crawl Depth.
Este se define como la «distancia» a la que se encuentra una url desde el home.
¿Cómo se mide el crawl deepth?
En clics.
El crawl depth es el número de clics que debe realizar un usuario para llegar a una determinada url.
Google bot hace el mismo recorrido que un usuario haría a través de tu web.
¿Cómo se relaciona el crawl depth con el site map?
En nada.
Después de la actualización de los core web vitals (incluso antes) lo más relevante para Google es la experiencia de usuario.
Así que el crawl deepth se ha vuelto más importante que nunca.
¿Cómo se optimiza el crawl depth?
Reduciendo el número de clics necesarios para llegar desde la home hasta cualquier url dentro de tu sitio web.
¿Dónde se presenta el mayor problema con este parámetro?
El crawl deepth se ve deteriorado en las paginaciones de los blogs
Sise tienen 10 paginaciones, entonces google bot necesita hacer 10 «clics» para llegar hasta esos contenidos en la paginación 10.
Esto puede hacer que google desindexe esos contenidos al no poder alcanzarlos porque se consumió el crawl budget antes de llegar a ellos.
¿Cómo se puede resolver este problema?
Creando clusters de navegación que distribuyan bien el link juice y el crawl deepth
Si esto se combina con keyword clustering los resultados pueden ser más explosivos aún.
Publicaciones Relacionadas: