Hoy voy a hacer un breve repaso a las intervenciones más sobre las frecuentes que tengo que hacer en Search Console de Google para arreglar problemas de posicionamiento web de los clientes.
Search console, antes llamado Webmaster Tool, es el panel de mando desde donde el propietario de una web se entera de las problemáticas más importantes y puntos de mejora a realizar de su página web, incluso cuenta con herramientas de analítica exclusivas que no podrías visualizar de otra forma como el índice de visibilidad en los resultados de búsqueda o el rastreo de Google por tu sitio web.
Es por esto que resulta fundamental cuando se lanza un nuevo proyecto web, dar la página de alta Search Console entre las primeras tareas.
De hecho, es posible validar la web, sin necesidad de que sea totalmente pública, y que no se indexe inicialmente el contenido mientras terminas de depurar todas las funcionalidades de la web (como hicimos en el caso de DisfracesBacanal.com) y luego finalmente cambias el robots.txt y permites que Google empiece a rastrear todo el contenido de la página web.
En este artículo de Romuald Fons youtuber especialista en SEO, explica de forma detallada todos los pasos para validar la web y como aprender a utilizar el search console, por lo que yo me voy a centrar en destacar las partes más avanzadas.
También es importante tener en cuenta que hay que crear una nueva propiedad en Search Console de Google cuando se añade la certificación de seguridad y la web se pasa a https, tal y como expliqué en este artículo recientemente. De hecho si tienes varias versiones en diferentes idiomas, bien por subdominios o bien por subcarpetas sería conveniente dar de alta en varias ocasiones la página (una vez por cada idioma), además de todo el dominio en general por otro lado.
El tipo de avisos que vas a recibir procedentes de Search Console pueden ser:
- Penalizaciones manuales por parte del equipo de calidad de Google porque han detectado que se están comprando enlaces o generando de una manera artificial, así como las respuestas a las correspondientes comuicaciones posteriores que puedas tener con ellos.
- Notificaciones de errores como excesivos errores 404, problemas de lecturas del archivo robots.txt o problemas de acesso al servidor por Errores en el hosting o en la aplicación web que provoca errores 500.
- Notificaciones de necesidad de actualizaciones de las aplicaciones web que se utiliza, avisos de hackeo si tu web ha sido comprometida o incluso también de la necesidad de adaptarla a dispositivos móviles si no tuviera una versión para tal propietamente.
- Notificaciones de asignaciones de propiedad, de vinculaciones con cuentas de google analytics o otros productos de google como Youtube o incluso de vinculaciones geográficas para explicar a Google que tu web recibe la mayor parte de tráfico de ciertos países.
Si una vez validada la web por cualquiera de los métodos disponibles apreciamos que aparecen errores es el momento de tomar acción para empezar a solucionarlos. Los errores más habituales que he visto cuando he dado de alta Search Console de Google para los clientes, a posteriori de que ellos ya tuvieran sus páginas web en marcha durante meses o años son.
- Mapa del sitio web. No han creado un mapa del sitio web o tal vez lo han creado pero no lo han enviado. O tal vez está mal creado y estan diciendo a Google que indexe partes de la web como las etiquetas que no haría falta que se indexarán.
- Errores por contenido duplicado. La herramienta de análisis de html permite ver qué páginas están ofreciendo contenido de baja calidad o «thin content» en forma de urls sin títulos, urls con los mismos titulos o metadescripciones, urls con metadescripciones o títulos demasiado cortos que no son distintas. Y así. Cuando se aprecia un problema de contenido duplicado a veces la intervención es manual corrigiendo uno por una las páginas afectas, y otras veces requiere edición masiva del SEO de la web a través de base de datos por ejemplo con grandes tiendas online, o simplemente modificar el archivo robots.txt para que no se indexen aquellas partes que no nos interesan.
- Ausencia de archivo robots.txt. Gran cantidad de veces no lo han creado y google no sabe qué tiene que leer o que no tiene que leer. Otras se han pasado metiéndole mano a este archivo y lo que ocurre es que han impedido el acceso al buscador. Gracias a la herramienta de prueba del robots.txt de Search Console puedes ver qué partes del contenido del robots.txt están mal, es decir, bloquean alguna parte de la web.
- Desactivar parámetros para que no se indexen ciertos contenidos. Aunque se puede hacer desde el archivo robots.txt también suelo aplicar estos cambios en está sección de la web cuando el buscador ha identificado parámetros que le resultan confusos y necesita una explicación más detallada de qué hacer con ellos.
- Ausencia de vinculación de la propiedad de Search Console con Google Analytics. El no vincularlo hace que se estén perdiendo datos muy valiosos para medir la visibilidad de la web, así como el «crawler budget» (también conocido como presupuesto de rastreo) que son las veces que pasa Google por la web y qué páginas rastrea, si hay mucho contenido de poca calidad estamos enviando malas señales a Google, ya que nos interesa que esas páginas no les de tanta relevancia y que sí rastree con más asiduidad aquellas páginas que son más relevantes para nuestro negocio.
- Notificación al equipo de calidad de Google la eliminación de enlaces de baja calidad que se crearon artificialmente para salvar a la web de una penalización manual. Todos los enlaces entratantes que recibe una web se pueden ver en uno de los apartados de Search Console, lo que permite tener conciencia de lo bien que se está haciendo el trabajo o por el contrario de lo mal que se hizó en el pasado o incluso si se sufrió un ataque de «seo negativo» con enlaces de baja calidad apuntando hacia la web.
Bueno, espero que te hayan parecido interesantes estas pequeñas experiencias acerca de cuáles son los puntos más importantes a la hora de controlar Search Console y que le puedas sacar partido. Recuerda seguirme en redes sociales y compartir este artículo.