¿Cómo desindexar o eliminar una URL de Google?

Facebook
Google+
Twitter
LinkedIn
WhatsApp
Email

En numerosas ocasiones, los webmasters de un sitio web se obsesionan con indexar el máximo número de URLs en Google. La creencia que el número por delante de la calidad ha llevado a intentar indexar cuánto más mejor.

Sin embargo, en numerosas ocasiones, es preciso que te centres en indexar aquellas URLs que realmente se le puede sacar un partido al sitio web. Por ejemplo, si no te interesa indexar la página de política de privacidad y no le pusiste desde un principio el “noindex”, seguramente la tendrás indexada y aparecerá en los resultados de Google. Para eliminarla tendrás que realizar todo el proceso que vamos a describir a continuación.

Por lo tanto, conocer el procedimiento para eliminar una URL de Google es especialmente útil en muchos casos.

La importancia de sacarse de encima aquellas URL que puedan penalizarte Clic para tuitear

¿Por qué eliminar una página del índice de Google?

Si has llegado a este punto seguramente es porque estás iniciándote en el mundo del posicionamiento, tienes un blog o bien directamente eres una persona que tiene una tienda online y te ha sugerido tu cuñado que para optimizar los resultados de búsqueda tienes que eliminar todas esas urls que dan error o que no merecen la pena.

Que no cunda el pánico, son cosas que pasan! Uno encarga su web al webmaster de turno y como ya hemos dicho en este blog, los diseñadores web son eso, diseñadores… Al final acaba indexada hasta la entrada de blog de ejemplo de “hello world” que ni han borrado ????  ¿Por qué van a tener que saber optimizar una web? Que va! Eso ya te apañarás tu luego!

Aquí en nuestra agencia si nos preocupamos de todos los detalles (web & seo), pero no todo el mundo es así por desgracia.

Puede ser también que tu web la hayan diseñado y optimizado perfectamente, pero por cualquier motivo posteriormente has eliminado alguna página de tu sitio web. Esta práctica es algo común en los usuarios que no saben la repercusión negativa que puede traer esta acción si no terminamos el proceso correctamente.

Nos referimos a terminar el proceso correctamente a que si eliminamos una página o post de nuestra web, esas páginas estaban seguramente indexadas en los resultados Google, y al borrarlas lógicamente ya no pueden mostrarse.

Las URL eliminadas seguirán apareciendo en los buscadores, pero una vez el usuario haga click le llevará a un error 404. Este tipo de páginas crean pánico en la mayoría de webmasters. Consideran que el sitio web da mala imagen y, que por ende, el usuario lo abandonará de forma instantánea. No te alarmes. Cabe recalcar que es posible sacarle partido a este tipo de páginas.

El objetivo es intentar atraer al usuario a través de un buen trabajo de marca. Ser creativos, utilizar un buscador y realizar trabajo de branding puede provocar que el usuario siga en el sitio web.

► No hay que obviar que los errores 404 siguen siendo parte de un sitio web. Que aparezcan en demasía pueden acabar penalizando a la página, pero mensajes creativos e incitar al usuario a seguir buscando en el sitio, aquello que necesita puede acabar siendo positivo.

Además de este tipo de páginas, es necesario eliminar URL por muchos otros motivos. En algunos casos, se produce un cambio de plataforma de gestión de contenidos y es necesario redireccionar todo el contenido. En caso de que el posicionamiento no esté funcionando como debería es una buena oportunidad para empezar de cero.

Además, los virus informáticos y los ataques a servidores están a la orden del día. Puede provocar que Google lea los contenidos como si fueran de baja calidad. Es infinitamente necesario eliminar contenido obsoleto y que está penalizando al sitio web.

La URL y la utilización de las palabras claves son especialmente importantes para posicionar los contenidos. Por prisas y falta de atención, pueden haberse producido errores.

Proceso para eliminar las páginas indexadas por Google utilizando Google Search Console

Dejémonos de rollos, ¡vamos al grano!

1. Lo primero que haremos será un trabajo de investigación para ver cuantas urls tenemos indexadas. Para ello ejecutamos en el buscador un comando “site:” seguido de nuestro dominio, y hacemos click en buscar para que nos muestre los resultados. Ejemplo:

hacer comando site en Google

Nos devolverá una lista con todas las páginas indexadas de nuestra web. Si tienes muchas urls indexadas, es posible que te preguntes cómo extraer el listado de forma automática, ¿sería muy bueno poder hacerlo verdad?

Bien, aquí tienes un truquitoSerp scraper

Descarga el programa. Una vez lo tengas ejecútalo, selecciona tu versión de Google en “country”, en nuestro caso “google.es”. Selecciona el número de resultados que quieres que te muestre y el número de páginas. Seleccionamos también si queremos un retardo en el rastreo en la opción “delay”. En el cuadro de “search queries” insertamos el mismo comando site con el dominio tal cual lo hicimos en Google anteriormente, hacemos click en scrape y listo!

Se nos descargará un fichero en formato .csv que podremos abrir con Excel o similar. Seguramente tendrá las columnas desordenadas, por lo que tendremos que seleccionar la primera columna completa, pinchar en datos > ordenar y delimitar las columnas por comas para que se vean correctamente.

En el caso de que tu web tenga pocos resultados, quizá no sea necesario bajarse el programa Serp Scraper y proceder a realizar la selección de las páginas manualmente.

Si por el contrario, lo que tienes es un blog o tienda online de gran volumen, lo que te vendría mejor es usar Screaming frog o Deepcrawl en los que poder sacar todo el volumen de urls. Cabe destacar que existe una nueva herramienta llamada Seomator la cual he probado y es increíble!

El trabajo a realizar en este caso sería copiar todas las urls que no nos interese tener indexadas, y posteriormente las pegaremos en search console (lo veremos a continuación).

Con esta limpieza de urls conseguiremos que Google vaya directamente a las páginas que te importan, no dejándole que pierda el tiempo en páginas “basura”.

Algunos ejemplos de páginas que tendrían que desindexarse serían: categorías y páginas sin contenido y páginas de aviso legal y cookies con el 90% de la misma copiado de otra web.

2. Si ya tenemos el listado de urls que no nos interesan y que queremos desindexar, el siguiente paso es darte de alta en Google Search Console , vinculando tu cuenta de Google (Gmail) con esta herramienta conocida anteriormente como Webmaster Tools.

Una vez nos hemos dado de alta, procedemos a agregar la página web en cuestión de la que somos dueños o hemos realizado. Nos pedirá que tenemos que verificar la propiedad. Elegimos uno de los métodos disponibles que queramos o nos vaya a ser más fácil.

En nuestro caso, solemos bajar el archivo HTML de verificación, el cual debemos subirlo a la raíz del servidor (bien vía Cpanel en el administrador de archivos o vía Ftp). Una vez subido hacemos clic en verificar y si todo está correcto nos aparecerá el tic verde.

Nos aparecerá un panel de control con nuestra propiedad/es verificada/s:

propiedad verificada en search console

3. Entramos en la propiedad o sitio web que hemos dado de alta. En la izquierda te aparecerá un menú con diversas opciones: apariencia en el buscador, tráfico de búsqueda, índice de Google y rastreo.

Como te estarás dando cuenta, estás ante una herramienta super importante, con la que puedes conocer tanto los links que apuntan a tu sitio como las palabras clave por las que están encontrando tu web. En definitiva, una gozada!

Bien, en este caso el procedimiento para eliminar páginas indexadas por Google se realiza a través de: Índice de Google > Eliminar URLs.

Pinchamos en “Ocultar temporalmente” e introducimos la url entera que queramos desindexar.

Nos aparecerá una nueva página en la que tenemos que indicar el tipo de solicitud. Aquí seleccionaremos “ocultar temporalmente la página de los resultados de búsqueda y eliminarla de la caché”.

Este proceso lo haremos manualmente, introduciendo una por una cada url que queremos desindexar.

4. Hecho esto, el panel de “Eliminar URLs” nos mostrará las url que hemos solicitado su eliminación y una columna de estado en el que indicará si están pendientes, eliminadas o caducadas.

Con esto, se consigue que dicha URL no aparezca indexada en Google durante los próximos tres meses, aproximadamente. Si acabas el procedimiento en este punto, al cabo de 90 días, la página volverá a indexarse.

Puede pasar que las urls caduquen y se vuelvan a indexar, ya que esto es una eliminación temporal, por ello si queremos que no aparezcan más, para evitar futuras indexaciones no deseadas, una vez hecho este proceso de eliminación temporal en search console, debemos comprobar que dichas páginas están marcadas como “noindex”. En el caso de tener WordPress + SEO Yoast, lo veremos e indicaremos aquí:

Meta robots > Cambiar a noindex

meta robots en yoast seo

Salvo excepciones, Google tarda entre tres y 24 horas en eliminar el contenido indexado. Por ello, si tenemos la página con el “noindex” , lo que pasará es que una vez se elimine la página de los resultados de Google, esta no volverá a indexarse.

¿Cómo encontrar los errores 404?

A través de Google Search Console se pueden ver en: Rastreo > Errores de rastreo.

También podemos utilizar la herramienta Broken Link Checker , o la mencionada anteriormente: Screaming frog.

Una vez tengamos el listado con todos los errores, se procedería a la eliminación en search console, realizado el proceso mencionado en los pasos anteriores.

Después lo recomendado sería realizar las redirecciones correspondientes. Por ejemplo, si tenemos un error 404 en una página que ya no existe pero tenemos una página similar en la que puede encajar con el resultado de búsqueda, se realizaría una redirección de una a otra, así se corregirían dichos errores.

Bloquear las URLs mediante Robots.txt

Una orden segura y que nunca fallará es bloquear directamente las urls a través del fichero robots.txt. Este archivo se encuentra en la raíz de nuestro directorio. Podemos entrar a través del hosting > Cpanel > Administrador de archivos o bien vía Ftp (lo que nos sea más cómodo).

¡Ojo! Este proceso se realizaría en el caso de que ya tengamos eliminadas las urls en search console y comprobado que se han desindexado totalmente y queramos asegurarnos de que no se van a indexar más, o mejor dicho que queremos que el robot de Google no pierda ni un segundo de tiempo en pasar por ellas y detectar que dichas páginas están en “noindex”. Esta orden se lee primero de todo y va a misa! Esto se hace así porque si bloqueamos por robots.txt antes de que Google desindexe las páginas, pues lógicamente no va a poder entrar para desindexarlas.

Localizamos dicho archivo y le introducimos las urls que no queremos que pase el robot de Google. Este proceso se hace con el atributo “Disallow”. Aquí mostramos un ejemplo de nuestro robots.txt. *

* Los asteriscos que verás en las líneas del robots.txt quieren decir que repercuta en todo lo que va después o antes (según al posición del asterisco).

¿Cómo eliminar “error reading url”?

Que Google lea correctamente las URLs, y que estas tengan las palabras clave adecuadas, es imprescindible para asegurar un SEO correcto y que el sitio web tenga posibilidades de conseguir un buen tráfico orgánico.

No obstante, la utilización de esta herramienta se reserva a fines de carácter urgente como la exposición de contenidos por error o que revelan datos confidenciales. Google es muy claro al señalar que usarla con otros fines puede acabar penalizando y provocando incidencias en el propio sitio web.

La importancia de eliminar páginas indexadas por Google

En el caso de ser atacado por un pirata informático se deben eliminar las URL hackeadas, como se ha mencionado anteriormente. En ninguno de los casos, eliminar el sitio web por completo. Eliminar contenido duplicado en diferentes URLs o empezar desde cero en un sitio web después de adquirir el dominio de otra persona tienen otros procedimientos.

La importancia de eliminar una URL de Google que pueda penalizar al sitio web tiene una importancia capital.

¿Quieres conseguir el máximo número de visitas en tu página? Debes mostrar tu mejor apariencia al buscador.

Saca provecho de los errores 404 de forma creativa para captar la atención del usuario y quédate con aquellas URL que te aportan beneficios. Recuerda, la calidad por delante de la cantidad.

 ¿TE HA GUSTADO EL POST? TU OPINIÓN ES IMPORTANTE  😉
1 estrella2 estrellas3 estrellas4 estrellas5 estrellas (4 votos, promedio: 5,00 de 5)

Cargando…

Déjanos tu comentario si te ha servido este post de ayuda.

Facebook
Google+
Twitter
LinkedIn
WhatsApp
Email

4 comentarios en “¿Cómo desindexar o eliminar una URL de Google?

  1. Ten cuidado al manipular el robots.txt, si bloqueas antes una url por robots del noindex, no puede leer esa directiva a nivel de url, es decir, primero va leer como dices el robots.txt (aunque no es siempre a veces se salta el archivo por ejemplo de enlaces externos), si ve que X url (pongamos indexada) está bloqueada, es imposible que lea el meta-robots noindex (está contenido en el html de la url), por tanto si esa url X no recibe enlaces externos (ahi si leería directamente la url X y vería ya el meta noindex) nunca podrá ver la directiva y quedará indexada.

    Aunque hago mención que también se pueden hacer noindex a nivel de robots.txt, sinceramente no lo utilizo ni lo he probado aun, y según tengo entendido hay opciones mejores, imagino que usar las meta y por eso es utilizado globalmente.

    Saludos!

    • Muchas gracias por tu comentario Álvaro! Es cierto, quizás se me ha pasado detallar mejor lo que comentas. Como bien dices, el proceso del bloqueo en robots.txt siempre sería al final, cuando la url ya no está indexada.
      Saludos!!

  2. Gran post. Me va a ayudar bastante.
    Te comento un poco mi caso a ver si me puedes echar una mano.
    Resulta que tenía una carpeta llamada “lists” en la raiz de instalación la cual me generó un montón de .html y fueron indexadas por google.
    El problema que tengo es que esa carpeta no existe ya porque tuve que levantar un backup y desapareció, sin embargo ahora tengo más de 100 urls indexadas y no sé que hacer para poder quitarlas.

    He probado a eliminar url desde SC, pero vuelven a aparecer y no puedo poner noindex porque la carpeta ya no existe.

    ¿Qué me recomiendas hacer para poder quitar esas url definitivamente?

    Las url generadas son del tipo: http://www.midominio.com/lists/admin/?page=logout&tk=59001bdd9cb y al entrar a ellas me aparecen un error 404.

    Muchas gracias de antemano.

    • Hola Antonio! Nos alegra un montón que este artículo te sirva de ayuda! :))
      En cuanto al caso que comentas, sería cuestión de ver el dominio de cerca. Si te parece envíanos el dominio por privado (email) si no quieres dejar tus datos por aquí.
      Pero así sin verlo, lo primero que se ocurre es desindexar dichas urls en Search Console y si consiguen desaparecer de las SERP, justo en ese momento bloquearlas por robots.txt para que no vuelvan a indexarse.
      Si se repite el patrón de urls y todas comienzan por /lists/, pues sería poner la siguiente línea en robots.txt: Disallow: /lists/*
      Aun así, sería mejor ver tu caso detenidamente.
      Gracias a ti por la respuesta. Un saludo!

Deja un comentario

Si continuas utilizando este sitio, aceptas el uso de las cookies. Más información

Los ajustes de cookies de esta web están configurados para "permitir cookies" y así ofrecerte la mejor experiencia de navegación posible. Si sigues utilizando esta web sin cambiar tus ajustes de cookies o haces clic en "Aceptar" estarás dando tu consentimiento a esto.

Cerrar