Has buscado alguna vez tu nombre en Google? Apareces en muchos sitios? Y si has aparecido en un Boletín Oficial? Ocurre que la Administración Pública en su afán por ser lo más transparente posible trata de que la información esté lo más accesible posible. Por ello, no suelen poner muchas trabas a los buscadores para que se encuentren sus páginas y documentos y choca directamente con la aplicación del Derecho al Olvido.

El Derecho al Olvido

 

El problema surge cuando, alguna persona, solicita aplicar el derecho al olvido. Derecho por el cual el titular de un dato personal puede solicitar borrar, bloquear o suprimir información personal que se considera obsoleta por el transcurso del tiempo o que de alguna manera afecta el libre desarrollo de alguno de sus derechos fundamentales (fuente – Wikipedia).

Es decir, por mucho que nos hayan multado y aparezca en el Boletín Oficial de la Comunidad, o que presentemos una tramitación judicial y se publique. Tenemos derecho a que esta información, aun manteniendola publicada, deje de ser “encontrable” mediante los buscadores.

La situación con los Boletines Oficiales y/o páginas web

El fin último de mantener una página web (de la Administración Pública o entidad privada) es que esta sea visible y accesible a cuanta más gente mejor. La cuestión es que accesible no significa que sea fácilmente encontrable y la situación con los buscadores genera un problema.

Soluciones de Consultor SEO al problema

Existen al menos tres maneras para evitar que los buscadores encuentren páginas. Es una práctica habitual y sirve por ejemplo, para que los buscadores no encuentren los apartados de administración o carpetas que tengan información sensible:

Uso del fichero robots.txt

A parte de ser una de las principales y básicas mejoras para el posicionamiento SEO, ya que ayuda a los buscadores a saber qué mirar, permite limitar el acceso a los bots de los buscadores a la hora de rastrear las páginas.

Se trata de un fichero txt (de esos que puedes trabajar con el Blog de Notas) y ha de estar en la carpeta donde se encuentra la página principal. Puedes acceder al robots.txt de urtanta.com en la siguiente url: http://urtanta.com/robots.txt

Lo que tienes que saber es lo siguiente:

  • User-agent: es el apartado para redirigir a los diferentes bots de los buscadores (Google, Bing, etc.) para que tengan en cuenta justo lo que viene después. El asterisco (*) hace referencia a todos.
  • Disallow: son las carpetas o elementos que no queremos que encuentren los buscadores. Pueden ser páginas, carpetas o ficheros (pdf, imagenes,…)
  • Sitemap: elemento esencial para el SEO. Dice a los buscadores donde buscar exactamente el sitemap de la página web.

 

Entonces si queremos aplicar el derecho al olvido, deberemos poner en el apartado Disallow el lugar o el elemento que no queremos que se encuentre. El problema está en que como sea una página con muchas hojas y además cambiante… se convierte en una tarea muy complicada.

Utilizando meta-tags en la página web

Otro método, es el uso de la etiqueta robots. Se puede implementar a la hora de escribir las meta tags de Keywords. Debería quedarte algo así para que no ser encuentrada:

<meta name=”robots”  content=”noindex,nofollow”>

La pega que tiene esta solución, es que no sirve para ficheros pdf, doc, etc.

Limitar el acceso a la carpeta

El último método, quizás el más técnico, es el de limitar el acceso a la carpeta.

Se puede configurar a nivel de servidor el acceso, para que sólo sea accesible por contraseña, con el inconveniente que ello supone para el acceso a la información.

Algo más complejo es configurar el propio servidor para que por petición de acceso a la carpeta, incruste la etiqueta correspondiente. Se trata de la opción que más conocimientos tecnológicos requiere (Configuración de servidores IIS o Apache).

src="//pagead2.googlesyndication.com/pagead/js/adsbygoogle.js">