Diarios y publicaciones online implantaran nueva versión de “robots.txt” para proteger sus contenidos de los buscadores

El nuevo fichero, basado en una tecnología denominada ACAP, opera como un DRM fijando permisos para rastrear los ficheros contenidos en el servidor.
La nueva tecnología fue presentada durante una reunión celebrada en la sede neoyorkina de AP a la que asistieron representantes de otras agencias y grupos editoriales que afirmaron representar 18.000 medios y publicaciones de todo el mundo. Fue el propio presidente de la agencia quien defendió la necesidad de defenderse de la apropiación de sus contenidos argumentando los costes que supone (tanto económicos como en vidas) informar de los acontecimientos para que luego otros sitios se apropien de estos sin abonar ninguna cantidad.
El ACAP otorgará permisos a los buscadores y robots que indexan los sitios indicando que contenidos pueden rastrearse y por cuanto tiempo. Es como una especie de DRM de contenidos digitales y según los promotores de esta tecnología ofrece unos excelentes resultados como lo ha demostrado la prueba que durante un año se ha venido realizando con el buscador francés Exalead.

Preocupación por los costes de la piratería de contenidos digitales.
La idea de promover esta modificación tecnológica surgió a raíz de la proliferación de servicios de noticias suministrados por buscadores, que rastrean páginas web en busca de informaciones elaboradas por medios de comunicación y las ofrecen sin que el usuario tenga que pagar por ellas o pasar por su sitio de Internet.
Una preocupación similar generó la proliferación de sitios donde se cuelgan con libre acceso libros u otras obras que están protegidas con derechos de autor.
Entre los más afectados se encuentran las grandes agencias de noticias, que en varios casos han llevado ante los tribunales a Google, por ofrecer sus informaciones y fotografías sin permiso.

Cambios importantes
Los promotores de esta tecnología reconocen, sin embargo, que para que esta sea efectiva será preciso que los grandes buscadores de la red acepten su uso y sigan las recomendaciones que el fichero implanta. Por el momento, estos aún no se han pronunciado sobre el tema.
En la actualidad, las arañas de los buscadores siguen las indicaciones de un fichero llamado “robots.txt” para indexar un sitio. Sin embargo, este fichero tiene muchas limitaciones y solo permite decir que directorios pueden ser o no rastreados. Con 13 años de existencia “robots.txt ha demostrado su efectividad pero también las carencias que ha supuesto su veterana y falta de adaptación a los cambios que en los últimos años ha vivido Internet.

Fuente: Noticiasdot.com