La adopción de una nueva tecnología a menudo se ilustra en la forma del famoso ‘ciclo de sobreexpectación’ de Gartner (Lynden y Fenn, 2003).
La representación gráfica del auge y declive de la popularidad de una nueva tecnología llama la atención sobre las expectativas exageradas que a menudo acompañan a su introducción.
Después del llamado pico de expectativas infladas (ciclo de sobreexpectación), una tecnología tiende a perder la mayor parte de su atractivo en el mercado un par de años después de su introducción. Solo después de un período extenso la tecnología alcanza un nivel estable de adopción, basado en su genuino valor agregado en un entorno de producción. Uno de los objetivos de este libro es enseñarle cómo alejarse de una visión de la tecnología impulsada por las exageraciones, ayudándole a comprender no solo el valor agregado exacto de los datos vinculados, sino también sus puntos débiles.
¿Dónde deberíamos situar los datos vinculados en este ciclo?
El reciente entusiasmo por conectar recursos heterogéneos y extraer nueva información de fuentes de conocimiento externas quizás recuerda para algunos el entusiasmo ilimitado que el sector del patrimonio cultural tenía por el lenguaje de marcado extensible (XML) alrededor del año 2000 y un par de años más tarde por la web 2.0. En retrospectiva, ahora podemos decir con seguridad que ambos enfoques han sido (y siguen siendo) fundamentalmente importantes para la forma en que creamos y administramos nuestros metadatos. Sin embargo, también debemos reconocer que ni XML ni la web social resolvieron todos los problemas fundamentales subyacentes a cómo podemos conectar recursos de varias colecciones.
A pesar de una importante revisión del marco tecnológico general, ilustrada por otros desarrollos, como la maduración de los sistemas de gestión de colecciones de código abierto y el alojamiento basado en la nube, por ejemplo, todavía nos enfrentamos a los mismos problemas que la comunidad del patrimonio cultural estaba discutiendo hace casi cinco décadas. Para cualquiera que trabaje en el tema del patrimonio cultural digital, leer sobre las discusiones que tuvieron lugar en las décadas de ‘60 y ‘70 es una lección de humildad.
Paralelamente a la creación del Computer Museum Network en 1967, se lanzó un proyecto para crear una base de datos común de gestión de colecciones que sería utilizada por todos los participantes del consorcio. Desde entonces, muchas otras iniciativas se han basado en la misma falacia: si todos usamos la misma herramienta, nuestros metadatos serán interoperables una y otra vez. Los proyectos han demostrado que incluso si las personas y las instituciones utilizan las mismas herramientas y estándares, los implementan de diferentes maneras para adaptarse a la naturaleza específica de sus colecciones.
¿Los datos vinculados están aquí para romper este círculo vicioso o nos enfrentamos nuevamente a una tecnología sobrevalorada?
Antes de responder a esta pregunta, debemos moderar las expectativas infladas en torno a los datos vinculados. Los profesionales que intentan familiarizarse con los principios de los datos vinculados se sienten frustrados con frecuencia cuando se enfrentan al resultado de proyectos de investigación de TI a gran escala. En los últimos años se han convertido enormes volúmenes de metadatos y vocabularios controlados en el marco de descripción de recursos (RDF), produciendo miles de millones de declaraciones RDF.
Desafortunadamente, estas llamadas tripletas solo desbloquean su valor mediante el uso de un lenguaje de consulta complejo llamado Protocolo SPARQL y Lenguaje de consulta RDF (SPARQL).
La naturaleza puramente impulsada por la tecnología de muchos proyectos de datos vinculados está dejando un regusto amargo entre los profesionales, que sienten que necesitan un doctorado en tecnologías web semánticas para aprovechar los datos vinculados.