Watermelon: la web de datos enlazados en un eterno grafo de conocimiento >

    5 resultados

    Artículo

    /

    Publicado el 8.6.2015 por Ricardo Alonso Maturana

    Las web semánticas de la Web: el negocio de construir y explotar grandes grafos de conocimiento especializados

    LAS WEB SEMÁNTICAS DE LA WEB: EL NEGOCIO DE CONSTRUIR Y EXPLOTAR GRANDES GRAFOS DE CONOCIMIENTO ESPECIALIZADOS

    Desde que en 2001 Tim Berners-Lee escribiera Semantic Web en Scientific American, "Web semántica" hace referencia a un lenguaje técnico de marcado, así como, posteriormente, a un conjunto de estándares de interrogación de bases de datos (como SPARQL) que tienen como finalidad posibilitar la publicación de los recursos digitales que generan las personas de tal modo que resulte interpretable o inteligible por las máquinas o sistemas. Se trata, por tanto, de un lenguaje para máquinas. En este sentido, la web semántica no es lo opuesto a la web no semántica o que precisa un emisor y un receptor humanos o, si se prefiere, la web HTML (HyperText Markup Language); si consideramos a esta última como el haz de la web, aquella sería su envés. De este modo, todo recurso digital podría tener dos caras, la que puede leer o interpretar una persona, esto es la que aparece cuando solicitamos una página web y que se muestra o publica en HTML y aquella otra que pueden interpretar las máquinas y que se publica utilizando OWL-RDF (Ontology Web Languaje-Resource Description Framework).

    Ya en el artículo seminal al que me refiero se apuntaban algunos de los atributos esenciales de esta nueva forma de publicar en la World Wide Web, como son el de expresar el significado de los recursos mediante ontologías, representar el conocimiento entendiendo éste como la agregación o el enlazado (linked) de recursos distribuidos o no centralizados, facilitar la recuperación de la información posibilitando modos de interrogación más próximos al modo intencional e iterado en el que funciona la mente humana y, finalmente, acelerar la evolución del conocimiento humano al facilitar la transición o transformación de la nuevas ideas seminales frecuentemente producidas por un individuo o grupo pequeño, que viven en el marco de una subcultura original, en ideas comunes o establecidas con gran amplitud cultural. En la visión original de la web semántica, los agentes inteligentes o bots serían capaces de enlazar en un grafo de conocimiento los datos representados ontológicamente.

    Esta primera visión de la web desencadenó un enorme esfuerzo por identificar y establecer estándares ontológicos, que son la condición para poder representar conjuntos de recursos mediante un lenguaje de datos unificado. Los resultados se dejaron esperar, debido, sobre todo, al hecho de que los acuerdos humanos acerca de cómo representar un ámbito de la realidad o ámbito de conocimiento llevan tiempo, especialmente en aquellos campos en los que no preexistía una cultura caracterizada por esa clase de esfuerzos, como sí ocurría en el campo de la salud, las bibliotecas o los archivos, por poner sólo algunos casos. Los primeros resultados prácticos sólo se produjeron a partir de 2007, cuando Berners-Lee puso el acento en el hecho de que la Web Semántica debía concebirse como una Web de Datos Enlazados para que cumpliera con el propósito fundacional de contribuir a la evolución acelerada del conocimiento humano. En ese momento se establecieron los estándares ontológicos más básicos (aprovechando el vocabulario DublinCore y generando FOAF, SIOC o SKOS) y se empezaron a publicar los primeros datasets o conjuntos de datos estructurados semánticamente. De un modo que conviene explicar, estos conjuntos de datos se pusieron a disposición de terceros o reutilizadores, suponiendo que la producción de datos de esta clase iba a alentar el desarrollo de un ecosistema de reutilizadores que les daría finalmente un valor económico.

     

     

    Esto no se produjo, o no se produjo lo suficientemente rápido. Las causas por las que los datos estructurados semánticamente no generaron la clase de movimiento tecnológico y valorización de la información esperada son seguramente varias. Por un lado, la distinción seminal entre producción de datos y la explotación de los mismos por parte de agregadores o robots apelaba a una imagen de la futura Web Semántica que, al igual que sucede en la web Google por así decirlo, distinguía entre productores de datos y aquellos que podrían finalmente darles valor, unificarlos en un grafo de conocimiento o, simplemente, explotarlos; en segundo lugar, se consideraba que la publicación de datos estructurados semánticamente era una forma secundaria y posterior de publicar los recursos o contenidos de la web, de manera que nadie parecía ser consciente, entre los principales productores de datos (desde el British Museum, la Biblioteca del Congreso de EE.UU o la NASA), de la posibilidad de que en el mismo acto pudieran producirse el haz y el envés de la web o, dicho de otro modo, que un gestor de contenidos, una red social o cualquier otro sistema de edición y publicación de recursos o contenidos digitales produjera ambos formatos en el mismo acto. Esto hizo posible que se diera la paradoja de que los productores de datos estructurados no se vieran a sí mismos como reutilizadores de los mismos. Por esta vía se llegó al absurdo de que los principales productores de datos no fueron capaces de usarlos para desarrollar utilidades orientadas a mejorar la experiencia web de los/sus usuarios finales. Así, por poner sólo un par de ejemplos, el British Museum o Nature han publicado excelentes datasets, realizados con una gran calidad ontológica, que prácticamente carecen de reutilizadores y que tampoco han sido utilizados por ellos mismos para la mejora de los procesos de interacción de las personas con los computadores (Human Computer Interaction) y, por ende, para la mejora de la experiencia web de sus usuarios. Por último, en la medida en la que se produjo todo lo anterior, se entendió la web semántica como un asunto que posibilitaría la interoperabilidad entre silos de datos distribuidos, algo que afectaba a la web más profunda, pero no a los usuarios finales, al menos en un primer momento.

    Sin embargo, algunas empresas y cabe decir que algunos sectores en particular, entendieron bastante tempranamente que la web semántica, en la medida en la que era una estrategia tecnológica que posibilitaba que las máquinas entendieran el significado que estaba detrás de los contenidos, podría ser una estrategia muy prometedora para una explotación avanzada de la información, y por ende para el desarrollo de nuevos negocios basados en el descubrimiento de conocimiento, siempre y cuando el proyecto expresara un grafo de conocimiento de un modo interrogable por las personas. Esto sucedió en el ámbito de las empresas dedicadas a las biociencias, como las farmacéuticas, o entre los grandes publicadores científicos, como Elsevier o Thompson Reuters, pero también entre los medios de comunicación más avanzados, como puede verse cuando se analiza la estrategia digital de BBC o The New York Times, pero también de, por ejemplo, The Guardian (que tiene casi 45 millones de usuarios únicos al mes, frente a los 14 millones de El País digital). Casi simultáneamente, Google compró Metaweb, la empresa que estaba construyendo Freebase, en realidad un gran grafo de conocimiento que interpretaba el conjunto de la web en forma de entidades y, a través de ellas, vinculaba o enlazaba el conocimiento implícito en la totalidad de la web. Por aquel entonces, julio de 2010, Freebase tenía ya más de 12 millones de entidades; en la actualidad tiene más de 46 millones. Esta adquisición ha permitido a Google crear un gran grafo de conocimiento basado en OWL-RDF y explotarlo como expondremos en apartados siguientes.

    1.1LAS NUEVAS POSIBILIDADES DE LA REPRESENTACIÓN SEMÁNTICA DEL CONOCIMIENTO: DE LAS BÚSQUEDAS BASADAS EN LITERALES A LAS BÚSQUEDAS BASADAS EN ENTIDADES

    La explotación más relevante que Google está llevando a cabo es el paso de una búsqueda basada en literales o en secuencias de caracteres a una búsqueda basada en entidades y las nuevas posibilidades que esto ofrece. La diferencia entre un literal y una entidad es crucial: en el segundo caso la máquina reconoce un determinado objeto del mundo mientras que en el primero busca secuencias de caracteres y las relaciona mediante "cuerdas" con secuencias homólogas en otros documentos. Cuando una máquina reconoce una entidad entonces entiende, por ejemplo, que "Mario Vargas Llosa" es una persona, que tiene como nombre "Mario" y como apellidos "Vargas Llosa"; que dado que es una persona tendrá una fecha de nacimiento y eventualmente de defunción y, por ende, un lugar de nacimiento y quizá de defunción, una profesión, en este acaso "artista" y, dentro de ese espectro profesional "escritor", etc...Cuando una máquina reconoce una entidad es porque es capaz de reconocer sus atributos, de hecho, una entidad lo es en función de los atributos que la conforman. Imaginemos que una máquina es capaz de identificar sólo las personas contenidas en una colección dada de documentos, entonces sería capaz de enlazarlas a todas en un grafo y nosotros podríamos realizar preguntas o interrogar a ese grafo en función de atributos concretos, como por ejemplo, las personas que nacieron en tal o cual año, o en tal o cual sitio, o bien las que comparten una profesión, por ejemplo la de escritor y, además, han nacido en Sudamérica y han escrito su obra principal en los 60 o principios de los 70. Un conjunto de interrogaciones iterado de ese tipo nos permitiría conocer el conjunto de autores que constituyen el boom sudamericano, por ejemplo, pero lo mismo podríamos preguntar por los pintores nacidos en Ciudad Real, por poner otro caso. Otra explotación muy sencilla, es mostrar, para una búsqueda dada, los detalles ontológicos (el conjunto de atributos) de la entidad principal por la que se pregunta. Es lo que hace Google cuando muestra la ficha de Velázquez, el pintor barroco español. Cuando introducimos en la caja de búsqueda el literal "Velázquez", Google infiere que preguntamos por Velázquez, el pintor, y nos muestra su fecha de nacimiento y defunción, el lugar de esos eventos y los principales cuadros de los que fue autor, también otros pintores relacionados con Velázquez, por lo general de su misma época y/o escuela. Si hacemos clic en alguno de esos cuadros, nos ofrece una nueva búsqueda con muchos más cuadros de Velázquez y si clicamos alguno de ellos podemos llegar a una ficha de Wikipedia. Desde luego, el recorrido que realizamos a partir de una petición tiene sentido porque el conjunto de entidades que manejamos, "pintores" y "obras de arte" están relacionadas, lo mismo hubiera ocurrido si se hubiera tratado de "celebrities" y "programas de televisión", o de "futbolistas" y "equipos en los que han jugado".

    En los enlaces que pueden visitarse al final de este punto, se puede conocer lo que explícitamente ha publicado Google sobre el tema, incluyendo el hecho de que utilizan las descripciones ontológicas en OWL-RDF de terceros, siempre y cuando sean referentes en su campo de conocimiento. Lo que ha quedado claro en esta fase de la implantación de la Web Semántica es que cuando ésta es entendida como Grafo de Conocimiento (y no sólo como un dataset o como un conjunto de ficheros expresivos y enlazables) entonces hay muchos negocios posibles, siempre y cuando se piense en la clase de utilidades que hacen más sencillas y útiles las webs al conjunto de audiencias que en su conjunto denominamos “usuario final”. Y ello porque en cualquier colección de recursos suficientemente amplia, existe un conjunto de relaciones implícitas valiosas para diversos grupos de interés, algunos probablemente muy minoritarios, que hacen posible una explotación avanzada de los mismos, pero también porque todo grafo de conocimiento representado sobre estándares es extensible y se puede enlazar con datos provenientes de terceros, como ha demostrado Google con su acoplamiento simbiótico con Wikipedia o, más modestamente, Didactalia con su grafo dinámico de conocimiento basado igualmente en Wikipedia, vía DBPedia. A Google, ese acoplamiento le ha servido para multiplicar el tiempo que las personas permanecen en el buscador y para ampliar su utilidad a costa de los productores primarios de contenidos, lo que sin duda es un buen negocio. A continuación, los artículos de Google prometidos, en donde ellos mismos dan cuenta de su proyecto de Grafo de Conocimiento. La conclusión a la que un lector atento podría llegar es que si alguien dispone de una base de recursos de suficiente calidad, lo más interesante es enlazarlos en un grafo de conocimiento entre sí y con terceros que puedan enriquecerlo y extenderlo, porque en ello es seguro que hay nuevos negocios.

    1.2MODELOS DE INTERACCIÓN DE LAS PERSONAS CON LOS ORDENADORES: UTILIDADES Y NEGOCIOS ASOCIADOS CON LA CONTRUCCIÓN DE UN GRAFO DE CONOCIMIENTO

    El área de conocimiento Human-Computer Interaction (HCI) investiga el diseño y uso de la tecnología informática, con especial atención a las interfaces que intermedian entre las personas o usuarios y las computadoras. Los investigadores en el campo de la HCI observan los modos en que los seres humanos interactúan con las computadoras y tratan de desarrollar nuevos diseños y eventualmente nuevas tecnologías que posibiliten a las personas interactuar con las computadoras en formas novedosas. Human-Computer Interaction, como campo de investigación, está situado en la intersección de la informática, las ciencias de la conducta y, en especial la psicología, el diseño, el estudio de los media y otros variados campos de estudio. El término fue popularizado por Stuart K. y Allen Newell de la Universidad Carnegie Mellon y Thomas P. Moran de IBM Research en su artículo de 1983, La Psicología de la Interacción Persona-Ordenador, que constituye la obra seminal sobre el tema. A diferencia de otras herramientas con usos limitados (como un martillo o el destornillador o cualquier otra herramienta de mano, pero también como ocurre con cualquier máquina-herramienta), un ordenador tiene muchos usos posibles, lo que implica que las conversaciones o diálogos posibles entre las personas y las máquinas son múltiples y evolutivas. Hemos tratado con anterioridad de un aspecto de esta interacción, en concreto de lo relacionado con los modelos de búsqueda y recuperación de la información (véase: Human-Computer Information Retrieval: Buscadores Facetados, la siguiente generación de buscadores basados en razonamiento).

    El primer negocio tiene que ver con el modo en el que recuperamos la información e interrogamos a los contenidos. Durante los últimos años, la confluencia de estudios en las áreas de IR (Information Retrieval) y HCI (Human Computer Interaction) ha generado un área de estudio específica, HCIR(Human–Computer Information Retrieval), que se ocupa de las técnicas de recuperación de información que introducen la inteligencia humana en el proceso de búsqueda. Algunas de las ideas generadas, que ya se están aplicando en los buscadores más avanzados, son:

    • Dar la responsabilidad y el control de la búsqueda a la persona. Le requiere esfuerzo, pero se le recompensa.
    • No adivinar las intenciones, sino mejorar la comunicación.
    • Soportar refinamiento y exploración.
    • Responder con un conjunto de resultados ordenado y adecuado, lo que incluye ofrecer diferentes formas de presentación según el tipo de resultados: listas, mosaicos, mapas, timeline, etc.
    • Extender los resultados y la información con contextos, que son, a su vez, resultados de otras búsquedas o de las búsquedas que de modo automático puede realizar una máquina a partir de un conjunto de interrogaciones desarrolladas por una persona (Computer-Computer Informational Retrieval)

    Una de las propuestas concretas es el uso, como interfaz, de buscadores facetados. Han sido pioneros, en el uso de este tipo de interfaz, sitios web como Amazon o Ebay.

    Los buscadores facetados se caracterizan por:

    • Ofrecer una sumarización basada en propiedades que caracterizan específicamente a los resultados mostrados. Por ejemplo, si se trata de mostrar obras de arte, podrían ser autor, museo, época, estilo, escuela, técnica, etc.
    • Cada posible valor de la propiedad es una opción de refinamiento de la búsqueda. Por ejemplo, una vez buscadas obras de arte sobre caballos, se dispone de una lista con estilos. Eligiendo uno de ellos, Barroco, se obtendrían 14 cuadros. De ellos, observamos que uno de los autores es Velázquez, con lo que llegamos a 3 cuadros: precisión y pertinencia
    • Las opciones de refinamiento ofrecen resultados posibles. En el ejemplo anterior, no es posible elegir como autor a Goya, ya que ninguna de sus obras correspondería al estilo barroco. Es un defecto frecuente de algunos sistemas de búsqueda la posibilidad de combinar opciones de búsqueda que no devuelven resultados.

    Las tecnologías de la web semántica posibilitan extender esta clase de buscadores a repositorios de contenidos menos estructurados que los elementos de un catálogo, como es el caso de los grandes buscadores mencionados, por ejemplo, de una gran base de noticias o de videos anotados. El resultado natural de implantar un modelo de búsqueda basada en un facetado con sumarización es una mayor precisión en los resultados, un mayor tiempo de permanencia, así como la posibilidad de facilitar a los usuarios tanto especializados como ordinarios un espacio de descubrimiento de conocimiento. Las máquinas pueden computar el conjunto de relaciones entre todas las entidades y atributos contenidos en un grafo, lo que no resulta posible para una persona, por muy experta que sea en la materia.

    El segundo negocio tiene que ver con la posibilidad de generar nuevos relatos en un dominio específico (periodístico, educativo, cultural, turístico) utilizando la capacidad de las máquinas para realizar inferencias automáticas sobre el conjunto de relaciones explícitas entre el conjunto de entidades que conforman el grafo y de presentarlo de un modo útil y atractivo para los usuarios. Los relatos basados en sistemas de inferencia automáticos posibilitan desarrollar un discurso a partir del interés manifestado por una persona por un conjunto de entidades, mostrando entidades relacionadas de diverso modo con la requerida y extendiendo, por tanto, con posibilidades nuevas de descubrimiento de conocimiento y navegación, las posibilidades de diálogo y conversación entre las personas y los contenidos representados en el grafo de conocimiento. Imaginemos una noticia que trata de Manuel Fraga, la máquina puede inferir de las relaciones implícitas en el grafo su relación con otros políticos del PP, o con personas de AP, o con aquellas personas que fueron redactores de la constitución,  y abrir a partir de cada uno de esos atributos de Fraga hilos de inferencia y, por ende, de exploración y descubrimiento de conocimiento. Un relato de esta naturaleza propone un viaje y alienta la curiosidad y el instinto por saber más y aprender de las personas. En definitiva, visto desde este modo de generación de relatos automáticos, un grafo multiplica las posibilidades de permanencia y de páginas vistas.

    En tercer lugar, la publicación dinámica semántica (Semantic Dynamic Publishing) de un grafo de conocimiento contiene todas las páginas webs posibles que se pueden realizar con ese contenido y, lo que es aún mejor, estas se pueden pintar automáticamente si existe un sistema de interrogación adecuado. Así por ejemplo, el grafo de conocimiento del Museo del Prado, incluye las páginas web del bodegón español del siglo XVIII, el de los desnudos femeninos del siglo XVII en la Escuela Italiana o el de los retratos reales en el siglo XVI. Todas estas búsquedas pueden ser en el caso del Prado el correlato de una posible exposición dedicada.

    Supongamos lo mismo con una base de noticias. La BBC utilizó la publicación semántica dinámica en el Mundial de Fútbol de Sudáfrica de 2010. Construyó un gran grafo de conocimiento que contenía a los jugadores, los entrenadores y otros profesionales relacionados con los equipos, las selecciones, los países a los que pertenecían esas selecciones, las sedes...Todo ello le permitió mantener más de 700 páginas web (una por jugador, por equipo, por sede...) sin un gran equipo de editores. La publicación dinámica semántica posibilita generar páginas web ad hoc de un suceso específico, de una persona o conjunto de ellas, de un evento, a muy bajo coste. A su vez, la publicación de información especializada just in time sobre asuntos de actualidad genera tráfico, visitas y eventualmente registro y suscripciones.

    Dado que un grafo de conocimiento puede mostrar su información de múltiples maneras, listas, mosaicos, mapas, timeline, etc... y que también puede realizar inferencias que posibilitan a los usuarios descubrir conocimiento, algunas o muchas de estas utilidades pueden ser ellas mismas sólo accesibles para usuarios registrados o para suscriptores. La mayor parte de la gente aceptará registrarse y suscribirse si con ello accede a una experiencia de conversación con los contenidos de la web realmente superior, de manera que las ventajas que la tecnología ofrece para el diálogo entre las personas y las máquinas pueden convertirse en registro y eventualmente en suscriptores.

    Un grafo de conocimiento, en la medida en la que anota o identifica las entidades de los contenidos, permite valorizar esos mismos contenidos para fines distintos de aquellos para los que originalmente fueron concebidos. Así, por ejemplo, buena parte del trabajo que se realiza en un periódico o una televisión puede tener un valor educativo, turístico o cultural también. Esos contenidos podrían eventualmente tomar parte o enlazarse a través de sus entidades con grafos cuyos contenidos primarios fueron pensados para otros sectores. También pueden desarrollar un nuevo valor intrínsecamente informativo, al facilitar la construcción de presentaciones nuevas de los mismos, por ejemplo a través de portales verticales. De hecho, la facilidad para construir y mantener portales verticales puede ser una de las mayores formas de valorizar una gran base de contenidos a través de un grafo de conocimiento.

    Finalmente y dado que un grafo de conocimiento dota de un corazón semántico a una gran base de conocimiento, resulta posible desarrollar un potente negocio basado en ofrecer a cada usuario de manera proactiva información ad hoc y contextual asociada con sus intereses, en especial a aquellos que están registrados o son suscriptores y cuyos datos, de hecho, pueden ser incorporados como parte del propio grafo de conocimiento. La capacidad para personalizar la información y por ende la publicidad constituye una de las principales posibilidades de un grafo de conocimiento que represente también de manera semántica a los usuarios y sus interacciones.

    Por último, la representación semántica del contenido tiene un evidente impacto en el posicionamiento y, en consecuencia, en el tráfico. Dado que, de todos los debates sobre las posibilidades de la web semántica, este es el más conocido y comentado, y dado también que la pelea por las audiencias y por el tráfico es una de las más importantes y extendidas de la web, y considerando por último que la ordenación de los resultados de búsqueda está, hoy en día, en una situación monopolística, creemos que es necesario dedicar a este punto un capítulo específico.

    1.3SEMANTIC SEO O EL DEBATE SOBRE CÓMO DESARROLLAR UNA ESTRATEGIA SEO GANADORA

    La batalla por posicionar los contenidos ha resultado ser, en la práctica, la de entender lo más precisa y rápidamente posible las preferencias de los grandes agregadores a la hora de presentar el contenido como resultado de una determinada búsqueda. El problema en este momento de la instalación de la sociedad del conocimiento, caracterizado por una gran abundancia de información y una creciente escasez de atención, es que esta lucha ha terminado por ocupar el centro del conjunto de estrategias que caracterizan el combate por la prevalencia en la web. Es natural que así sea, pero aquí, como en todo, la posesión de tecnología diferencial puede determinar el resultado final de la riña.

    La construcción de la web semántica como grafo de conocimiento ha debido entrar en conversaciones laterales, y también muy generales, que poco tenían que ver con su visión original, pero que han resultado ineludibles desde que los principales buscadores se asociaran a partir de 2010 en schema.org con el fin de desarrollar un modelo de metadatos semánticos que pudiera resultar accesible para las agencias de comunicación y publicadores web no especializados. Resulta inevitable apuntar aquí que el proyecto de los grandes jugadores en el ámbito de la búsqueda y especialmente de Google era anotar la web y que el premio para los colaboradores era mejorar, bajo ciertas restricciones o condiciones, su posicionamiento. Así es como empezó la historia de los metadatos y los microformatos y como se relacionó un gran proyecto de anotación semántica vinculado con la construcción de un grafo de conocimiento con el posicionamiento web y con la estrategia SEO. Es evidente que Google aprecia la semántica, pero especialmente aprecia los ficheros RDF.

    Con relación al tema de los microdatos y los microformatos creo que el tema de fondo, aunque no sólo, debería ser el hecho de que alguien, una empresa, un publicador, un medio de comunicación... que posea gran contenidos propio, original y de calidad decida construir un grafo de conocimiento que enlace todas las miles de entidades de sus diversas colecciones de recursos entre sí, que, además, acumule varios cientos de miles de atributos a través de los cuáles se pueda viajar o navegar o formular preguntas (queries) iteradas que posibiliten recuperar la información de un modo no previsto por el administrador y no dependiente de un algoritmo que funcione con un conjunto de reglas fijas y administradas a priori. Ese grafo debería responder a un modelo ontológico normalizado que eventualmente permitiría incorporar al mismo información descrita también ontológicamente por terceros y, por tanto, enlazarlo con el de otras organizaciones que utilicen un modelo semejante o simplemente con entidades homólogas de grafos heterogéneos. Si alguien hace esto, desde luego que puede atender y soportar en su estrategia SEO cualquier modo de anotación semántica solicitado por los principales jugadores en el campo de la búsqueda.

    El lenguaje técnico que utilizamos para describir ese grafo interpretable o decodificable por las máquinas es OWL-RDF; y el modo "natural" en el que incrustamos algunos atributos del RDF en el HTML se denomina RDFa, que es lo que permite que los robots de búsqueda consuman información semántica del RDF desde el HTML. Ello tiene efectos en el posicionamiento, como ya hemos dicho. Pero lo importante es el RDF que, sin descuidar lo que pueda tener de interés en SEO a través de su publicación resumida en forma de RDFa, es el que posibilita estrategias HCI (Human Computer Interaction) orientadas a explotar el grafo de conocimiento subyacente de manera relevante para las personas y, por ende, abre el camino a nuevos modelos de negocio basados en el descubrimiento de conocimiento y en la presentación de conocimiento relevante just in time.

    Dicho esto el problema suele consistir en discutir, no acerca del grafo de conocimiento y de una verdadera estrategia semántica, sino sobre la bondad de los microdatos frente al RDFa y, en última instancia, frente al RDF en el marco de una conversación que considera que toda estrategia semántica tiene sentido en el marco de una batalla por el SEO, lo que resulta ser, como hemos tratado de mostrar, un punto de vista que no toma en cuanta algunas de las posibilidades más relevantes de la web semántica.

    En todo caso, creemos que no existe (ni existió) tal batalla entre formatos, ni una situación de "microdatos vs RDFa", al menos para los grandes consumidores de dichos datos: los robots de búsqueda. La situación actual es que Google, y el resto de sistemas de búsqueda, quieren los datos que están implícitos en las páginas HTML, y parece no importarles mucho el formato usado, siempre que éste sea estándar. En este sentido, cabe indicar que schema.org es un "estándar de facto", creado y promovido por 4 empresas (dependiente por tanto de Bing, Google, Yahoo y Yandex), y no de una entidad certificadora independiente, como W3C, IEEE o ECMA; mientras que RDFa y RDF son estándares de World Wide Web Consortium (W3C).

    Hay que señalar que los Microdatos existentes se refieren a un conjunto ontológico generalista y bastante reducido. Además, el método de extensión de vocabularios y tipos de entidades definido en schema.org, que se acaba de modificar este mes de mayo, parece poco robusto, si de lo que ese trata es de soportar proyectos altamente expresivos.

    Como hemos indicado en este texto, en el core de nuestra arquitectura está la publicación de datos síncrona con la publicación del contenido como tal (HTML). Comenzamos a analizar en profundidad este asunto en el año 2011, definiendo nuestra solución actual (HTML + RDFa + RDF), y publicando algunos posts que os invitamos a consultar:

    A finales del año pasado, publicamos un nuevo post con nuestra visión sobre el estado actual de esta cuestión: El posicionamiento web y la Web Semántica. Semantic SEO

    Dicha visión sobre SEO (que no es más que una de las explotaciones posibles de un grafo de conocimiento) se puede resumir en:

    • Hay que ofrecer datos incrustados a los buscadores.
    • El formato puede ser microdatos o RDFa. Nuestra solución estándar (por la que hemos optado en GNOSS) ofrece RDFa, pero podríamos ofrecer Microdatos (recordando que hay que elegir uno de los 2) si fuera necesario.
    • Además de los datos incrustados en HTML, en GNOSS ofrecemos una vista RDF que sólo contiene los datos, pudiendo incluir propiedades adicionales a las incluidas en HTML+RDFa.

    Llegados a este punto, ¿por qué RDFa en lugar de Microdatos para una web basada en estándares de Web Semántica? Creemos que este pregunta tiene sentido en el caso de que se utilicen modelos de referencia (y no tanto en proyectos más informales de anotación semántica donde la relación entre el RDF y el RDFa puede ser mucho más casual)

    Un caso que puede entenderse con claridad es aquel que utiliza algún modelo de referencia, como es el caso de los museos que utilizan el vocabulario CIDOC-CRM. Los microdatos de schema.org ofrecen un vocabulario con diversos tipos de entidades, entre los que se encuentra CreativeWork, que podríamos aplicar en este caso, y que tiene subtipos más específicos como Painting o Sculpture. Sin embargo, estos subtipos no tienen propiedades específicas.

    Si revisamos las propiedades de CreativeWork nos encontramos con que podríamos usar las siguientes:

    • description. A short description of the item.
    • image. An image of the item. This can be a URL or a fully described ImageObject.
    • name. The name of the item.
    • alternativeHeadline. A secondary title of the CreativeWork.
    • author. The author of this content.
    • citation. A citation or reference to another creative work, such as another publication, web page, scholarly article, etc.
    • contentLocation. The location depicted or described in the content. For example, the location in a photograph or painting.
    • dateCreated. The date on which the CreativeWork was created.
    • keywords. Keywords or tags used to describe this content. Multiple entries in a keywords list are typically delimited by commas.
    • mentions. Indicates that the CreativeWork contains a reference to, but is not necessarily about a concept.
    • character. Fictional person connected with a creative work.

    Por nuestra parte, el HTML que estamos generando para nuestros proyectos de museos contiene las siguientes propiedades RDFa, provenientes de las ontologías y vocabularios CIDOC y FRBR (simplificamos la escritura del nombre de las propiedades para que sean legibles por humanos):

    Propiedades similares a Microdatos:

    • has_note. Descripción de la obra.
    • shows_visual_item. Imágenes de la obra.
    • has_title. Título de la obra
    • author.
    • is_documented_in. Trabajos documentales sobre la obra (con su título, autor, fecha, editorial y páginas)
    • has_current_location. Situación de la obra en el museo. Por ejemplo, "Sala 014".
    • has_current_location_type. Por ejemplo, "Expuesto".
    • textDate. Fecha de la obra, en texto. Por ejemplo, "Hacia 1632".
    • tagLabel. Cada una de las etiquetas de la obra.
    • represents_object. Objetos representados en la obra. Por ejemplo, "laúd" o "violín".

    Propiedades no disponibles en Microdatos:

    • movedFrom. De dónde llegó la obra, por ejemplo, "Colección Real (Convento..." 
    • identifier. Por ejemplo, "P01167".
    • used_general_technique. Técnica de la obra, por ejemplo "Óleo".
    • employed_support. Soporte de la obra, por ejemplo "Lienzo".
    • dimension. Medidas de la obra.

    Esto es un ejemplo que muestra la mayor expresividad del RDFa y, sobre todo, la del RDF que le sirve de soporte y fuente.

    Finalmente, conviene indicar que la representación RDF de cada obra contiene, además de los expresados en RDFa, los demás datos de la obra. Se trata de la información que está disponible como facetas de búsqueda, pero que tal vez no se incluya en la ficha de la obra (ni en el HTML ni, por tanto, en el RDFa), como la "Escuela" o las demás propiedades relacionadas con Iconografía (Tema, Fauna, Flora y Personajes u otras posibles). Ello dota al grafo de una enorme plasticidad y expresividad y, por ende, de unas grandes posibilidades de extenderlo mediante el recurso de enlazarlo con grafos homólogos o incluso, con entidades concretas de grafos heterogéneos (como estamos haciendo ahora con Didactalia). También de desarrollar nuevos servicios y funciones sobre esa clase de atributos que sólo están en el RDF y no en el RDFa. Ello podría dar lugar, siempre y cuando existieran actores decididos a ello, a realizar la World Wide Web de un modo un tanto diferente a cómo actualmente la conocemos, esto es, no como un gigantesco listado o unas páginas amarillas, sino organizada en un conjunto de espacios temáticos que acumulen información vinculada con un determinado ámbito de conocimiento o realidad de un modo significativo y útil para distintas audiencias. Así en el futuro podría existir una web de datos enlazados, o basada en un grafo de conocimiento, educativa o cultural o de biología molecular, o de viajes de aventura o de…, en el que el conocimiento relevante se muestre y sea interrogable sobre la base de entidades y atributos enlazados. Esto finalmente podría dar como resultado una geometría de la web diferente a la que conocemos, basada en un conjunto de web de datos que expresan y explotan un conjunto de grafos especializados de conocimiento. En todo caso, en la web actual o en cualquier modo en el que la web se desarrolle, la batalla por el SEO será, como hemos dicho al principio de este apartado, una batalla ineludible por prevalecer en un mundo donde la información es un bien que tiende a la hiperabundancia y la atención, por el contrario, un bien cada día más escaso.

     

    Ricardo Alonso Maturana. CEO GNOSS.

    Logroño, junio 2015.

     

    ...

    Artículo

    /

    Publicado el 3.9.2012 por Ricardo Alonso Maturana

    El futuro próximo de las tecnologías semánticas en la educación, la universidad, los media y la empresa: análisis de la Semantic Technology and Business Conference 2012 (SF, Londres y NY)

    El nombre de estas conferencias es una declaración de intenciones: demostrar que la aplicación de tecnologías semánticas en servicios y empresas es un hecho, superando el estado de investigación académica que a menudo se le atribuye. No es extraño que sea el mercado anglosajón quien promocione este enfoque, centrando cada  presentación en casos prácticos y aplicaciones concretas. Esta es la descripción del tipo de presentaciones que buscan:

    "The Semantic Technology & Business Conference (SemTechBiz) is the foremost conference series on semantic technologies held each year, and covers a wide range of topics that are redefining the landscape. Please note that we are seeking compelling and thought provoking practitioner depictions of real-world experience.

     

     

    We strongly favor presentations that include:

    • In-depth case studies
    • Step-by-step how-to's
    • Real brands
    • Solid data and results

    Priority consideration is given to speakers with hands-on implementation experience and broad industry knowledge. Precedence is also given to presentations offering actionable ideas and substantive answers to specific, real-world questions (share the mistakes along with the successes!)".

    Durante este año se celebra esta conferencia en Berlín (febrero), San Francisco (junio), Londres (septiembre) y Nueva York (octubre). Aún sin conocer el programa final de la conferencia de Nueva York, a partir de los que se ha presentado en San Francisco y de lo previsto en Londres se pueden extraer interesantes conclusiones respecto al momento de aplicación de las tecnologías semánticas en negocios y servicios.

    En primer lugar, algunos gigantes tecnológicos están tomando posiciones explícitas en este mercado. Por una parte, IBM y Oracle, con enfoques diferentes, se presentan como proveedores de soluciones de explotación de datos e inteligencia empresarial, usando tecnologías semánticas. Oracle profundiza en la relación entre sus soluciones de bases de datos relacionales y su producto de almacenamiento y consulta de grafos (RDF), proporcionando soluciones de minería y descubrimiento de información. IBM presume de sus sistemas de inteligencia artificial, análisis del lenguaje natural y búsqueda semántica, cuyo mayor exponente ha sido el proyecto Watson y su triunfo en el programa de televisión Jeopardy. IBM, además, ha sido Gold Sponsor de la conferencia de San Francisco, enlazando hacia sus productos y servicios ECM: “Content in Motion, Delivering content in motion for better business value”. Las presentaciones y paneles en que han participado estos grandes jugadores han tratado sobre la explotación del conocimiento implícito en cantidades masivas de datos o, dicho de otro modo, en cómo responder a la pregunta por el sentido y la interpretación en un nuevo contexto caracterizado a la vez por la enorme capacidad de los sistemas instalados y los nuevos desarrollos basados en sensores para producir datos hasta el nivel de los terabytes, a la par que nuestra viejo modelo de computación profundamente administrada se muestra incapaz de afrontar el desafío. Como podéis ver en la enumeración de las presentaciones que os ofrezco a continuación, la capa semántica completará los sistemas de gestión e inteligencia de nuestras empresas y nuestras ciudades y, de hecho, se convertirá en el modo "inteligente" de hablar con ellos:

    • You have Terabytes Worth of Triples, Now What? -- Mining Insights from Your Semantic Data Store, con Xavier Lopez y Zhe Wu, de Oracle Corporation: “Representing data in graph (triples) format is indispensable but not the whole story; you need to make sense out of the millions or billions of triples you have gathered. The dearth of business intelligence (BI) and data mining (DM) tools for RDF data leaves an analyst little choice but to run SPARQL queries, and perform logical inferences as the only way to analyze semantic data
    • PANEL: Linked Enterprise Data Patterns, con David Wood, de 3 Round Stones Inc, Arnaud Le Hors, de IBM y Ashok Malhotra, de Oracle: “Linked Data is rapidly becoming an alternative mechanism for data integration within large enterprises and a means of connecting the disparate APIs of enterprise software products.
    • Future Directions in Social Search and Analytics at IBM, con Bob Foyle, de IBM: “Search applications can be greatly enhanced when they incorporate relationships between the query, the content and the people analyzing information and the content itself.”
    • SCRIBE, a Semantic Model that Help Cities Become Smart, con Rosario Uceda-Sosa, de IBM: “Despite the progress made in semantic technologies and standards, semantic industry-strength models in complex domains are few and hard to use. However, data semantics is at the core of complex, heterogeneous and siloed systems like smart cities.”
    • Deriving Social Insight from Existing Business Applications, con Marie Wallace, de IBM: “In this presentation we will examine how we can we apply social analytics to a existing business application which is not a “social application” per sei. We will demonstrate how these applications hide a rich set of social and semantic links within their underlying schemas, relationships that may be well hidden and distributed across a myriad of tables and cells, but they are there nonetheless and can be represented as a socio-semantic graph on which social analytics can be easily applied.”
    • Bringing Location Analysis to the Semantic Web with the OGC GeoSPARQL Standard, con Matthew Perry y Xavier Lopez, de Oracle: “The Open Geospatial Consortium has recently introduced the GeoSPARQL standard for spatial query on the Semantic Web. Spatial data is pervasive on the Web, and standards from the OGC play a critical role in location-based applications that we use every day. GeoSPARQL standardizes key features, such as spatial datatypes and SPARQL extension functions, that will bring the Geo Web into the Semantic Web.”
    • Benefits and Applications of W3C's Provenance Standards in Enterprise Semantic Web Applications, con Reza Bfar, de Oracle: “This session will give a brief-overview of the current work going on by W3C's Provenance group. Most of the session will focus on why enterprise applications should implement it, some of the architectural benefits the standard offers, and how enterprise customers will benefit from its implementation.”
    • Semantic Spend Classification: The Convergence of Unstructured Data Processing, Semantics and Data Mining, con Arivoli Tirouvingadame, de Oracle: “Spend Classification is the process of managing how to spend money effectively in order to build products and services. The term is intended to encompass such processes as outsourcing, procurement, e-procurement, and supply chain management. Spend Classification is a key component of spend management that classifies transactional spend data into standard spend taxonomies thus enabling rich Spend Analytics. This data is typically highly unstructured in its nature but has deep value. Unlocking the value buried in this data requires synergistic use of linguistic text processing techniques, data mining and business intelligence resulting in high value results to the organization.”
    • Watson Goes Back to School - And what it tells us about the evolving role of semantic technology, con Christopher Welty, de IBM Research: “However, over time, the failure of the AI community to achieve this end-to-end vision made many, especially those in NLP, question the endpoint. In other words, to doubt the value of semantic technology. In this talk, we show that it was the vision, not the technology, that deserved to be doubted. Semantic technology has significant value in accomplishing tasks that require understanding, but it is not the endpoint.

    En segundo lugar, empresas como Google, Yahoo, Microsoft y Yandex, promueven la semantización de la Web mediante la iniciativa de microdatos schema.org, incrustando metadatos en el código HTML de las páginas. Como resultado, son cada vez más capaces de aplicar y vender sus sistemas de búsqueda en mercados verticales, como viajes o productos, con resultados más ricos en facetas y contextos. Las presentaciones en las que han participado son:

    • Semantic Search, con Thanh Duc Tran de AIFB y Peter Mika de Yahoo. “In this tutorial, we aim to provide a comprehensive overview on the different types of semantic search systems, and discuss the differences in the techniques underlying them. Both the application of Semantic Web technologies to the IR problem and vice versa, the application of IR techniques to Semantic Web problem are covered by this tutorial. In particular, focus is given to four topics of semantic search which have attracted much interest recently
    • PANEL: Schema.org, con Ivan Herman, de World Wide Web Consortium, Alexander Shubin, de Yandex, Dan Brickley, de Google, Evan Sandhaus, de New York Times Company, Jeffrey W. Preston, de Disney Interactive Media Group, John Giannandrea, de Google, Peter Mika, de Yahoo, R.V. Guha, de Google y Steve Macbeth, de Microsoft: “Just prior to the 2011 SemTechBiz Conference in San Francisco, Google, Yahoo, and Bing announced the creation of schema.org. Since that time, the effort has enjoyed a lot of attention and activity.

    Además de estos grandes players tecnológicos, importantes empresas basadas en el conocimiento, en sectores como la educación, los medios de comunicación o las ciencias de la salud, están desarrollando productos y servicios basados en tecnologías semánticas. No se trata de proyectos marginales o de investigación, sino que más bien expresan el inmediato mainstream tecnológico, a la par que muestran una estrategia de fondo y una apuesta clara por el uso de tecnologías semánticas. Estas grandes empresas sectoriales se están apoyando, para el desarrollo de estos productos y servicios, en un conjunto de empresas tecnológicas que se ofrecen como proveedores de soluciones y servicios en el ámbito de la semántica, y que, en la actualidad, son mucho menores en tamaño que los grandes proveedores anteriores. Son este conjunto de empresas que ahora emergen las que, en los últimos años, han realizado la transición la investigación a las aplicaciones y las que han construido la paleta de soluciones que hará de las tecnologías semánticas las tecnologías estrella en IT en el futuro inmediato. 

    Grosso modo, entre este conjunto de empresas podemos distinguir tres grupos: aquellas que son proveedores de soluciones de computación y bases de datos, las que lo son de plataforma y, por último, aquellas que ofrecen servicios a la carta, fundamentalmente de representación del conocimiento. En el siguiente cuadro pueden verse el conjunto de empresas de servicios que patrocinan o participan de algún modo en estos eventos. No están todas las que son, pero son todas las que están. Probablemente esta lista aumentará antes del cierre de la convocatoria del evento de Nueva York, previsto para el 15 de octubre.

     

    Semantic Technology and Business Conference 2012

     

    San Francisco 2012

    Londres 2012

    New York 2012

    Epimorphics Ltd (Reino Unido)

     

    Silver

     

    Fluid Operations (Alemania)

    Silver

    Silver

     

    Ontoba (Reino Unido)

     

    Sponsor

     

    Poolparty (Austria)

    Silver

    Exhibitor

     

    Cambridge Semantics (R.U.)

    Silver

     

    Silver

    Franz Inc (EEUU)

    Exhibitor/Sponsor

     

    Silver

    Orbis Technologies (EEUU)

    Silver

     

    Silver

    REvelytix (EEUU)

    Gold

     

    Silver

    Stardog (EEUU)

    Exhibitor/Sponsor

     

    Silver

    Yarcdata (EEUU)

     

     

    Silver

    Bigdata by systap (EEUU)

    Exhibitor/Sponsor

     

    Sponsor

    Ontotext (Bulgaria)

    Platinum

     

     

    IBM (EEUU)

    Gold

     

     

    beInformed (Holanda)

    Silver

     

     

    Elsevier (Holanda)

    Silver

     

     

    Profium (Finlandia)

    Silver

     

     

    TopQuadrant (EEUU/RU)

    Silver

     

     

    Expert system (Italia)

    Exhibitor/Sponsor

     

     

    Fynydd (EEUU)

    Exhibitor/Sponsor

     

     

    iQSer (Chequia)

    Exhibitor/Sponsor

     

     

    Knowledge Based Systems

    (EEUU)

    Exhibitor/Sponsor

     

     

    Morgan & Claypool Publishers

    (EEUU)

    Exhibitor/Sponsor

     

     

    Pure Discovery (EEUU)

    Exhibitor/Sponsor

     

     

    SindiceTech (Ireland)

    Exhibitor/Sponsor

     

     

    SkyTech Solutions (EEUU)

    Exhibitor/Sponsor

     

     

    Tom Sawyer Software (EEUU)

    Exhibitor/Sponsor

     

     

     

    Como hemos señalado anteriormente, el impacto de estas tecnologías va a resultar particularmente importante en algunos sectores, como pueden ser los de la educación, la educación superior, las ciencias de la salud y los medios de comunicación. Entresacamos a continuación las participaciones y conferencias que nos han parecido de mayor interés y alcance en estos sectores mencionados:

     

    EDUCACIÓN Y UNIVERSIDAD

    • LONDRES: Building a Linked Data Graph for Education Tom Heath, Talis Education Ltd: "Just as a social and professional graph have emerged through Facebook and LinkedIn, so too is an education graph emerging describing connections between students, teachers and the learning resources they use. The Talis Aspire application allows university lecturers to create lists of learning resources for a particular course, which are then expressed according to the Linked Data paradigm"

    Paper relacionado: Talis Aspire: Assembling and Applying an Education Graph based on Learning Resources in Universities

    • LONDRES Y SAN FRANCISCO: Linked Data at Pearson: The Proof is in the Putting Madi Weland Solomon, Pearson Plc: "This presentation offers up a recent Pearson proof of concept to reveal the promise of Linked Data as a path to approach issues such as DAM, Enterprise Taxonomy Management, Enterprise Search, and even alignment of content to education standards".
    • NUEVA YORK: Watson Goes Back to School - And what it tells us about the evolving role of semantic technology Christopher Welty, IBM Research: "In the traditional vision of AI, understanding flowed from perception through language to knowledge. It had always been envisioned that this understanding would be in some precise and unambiguous knowledge representation, and that all meaning processing would happen in this representation. This is the root of all semantic technology today".
    • SAN FRANCISCO: Project schoolKID: Linked School Data Hans Constandt, ontoforceTom Vankemmel, schoolKID: "SchoolKID (school Knowledge and Information dashboards) helps principals & their administration to address bottlenecks associated with finding scattered information about students with powerful but simple, attractive dashboards".

     

    BIO-FARMA

    • CONFERENCIA DE LONDRES

    Semantic Drug Research: Discovery of New Biomarkers and Phenotypes by Text Analytics Carlo A. Trugenberger Co-founder and Chief Scientific Officer / InfoCodex Semantic Technologies AG: "The ultimate goal of semantic technologies and text analytics is to devise software that can "understand" the meaning of free text in the practical sense of providing new, actionable information condensed out of a body of documents".

    A Faceted Browser for Drug Discovery: Integrating & Querying Big Data Hans Constandt Senior Consultant Information Integration / Eli Lilly: "Our project that joins the capabilities of semantic information integration & faceted browsing visualization. Faceted visualization of linked data spanning internal, external public and subscribed sources can provide an effective and generally applicable mechanism for deriving knowledge from the wealth of available integrated information. Any data source semantically exposed and woven into an information graph becomes available for faceted browsing access. This includes sources ranging from drug discovery to clinical development and operational support functions".

    Using and Improving the D2RQ Open-source RDB to RDF Mapping Tool Didier E. Chalon Data architect, New Medicines Informatics / UCB Pharma s.a.James Snowden Senior Scientist, New Medicines Informatics / UCB Celltech: "D2RQ is an open-source, freely available, relational database to RDF mapping technology. Its features and performance in a corporate environment have led UCB to identify it as the preferred tool for several data integration scenarios - with however possibilities for improvement in different areas".

    • CONFERENCIAS DE SAN FRANCISCO Y NUEVA YORK

    Using Linked Semantic Data in Biomedical Research and Pharmaceuticals: "This presentation and discussion includes key pharmaceutical Information experts on the value and promise of linked semantic data. Areas to be discussed will include: Drug Development, Clinical Data, Genomics, Regulatory, and Personalized Medicine".

    Faceted Search and a Slick UX for Integrating and Querying Big Data Hans Constandt Co-founder - ontoforce: "This project specifically joins the capabilities of semantic information integration & faceted browsing with slick and easy to use interfaces for multiple pharma and biotech mining internal and external data".

    Semantic Web Technologies in Life Sciences: Prejudices, Limitations, Advantages and Use Cases Martin Romacker Senior Knowledge Engineering Consultant Novartis Pharma AG: "Large-scale initiatives like openphacts in chemistry or biomart in the biological domain witness the increasing importance of having data available in a semantically reusable way with open access".

     

    MEDIOS DE COMUNICACIÓN

    • CONFERENCIA DE LONDRES

    Dynamic Semantic Publishing Empowering the BBC Sports Site and the 2012 Olympics Jem Rayfield Lead Technical Architect / BBC Borislav Popov Head of semantic annotation and search - Ontotext Lab / Peter Haase Lead Architect R&D fluid Operations: "It describes the latest developments in the transformational technology strategy the BBC Future Media & Technology department is using to evolve from a relational content model and static publishing framework to a fully dynamic semantic publishing (DSP) architecture".

    En cuanto a la BBC, te recomiendo que veas la presentación relacionada BBC Dynamic Semantic Publishing, que hemos subido en la comunidad NextWeb de gnoss.com

    • CONFERENCIAS DE SAN FRANCISCO Y NUEVA YORK

    rNews: The most versatile way to mark up Publishing Metadata Andreas Gebhard Managing Editor Getty Images, Inc.Evan Sandhaus Semantic Technologist - New York Times Company: "The International Press Telecommunications Council (IPTC) released rNews 1.0 in October 2011 after one year of development and community outreach work. With the integration into schema.org, rNews has quickly become the most versatile way to mark up publishing metadata in a Semantic Web compliant way".

    Omnimedia: Keeping It Simple: A Case Study in Shifting Expectations Barbara E McGlamery Taxonomist Martha Stewart Living Omnimedia: "This case study will compare how two companies approached the challenges involved with defining realistic objectives for using the Semantic Web and what obstacles were encountered in the development process".

    Semantics at Tribune Company Keith P DeWeese Director, Information and Semantics Management -The Tribune Company: "The Tribune Company has been working with various semantic technologies for years, but a formal semantic program was not until 2007. This presentation will cover the foundation of that program, achieved, lessons learned, and the forward-looking view the Tribune Company regarding a suite of semantic technologies that it will deploy in the future".

    Using the Semantic Web for online Sports News Stories Daniel Schwabe Professor Dept. of Informatics, PUC-Rio / Rafael Pena Product Owner of the Sports Data System Globo.com: "We present the use of a Domain Model for Soccer, together with a Discourse Model, were used to identify story leads for the largest Brazilian sports news website".

    AP Metadata Amy Sweigert Vice President of Information Management The Associated Press: "With the introduction of AP Metadata Services, the Associated Press is offering a standardized AP News Taxonomy, which in combination with the AP Tagging Service enables the automated creation of rich, semantic metadata".

    Agence France-Presse brings businesses the next generation of personalized news delivery/services with semantic technology. Janne Saarela CEO ProfiumErick Briere, Agence-France Presse: "AFP selected a semantic technology solution for managing personalized customer subscriptions supporting both the scalability and the high-availability requirements needed for today's real-time global news distribution business".

     

    En conclusión: todo parece apuntar que las tecnologías semánticas han alcanzado el grado de madurez y de legitimación tecnológica suficiente como para ser bien aceptadas en el conservador mundo de los negocios, especialmente en algunos sectores y funciones, como creemos haber mostrado. Esta noticia irá llegando en oleadas en los próximos meses, modificando profundamente algunas costumbres y enfoques y, por ende, la cultura IT de muchas organizaciones y empresas.

    ...

    Artículo

    /

    Publicado el 14.12.2011 por Ricardo Alonso Maturana

    Explotación de metadatos embebidos: posicionamiento, recuperación de la información y generación de contextos

    En artículos anteriores de Watermelon he ido escribiendo algunas entradas sobre la web de los datos y su relación con nuevos sistemas de búsqueda. Estas entradas son:

    Además de las técnicas de posicionamiento tradicionalmente aplicadas al HTML (lo que podemos denominar SEO orgánica), Google, Bing y otros motores de búsqueda recomiendan el uso de metadatos embebidos en el HTML. El uso que dan a estos datos es doble. 

    • Primero, consiguen información más detallada del significado del documento, es decir, más semántica. Los metadatos embebidos definen expresamente que un texto es el nombre de una película, o las calorías de una receta, o el autor de un libro. Esto les permite presentar unos resultados de búsqueda más ajustados, e incluso que cada resultado tenga una presentación enriquecida con precios, valoraciones de los usuarios, autores, etc.
    • Segundo, los más importantes motores de búsqueda están promoviendo verticales de sus servicios, de manera que la búsqueda de recetas, viajes o libros pueda hacerse en páginas específicas. En dichas páginas se presentan facetas de búsqueda (por ejemplo, para filtrar recetas por ingrediente), que solo pueden ser obtenidas desde metadatos semánticos incrustados en el HTML.

    Ninguno de estos motores ha especificado aún el peso que confieren a la existencia de metadatos respecto a los otros parámetros conocidos de posicionamiento, ni siquiera al nivel cualitativo que suelen hacerlo. Sin embargo, la recomendación de uso está ahí y es clara.

    Pasemos ahora al asunto de los formatos. Google declara leer RDFa y microformatos, además de microdatos, el reciente estándar que promueve junto a Bing y Yahoo. Por otra parte, nos consta que indexa y posiciona el contenido RDF asociado al HTML.

    En nuestra opinión, una solución completa en este ámbito, que aporte el máximo valor de posicionamiento, además de las técnicas HTML habituales debería componerse de:

    • RDFa embebido, con vocabularios estándar para expresar las entidades reconocidas por los motores de búsqueda.
    • Microformatos, si la información se refiere a alguna de las entidades de las especificaciones aprobadas (como hCard para personas, o hCalendar para eventos), o a alguno de los más prometedores o exitosos borradores (como hProduct o hRecipe).
    • Microdatos, aún cuando la especificación, por su inmadurez, no llegue a cubrir el total de los datos expresados en los otros formatos.
    • RDF vinculado al HTML, que permita el enlace de datos y la construcción de contextos que enriquezcan la información.

    Esta es la solución que hemos puesto en marcha en www.mismuseos.net, por ejemplo y en otros lugares de GNOSS.

    Reconociendo la importancia del posicionamiento en buscadores de los recursos, el problema de la representación del conocimiento implícito en un recurso quedaría muy incompleta si no consideráramos a la vez otras explotaciones del mismo. Este es el asunto del que se ocupa la Web Semántica.

    La Web semántica incide en el problema de falta de significado comprensible por las máquinas en los documentos Web, que, como consecuencia, dificulta una mejor explotación de los datos y la construcción de una Web de los datos y Web de los datos enlazados. Esta mejora debería verse en aplicaciones o sistemas conocidos, como las búsquedas, asistentes personales o sistemas de recomendación; y en sistemas incipientes o por llegar, como  descubrimiento de datos, análisis de tendencias, estudios emocionales, identidad digital, etc.

    La Web Semántica resultará tanto más útil en la medida en la que las máquinas comprendan de un modo más preciso y profundo el significado de los recursos, lo que depende críticamente de la expresividad de los formatos de representación del conocimiento que utilicemos y, en este sentido, OWL-RDF no tienen competencia. Si lo que queremos es desarrollar un sistema de recuperación de la información eficiente e intuitivo, un sistema de generación de contextos pertinentes y poco ambiguos, o un sistema de recomendación inteligente, los microformatos y microdatos resultarán claramente insuficientes para muchísimas explotaciones verticales. Esto refuerza lo que hemos denominado un poco más arriba “solución completa en este ámbito”, pero en cierto modo invierte el orden de las prioridades: convendrá utilizar un estándar ontológico o vocabulario en primer lugar, para reforzarlo con microdatos y microformatos cuando de comunicarse con los buscadores se trate.

    Imagen vía: https://promocionmusical.es/

    ...

    Artículo

    /

    Publicado el 10.6.2010 por Ricardo Alonso Maturana

    Remixing Social and Search: el futuro de las estrategias de búsqueda y recuperación de la información

    ENGLISH VERSION/ TEXTO EN ESPAÑOL

    Todavía hoy, nuestra experiencia corriente de búsqueda tiene que ver con la presentación en una simple lista de contenidos ordenados de acuerdo con un cierto criterio de relevancia. Por otro lado, la experiencia de búsqueda en redes sociales es, por lo general, insuficiente cuando no pobre.

    El pasado 5 de mayo, en el marco de la Web 2.0 Expo celebrado en San Francisco, Matt Maclaurin, director del FUSE Lab de Microsoft realizó una conferencia titulada: FUSE Labs: Remixing Social Search. No fue la única que se interrogaba sobre la futura naturaleza de las búsquedas en internet, pero sí, a mi jucio, la mejor de todas en este campo concreto. Lamentablemente no colgó la presentación, por lo que no puede encontrarse entre la documentación del Congreso.

    En gnoss.com estamos trabajando en el desarrollo de soluciones de descubrimiento, exploración y recuperación de información que van un paso más allá de lo que podemos denominar 'experiencia Google'. El objetivo es construir soluciones de recuperación y búsqueda de información que exploten las enormes posibilidades derivadas del crecimiento acelerado de la web social. Estamos investigando y trabajando sobre los modos en los que pueden relacionarse la web social y las estrategias de búsqueda basadas en ella, lo que podemos llamar #SOCIAL and #SEARCH;  y ello con el objetivo de descubrir nuevas estrategias que conecten la web de los datos (lo que será la web semántica) con su desarrollo social.

    Aunque resulta difícil establecer con exactitud en qué consistirá nuestra experiencia de búsqueda dentro de no tanto tiempo, no lo es tanto describir cuáles serán algunos de sus aspectos fundamentales. Probablemente, el más relevante de todos ellos tendrá que ver con el hecho de que el proceso de descubrimiento y exploración de la información será menos documental y más social, más inteligente, razonado y restrictivo y, sobre todo, más contextual y personal. 

    La riqueza social de la web precisa de nuevos modos de descubrir y presentar la información, de nuevas herramientas que provean de vistas y perspectivas de lo que ocurre y nos interesa en los espacios sociales en los que participamos, que nos ofrezcan, en suma, nuevos modos de acceder, agregar, categorizar y presentar, todo ello del modo más automático posible, la información cuando exploramos nuestras redes sociales; que faciliten, por último, el descubrimiento de información, junto con sus contextos, mediante procesos de inferencia y razonamiento, en lugar de ofrecer como resultado desmesuradas listas ordenadas por relevancia.

     

    #SEARCH y #SOCIAL

    Llamaremos #SEARCH a nuestra experiencia corriente de búsqueda y recuperación de información tal y como está construida de un modo general en la actualidad. #SEARCH designa lo que antes hemos denominado la “experiencia google”. Por su parte, #SOCIAL designará nuestra experiencia de vida digital entendida de la manera habitual en la que la gente la desarrolla en entornos digitales tales como Facebook, Tuenti, Twitter, Flickr o gnoss.com

    Indudablemente, #SEARCH hace referencia de manera inmediata a un aspecto esencial de nuestra experiencia de la web. Hasta hace relativamente poco tiempo la experiencia común de la web estaba determinada por la satisfacción que producía en el usuario su experiencia de búsqueda.

    En los últimos años, sin embargo, la web social ha incorporado una dimensión nueva a nuestra experiencia común de internet. Para muchas personas, #SOCIAL representa ahora su experiencia cotidiana de la web, una experiencia en muchos casos más intensa y continuada que la que puede ofrecer #SEARCH. El acelerado crecimiento y evolución de #SOCIAL está ligado de manera muy profunda al  modo en el que las personas se enfrentan y resuelven los procesos de búsqueda, exploración, descubrimiento y recuperación de la información.

    El concepto de #SOCIALSEARCH está en el fondo de todos los proyectos que se están replanteando la experiencia humana con la tecnología. Matt Maclaurin consideraba, en la conferencia a la que nos hemos referido, que sin duda va a ser uno de los conductores tecnológicos de los próximos 3 años; sin embargo ¿a qué nos referimos exactamente con él? ¿A buscar información y documentación en nuestras redes sociales? ¿A buscar información y documentación a través de nuestra red social, por ejemplo preguntando o suscribiéndome a lo que hacen determinadas persona o grupos de trabajo? ¿O bien a suscribirme a conceptos o ideas, como puede ser un #hastag, en el marco de una red social? ¿A buscar personas o amigos con intereses parecidos o conexos con los nuestros en sitios como Delicious o GNOSS, en los cuáles los usuarios muestran información etiquetada y organizada sobre sus hallazgos en internet?

    A diferencia de lo que ocurre con #SEARCH, en  #SOCIAL los contenidos y datos llevan incorporados un contexto social, que los caracteriza y enriquece y que, además, puede funcionar muy bien como criterio de búsqueda. Esta nueva clase de búsquedas sociales requieren de herramientas que incluyan procedimientos de interrogación y razonamiento humanos, más sofisticados e inteligentes que los que funcionaban en #SEARCH, como son los que proporciona la web semántica. En efecto, estamos fusionando o remezclando nuestras experiencias de búsqueda, exploración y descubrimiento de conocimiento con nuestra vida social en la red. En este nuevo escenario, #SEARCH necesita de #SOCIAL para crear y dar sentido a los datos. En el futuro, #SOCIAL y #SEARCH no serán actividades separadas: #SEARCH buscará en #SOCIAL y #SOCIAL dará sentido e interpretará a #SEARCH. Por último, #SEARCH necesita de #SOCIAL para generar contextos, especialmente, contextos personales de trabajo y aprendizaje. 

     

    Conectividad social e integración de la información

    Los siguientes gráficos muestran la relación entre la conectividad social y la conectividad de la semántica de la información (del modo en el que los humanos "acordamos" una interpretación común de las cosas) en el marco más amplio de la evolución de la web. Como se ve, la fusión de  #SOCIAL and #SEARCH aparece como una construcción inevitable en ese marco más amplio (se trata del mismo fenómeno que es observable en evolución de los lenguajes naturales: ¿cómo, si no, resulta posible que un grupo humano grande o muy grande haya llegado a interpretaciones tan comunes acerca del uso de las palabras?)

     

     

    La segunda figura abunda en esta idea de conectividad entre personas e información conforme avanzamos colectivamente en los procesos de digitalización de la información. En la parte correspondiente a la tercera década de la web, se muestra un grafo con algunos de los proyectos que están colaborando en la construcción de la web semántica abriendo y enlazando sus datos.

     

     

     

     

     

     

    ENGLISH VERSION/ TEXTO EN ESPAÑOL

    Even today, our common search experience has to do with the presentation in a simple list of contents sorted according to some relevance criterion. On the other hand, the search experience on social networks is usually insufficient if not poor.

    On 5th May, in the context of the Web 2.0 Expo in San Francisco, Matt Maclaurin, director of the FUSE Lab at Microsoft held a conference called: FUSE Labs: Remixing Social Search. It was not the only one who wondered about the future nature of Internet search, but, in my opinion, it was the best of all in this particular field. Unfortunately he didn’t upload his presentation, so it can’t be found among the documents of the Conference 

    In  gnoss.com, we are working on developing solutions for discovery, exploration and retrieval of information that go a step beyond what can be called 'Google experience’. The aim is to build search and retrieval information solutions that exploit the enormous opportunities arising from the rapid growth of the social web. We are investigating and working on ways of relating the social web and search strategies based on it. This is what we can call #SOCIAL and #SEARCH; all that with the aim of finding out new strategies to connect the web of data (what the semantic web will became) with its social development.

    Although it is difficult to establish exactly what our search experience will involve in not so long, it isn’t so much to describe what some of its basic aspects will be. The most important of all them will probably have to do with the fact that the process of discovery and exploration of information will become less documentary and more social, more intelligent, reasoned and restrictive and, above all, more contextual and personal.

    The social wealth of the Web requires new ways of discovering and presenting information and also new tools that provide views and perspectives of what is happening and what we are concerned with in the social spaces where we participate. In short, we need that it offers new ways to access, add, categorize and present information as automatically as possible when exploring our social networks. Finally, it has to facilitate the discovery of information, along with their contexts, through processes of inference and reasoning instead of offering results of enormous lists sorted by relevance.

     

    #SEARCH and #SOCIAL

    We’ll call #SEARCH to our common experience of search and retrieval of information as it is built in general way at present. #SEARCH designates what we have previously named the ‘Google experience’. For its part, #SOCIAL designates our digital life experience understood in the usual way in which people develops it in digital environments such as Facebook, Tuenti, Twitter, Flickr or gnoss.com

    Undoubtedly, #SEARCH refers to an essential aspect of our web experience. Until relatively recently, the common experience on the web was determined by the satisfaction that the search experience produced in the user.

    However, in recent years, the social web has added a new dimension to our common experience of the Internet. For many people, #SOCIAL  now represents their everyday experience of the Web, which is often a more intense and continuous experience than the one that #SEARCH can offer. The rapid growth and evolution of #SOCIAL is linked in a very deep way to the way in which people face and solve the process of search, exploration, discovery and retrieval of information.

    The #SOCIALSEARCH concept lies at the bottom of all projects that are redefining the human experience with technology. Matt Maclaurin considered at the conference commented above that it is certainly going to be one of the technological drivers of the next three years. But what do we mean exactly with that? To seek information and documentation in our social networks? To search for information and documentation through our social network, for example asking or subscribing to what certain people or workgroups do? Or to subscribe to concepts or ideas, such as a # hastag, in the context of a social network? To find people or friends with common or related interests in places like Delicious or GNOSS, where users show tagged and organized information about their findings on the Internet?

     

    In this new context, #SEARCH needs #SOCIAL to create and give meaning to data. In the future, #SOCIAL and #SEARCH will not be separate activities: #SEARCH will look for information in #SOCIAL, and #SOCIAL will give meaning and will interpret #SEARCH. Finally, #SEARCH needs #SOCIAL to generate contexts, especially personal learning and work contexts.

    Unlike what happens with #SEARCH, in #SOCIAL data and content carry a social context that characterizes and enriches them, and it also can work very well as a search criterion. This new kind of social search requires tools that include query procedures and human reasoning, more sophisticated and intelligent than those which worked in  #SEARCH, such as those provided by the semantic web. In fact, we are merging or remixing our search, exploration and knowledge discovery experiences with our social life on the Net. In this new scenario, #SEARCH needs #SOCIAL to create and give meaning to data. In the future, #SOCIAL and #SEARCH won’t be separate activities: #SEARCH will look for information in #SOCIAL and #SOCIAL will interpret and give meaning to #SEARCH. Finally, #SEARCH needs #SOCIAL to generate contexts, especially personal contexts of work and learning.

     

     

    Social connectivity and integration of information

    The following charts show the relationship between the social connectivity and the connectivity of the semantic information (the way in which humans ‘agreed’ a common understanding of things) in the broadest context of the evolution of the web. As shown, the fusion of #SOCIAL and #SEARCH appears as an inevitable construction in that broader context (this is the same phenomenon that can be observed in the evolution of natural languages: otherwise, how is it possible that a large or very large human group has come to so common interpretations about the use of words?).

     

     

    The second figure goes on about this idea of connectivity between people and information as we move forward collectively in the process of information digitalization. The share of the third decade of the Web shows a graph with some of the projects that are collaborating to build the semantic web opening and linking their data.

     Figure 2. Evolution of web tools from web 1.0 to 3.0

     

     

    ...

    Artículo

    /

    Publicado el 24.7.2009 por Ricardo Alonso Maturana

    Watermelon

    tipo de documento Artículo

    Watermelon

    El título de este blog requiere una explicación. Y el propósito también. Se la debo a algunas personas. No a muchas, claro. Pero, de manera invariable, el reducido grupo de gente de mi vida offline a la que había hecho saber, confidencialmente por supuesto, que me proponía empezar a escribir un blog, cuyo título además era Zumo de Melón, se sintieron alarmadas. Y no sólo porque saben de sobra que los diarios personales no se escriben para ser publicados, por lo que redactar un blog les parece de una vanidad egocéntrica que raya en lo insoportable, o porque crean que hay demasiada gente que escribe y poca que lee, lo que les inclina a pensar que sería muy sensato por mi parte no molestar...más, sino sobre todo porque les parece que, sea lo que sea un blog, probablemente no estoy capacitado para ello. Y el título elegido no hace más que reforzarles en esta convicción. "Sencillamente es espantoso", me dijo Isabel. Espantoso. Necesito explicarme.

    Cuando yo era pequeño era relativamente frecuente que cualquier adulto que se preciara de tal se refiriera a tí diciéndote que eras un melón. En la España de los sesenta, atiborrada de niños, esta era una forma relativamente amable de señalar que uno era un zoquete, un cero a la izquierda o que, en otra expresión de la época, tenía la cabeza llena de serrín. No sé si ahora se usa mucho esta expresión, quiero decir si los nativos digitales la usan o conocen; quizá no la conozcan porque ahora escasean esta clase de melones, pero en el mundo infantil de entonces, el de los sesenta, abundaban los melones y las melonadas, según recuerdo que decían los padres y profesores, en general poco amigos de la renovación pedagógica y cosas por el estilo.

    Con la regularidad de un diapasón mensual, Gangoiti, el peluquero del barrio, pasaba la máquina por aquel cultivo de melones, dejándoles con la leve pelusilla (o los cañones) de un melocotón. Las madres de entonces aliviaban su culpa con un "no se lo deje muy corto", a lo que aquel hombre de principios respondía, invariablemente, con un "no se preocupe". Pero a poco que levantaras la vista del DDT para ver cómo discurría el asunto sobre la tabla que se colocaba cruzando los brazos de la silla del barbero a modo de asiento, veías al contraluz el melón mondo y lirondo, del que sólo sobresalían unas orejas como de Dumbo.

    Así pues, el mundo que yo veía desde casi cualquier perspectiva era un melonar. Por supuesto, nadie se imaginaba que de allí pudiera salir una sola idea sobre, pongamos por caso, la web semántica o la decodificación del código genético. Y no sólo porque entonces esas cosas no se podían pensar todavía y hubieran resultado una ucronía de psiquiátrico, sino sobre todo porque la pedagogía de curso legal era muy poco fantasiosa y rara vez se permitía ninguna ensoñación que incluyera la idea de talento. Para cualquier chaval de mi generación era obvio que la inteligencia, fuera eso lo que fuese, vivía o habitaba en un melonar y se desplegaba por medio de la gamberrada, la burrada y el chiste, únicas armas entonces de supervivencia masiva. Así que cuando Luis, mi socio en este proyecto, dijo en una reunión que lo que estábamos haciendo era "puro zumo de cerebro", rápidamente entendí que pertenecíamos a la misma generación. Y no sólo porque sé contar (en este caso años) o porque entonces todavía se comía en las casas sesos y asaduras, sino sobre todo porque me pareció indubitable que habíamos tenido el mismo peluquero (o al menos uno que pertenecía a la misma categoría ontológica).

    Supongo que los menores de, pongamos, 25 o incluso 35 años no tienen mucha dificultad en identificar sus ocurrencias como zumo de cerebro, al fin y al cabo les han educado poniendo sumo cuidado en mantener su autoestima por las nubes, pero los que somos algo más mayores sabemos que, en nuestro caso, el zumo de cerebro es puro y simple zumo de melón.

    Cuando le dije a Isabel que iba a escribir un blog, me miró como si me hubiera salido una erupción cutánea de boletus edulis. Hay que decir en su descargo que tiene más o menos mi edad. Cuando se repuso, me preguntó de manera bastante educada dadas las circunstancias, pero obviamente preocupada, que cómo se iba a llamar. Cuando le dije que "Zumo de melón", percibí con toda claridad que no estaba contribuyendo a despejar sus dudas sobre mi buen juicio. "Espantoso", fueron sus últimas palabras, ya lo saben.

    Pilar no estaba muy segura de lo que era un blog, de modo que con su acostumbrada sensatez pasó por alto el asunto del título para centrarse en lo fundamental: "Pero, ¿crees que es necesario? ¿No hay miles de personas que hacen eso?". "¿Qué?", pregunté. "Exhibirse". Definitivamente, era mejor no generar expectativas desmesuradas con el título; para ello, zumo de melón parecía una opción razonable, en especial teniendo en cuenta mis condiciones biográficas. El resto de la gente que dice apreciarme se condujo en los mismos o parecidos términos, con la excepción de Pedro Santana que señaló que el salto entre trabajar en el desarrollo de la web semántica y hacer literatura podía ser demasiado grande para mí, "quizás un salto mortal". Gracias Pedro. Prefiero pasar por alto los pensamientos que expresaron de manera sorda, y muda, Susana, Ana, Elena, María y otras personas que trabajan conmigo. Sólo el optimismo incurable de Pablo parecía no darse cuenta del potencial peligro que encerraba el asunto. De hecho, dice mucho de su carácter el que fuera el único que viera ...algo en la empresa (aunque a la enigmática luz que arrojan sus palabras sea difícil decir exactamente qué): "tienes que traducirlo al inglés, es más global".

    Es lo mismo que dijo Luis mientras escuchábamos, en el hotel Saratoga de Palma de Mallorca, a un grupo de aficionados locales cerrar la jam session de los lunes con una despiadada interpretación del Watermelon man de Hancock: "En inglés es más global". "¿El qué?". "El ridículo título de tu blog". "¿Más ridículamente global?". "Quizá la gente piense que escribes sobre jazz, eso podría ayudar, atraer algún lector, ya sabes". "Ummm". "Claro que sólo una vez". "Claro".

    "Watermelon, ¿Qué te parece? ¿No es chulo?" "No, no es chulo, es espantoso -me dijo de nuevo Isabel- pero al menos..." "¿Al menos qué?" "Es...¿más global?"

    Nada de zumo de melón, nada de mugre. Optimismo tecnológico, progresividad, rutilantes melenas... vida digital, web semántica, web 3.0, GNOSS, puro futuro; sin caspa, porque esto es: ¡¡¡WATERMELON!!! (el verdadero zumo de melón sobre la vida digital y la web del futuro ¿o debería decir nextweb? ;)

     

     

    ...

    Categorías: