recursos

    sortFiltrar Ordenar
    41 resultados

    Artículo

    /

    Publicado el 18.9.2015 por Equipo GNOSS

    Hablar hoy día 5 de mayo de 2015 de transformación digital de las organizaciones parece especialmente adecuado dadas las noticias que colman los periódicos del día y que nos hablan del nombramiento de Carlos Torres Vila como Consejero Delegado del BBVA, en sustitución de Angel Cano. Según se puede leer, junto con Torres Vila se han realizado nada menos que 13 nombramientos y se ha producido la salida de 6 antiguos directivos, lo que promete un cambio de calado, con el fondo de la transformación digital del banco como mayor prioridad. En la noticia publicada por El País se dice que " González (Lugo, 1944) ha transmitido a los ejecutivos que quiere que la entidad abandone la zona de confort actual para conseguir que el BBVA deje de ser un banco para convertirse en un elemento tecnológico de la industria bancaria". Todo apunta a que se trata de una apuesta de largo alcance llamada a remover el espacio de negocio y competencia del sector financiero y a la que deberán responder el resto de los jugadores más pronto o más tarde.

    Según creo, la transformación digital de una empresa o de un negocio tiene mucho que ver con el hecho de que estamos desarrollando, por primera vez de manera consistente y masiva, un conjunto de tecnologías que posibilitan que las máquinas y los sistemas interpreten de manera razonablemente correcta los recursos generados por las personas, tanto aquellos que se crean con un carácter intencional (los documentos), como aquellos otros que se registran de manera automática y que constituyen nuestra huella digital. En la práctica y en la medida en la que estamos también en un proceso de webificación de nuestros sistemas de información, lo que estamos haciendo es suplementar el casi colmatado internet de documentos (HTML), dotándole de una capa de representación del contenido interpretable por las máquinas. A este nuevo internet lo denominamos Web de los Datos e incluye los datos producidos por las personas y aquellos registrados por diversos sensores y que representan el modo en el que funcionan las cosas (generalmente en su relación con las personas) .

    Este nuevo internet está desplegándose en todos los sectores de actividad, cuyos negocios se están viendo transformados profudamente, y se verán aún más en el futuro, por este enfoque; así podemos hablar de una educación basada en datos, de una cultura basada en datos, de un turismo basado en datos, de una industria o un determinado proceso industrial basado en datos o de banca basada en datos. Todos estas denominaciones apuntan al hecho de que las máquinas, nuestro sistemas, pueden construir un grafo de conocimiento subyacente a cada espacio o ámbito de actividad humana y que en la explotación de ese grafo hay nuevas posibilidades económicas y de negocio. 

    La Web de los Datos se está construyendo sobre un conjunto de tecnologías y lenguajes técnicos que en su conjunto conocemos como Web Semántica. El modo en el que se expresa la Web Semántica como Web de Datos se conoce como Web de Datos Enlazables (o Enlazados) o Linked Data Web en inglés. Lo que sugiere esta denominación es que nuestros sistemas pueden enlazar datos con datos, información con información de manera automática o cuasi-automática. El resultado es un grafo de conocimiento, en el cual los datos se acoplan, conectan o vinculan de manera automática sí (esto es sin el concurso de un editor o de un lector), pero sobre todo significativa para las personas que de ese modo ven multiplicada por un factor enorme sus capacidades de lectura, interpretación y descubrimiento del conocimiento. En suma, los grafos de conocimiento y los modelos de interrogación que podemos desarrollar sobre ellos, son la condición tecnológica para que las personas, los grupos y las organizaciones puedan desarrollar procesos eficientes de gestión de conocimiento (que incluye modelos de interrogación, de enriquecimiento de la información, de inferencia y razonamiento y, por ende, de descubrimiento de conocimiento) en un mundo (digital) donde la información es hiperabundante y las capacidades humanas de interpretación crecientemente limitadas.

    El abordaje técnico que posibilita esta transformación de documentos (legibles para las personas)  en datos (legible por una máquina) se realiza por medio de ontologías o vocabularios, que recogen y describen en un lenguaje de programación (OWL u Ontology Web Languaje) un conjunto de entidades (junto con sus atributos) que representan un ámbito de la realidad y, por ende, un ámbito de conocimiento. No se trata, cono se ve, de una estrategia basada en el procesamiento del lenguaje natural (aunque recurra a algoritmos de aprendizaje y estadística basada en Bayes para algunos de sus procesos, como es el de la anotación semántica o de reconocimiento de las entidades que contiene un determinado texto), porque las máquinas sólo interpretan correctamente aquello que puede ser anotado o identificado por la ontología (las entidades y sus atributos), pero cuando lo hacen, lo hacen de manera indubitable. Eso permite computar, a partir de la representación de un número dado de recursos digitales relativos a un ámbito de conocimiento o realidad dado, el conjunto de relaciones implícitas entre ellos, lo que en la práctica supone activar procesos de conocimiento que en sí mismos ya son de un gran valor económico.

    Imaginemos el caso de que una empresa tuviera representadas las personas de su negocio (clientes, empleados) mediante FOAF (Friend of a Friend), una ontología que posibilita que los sistemas distingan el nombre, los apellidos y eventualmente otros atributos personales de cualquier otra posible secuencia de caracteres que contenga un texto; eso significa que la secuencia de caracteres J-o-s-e-f-i-n-a- -M-o-l-i-n-a se convierte para las máquinas que computan información en una persona con un nombre propio (Josefina) y un apellido (Molina); si además disponemos de algunos eventos representados del mismo modo, esto es de acuerdo con estándares de la Web Semántica, tales como, por ejemplo, el evento [comprar con tarjeta de crédito] (dentro del cual podríamos distinguir a su vez la cantidad, el lugar y el tipo de comercio donde se realiza la compra) estaríamos en condiciones de poder empezar a desarrollar modelos de interrogación sobre esas colecciones de datos que nos pueden llegar a proporcionar un conocimiento de calidad acerca de los patrones de comportamiento y los estilos de vida de las personas y que, en consecuencia, nos permitirían segmentarlas en audiencias y eventualmente desarrollar una cartera de productos y servicios adecuados a esos segmentos y, en el límite, personalizados o individualizados.

    Por supuesto, podríamos enlazar nuestros datos de Josefina Molina con datos de terceros, que podrían ser también de consumo (como por ejemplo los desplazamientos en avión, su frecuencia y destino, su consumo de teléfono, la naturaleza  y patrón de las llamadas, etc...) o de otro tipo (los artículos científicos, supongamos, que ha escrito Josefina Molina y que están recogidos en Elsevier o en Web of Knowledge). Eventualmente una web de datos podría identificar todo lo relacionado con Josefina Molina de manera indubitable. Un caso sencillo de descubrimiento de conocimiento, que por cierto es ya real o está muy cerca de serlo podría ser éste: Elsevier dispone en su vasta base de conocimiento de artículos científicos que contiene uno que describe el caso de un médico de urgencias de un hospital de provincias polaco que ha utilizado un determinado principio activo para paliar los síntomas más insidiosos de tal o cual enfermedad; Pfizer, por su parte, ha representado semánticamente el conjunto de su actividad investigadora y, por ende, sus ensayos clínicos y conoce por tanto qué principios activos experimentó y para qué, así como qué experimentos tuvieron éxito y cuáles no; en concreto el del principio activo al que nos estamos refiriendo no lo tuvo. Sin embargo, al enlazar los datos de su base de conocimiento con la de Elsevier puede descubrir, a partir de una experiencia empírica marginal realizada en un lugar periférico de la investigación clínica sobre un principio activo concreto que probablemente nadie ha citado y muy pocos han leido, una aplicación eventualmente muy prometedora para un principio activo cuya vida comercial estaba en vía muerta. Por cierto, la industria farmacéutica está haciendo un gran esfuerzo en este campo y también las grandes editoriales científicas. Elsevier, que es junto con World of Knowledge el principal contenedor de la producción científica mundial, tiene representada semánticamente toda su base de conocimiento; por su parte el conjunto de la industria farmaceútica utiliza Uniprot una base de conocimiento sobre proteínas y enzimas que contiene más de 20.000M de triples (el modo en el que se representa la información en Web Semángica) y los diferentes grandes actores del sector están trabajando activamente en su propias bases de conocimiento. Pero lo que merece la pena subrayar aquí se parece mucho a lo que expresaba Richard Feynman en 1959, el año que ganó el Premio Nobel durante la reunión anual de la Sociedad Física Americana celebrada en el Instituto de Tecnología de California (CALTECH), en una célebre conferencia cuyo título podríamos traducir como "Hay mucho espacio por debajo" (There´s Plenty of Room at the Bottom): "Yo imagino que los físicos experimentales deben mirar a menudo con envidia a hombres como Kamerlingh Onnes, quien descubrió un campo como la baja temperatura, la cual parece ser insondable y en el cual uno puede ir abajo y abajo. Un hombre tal es entonces un lider y tiene algún monopolio temporal en una aventura científica. Percy Bridgman, al diseñar una manera de obtener presiones mayores, abrió otro campo nuevo y fue capaz de moverse en él y guiarnos alrededor. El desarrollo de un vacío aún mayor fue un contínuo desarrollo de la misma especie..." (Traducción: Pablo Martín Agüero). Hay mucho espacio por debajo cuando comenzamos el desarrollo de una Web de Datos sea en el ámbito que sea, en un proceso industrial, un departamento de Marketing, una Universidad, un Museo...y muchas oportunidades de ganar nuevo espacio para los negocios, la gestión cultural o el impulso a la educación. De pronto mucho conocimiento marginal y aparentemente poco útil adquiere un nuevo vigor en el marco de un nuevo proceso de generación y descubrimiento de conocimiento.

    Dato, cuando se define desde este punto de vista técnico, debe entenderse en este contexto que hemos expuesto como la porción mínima de información interpretable correctamente por una máquina. Nuestro punto de vista sugiere que si los datos no están domesticados o interpretados mediante ontologías y vocabularios entonces resultarán poco útiles o difícilmente manejables, especialmente cuando se trate de datos muy masivos (Big Data). El disponer de datos representados del modo que hemos descrito, esto es, de "datos enriquecidos", permite desarrollar sistemas de interrogación basados en razonamiento natural especialmente útiles para las que personas conectan el conocimiento de tal manera que, como consecuencia, pueden explicitarse relaciones hasta ahora ignoradas u ocultas entre los datos que lo conforman. Este nuevo ámbito de conocimiento y aplicación que se ocupa de los modelos humanos de interrogación sobre grandes cantidades de información organizadas en un grafo se denomina Human Computer Interaction (HCI) y es una de las disciplinas emergente más interesantes en el ámbito de las IT, pues determina el modo en el que las personas terminarán por dar valor, utilizar e interrogar a los datos y, por ende, determina el conjunto de aplicaciones para usuario final que pueden desarrollarse sobre la base de la Web de los Datos. Por que, conviene subrayarlo, la Web de los Datos no es una Web para las Máquinas, sino la web que las máquinas devuelven a las personas cuando aquellas pueden razonablemente comprender los contenidos que producimos. Los modelos HCI que explotan las posibilidades de la representación semántica precisan, a su vez, de modelos de computación que posibiliten la realización de inferencias o de procesos iterados de interrogación sobre los datos. Y, finalmente, se precisa de una arquitectura de software que facilite una ejecución rápida o industrial de los proyectos. Nada más.

    ...

    Categorías:

    Artículo

    /

    Publicado el 8.6.2015 por Ricardo Alonso Maturana

    Las web semánticas de la Web: el negocio de construir y explotar grandes grafos de conocimiento especializados

    LAS WEB SEMÁNTICAS DE LA WEB: EL NEGOCIO DE CONSTRUIR Y EXPLOTAR GRANDES GRAFOS DE CONOCIMIENTO ESPECIALIZADOS

    Desde que en 2001 Tim Berners-Lee escribiera Semantic Web en Scientific American, "Web semántica" hace referencia a un lenguaje técnico de marcado, así como, posteriormente, a un conjunto de estándares de interrogación de bases de datos (como SPARQL) que tienen como finalidad posibilitar la publicación de los recursos digitales que generan las personas de tal modo que resulte interpretable o inteligible por las máquinas o sistemas. Se trata, por tanto, de un lenguaje para máquinas. En este sentido, la web semántica no es lo opuesto a la web no semántica o que precisa un emisor y un receptor humanos o, si se prefiere, la web HTML (HyperText Markup Language); si consideramos a esta última como el haz de la web, aquella sería su envés. De este modo, todo recurso digital podría tener dos caras, la que puede leer o interpretar una persona, esto es la que aparece cuando solicitamos una página web y que se muestra o publica en HTML y aquella otra que pueden interpretar las máquinas y que se publica utilizando OWL-RDF (Ontology Web Languaje-Resource Description Framework).

    Ya en el artículo seminal al que me refiero se apuntaban algunos de los atributos esenciales de esta nueva forma de publicar en la World Wide Web, como son el de expresar el significado de los recursos mediante ontologías, representar el conocimiento entendiendo éste como la agregación o el enlazado (linked) de recursos distribuidos o no centralizados, facilitar la recuperación de la información posibilitando modos de interrogación más próximos al modo intencional e iterado en el que funciona la mente humana y, finalmente, acelerar la evolución del conocimiento humano al facilitar la transición o transformación de la nuevas ideas seminales frecuentemente producidas por un individuo o grupo pequeño, que viven en el marco de una subcultura original, en ideas comunes o establecidas con gran amplitud cultural. En la visión original de la web semántica, los agentes inteligentes o bots serían capaces de enlazar en un grafo de conocimiento los datos representados ontológicamente.

    Esta primera visión de la web desencadenó un enorme esfuerzo por identificar y establecer estándares ontológicos, que son la condición para poder representar conjuntos de recursos mediante un lenguaje de datos unificado. Los resultados se dejaron esperar, debido, sobre todo, al hecho de que los acuerdos humanos acerca de cómo representar un ámbito de la realidad o ámbito de conocimiento llevan tiempo, especialmente en aquellos campos en los que no preexistía una cultura caracterizada por esa clase de esfuerzos, como sí ocurría en el campo de la salud, las bibliotecas o los archivos, por poner sólo algunos casos. Los primeros resultados prácticos sólo se produjeron a partir de 2007, cuando Berners-Lee puso el acento en el hecho de que la Web Semántica debía concebirse como una Web de Datos Enlazados para que cumpliera con el propósito fundacional de contribuir a la evolución acelerada del conocimiento humano. En ese momento se establecieron los estándares ontológicos más básicos (aprovechando el vocabulario DublinCore y generando FOAF, SIOC o SKOS) y se empezaron a publicar los primeros datasets o conjuntos de datos estructurados semánticamente. De un modo que conviene explicar, estos conjuntos de datos se pusieron a disposición de terceros o reutilizadores, suponiendo que la producción de datos de esta clase iba a alentar el desarrollo de un ecosistema de reutilizadores que les daría finalmente un valor económico.

     

     

    Esto no se produjo, o no se produjo lo suficientemente rápido. Las causas por las que los datos estructurados semánticamente no generaron la clase de movimiento tecnológico y valorización de la información esperada son seguramente varias. Por un lado, la distinción seminal entre producción de datos y la explotación de los mismos por parte de agregadores o robots apelaba a una imagen de la futura Web Semántica que, al igual que sucede en la web Google por así decirlo, distinguía entre productores de datos y aquellos que podrían finalmente darles valor, unificarlos en un grafo de conocimiento o, simplemente, explotarlos; en segundo lugar, se consideraba que la publicación de datos estructurados semánticamente era una forma secundaria y posterior de publicar los recursos o contenidos de la web, de manera que nadie parecía ser consciente, entre los principales productores de datos (desde el British Museum, la Biblioteca del Congreso de EE.UU o la NASA), de la posibilidad de que en el mismo acto pudieran producirse el haz y el envés de la web o, dicho de otro modo, que un gestor de contenidos, una red social o cualquier otro sistema de edición y publicación de recursos o contenidos digitales produjera ambos formatos en el mismo acto. Esto hizo posible que se diera la paradoja de que los productores de datos estructurados no se vieran a sí mismos como reutilizadores de los mismos. Por esta vía se llegó al absurdo de que los principales productores de datos no fueron capaces de usarlos para desarrollar utilidades orientadas a mejorar la experiencia web de los/sus usuarios finales. Así, por poner sólo un par de ejemplos, el British Museum o Nature han publicado excelentes datasets, realizados con una gran calidad ontológica, que prácticamente carecen de reutilizadores y que tampoco han sido utilizados por ellos mismos para la mejora de los procesos de interacción de las personas con los computadores (Human Computer Interaction) y, por ende, para la mejora de la experiencia web de sus usuarios. Por último, en la medida en la que se produjo todo lo anterior, se entendió la web semántica como un asunto que posibilitaría la interoperabilidad entre silos de datos distribuidos, algo que afectaba a la web más profunda, pero no a los usuarios finales, al menos en un primer momento.

    Sin embargo, algunas empresas y cabe decir que algunos sectores en particular, entendieron bastante tempranamente que la web semántica, en la medida en la que era una estrategia tecnológica que posibilitaba que las máquinas entendieran el significado que estaba detrás de los contenidos, podría ser una estrategia muy prometedora para una explotación avanzada de la información, y por ende para el desarrollo de nuevos negocios basados en el descubrimiento de conocimiento, siempre y cuando el proyecto expresara un grafo de conocimiento de un modo interrogable por las personas. Esto sucedió en el ámbito de las empresas dedicadas a las biociencias, como las farmacéuticas, o entre los grandes publicadores científicos, como Elsevier o Thompson Reuters, pero también entre los medios de comunicación más avanzados, como puede verse cuando se analiza la estrategia digital de BBC o The New York Times, pero también de, por ejemplo, The Guardian (que tiene casi 45 millones de usuarios únicos al mes, frente a los 14 millones de El País digital). Casi simultáneamente, Google compró Metaweb, la empresa que estaba construyendo Freebase, en realidad un gran grafo de conocimiento que interpretaba el conjunto de la web en forma de entidades y, a través de ellas, vinculaba o enlazaba el conocimiento implícito en la totalidad de la web. Por aquel entonces, julio de 2010, Freebase tenía ya más de 12 millones de entidades; en la actualidad tiene más de 46 millones. Esta adquisición ha permitido a Google crear un gran grafo de conocimiento basado en OWL-RDF y explotarlo como expondremos en apartados siguientes.

    1.1LAS NUEVAS POSIBILIDADES DE LA REPRESENTACIÓN SEMÁNTICA DEL CONOCIMIENTO: DE LAS BÚSQUEDAS BASADAS EN LITERALES A LAS BÚSQUEDAS BASADAS EN ENTIDADES

    La explotación más relevante que Google está llevando a cabo es el paso de una búsqueda basada en literales o en secuencias de caracteres a una búsqueda basada en entidades y las nuevas posibilidades que esto ofrece. La diferencia entre un literal y una entidad es crucial: en el segundo caso la máquina reconoce un determinado objeto del mundo mientras que en el primero busca secuencias de caracteres y las relaciona mediante "cuerdas" con secuencias homólogas en otros documentos. Cuando una máquina reconoce una entidad entonces entiende, por ejemplo, que "Mario Vargas Llosa" es una persona, que tiene como nombre "Mario" y como apellidos "Vargas Llosa"; que dado que es una persona tendrá una fecha de nacimiento y eventualmente de defunción y, por ende, un lugar de nacimiento y quizá de defunción, una profesión, en este acaso "artista" y, dentro de ese espectro profesional "escritor", etc...Cuando una máquina reconoce una entidad es porque es capaz de reconocer sus atributos, de hecho, una entidad lo es en función de los atributos que la conforman. Imaginemos que una máquina es capaz de identificar sólo las personas contenidas en una colección dada de documentos, entonces sería capaz de enlazarlas a todas en un grafo y nosotros podríamos realizar preguntas o interrogar a ese grafo en función de atributos concretos, como por ejemplo, las personas que nacieron en tal o cual año, o en tal o cual sitio, o bien las que comparten una profesión, por ejemplo la de escritor y, además, han nacido en Sudamérica y han escrito su obra principal en los 60 o principios de los 70. Un conjunto de interrogaciones iterado de ese tipo nos permitiría conocer el conjunto de autores que constituyen el boom sudamericano, por ejemplo, pero lo mismo podríamos preguntar por los pintores nacidos en Ciudad Real, por poner otro caso. Otra explotación muy sencilla, es mostrar, para una búsqueda dada, los detalles ontológicos (el conjunto de atributos) de la entidad principal por la que se pregunta. Es lo que hace Google cuando muestra la ficha de Velázquez, el pintor barroco español. Cuando introducimos en la caja de búsqueda el literal "Velázquez", Google infiere que preguntamos por Velázquez, el pintor, y nos muestra su fecha de nacimiento y defunción, el lugar de esos eventos y los principales cuadros de los que fue autor, también otros pintores relacionados con Velázquez, por lo general de su misma época y/o escuela. Si hacemos clic en alguno de esos cuadros, nos ofrece una nueva búsqueda con muchos más cuadros de Velázquez y si clicamos alguno de ellos podemos llegar a una ficha de Wikipedia. Desde luego, el recorrido que realizamos a partir de una petición tiene sentido porque el conjunto de entidades que manejamos, "pintores" y "obras de arte" están relacionadas, lo mismo hubiera ocurrido si se hubiera tratado de "celebrities" y "programas de televisión", o de "futbolistas" y "equipos en los que han jugado".

    En los enlaces que pueden visitarse al final de este punto, se puede conocer lo que explícitamente ha publicado Google sobre el tema, incluyendo el hecho de que utilizan las descripciones ontológicas en OWL-RDF de terceros, siempre y cuando sean referentes en su campo de conocimiento. Lo que ha quedado claro en esta fase de la implantación de la Web Semántica es que cuando ésta es entendida como Grafo de Conocimiento (y no sólo como un dataset o como un conjunto de ficheros expresivos y enlazables) entonces hay muchos negocios posibles, siempre y cuando se piense en la clase de utilidades que hacen más sencillas y útiles las webs al conjunto de audiencias que en su conjunto denominamos “usuario final”. Y ello porque en cualquier colección de recursos suficientemente amplia, existe un conjunto de relaciones implícitas valiosas para diversos grupos de interés, algunos probablemente muy minoritarios, que hacen posible una explotación avanzada de los mismos, pero también porque todo grafo de conocimiento representado sobre estándares es extensible y se puede enlazar con datos provenientes de terceros, como ha demostrado Google con su acoplamiento simbiótico con Wikipedia o, más modestamente, Didactalia con su grafo dinámico de conocimiento basado igualmente en Wikipedia, vía DBPedia. A Google, ese acoplamiento le ha servido para multiplicar el tiempo que las personas permanecen en el buscador y para ampliar su utilidad a costa de los productores primarios de contenidos, lo que sin duda es un buen negocio. A continuación, los artículos de Google prometidos, en donde ellos mismos dan cuenta de su proyecto de Grafo de Conocimiento. La conclusión a la que un lector atento podría llegar es que si alguien dispone de una base de recursos de suficiente calidad, lo más interesante es enlazarlos en un grafo de conocimiento entre sí y con terceros que puedan enriquecerlo y extenderlo, porque en ello es seguro que hay nuevos negocios.

    1.2MODELOS DE INTERACCIÓN DE LAS PERSONAS CON LOS ORDENADORES: UTILIDADES Y NEGOCIOS ASOCIADOS CON LA CONTRUCCIÓN DE UN GRAFO DE CONOCIMIENTO

    El área de conocimiento Human-Computer Interaction (HCI) investiga el diseño y uso de la tecnología informática, con especial atención a las interfaces que intermedian entre las personas o usuarios y las computadoras. Los investigadores en el campo de la HCI observan los modos en que los seres humanos interactúan con las computadoras y tratan de desarrollar nuevos diseños y eventualmente nuevas tecnologías que posibiliten a las personas interactuar con las computadoras en formas novedosas. Human-Computer Interaction, como campo de investigación, está situado en la intersección de la informática, las ciencias de la conducta y, en especial la psicología, el diseño, el estudio de los media y otros variados campos de estudio. El término fue popularizado por Stuart K. y Allen Newell de la Universidad Carnegie Mellon y Thomas P. Moran de IBM Research en su artículo de 1983, La Psicología de la Interacción Persona-Ordenador, que constituye la obra seminal sobre el tema. A diferencia de otras herramientas con usos limitados (como un martillo o el destornillador o cualquier otra herramienta de mano, pero también como ocurre con cualquier máquina-herramienta), un ordenador tiene muchos usos posibles, lo que implica que las conversaciones o diálogos posibles entre las personas y las máquinas son múltiples y evolutivas. Hemos tratado con anterioridad de un aspecto de esta interacción, en concreto de lo relacionado con los modelos de búsqueda y recuperación de la información (véase: Human-Computer Information Retrieval: Buscadores Facetados, la siguiente generación de buscadores basados en razonamiento).

    El primer negocio tiene que ver con el modo en el que recuperamos la información e interrogamos a los contenidos. Durante los últimos años, la confluencia de estudios en las áreas de IR (Information Retrieval) y HCI (Human Computer Interaction) ha generado un área de estudio específica, HCIR(Human–Computer Information Retrieval), que se ocupa de las técnicas de recuperación de información que introducen la inteligencia humana en el proceso de búsqueda. Algunas de las ideas generadas, que ya se están aplicando en los buscadores más avanzados, son:

    • Dar la responsabilidad y el control de la búsqueda a la persona. Le requiere esfuerzo, pero se le recompensa.
    • No adivinar las intenciones, sino mejorar la comunicación.
    • Soportar refinamiento y exploración.
    • Responder con un conjunto de resultados ordenado y adecuado, lo que incluye ofrecer diferentes formas de presentación según el tipo de resultados: listas, mosaicos, mapas, timeline, etc.
    • Extender los resultados y la información con contextos, que son, a su vez, resultados de otras búsquedas o de las búsquedas que de modo automático puede realizar una máquina a partir de un conjunto de interrogaciones desarrolladas por una persona (Computer-Computer Informational Retrieval)

    Una de las propuestas concretas es el uso, como interfaz, de buscadores facetados. Han sido pioneros, en el uso de este tipo de interfaz, sitios web como Amazon o Ebay.

    Los buscadores facetados se caracterizan por:

    • Ofrecer una sumarización basada en propiedades que caracterizan específicamente a los resultados mostrados. Por ejemplo, si se trata de mostrar obras de arte, podrían ser autor, museo, época, estilo, escuela, técnica, etc.
    • Cada posible valor de la propiedad es una opción de refinamiento de la búsqueda. Por ejemplo, una vez buscadas obras de arte sobre caballos, se dispone de una lista con estilos. Eligiendo uno de ellos, Barroco, se obtendrían 14 cuadros. De ellos, observamos que uno de los autores es Velázquez, con lo que llegamos a 3 cuadros: precisión y pertinencia
    • Las opciones de refinamiento ofrecen resultados posibles. En el ejemplo anterior, no es posible elegir como autor a Goya, ya que ninguna de sus obras correspondería al estilo barroco. Es un defecto frecuente de algunos sistemas de búsqueda la posibilidad de combinar opciones de búsqueda que no devuelven resultados.

    Las tecnologías de la web semántica posibilitan extender esta clase de buscadores a repositorios de contenidos menos estructurados que los elementos de un catálogo, como es el caso de los grandes buscadores mencionados, por ejemplo, de una gran base de noticias o de videos anotados. El resultado natural de implantar un modelo de búsqueda basada en un facetado con sumarización es una mayor precisión en los resultados, un mayor tiempo de permanencia, así como la posibilidad de facilitar a los usuarios tanto especializados como ordinarios un espacio de descubrimiento de conocimiento. Las máquinas pueden computar el conjunto de relaciones entre todas las entidades y atributos contenidos en un grafo, lo que no resulta posible para una persona, por muy experta que sea en la materia.

    El segundo negocio tiene que ver con la posibilidad de generar nuevos relatos en un dominio específico (periodístico, educativo, cultural, turístico) utilizando la capacidad de las máquinas para realizar inferencias automáticas sobre el conjunto de relaciones explícitas entre el conjunto de entidades que conforman el grafo y de presentarlo de un modo útil y atractivo para los usuarios. Los relatos basados en sistemas de inferencia automáticos posibilitan desarrollar un discurso a partir del interés manifestado por una persona por un conjunto de entidades, mostrando entidades relacionadas de diverso modo con la requerida y extendiendo, por tanto, con posibilidades nuevas de descubrimiento de conocimiento y navegación, las posibilidades de diálogo y conversación entre las personas y los contenidos representados en el grafo de conocimiento. Imaginemos una noticia que trata de Manuel Fraga, la máquina puede inferir de las relaciones implícitas en el grafo su relación con otros políticos del PP, o con personas de AP, o con aquellas personas que fueron redactores de la constitución,  y abrir a partir de cada uno de esos atributos de Fraga hilos de inferencia y, por ende, de exploración y descubrimiento de conocimiento. Un relato de esta naturaleza propone un viaje y alienta la curiosidad y el instinto por saber más y aprender de las personas. En definitiva, visto desde este modo de generación de relatos automáticos, un grafo multiplica las posibilidades de permanencia y de páginas vistas.

    En tercer lugar, la publicación dinámica semántica (Semantic Dynamic Publishing) de un grafo de conocimiento contiene todas las páginas webs posibles que se pueden realizar con ese contenido y, lo que es aún mejor, estas se pueden pintar automáticamente si existe un sistema de interrogación adecuado. Así por ejemplo, el grafo de conocimiento del Museo del Prado, incluye las páginas web del bodegón español del siglo XVIII, el de los desnudos femeninos del siglo XVII en la Escuela Italiana o el de los retratos reales en el siglo XVI. Todas estas búsquedas pueden ser en el caso del Prado el correlato de una posible exposición dedicada.

    Supongamos lo mismo con una base de noticias. La BBC utilizó la publicación semántica dinámica en el Mundial de Fútbol de Sudáfrica de 2010. Construyó un gran grafo de conocimiento que contenía a los jugadores, los entrenadores y otros profesionales relacionados con los equipos, las selecciones, los países a los que pertenecían esas selecciones, las sedes...Todo ello le permitió mantener más de 700 páginas web (una por jugador, por equipo, por sede...) sin un gran equipo de editores. La publicación dinámica semántica posibilita generar páginas web ad hoc de un suceso específico, de una persona o conjunto de ellas, de un evento, a muy bajo coste. A su vez, la publicación de información especializada just in time sobre asuntos de actualidad genera tráfico, visitas y eventualmente registro y suscripciones.

    Dado que un grafo de conocimiento puede mostrar su información de múltiples maneras, listas, mosaicos, mapas, timeline, etc... y que también puede realizar inferencias que posibilitan a los usuarios descubrir conocimiento, algunas o muchas de estas utilidades pueden ser ellas mismas sólo accesibles para usuarios registrados o para suscriptores. La mayor parte de la gente aceptará registrarse y suscribirse si con ello accede a una experiencia de conversación con los contenidos de la web realmente superior, de manera que las ventajas que la tecnología ofrece para el diálogo entre las personas y las máquinas pueden convertirse en registro y eventualmente en suscriptores.

    Un grafo de conocimiento, en la medida en la que anota o identifica las entidades de los contenidos, permite valorizar esos mismos contenidos para fines distintos de aquellos para los que originalmente fueron concebidos. Así, por ejemplo, buena parte del trabajo que se realiza en un periódico o una televisión puede tener un valor educativo, turístico o cultural también. Esos contenidos podrían eventualmente tomar parte o enlazarse a través de sus entidades con grafos cuyos contenidos primarios fueron pensados para otros sectores. También pueden desarrollar un nuevo valor intrínsecamente informativo, al facilitar la construcción de presentaciones nuevas de los mismos, por ejemplo a través de portales verticales. De hecho, la facilidad para construir y mantener portales verticales puede ser una de las mayores formas de valorizar una gran base de contenidos a través de un grafo de conocimiento.

    Finalmente y dado que un grafo de conocimiento dota de un corazón semántico a una gran base de conocimiento, resulta posible desarrollar un potente negocio basado en ofrecer a cada usuario de manera proactiva información ad hoc y contextual asociada con sus intereses, en especial a aquellos que están registrados o son suscriptores y cuyos datos, de hecho, pueden ser incorporados como parte del propio grafo de conocimiento. La capacidad para personalizar la información y por ende la publicidad constituye una de las principales posibilidades de un grafo de conocimiento que represente también de manera semántica a los usuarios y sus interacciones.

    Por último, la representación semántica del contenido tiene un evidente impacto en el posicionamiento y, en consecuencia, en el tráfico. Dado que, de todos los debates sobre las posibilidades de la web semántica, este es el más conocido y comentado, y dado también que la pelea por las audiencias y por el tráfico es una de las más importantes y extendidas de la web, y considerando por último que la ordenación de los resultados de búsqueda está, hoy en día, en una situación monopolística, creemos que es necesario dedicar a este punto un capítulo específico.

    1.3SEMANTIC SEO O EL DEBATE SOBRE CÓMO DESARROLLAR UNA ESTRATEGIA SEO GANADORA

    La batalla por posicionar los contenidos ha resultado ser, en la práctica, la de entender lo más precisa y rápidamente posible las preferencias de los grandes agregadores a la hora de presentar el contenido como resultado de una determinada búsqueda. El problema en este momento de la instalación de la sociedad del conocimiento, caracterizado por una gran abundancia de información y una creciente escasez de atención, es que esta lucha ha terminado por ocupar el centro del conjunto de estrategias que caracterizan el combate por la prevalencia en la web. Es natural que así sea, pero aquí, como en todo, la posesión de tecnología diferencial puede determinar el resultado final de la riña.

    La construcción de la web semántica como grafo de conocimiento ha debido entrar en conversaciones laterales, y también muy generales, que poco tenían que ver con su visión original, pero que han resultado ineludibles desde que los principales buscadores se asociaran a partir de 2010 en schema.org con el fin de desarrollar un modelo de metadatos semánticos que pudiera resultar accesible para las agencias de comunicación y publicadores web no especializados. Resulta inevitable apuntar aquí que el proyecto de los grandes jugadores en el ámbito de la búsqueda y especialmente de Google era anotar la web y que el premio para los colaboradores era mejorar, bajo ciertas restricciones o condiciones, su posicionamiento. Así es como empezó la historia de los metadatos y los microformatos y como se relacionó un gran proyecto de anotación semántica vinculado con la construcción de un grafo de conocimiento con el posicionamiento web y con la estrategia SEO. Es evidente que Google aprecia la semántica, pero especialmente aprecia los ficheros RDF.

    Con relación al tema de los microdatos y los microformatos creo que el tema de fondo, aunque no sólo, debería ser el hecho de que alguien, una empresa, un publicador, un medio de comunicación... que posea gran contenidos propio, original y de calidad decida construir un grafo de conocimiento que enlace todas las miles de entidades de sus diversas colecciones de recursos entre sí, que, además, acumule varios cientos de miles de atributos a través de los cuáles se pueda viajar o navegar o formular preguntas (queries) iteradas que posibiliten recuperar la información de un modo no previsto por el administrador y no dependiente de un algoritmo que funcione con un conjunto de reglas fijas y administradas a priori. Ese grafo debería responder a un modelo ontológico normalizado que eventualmente permitiría incorporar al mismo información descrita también ontológicamente por terceros y, por tanto, enlazarlo con el de otras organizaciones que utilicen un modelo semejante o simplemente con entidades homólogas de grafos heterogéneos. Si alguien hace esto, desde luego que puede atender y soportar en su estrategia SEO cualquier modo de anotación semántica solicitado por los principales jugadores en el campo de la búsqueda.

    El lenguaje técnico que utilizamos para describir ese grafo interpretable o decodificable por las máquinas es OWL-RDF; y el modo "natural" en el que incrustamos algunos atributos del RDF en el HTML se denomina RDFa, que es lo que permite que los robots de búsqueda consuman información semántica del RDF desde el HTML. Ello tiene efectos en el posicionamiento, como ya hemos dicho. Pero lo importante es el RDF que, sin descuidar lo que pueda tener de interés en SEO a través de su publicación resumida en forma de RDFa, es el que posibilita estrategias HCI (Human Computer Interaction) orientadas a explotar el grafo de conocimiento subyacente de manera relevante para las personas y, por ende, abre el camino a nuevos modelos de negocio basados en el descubrimiento de conocimiento y en la presentación de conocimiento relevante just in time.

    Dicho esto el problema suele consistir en discutir, no acerca del grafo de conocimiento y de una verdadera estrategia semántica, sino sobre la bondad de los microdatos frente al RDFa y, en última instancia, frente al RDF en el marco de una conversación que considera que toda estrategia semántica tiene sentido en el marco de una batalla por el SEO, lo que resulta ser, como hemos tratado de mostrar, un punto de vista que no toma en cuanta algunas de las posibilidades más relevantes de la web semántica.

    En todo caso, creemos que no existe (ni existió) tal batalla entre formatos, ni una situación de "microdatos vs RDFa", al menos para los grandes consumidores de dichos datos: los robots de búsqueda. La situación actual es que Google, y el resto de sistemas de búsqueda, quieren los datos que están implícitos en las páginas HTML, y parece no importarles mucho el formato usado, siempre que éste sea estándar. En este sentido, cabe indicar que schema.org es un "estándar de facto", creado y promovido por 4 empresas (dependiente por tanto de Bing, Google, Yahoo y Yandex), y no de una entidad certificadora independiente, como W3C, IEEE o ECMA; mientras que RDFa y RDF son estándares de World Wide Web Consortium (W3C).

    Hay que señalar que los Microdatos existentes se refieren a un conjunto ontológico generalista y bastante reducido. Además, el método de extensión de vocabularios y tipos de entidades definido en schema.org, que se acaba de modificar este mes de mayo, parece poco robusto, si de lo que ese trata es de soportar proyectos altamente expresivos.

    Como hemos indicado en este texto, en el core de nuestra arquitectura está la publicación de datos síncrona con la publicación del contenido como tal (HTML). Comenzamos a analizar en profundidad este asunto en el año 2011, definiendo nuestra solución actual (HTML + RDFa + RDF), y publicando algunos posts que os invitamos a consultar:

    A finales del año pasado, publicamos un nuevo post con nuestra visión sobre el estado actual de esta cuestión: El posicionamiento web y la Web Semántica. Semantic SEO

    Dicha visión sobre SEO (que no es más que una de las explotaciones posibles de un grafo de conocimiento) se puede resumir en:

    • Hay que ofrecer datos incrustados a los buscadores.
    • El formato puede ser microdatos o RDFa. Nuestra solución estándar (por la que hemos optado en GNOSS) ofrece RDFa, pero podríamos ofrecer Microdatos (recordando que hay que elegir uno de los 2) si fuera necesario.
    • Además de los datos incrustados en HTML, en GNOSS ofrecemos una vista RDF que sólo contiene los datos, pudiendo incluir propiedades adicionales a las incluidas en HTML+RDFa.

    Llegados a este punto, ¿por qué RDFa en lugar de Microdatos para una web basada en estándares de Web Semántica? Creemos que este pregunta tiene sentido en el caso de que se utilicen modelos de referencia (y no tanto en proyectos más informales de anotación semántica donde la relación entre el RDF y el RDFa puede ser mucho más casual)

    Un caso que puede entenderse con claridad es aquel que utiliza algún modelo de referencia, como es el caso de los museos que utilizan el vocabulario CIDOC-CRM. Los microdatos de schema.org ofrecen un vocabulario con diversos tipos de entidades, entre los que se encuentra CreativeWork, que podríamos aplicar en este caso, y que tiene subtipos más específicos como Painting o Sculpture. Sin embargo, estos subtipos no tienen propiedades específicas.

    Si revisamos las propiedades de CreativeWork nos encontramos con que podríamos usar las siguientes:

    • description. A short description of the item.
    • image. An image of the item. This can be a URL or a fully described ImageObject.
    • name. The name of the item.
    • alternativeHeadline. A secondary title of the CreativeWork.
    • author. The author of this content.
    • citation. A citation or reference to another creative work, such as another publication, web page, scholarly article, etc.
    • contentLocation. The location depicted or described in the content. For example, the location in a photograph or painting.
    • dateCreated. The date on which the CreativeWork was created.
    • keywords. Keywords or tags used to describe this content. Multiple entries in a keywords list are typically delimited by commas.
    • mentions. Indicates that the CreativeWork contains a reference to, but is not necessarily about a concept.
    • character. Fictional person connected with a creative work.

    Por nuestra parte, el HTML que estamos generando para nuestros proyectos de museos contiene las siguientes propiedades RDFa, provenientes de las ontologías y vocabularios CIDOC y FRBR (simplificamos la escritura del nombre de las propiedades para que sean legibles por humanos):

    Propiedades similares a Microdatos:

    • has_note. Descripción de la obra.
    • shows_visual_item. Imágenes de la obra.
    • has_title. Título de la obra
    • author.
    • is_documented_in. Trabajos documentales sobre la obra (con su título, autor, fecha, editorial y páginas)
    • has_current_location. Situación de la obra en el museo. Por ejemplo, "Sala 014".
    • has_current_location_type. Por ejemplo, "Expuesto".
    • textDate. Fecha de la obra, en texto. Por ejemplo, "Hacia 1632".
    • tagLabel. Cada una de las etiquetas de la obra.
    • represents_object. Objetos representados en la obra. Por ejemplo, "laúd" o "violín".

    Propiedades no disponibles en Microdatos:

    • movedFrom. De dónde llegó la obra, por ejemplo, "Colección Real (Convento..." 
    • identifier. Por ejemplo, "P01167".
    • used_general_technique. Técnica de la obra, por ejemplo "Óleo".
    • employed_support. Soporte de la obra, por ejemplo "Lienzo".
    • dimension. Medidas de la obra.

    Esto es un ejemplo que muestra la mayor expresividad del RDFa y, sobre todo, la del RDF que le sirve de soporte y fuente.

    Finalmente, conviene indicar que la representación RDF de cada obra contiene, además de los expresados en RDFa, los demás datos de la obra. Se trata de la información que está disponible como facetas de búsqueda, pero que tal vez no se incluya en la ficha de la obra (ni en el HTML ni, por tanto, en el RDFa), como la "Escuela" o las demás propiedades relacionadas con Iconografía (Tema, Fauna, Flora y Personajes u otras posibles). Ello dota al grafo de una enorme plasticidad y expresividad y, por ende, de unas grandes posibilidades de extenderlo mediante el recurso de enlazarlo con grafos homólogos o incluso, con entidades concretas de grafos heterogéneos (como estamos haciendo ahora con Didactalia). También de desarrollar nuevos servicios y funciones sobre esa clase de atributos que sólo están en el RDF y no en el RDFa. Ello podría dar lugar, siempre y cuando existieran actores decididos a ello, a realizar la World Wide Web de un modo un tanto diferente a cómo actualmente la conocemos, esto es, no como un gigantesco listado o unas páginas amarillas, sino organizada en un conjunto de espacios temáticos que acumulen información vinculada con un determinado ámbito de conocimiento o realidad de un modo significativo y útil para distintas audiencias. Así en el futuro podría existir una web de datos enlazados, o basada en un grafo de conocimiento, educativa o cultural o de biología molecular, o de viajes de aventura o de…, en el que el conocimiento relevante se muestre y sea interrogable sobre la base de entidades y atributos enlazados. Esto finalmente podría dar como resultado una geometría de la web diferente a la que conocemos, basada en un conjunto de web de datos que expresan y explotan un conjunto de grafos especializados de conocimiento. En todo caso, en la web actual o en cualquier modo en el que la web se desarrolle, la batalla por el SEO será, como hemos dicho al principio de este apartado, una batalla ineludible por prevalecer en un mundo donde la información es un bien que tiende a la hiperabundancia y la atención, por el contrario, un bien cada día más escaso.

     

    Ricardo Alonso Maturana. CEO GNOSS.

    Logroño, junio 2015.

     

    ...

    Artículo

    /

    Publicado el 13.11.2014 por Equipo GNOSS

    La Web Semántica y sus aplicaciones. Linked Data y su evolución

    En junio de 2013, Andrés Pedreño, fundador de la Biblioteca Virtual Miguel de Cervantes e impulsor como CEO de Universia (2000-2004), nos invitó a participar en UniMOOC, una plataforma de cursos gratuitos para emprendedores promovida por varias universidades españolas y grandes instituciones privadas.

    Ricardo Alonso Maturana, CEO de GNOSS, compartió con los alumnos de la Universidad de Alicante, en una sesión grabada, los motivos que le llevaron a la creación de GNOSS. Hizo un repaso de las principales caraterísticas que definen la Web Semántica y Linked Open Data, que son las tecnologías, estandares y herramientas utilizadas como base para la creación de GNOSS. 

    Recopilamos aquí el conjunto de videos que conforman dicha intervención en la que se expone:

    ...

    Categorías:

    Artículo

    /

    Publicado el 6.11.2014 por Equipo GNOSS

    El posicionamiento web y la Web Semántica. Semantic SEO

    Las recomendaciones usuales sobre optimización del posicionamiento web se pueden resumir en dos aspectos esenciales: tener un contenido original y relevante, y disponer de un diseño HTML adecuado. Existen, sin embargo, otros elementos relacionados con la Web Semántica, que nos permiten mejorar la información que proporcionamos a los buscadores ofreciendole RDF (Resource Description Framework) que le posibiliten al buscador “comprender” lo que las cosas significan, y distinguir una persona, de un lugar, de un producto, de un servicio bancario o de una obra de arte. Se trata de ofrecer explícitamente los datos que están implícitos en el HTML de la página.

    Haciendo historia, podemos indicar 3 hitos importantes en el uso de datos por parte de los buscadores en general, y de Google en particular:

    • Año 2009: Google y otros buscadores comienzan a mostrar información estructurada junto a los resultados de las búsquedas. Google llamó “rich snippets” a esta información (http://googlewebmastercentral.blogspot.com.es/2009/05/introducing-rich-snippets.html), que incluía datos como el precio de un producto y su valoración por parte de los usuarios. Estos datos podían ser marcados, dentro del HTML, con los 2 formatos disponibles en el momento: RDFa y microformatos.
    • Año 2011: se presenta la iniciativa schema.org (promovida inicialmente por Google, Bing y Yahoo), que propone un nuevo formato de marcado de datos, al que llaman microdatos. Durante los años 2011 y 2012, se planteó una batalla entre los diferentes formatos de marcado de datos estructurados, en la que estaban implicados los siguientes: metatags HTML, microformatos, microdatos (schema.org) y RDF/RDFa. Afortunadamente, esta batalla causada por la extraña alergia a los estándares de algunos ingenieros informáticos, no llegó siquiera a empezar, aunque algunos tardaran en enterarse, ya que Google y el resto de la alianza schema.org (Bing, Yahoo, etc) decidieron un enfoque más pragmático, aceptando cualquier tipo de formato: lo que querían, y siguen queriendo, son datos que les aporten información semántica y, a ser posible, un grafo que relacione entidades y conceptos. Así lo indica Google en su documentación (https://support.google.com/webmasters/answer/99170?hl=es):

    “… Esto permite a Google presentar tus datos de una forma totalmente nueva y más atractiva en los resultados de búsqueda y en otros productos, como el Gráfico de conocimiento de Google (http://www.google.com/insidesearch/features/search/knowledge.html)”

    Hay que indicar que Google recomienda usar un único formato dentro del HTML (http://googlewebmaster-es.blogspot.com.es/2011/07/presentamos-schemaorg-los-motores-de.html), aunque sea técnicamente posible usar varios. Se trata de una recomendación para evitar que cada formato contenga una información diferente, cayendo en contradicciones en la información expresada, lo que podría ocasionar un efecto negativo en el posicionamiento.

    • A mediados de 2012 Google presenta su Knowledge Graph, que es uno de los resultados visibles de su adquisición de la empresa Metaweb en el año 2010. La empresa Metaweb desarrolló Freebase (http://www.freebase.com), una “colección en línea de datos estructurados sobre personas, lugares y cosas”. Google ha utilizado los desarrollos tecnológicos y datos de Freebase y su conexión con la DBpedia (Wikipedia estructurada semánticamente) para mejorar su propia tecnología de indexación y presentación de resultados, con 2 usos principales:

    • Mejorar el cálculo de relevancia en los resultados de sus búsquedas.
    • Presentar “cajas de información” con respuestas directas, junto con los resultados de las búsquedas cuando esto es posible. (ver imagen siguiente)

    En 2011 publicamos en Watermelon el documento, “Datos enlazados / Linked data: Formatos de presentación y posicionamiento en buscadores” En este documento explicábamos nuestra postura al respecto de la presentación de datos estructurados. Lo que se indicaba en ese post sigue siendo esencialmente válido, y es el origen de nuestra solución.

    En GNOSS consideramos que hay 2 modos de ofrecer datos semánticos a los BOTs:

    • Incrustando la información dentro del HTML de la página.
    • Añadiendo una presentación alternativa de cada página en RDF, que contenga los datos implícitos.

    En el primer caso, el HTML de la página incluye una serie de marcas, no visibles por los usuarios, que rodean y añaden significado al contenido así marcado. Por ejemplo, si en la página aparece el texto “Angie”, podemos añadir información, dentro del HTML de la página, para indicar a los BOTs si se trata del nombre de una persona o del título de una canción. En principio está considerado como una mala práctica que el contenido marcado sea invisible para el usuario. Este contenido debería rodear a textos legibles. En esto hay alguna excepción, como indica Google en su documentación (https://support.google.com/webmasters/answer/146898?hl=es&ref_topic=6003477):

    “… no muestres contenido a los usuarios de un modo y a la vez uses texto oculto para marcar la información de forma independiente para los motores de búsqueda y para las aplicaciones web. Debes marcar el texto que se muestra realmente a los usuarios cuando estos acceden a tus páginas web.

    Sin embargo, en algunas ocasiones puede resultar valioso proporcionar información más detallada a los motores de búsqueda, aunque no quieras que esa información esté disponible para los usuarios que visiten tu página. Por ejemplo, si proporcionas la latitud y longitud de un lugar, esto ayuda a Google a asegurarse de que aparece correctamente en los mapas y, de igual modo, si indicas la fecha de un evento con el formato de fecha ISO, estarás contribuyendo a que se muestre bien en los resultados de búsqueda.”

    Con la lectura de los datos incrustados, los BOts mejoran la identificación e indexación del contenido y, por tanto, pueden afinar en la valoración y relevancia de la Web. Además, Google, como hemos escrito anteriormente, identifica entidades en los datos (personas, organizaciones, etc) mediante sus propios algoritmos, indexándolas en su Gráfico de conocimiento. Después, los datos obtenidos pueden ser utilizados en la construcción y visualización del Gráfico asociado a una búsqueda, lo que mejora el SEO del sitio.

    De manera nativa, la plataforma GNOSS marca los datos usando RDFa, si bien sería posible usar Microdatos, alternativamente. Por ejemplo, en este fragmento de página, correspondiente a la cabecera de un recurso:

    nos encontramos con el siguiente HTML, en el que se observa el código RDFa incrustado:

    Es decir, dentro de ese fragmento de HTML se explicitan los siguientes datos:

    • Título de la página. dcterms:title.
    • Creador del recurso. Sioc:has_creator, foaf:Person, foaf:name.
    • Fecha de creación del recurso. Dcterms:created.

    En el segundo caso, se ofrece una vista de la página en la que sólo se muestran los datos estructurados de una página HTML, en formato RDF/XML, uno de los estándares de la web semántica desarrollados por el W3C.

    Por ejemplo, si el HTML de una página de GNOSS muestra esta información:

    Tendríamos la siguiente vista de datos equivalente:

    En el fragmento de datos anterior, expresado en RDF/XML, podemos ver los siguientes datos:

    • Un fragmento de la descripción del recurso, sioc:content.
    • El creador del recurso, dc:creator, sioc:has_creator.
    • La fecha de creación del recurso, dcterms:created.
    • El título del recurso, dcterms:title.
    • La red en donde se ha publicado el recurso, sioc:has_space.
    • Las etiquetas del recurso, sioc_t:Tag

    Nos consta que los BOTs, especialmente Google, solicitan e indexan estas vistas de datos, como recursos independientes de las páginas HTML. Si tenemos en cuenta todo lo que se ha explicado hasta ahora, resulta evidente que dichas vistas de datos les resultan muy interesantes; no sólo contienen datos explícitos de entidades bien identificadas, sino que también expresan un grafo de relaciones explícito. En efecto, los BOTs no tienen que identificar y relacionar las entidades con sus algoritmos, como pasa con los datos incrustados con RDFa o Microdatos, sino que se pueden limitar a recoger la información ya procesada.

    La plataforma GNOSS genera nativamente estas vistas de datos, lo que permite, además de su indexación por los BOTs, que los sitios se incorporen con sencillez al movimiento Linked Data, formado por conjunto de sitios que exponen datos enlazados (http://linkeddata.org):

    Linked Data is about using the Web to connect related data that wasn't previously linked, or using the Web to lower the barriers to linking data currently linked using other methods”.

    Por todo ello consideramos que la estrategia a abordar para cualquier portal web o proyecto de estrategia de posicionamiento web debiera atender las recomendaciones generales del SEO “convencional” y aprovechar todas las posibilidades que da la representación semántica en RDF de los contenidos originales y de alta calidad como vía para obtener su máxima expresión, visibilidad y relevancia.

     

    ...

    Artículo

    /

    Publicado el 19.9.2014 por Equipo GNOSS

    El día 27 de febrero de 2014 estuvimos en Peñaranda de Bracamonte invitados por nuestros amigos del CITA (Centro Internacional de Tecnologías Avanzadas) para pensar en las posibilidades que abre para los usuarios finales (personas y organizaciones) la instalación y construcción de la Web Semántica, entendida como Linked Data Web o Web de los Datos Enlazados en el mundo de la cultura, en especial en el de las Bibliotecas.

    Resumimos aquí algunas de las ideas sobre las que venimos trabajando desde hace tiempo y que hemos concretado en diferentes proyectos culturales y educativos que pueden ser visitados por los lectores, como la propia Biblioteca Escolar Digital del CITA, La Biblioteca Nacional Escolar, el buscador de obras de arte de la Fundación Lázaro Galdiano, el Meta-Museo virtual Mis Museos, las plataformas sociales de recursos educativos Inevery CreaDidactalia , Procomún, o el catálogo de blogs educativos Edublogs. Las cinco ideas que pueden consultarse a continuación representan nuestro punto de vista sobre el estado actual, los desafíos y las oportunidades derivadas de las instalación de la Web Semántica en el mundo de la cultura y la educación.

    1.- Las herramientas y tecnologías basadas en estándares de la web semántica y en los principios de laLinked Open Data Web o Web de los Datos Abiertos y Enlazados (o Enlazables) permiten cumplir mejor y de una forma más ajustada el conjunto de fines y objetivos de cualquier biblioteca digital y, por ende y cuando se trata de explotaciones prácticas pensadas para satisfacer las necesidades de los usuarios finales, y no sólo de los profesionales, el proporcionar una experiencia de aprendizaje e integración del conocimiento superiores. Estas ventajas se concretan en la mejora de la experiencia en tres procesos básicos de aprendizaje y acceso al conocimiento cuales son los de, en primer lugar, recuperación de la información y acceso eficaz, rápido y pertinente a la documentación que se precisa mediante buscadores facetados con sumarización que posibilitan desarrollar sobre ellos procesos de razonamiento natural mediante la iteración de restricciones o formulación de nuevas interrogaciones sobre un conjunto dado de resultados; el relacionar, en segundo lugar, los documentos resultantes de un proceso de interrogación como el descrito con otros documentos de la propia biblioteca o espacio digital de un modo significativo y pertinente para el usuario final y también con documentos de otros espacios cuyo contenido esté también representado semánticamente; y el desarrollo, por último, de sistemas de recomendación basados tanto en las interacciones de los usuarios como en el significado de dicha interacciones (un libro para cada usuario, un usuario para cada libro).

    2.- La Web Semántica permite pasar de una web de documentos a una web de datos que se conectan o enlazan con datos. Se abre así la posibilidad de enlazar conjuntos de datos (datasets) con conjuntos de datos y en última instancia datos con datos de acuerdo con una serie de principios y modelos de interrogación bien establecidos (Linked Data Web); de este modo se facilita la portabilidad e interoperabilidad de los mismos. A medida que nuestras Bibliotecas y Repositorios de Conocimiento tengan su contenido representado semánticamente podremos reorganizarlo e integrarlo de maneras nuevas y originales generando de ese modo nuevos productos de conocimiento útiles para el aprendizaje y la investigación, que se verán de este modo reforzados y acelerados en muchos de sus procesos. Las Meta-bibliotecas virtuales que ya se están acumulando o los espacios de agregación de contenidos que trascenderán el concepto de colección o catálogo posibilitarán la aceleración de los procesos de descubrimiento de conocimiento al poner en relación contenidos que no se conocían entre sí y de cuya relación se deriva un nuevo conocimiento útil para nosotros. Eventualmente será posible construir Bibliotecas Especializadas, que respondan al interés específico de un conjunto de usuarios especiliazados (pensemos por ejemplo en una Meta-biblioteca de Política Internacional o de Políticas para el Desarrollo Comparadas o de cualquier otro tema, construida sobre la base de un subconjunto de datos de los diferentes datasets publicados por un conjunto de Bibliotecas). En la medida en la que estas bibliotecas estén conectadas con otros procesos de aprendizaje como las Guías Didácticas, los Programas de Asignaturas, los Materiales Didácticos, etc...podemos acelerar y mejorar los procesos de notificación del conocimiento, como por ejemplo, proponiendo sistemas de construcción y actualización automática de bibliografías o comunicando, justo a tiempo, las novedades relacionadas con los temas que han explicitado los usuarios. Todo ello será posible gracias a que la Web Semántica permite, como hemos señalado, una aproximación más “ligera” y eficaz a la hora de integrar datos de diversos sistemas bibliotecarios.

    3.- La Web semántica permite no sólo una integración de contenidos y objetos digitales, también posibilita el relacionarlos significativamente con las personas y las comunidades o grupos de interés afectados por ellos gracias a que pueden ser representados explícita y unívocamente gracias a un vocabulario específico, conocido por sus siglas en inglés como FOAF (Friend of a Friend). Esto hace posible descubrir a las personas implícitas o explícitas en un grafo de conocimiento y utilizar ese conocimiento con diferentes propósitos. En la práctica podemos extraer o sacar a la luz el grafo social implícito en un grafo documental, por ejemplo el grafo de los autores y coautores de un repositorio de artículos científico o el conjunto de noticias publicadas en un medio de comunicación que afectan a una persona dada o a un grupo determinado, etc... En definitiva, gracias a los modelos de representación de la Web Semántica somos capaces de interrogar a los sistemas sobre el comportamiento de las personas, pues no sólo conocemos los documentos o personas con las que se relacionan, sino el significado de aquellos y los intereses de éstas.

    4.- En buena medida, todas las promesas de la Web Semántica relativas al desarrollo de aplicaciones orientadas a mejorar la experiencia del usuario final dependen de cómo se resuelva en la práctica el proceso de construcción y la evolución de los Modelos de Representación del conjunto de entidades que conforman el mundo ordinario (personal y profesional) en el que vivimos y con el que interactuamos las personas. Esos Modelos de Representación se construyen para un área de interés o actividad humanas y, en ese sentido, representan un Área o Dominio de Conocimiento. A esta clase de Modelos Conceptuales restringidos a un área de interés o conocimiento que tiene sentido para las personas los denominamos Modelos Digitales. Éstos, con el fin de satisfacer el atributo de "ser comprensibles o interpretables por los sistemas" deben correlacionarse elemento a elemento con una expresión o formulación técnica del mismo (esto es en OWL u Ontology Web Languaje que es el lenguaje que "comprenden" las máquinas) a la que denominamos ontología o vocabulario. Por tanto desde un punto de vista técnico diremos que un Modelo Digital se representa mediante ontologías o vocabularios. El problema es que las entidades u objetos del mundo no están relacionados entre sí de un sólo modo, ni siquiera de un sólo modo principal. Es por ello por lo que debemos proceder analíticamente con el fin de descomponer el problema de la identificación de un Modelo Digital en otros más pequeños. Así decimos que un Modelo Digital está conceptualmente compuesto de Objetos de Conocimiento relacionados de un determinado modo que a su vez contiene entidades u objetos individuales relacionamos en un modo que conocemos o que hemos acordado. Sólo entonces podemos "explicar" técnicamente a los sistemas el Modelo. Necesitamos Modelos capaces de agregar conjuntos amplios de entidades si queremos descubrir el conocimiento implícito en nuestros recursos digitales. Hablamos de agregaciones tales como "Ciudad" o "Museo" o "Biblioteca", pero también de agregaciones más abstractas como "Patrimonio Cultural". En el caso concreto de las Bibliotecas, el Modelo está bien representado por el estandar FRBR y en el de los Museos por CIDOC. CIDOC además tiene una extensión que integra y conecta FRBR. Se trata de Modelos fruto de un trabajo profesional continuado orientado a construir un consenso profesional sobre el modo en el que se relacionan los objetos y los atributos de éstos en un cierto dominio de conocimiento e interés. En la medida en la que representan un acuerdo profesional cuasi universal (y en todo caso universalizable) contienen el embrión de todas las promesas de la Web Semántica.

    5.- Las explotaciones orientadas al usuario final, especialmente las explotaciones basadas en el enlazado de datos entre repositorios independientes dependen de que...existan recursos digitales representados con RDF/OWL. Las Administraciones Públicas son grandes productores de información y datos y en buena medida se han obligado a ellas mismas a publicarlos en abierto con el fin de favorecer su reutilización por parte de terceros. Los datos serán más abiertos si además se publican de acuerdo con los estandares de la Web Semántica y los principios de la Web de los Datos Enlazados (o Enlazables). Las empresas y organizaciones privadas también podrán beneficiarse de este modo de publicación, en primer lugar porque podrán integrar el conocimiento de la propia organización y en segundo lugar porque podrán enlazarse con datos públicos o con datos comercializados por terceros, lo que impactará de un modo muy sustantivo en los procesos de Aprendizaje, Cambio, Gestión del Conocimiento, Analíticos y de Inteligencia de Negocio. Es por ello por lo que el establecimiento de una política de publicación de datos en OWL/RDF se torna de este modo como un elemento necesario y tractor a la hora de acelerar y asentar la instalación de la Web Semántica en organizaciones de todo tipo, pero especialmente esto puede ser así si de lo que se trata es de construir un nuevo espacio cultural integrado desde la profundidad de los datos, con capacidades intrínsecamente educativas y que pueda “conversar” y estar fuertemente conectado con otros intereses humanos, como los relacionados con el ocio, el recreo, el viaje o el turismo.

    Video sobre Biblioteca y Web Semántica. Parte I. Universidad de Salamanca. 5 de marzo de 2014

    Video sobre Biblioteca y Web Semántica. Parte II. Universidad de Salamanca. 5 de marzo de 2014.

    Video. Conversaciones sobre Bibliotecas y Web Semántica.

    ...

    Artículo

    /

    Publicado el 27.2.2013 por Ricardo Alonso Maturana

     

    La NISO (National Information Standards Organization) es una organización estadounidense sin ánimo de lucro fundada en 1939 dedicada a desarrollar, mantener  y publicar estándares técnicos  y normas técnicas relacionadas con el ámbito de las publices, los datos bibliográficos y la documentación bibliotecaria. Forman parte de esta organización las principales Universidades, Bibliotecas,  empresas tecnológicas , y  sociedades de investigación americanas. (Miembros)

    En septiembre de 2012,  la NISO dedicó su publicación trimestral (ISQ: Information Standards Quartely) a abordar el estado de la cuestión relativa a la aplicación de Linked Open Data en las instituciones de la memoria: museos, archivos y bibliotecas. Más de 60 páginas que compilan interesantes artículos sobre los aspectos teóricos y sobre todo prácticos de la cuestión.

    Todd Carpenter, director ejecutivo de NISO afirmaba:

     “El cambio que está acaeciendo hacia un modelo de datos vinculados (linked data) en bibliotecas y otras instituciones culturales, representa uno de los cambios más profundos que nuestra comunidad está enfrentando. A la vez que altera por completo la forma en que siempre hemos descrito y catalogado la información bibliográfica, ofrece enormes oportunidades para hacer esta información accesible y utilizable en contextos más amplios, en la comunidad  global que supone la web”.

    Este hecho confirma la importancia creciente que la aplicación de la web semántica, concretada en el movimiento linked data  está generando en las Instituciones de la Memoria estadounidenses , en el mundo anglosajón, y en el mundo en general.

    Del conjunto de artículos destacan aquellos que exponen experiencias prácticas que se están llevando a cabo en la aplicación de linked data en el sector cultural:

    • Jane Stevenson en su artículo Linked Lives describe el trabajo  que se está llevando a cabo para estructurar y vincular los datos relativos al conjunto de datos existente en los archivos del Reino Unido.
    • Seth van Hooland, Rubén Verborgh y Rik Van de Walle reflexionan en su artículo Joining the Linked Data Cloud in a Cost-Effective Manner sobre la necesidad de generar mecanismos previos que permitan abrir y vincular los datos de una forma efectiva y eficiente. Para ello muestran cómo herramientas interactivas de uso general de transformación de datos, como Google Refine, pueden ser utilizadas para realizar eficientemente la tarea previa de limpieza y refinamiento de datos necesaria que preceda a la apertura de los datos vinculados.
    • Ted Fons, Penka Jeff, y Linked Richard Wallis debaten en su artículo OCLC's Linked Data Initiative sobre el uso de Schema.org en WorldCat para que los datos de las bibliotecas sean más relevantes y visibles en la web.
    • Antoine Isaac, Clayphan Robina, y Haslhofer Bernhard explican en su artículo In Europeana: Moving to Linked Open Data cómo los metadatos para más de 23 millones de objetos culturales  que se están agregando en la gran iniciativa europea EUROPEANA, se están estructurando basándose en un modelo  con RDF.

    Además de estos artículos, es interesante la presentación que Jon Voss  realiza en su artículo Linked Open Data for Libraries, Archives, and Museums (LODLAM) State of Affairs,  del evento anual que se celebrará en junio de 2013 en Montreal donde se darán cita todos los proyectos relacionados con la aplicación de linked data a las instituciones de la memoria (LODLAM Summit) y será un excepcional escaparate para comprobar las experiencias más novedosas y el grado de avance en esta materia.

    Por último, es destacable dada su clara vinculación con el mundo educativo el trabajo presentado por Thomas Elliott, Sebastian Heath, John Muccigrosso. En este trabajo se informa sobre la creación del Linked Ancient World Data Institute, un organismo encargado de promover y propalar la los recursos digitales culturales-educativos relacionados con las disciplinas de los estudios clásicos gracias a las oportunidades que brinda los datos abiertos y enlazables.

    ...

    Categorías:

    Artículo

    /

    Publicado el 30.11.2012 por Ricardo Alonso Maturana

    El Knowledge Media Institute (KMi) es el responsable de la estrategia de datos abiertos de la Open University (OU). El KMi es un centro de investigación de la OU que trabaja con intensidad en el terreno de las tecnologías semánticas. Su cometido se centra fundamentalmente en los campos de la ingeniería ontológica, la representación del conocimiento, la interoperabilidad y el data linking. Entre sus trabajos más reseñables destaca el citado proyecto de Linked Open Data de la OU, la primera plataforma de datos enlazados en el mundo universitario, que cuenta con más de 20.000 documentos reutilizables, entre los que se incluyen papers, grabaciones de clases, cursos completos…

    En la actualidad, el KMi cuenta con 80 personas en distintos grupos de investigación ubicados en las siguientes líneas de trabajo: Future Internet, Knowledge ManagementMultimedia & Information SystemsNarrative HypermediaNew Media SystemsSemantic Web & Knowledge Services y Social Software. En todos los casos, el KMi hace especial énfasis en el vínculo y las posibles aplicaciones de las tecnologías semánticas y la formación y educación. El trabajo de los investigadores se refleja en hasta 130 proyectos. El KMi tiene su propio ‘termómetro’ para valorar la relevancia (Hot, Active y Classics) de cada uno de los proyectos en función del momento de desarrollo de sus trabajos. Como introducción al panel de proyectos del KMi, destacamos los siguientes:

    • LUCERO Linking University Content for Education and Research Online.
    • LinkedUP Linking Web Data for Education Project – Open Challenge in Web-scale Data Integration.
    • DECIPHER Digital Environment for Cultural Interfaces; Promoting Heritage, Education and Research.
    • LUISA Learning Content Management System Using Innovative Semantic Web Services Architecture.
    • EUCLID Educational Curriculum for the usage of LInked Data.
    • SocialLearn Learning on the open, social web.
    • Multimedia Digital Libraries New Paradigms for Browsing & Search.
    • Living Human Digital Library Technical infrastructure for the Living Human Project.
    • mEducator  Multi-type Content Repurposing and Sharing in Medical Education.
    • ROLE Responsive Open Learning Environments.
    • LTfLL Language Technology for Lifelong Learning.
    • SILVER Semantic Interactive Learning Visualisation Environment Research. 

    Entre los proyectos destacados, consideramos de especial interés a LUCERO, la iniciativa a partir de la que la Open University construye su plataforma de Linked Open Data. El investigador Mathieu d’Aquin explica en la presentación Building the Open University Web of Linked Data las bases y posterior desarrollo del proyecto.

    ...

    Artículo

    /

    Publicado el 3.9.2012 por Ricardo Alonso Maturana

    El nombre de estas conferencias es una declaración de intenciones: demostrar que la aplicación de tecnologías semánticas en servicios y empresas es un hecho, superando el estado de investigación académica que a menudo se le atribuye. No es extraño que sea el mercado anglosajón quien promocione este enfoque, centrando cada  presentación en casos prácticos y aplicaciones concretas. Esta es la descripción del tipo de presentaciones que buscan:

    "The Semantic Technology & Business Conference (SemTechBiz) is the foremost conference series on semantic technologies held each year, and covers a wide range of topics that are redefining the landscape. Please note that we are seeking compelling and thought provoking practitioner depictions of real-world experience.

    We strongly favor presentations that include:

    • In-depth case studies
    • Step-by-step how-to's
    • Real brands
    • Solid data and results

    Priority consideration is given to speakers with hands-on implementation experience and broad industry knowledge. Precedence is also given to presentations offering actionable ideas and substantive answers to specific, real-world questions (share the mistakes along with the successes!)".

    Durante este año se celebra esta conferencia en Berlín (febrero), San Francisco (junio), Londres (septiembre) y Nueva York (octubre). Aún sin conocer el programa final de la conferencia de Nueva York, a partir de los que se ha presentado en San Francisco y de lo previsto en Londres se pueden extraer interesantes conclusiones respecto al momento de aplicación de las tecnologías semánticas en negocios y servicios.

    En primer lugar, algunos gigantes tecnológicos están tomando posiciones explícitas en este mercado. Por una parte, IBM y Oracle, con enfoques diferentes, se presentan como proveedores de soluciones de explotación de datos e inteligencia empresarial, usando tecnologías semánticas. Oracle profundiza en la relación entre sus soluciones de bases de datos relacionales y su producto de almacenamiento y consulta de grafos (RDF), proporcionando soluciones de minería y descubrimiento de información. IBM presume de sus sistemas de inteligencia artificial, análisis del lenguaje natural y búsqueda semántica, cuyo mayor exponente ha sido el proyecto Watson y su triunfo en el programa de televisión Jeopardy. IBM, además, ha sido Gold Sponsor de la conferencia de San Francisco, enlazando hacia sus productos y servicios ECM: “Content in Motion, Delivering content in motion for better business value”. Las presentaciones y paneles en que han participado estos grandes jugadores han tratado sobre la explotación del conocimiento implícito en cantidades masivas de datos o, dicho de otro modo, en cómo responder a la pregunta por el sentido y la interpretación en un nuevo contexto caracterizado a la vez por la enorme capacidad de los sistemas instalados y los nuevos desarrollos basados en sensores para producir datos hasta el nivel de los terabytes, a la par que nuestra viejo modelo de computación profundamente administrada se muestra incapaz de afrontar el desafío. Como podéis ver en la enumeración de las presentaciones que os ofrezco a continuación, la capa semántica completará los sistemas de gestión e inteligencia de nuestras empresas y nuestras ciudades y, de hecho, se convertirá en el modo "inteligente" de hablar con ellos:

    • You have Terabytes Worth of Triples, Now What? -- Mining Insights from Your Semantic Data Store, con Xavier Lopez y Zhe Wu, de Oracle Corporation: “Representing data in graph (triples) format is indispensable but not the whole story; you need to make sense out of the millions or billions of triples you have gathered. The dearth of business intelligence (BI) and data mining (DM) tools for RDF data leaves an analyst little choice but to run SPARQL queries, and perform logical inferences as the only way to analyze semantic data
    • PANEL: Linked Enterprise Data Patterns, con David Wood, de 3 Round Stones Inc, Arnaud Le Hors, de IBM y Ashok Malhotra, de Oracle: “Linked Data is rapidly becoming an alternative mechanism for data integration within large enterprises and a means of connecting the disparate APIs of enterprise software products.
    • Future Directions in Social Search and Analytics at IBM, con Bob Foyle, de IBM: “Search applications can be greatly enhanced when they incorporate relationships between the query, the content and the people analyzing information and the content itself.”
    • SCRIBE, a Semantic Model that Help Cities Become Smart, con Rosario Uceda-Sosa, de IBM: “Despite the progress made in semantic technologies and standards, semantic industry-strength models in complex domains are few and hard to use. However, data semantics is at the core of complex, heterogeneous and siloed systems like smart cities.”
    • Deriving Social Insight from Existing Business Applications, con Marie Wallace, de IBM: “In this presentation we will examine how we can we apply social analytics to a existing business application which is not a “social application” per sei. We will demonstrate how these applications hide a rich set of social and semantic links within their underlying schemas, relationships that may be well hidden and distributed across a myriad of tables and cells, but they are there nonetheless and can be represented as a socio-semantic graph on which social analytics can be easily applied.”
    • Bringing Location Analysis to the Semantic Web with the OGC GeoSPARQL Standard, con Matthew Perry y Xavier Lopez, de Oracle: “The Open Geospatial Consortium has recently introduced the GeoSPARQL standard for spatial query on the Semantic Web. Spatial data is pervasive on the Web, and standards from the OGC play a critical role in location-based applications that we use every day. GeoSPARQL standardizes key features, such as spatial datatypes and SPARQL extension functions, that will bring the Geo Web into the Semantic Web.”
    • Benefits and Applications of W3C's Provenance Standards in Enterprise Semantic Web Applications, con Reza Bfar, de Oracle: “This session will give a brief-overview of the current work going on by W3C's Provenance group. Most of the session will focus on why enterprise applications should implement it, some of the architectural benefits the standard offers, and how enterprise customers will benefit from its implementation.”
    • Semantic Spend Classification: The Convergence of Unstructured Data Processing, Semantics and Data Mining, con Arivoli Tirouvingadame, de Oracle: “Spend Classification is the process of managing how to spend money effectively in order to build products and services. The term is intended to encompass such processes as outsourcing, procurement, e-procurement, and supply chain management. Spend Classification is a key component of spend management that classifies transactional spend data into standard spend taxonomies thus enabling rich Spend Analytics. This data is typically highly unstructured in its nature but has deep value. Unlocking the value buried in this data requires synergistic use of linguistic text processing techniques, data mining and business intelligence resulting in high value results to the organization.”
    • Watson Goes Back to School - And what it tells us about the evolving role of semantic technology, con Christopher Welty, de IBM Research: “However, over time, the failure of the AI community to achieve this end-to-end vision made many, especially those in NLP, question the endpoint. In other words, to doubt the value of semantic technology. In this talk, we show that it was the vision, not the technology, that deserved to be doubted. Semantic technology has significant value in accomplishing tasks that require understanding, but it is not the endpoint.

    En segundo lugar, empresas como Google, Yahoo, Microsoft y Yandex, promueven la semantización de la Web mediante la iniciativa de microdatos schema.org, incrustando metadatos en el código HTML de las páginas. Como resultado, son cada vez más capaces de aplicar y vender sus sistemas de búsqueda en mercados verticales, como viajes o productos, con resultados más ricos en facetas y contextos. Las presentaciones en las que han participado son:

    • Semantic Search, con Thanh Duc Tran de AIFB y Peter Mika de Yahoo. “In this tutorial, we aim to provide a comprehensive overview on the different types of semantic search systems, and discuss the differences in the techniques underlying them. Both the application of Semantic Web technologies to the IR problem and vice versa, the application of IR techniques to Semantic Web problem are covered by this tutorial. In particular, focus is given to four topics of semantic search which have attracted much interest recently
    • PANEL: Schema.org, con Ivan Herman, de World Wide Web Consortium, Alexander Shubin, de Yandex, Dan Brickley, de Google, Evan Sandhaus, de New York Times Company, Jeffrey W. Preston, de Disney Interactive Media Group, John Giannandrea, de Google, Peter Mika, de Yahoo, R.V. Guha, de Google y Steve Macbeth, de Microsoft: “Just prior to the 2011 SemTechBiz Conference in San Francisco, Google, Yahoo, and Bing announced the creation of schema.org. Since that time, the effort has enjoyed a lot of attention and activity.

    Además de estos grandes players tecnológicos, importantes empresas basadas en el conocimiento, en sectores como la educación, los medios de comunicación o las ciencias de la salud, están desarrollando productos y servicios basados en tecnologías semánticas. No se trata de proyectos marginales o de investigación, sino que más bien expresan el inmediato mainstream tecnológico, a la par que muestran una estrategia de fondo y una apuesta clara por el uso de tecnologías semánticas. Estas grandes empresas sectoriales se están apoyando, para el desarrollo de estos productos y servicios, en un conjunto de empresas tecnológicas que se ofrecen como proveedores de soluciones y servicios en el ámbito de la semántica, y que, en la actualidad, son mucho menores en tamaño que los grandes proveedores anteriores. Son este conjunto de empresas que ahora emergen las que, en los últimos años, han realizado la transición la investigación a las aplicaciones y las que han construido la paleta de soluciones que hará de las tecnologías semánticas las tecnologías estrella en IT en el futuro inmediato. 

    Grosso modo, entre este conjunto de empresas podemos distinguir tres grupos: aquellas que son proveedores de soluciones de computación y bases de datos, las que lo son de plataforma y, por último, aquellas que ofrecen servicios a la carta, fundamentalmente de representación del conocimiento. En el siguiente cuadro pueden verse el conjunto de empresas de servicios que patrocinan o participan de algún modo en estos eventos. No están todas las que son, pero son todas las que están. Probablemente esta lista aumentará antes del cierre de la convocatoria del evento de Nueva York, previsto para el 15 de octubre.

     

    Semantic Technology and Business Conference 2012

     

    San Francisco 2012

    Londres 2012

    New York 2012

    Epimorphics Ltd (Reino Unido)

     

    Silver

     

    Fluid Operations (Alemania)

    Silver

    Silver

     

    Ontoba (Reino Unido)

     

    Sponsor

     

    Poolparty (Austria)

    Silver

    Exhibitor

     

    Cambridge Semantics (R.U.)

    Silver

     

    Silver

    Franz Inc (EEUU)

    Exhibitor/Sponsor

     

    Silver

    Orbis Technologies (EEUU)

    Silver

     

    Silver

    REvelytix (EEUU)

    Gold

     

    Silver

    Stardog (EEUU)

    Exhibitor/Sponsor

     

    Silver

    Yarcdata (EEUU)

     

     

    Silver

    Bigdata by systap (EEUU)

    Exhibitor/Sponsor

     

    Sponsor

    Ontotext (Bulgaria)

    Platinum

     

     

    IBM (EEUU)

    Gold

     

     

    beInformed (Holanda)

    Silver

     

     

    Elsevier (Holanda)

    Silver

     

     

    Profium (Finlandia)

    Silver

     

     

    TopQuadrant (EEUU/RU)

    Silver

     

     

    Expert system (Italia)

    Exhibitor/Sponsor

     

     

    Fynydd (EEUU)

    Exhibitor/Sponsor

     

     

    iQSer (Chequia)

    Exhibitor/Sponsor

     

     

    Knowledge Based Systems

    (EEUU)

    Exhibitor/Sponsor

     

     

    Morgan & Claypool Publishers

    (EEUU)

    Exhibitor/Sponsor

     

     

    Pure Discovery (EEUU)

    Exhibitor/Sponsor

     

     

    SindiceTech (Ireland)

    Exhibitor/Sponsor

     

     

    SkyTech Solutions (EEUU)

    Exhibitor/Sponsor

     

     

    Tom Sawyer Software (EEUU)

    Exhibitor/Sponsor

     

     

     

    Como hemos señalado anteriormente, el impacto de estas tecnologías va a resultar particularmente importante en algunos sectores, como pueden ser los de la educación, la educación superior, las ciencias de la salud y los medios de comunicación. Entresacamos a continuación las participaciones y conferencias que nos han parecido de mayor interés y alcance en estos sectores mencionados:

     

    EDUCACIÓN Y UNIVERSIDAD

    • LONDRES: Building a Linked Data Graph for Education Tom Heath, Talis Education Ltd: "Just as a social and professional graph have emerged through Facebook and LinkedIn, so too is an education graph emerging describing connections between students, teachers and the learning resources they use. The Talis Aspire application allows university lecturers to create lists of learning resources for a particular course, which are then expressed according to the Linked Data paradigm"

    Paper relacionado: Talis Aspire: Assembling and Applying an Education Graph based on Learning Resources in Universities

    • LONDRES Y SAN FRANCISCO: Linked Data at Pearson: The Proof is in the Putting Madi Weland Solomon, Pearson Plc: "This presentation offers up a recent Pearson proof of concept to reveal the promise of Linked Data as a path to approach issues such as DAM, Enterprise Taxonomy Management, Enterprise Search, and even alignment of content to education standards".
    • NUEVA YORK: Watson Goes Back to School - And what it tells us about the evolving role of semantic technology Christopher Welty, IBM Research: "In the traditional vision of AI, understanding flowed from perception through language to knowledge. It had always been envisioned that this understanding would be in some precise and unambiguous knowledge representation, and that all meaning processing would happen in this representation. This is the root of all semantic technology today".
    • SAN FRANCISCO: Project schoolKID: Linked School Data Hans Constandt, ontoforceTom Vankemmel, schoolKID: "SchoolKID (school Knowledge and Information dashboards) helps principals & their administration to address bottlenecks associated with finding scattered information about students with powerful but simple, attractive dashboards".

     

    BIO-FARMA

    • CONFERENCIA DE LONDRES

    Semantic Drug Research: Discovery of New Biomarkers and Phenotypes by Text Analytics Carlo A. Trugenberger Co-founder and Chief Scientific Officer / InfoCodex Semantic Technologies AG: "The ultimate goal of semantic technologies and text analytics is to devise software that can "understand" the meaning of free text in the practical sense of providing new, actionable information condensed out of a body of documents".

    A Faceted Browser for Drug Discovery: Integrating & Querying Big Data Hans Constandt Senior Consultant Information Integration / Eli Lilly: "Our project that joins the capabilities of semantic information integration & faceted browsing visualization. Faceted visualization of linked data spanning internal, external public and subscribed sources can provide an effective and generally applicable mechanism for deriving knowledge from the wealth of available integrated information. Any data source semantically exposed and woven into an information graph becomes available for faceted browsing access. This includes sources ranging from drug discovery to clinical development and operational support functions".

    Using and Improving the D2RQ Open-source RDB to RDF Mapping Tool Didier E. Chalon Data architect, New Medicines Informatics / UCB Pharma s.a.James Snowden Senior Scientist, New Medicines Informatics / UCB Celltech: "D2RQ is an open-source, freely available, relational database to RDF mapping technology. Its features and performance in a corporate environment have led UCB to identify it as the preferred tool for several data integration scenarios - with however possibilities for improvement in different areas".

    • CONFERENCIAS DE SAN FRANCISCO Y NUEVA YORK

    Using Linked Semantic Data in Biomedical Research and Pharmaceuticals: "This presentation and discussion includes key pharmaceutical Information experts on the value and promise of linked semantic data. Areas to be discussed will include: Drug Development, Clinical Data, Genomics, Regulatory, and Personalized Medicine".

    Faceted Search and a Slick UX for Integrating and Querying Big Data Hans Constandt Co-founder - ontoforce: "This project specifically joins the capabilities of semantic information integration & faceted browsing with slick and easy to use interfaces for multiple pharma and biotech mining internal and external data".

    Semantic Web Technologies in Life Sciences: Prejudices, Limitations, Advantages and Use Cases Martin Romacker Senior Knowledge Engineering Consultant Novartis Pharma AG: "Large-scale initiatives like openphacts in chemistry or biomart in the biological domain witness the increasing importance of having data available in a semantically reusable way with open access".

     

    MEDIOS DE COMUNICACIÓN

    • CONFERENCIA DE LONDRES

    Dynamic Semantic Publishing Empowering the BBC Sports Site and the 2012 Olympics Jem Rayfield Lead Technical Architect / BBC Borislav Popov Head of semantic annotation and search - Ontotext Lab / Peter Haase Lead Architect R&D fluid Operations: "It describes the latest developments in the transformational technology strategy the BBC Future Media & Technology department is using to evolve from a relational content model and static publishing framework to a fully dynamic semantic publishing (DSP) architecture".

    En cuanto a la BBC, te recomiendo que veas la presentación relacionada BBC Dynamic Semantic Publishing, que hemos subido en la comunidad NextWeb de gnoss.com

    • CONFERENCIAS DE SAN FRANCISCO Y NUEVA YORK

    rNews: The most versatile way to mark up Publishing Metadata Andreas Gebhard Managing Editor Getty Images, Inc.Evan Sandhaus Semantic Technologist - New York Times Company: "The International Press Telecommunications Council (IPTC) released rNews 1.0 in October 2011 after one year of development and community outreach work. With the integration into schema.org, rNews has quickly become the most versatile way to mark up publishing metadata in a Semantic Web compliant way".

    Omnimedia: Keeping It Simple: A Case Study in Shifting Expectations Barbara E McGlamery Taxonomist Martha Stewart Living Omnimedia: "This case study will compare how two companies approached the challenges involved with defining realistic objectives for using the Semantic Web and what obstacles were encountered in the development process".

    Semantics at Tribune Company Keith P DeWeese Director, Information and Semantics Management -The Tribune Company: "The Tribune Company has been working with various semantic technologies for years, but a formal semantic program was not until 2007. This presentation will cover the foundation of that program, achieved, lessons learned, and the forward-looking view the Tribune Company regarding a suite of semantic technologies that it will deploy in the future".

    Using the Semantic Web for online Sports News Stories Daniel Schwabe Professor Dept. of Informatics, PUC-Rio / Rafael Pena Product Owner of the Sports Data System Globo.com: "We present the use of a Domain Model for Soccer, together with a Discourse Model, were used to identify story leads for the largest Brazilian sports news website".

    AP Metadata Amy Sweigert Vice President of Information Management The Associated Press: "With the introduction of AP Metadata Services, the Associated Press is offering a standardized AP News Taxonomy, which in combination with the AP Tagging Service enables the automated creation of rich, semantic metadata".

    Agence France-Presse brings businesses the next generation of personalized news delivery/services with semantic technology. Janne Saarela CEO ProfiumErick Briere, Agence-France Presse: "AFP selected a semantic technology solution for managing personalized customer subscriptions supporting both the scalability and the high-availability requirements needed for today's real-time global news distribution business".

     

    En conclusión: todo parece apuntar que las tecnologías semánticas han alcanzado el grado de madurez y de legitimación tecnológica suficiente como para ser bien aceptadas en el conservador mundo de los negocios, especialmente en algunos sectores y funciones, como creemos haber mostrado. Esta noticia irá llegando en oleadas en los próximos meses, modificando profundamente algunas costumbres y enfoques y, por ende, la cultura IT de muchas organizaciones y empresas.

    ...

    Artículo

    /

    Publicado el 22.6.2012 por Ricardo Alonso Maturana

    Emprendimiento y tecnología: la aventura de crear una compañia de Social Knowledge Business

    El pasado 21 de junio ofrecí una ponencia titulada 'Emprendimiento y Tecnología: la aventura de crear una compañía de Social Knowledge Business', en el marco del Tecnalia’s KBE Day. En este post, escrito en inglés para la propia conferencia, hago un resumen tanto de mi trayectoria como de la GNOSS.

    Entrepreneurship and Technology: The adventure of Creating a Social Knowledge Business Company (Ricardo A. Maturana's lecture in Tecnalia’s KBE Day)

    I offered a lecture during the Tecnalia’s KBE Day (Zamudio, Bizkaia; 21th June 2012), a seminar with Knowledge Based Entrepreneurship companies and professionals.  This is a transcript of the lecture ‘Entrepreneurship and Technology: The adventure of Creating a Social Knowledge Business Company’:

    INTRODUCTION

    I am the founder and the current CEO of www.gnoss.com. In October 2007, Luis Cacho, President and cofounder of arsys.es, joined the project. 

    I don’t know what expectations you have about this presentation. I’m not an academic person, so I don’t do research on this topic. I don’t have any general ideas about this and of course I have no recipes. I usually avoid giving some advice. So, what could I say with sense about undertaking new paths in technology or about creating new technological companies? I only have my own experience widened with some reading, some good conversations and, at last, I have walked this path with some friends and my family who wanted to share this adventure. To sum up, I feel capable to tell you my own story and think about it carefully, but no more.

    First of all, let me to tell you something about the knowledge company I’ve created: GNOSS.

    GNOSS works with semantic technology

    GNOSS is a social software platform which includes linkable and customizable social networks, which can be managed and in which it is possible to take part with a federate identity – a user can work simultaneously in several networks with personal or collective identity; organization, class or group, based on a structured web of data not on a web of documents. To put it briefly, www.gnoss.com is a space for social linkable networks that run on semantic web technology; a web 3.0 project offering solutions for knowledge management, collaborative work and informal learning.

    GNOSS can be used as:

    • a corporative tool
    • a learning tool


    GNOSS in Linking Open Data Cloud

    ​This story begins at the beginning, that is, just before I decided to launch GNOSS and, as a consequence, to create a technological start-up.

    1. IMAGINATION

    When I was sixteen, I was studying at High School in La Salle, in the Deusto neighbourhood. Until that moment, I really enjoyed reading comics and books. Of course, I had read the appropriate books for my age, like Salgari’s and Stevenson’s, or those of a very popular author named Martin Vigil. Related to comics, I liked almost anyone, from Mortadelo and Filemón to Flash Gordon. But when I was sixteen, something happened: as the reading material at the end of the literature textbook, I found the beginning of a Borges’ short story: “Las minas circulares”.  When I read that singular page, I noticed that I had never read anything like that before. That day after school, I went to a bookseller, now closed, named “Paradiso” (like the celebrated poem by Milton) and I bought “Ficciones”. That day, with those few words from the beginning of the Borges’ short story, I went into a new dimension made of metaphors, concepts, literature, formal languages… The bricks to build a vision of the world.

    Borges not only was an inspiration, but he also represented the possibilities of the mind and thought in the good stories, especially when they are mixed with the most important of all the high human faculties: the imagination. The following years, I became a persistent, interested and passionate reader. I found out that the world has other worlds inside and that words contain all things and all possible worlds. I was definitely fascinated by the power of words and language, and by their dominance over the things.

    After Borges, other writers came, such as Cortázar and Stendhal, Tolstoi and Flaubert, Carpentier, Conrad and Greene and many others.

    First big learning: From then to now, I’m deeply convinced that it’s impossible to have a solid vision of the future without a solid imagination full of good metaphors. And the vision of the future has inside the whole of opportunities. Imagination and metaphors represent the form of the future in our present and in our mind. The killer faculty to create anything (and it is the same if we talk about painting or tech enterprises) is the imagination and its contents, not the intelligence.

    2. ENJOY

    Enjoy every moment, specially the worst ones, and difficult ones.

    Finally, I had to choose what I wanted to be in the future. Between us, that means what kind of university studies I preferred. I chose Philosophy in the University of Deusto. There, I discovered the pleasures and suffering of thinking and I had the opportunity of reading some a few but fundamental books: Plato, Descartes, Wittgestein, Russel, The philosophy of language… I discussed, studied and had the opportunity, so to speak, of seeing and thinking about the lower surface of things, the other side of the moon, the reverse side of the world. Those days were full of happiness in the strange way that happiness becomes alive in the extreme youth, a germinal period in which everything is still possible. I lived with passion those warm days and I enjoyed doing what I wanted to do without any utilitarian restriction. At last, those golden days came to end. But something, something important, remains up to now: you have to follow your real interest, listen to your heart. We all have the duty to deploy our talents, all of them, without any other consideration. That means living with passion and connect your deepest being with your actions and with what you do at every moment.

    After this, I taught Philosophy, I wrote my thesis on models of innovation dissemination and social knowledge engineering. I also promoted an institute for adult education. I was consultant in advanced training and knowledge systems. I’ve always felt that all these activities were deeply connected. GNOSS, our technological project, contains elements of all these experiences, like a soft perfume.

    Second learning: your life is unique and you only live once. Everybody has the duty to try to be happy and useful. Nobody has the right to waste the time and life that has been given. Connect the deepest interests in your life; living with passion, that’s the formula of good life and good business too. Creating and undertaking are passions. 

    3. NOW OR NEVER

    When I was 38, I realized that it was the time of ‘now or never’.

    I wanted to work by myself and create and foster my own project. So, any time is always good.

    I remember worst times than the current ones. My father founded our enterprise group in 1977. They were bad times here, in the Basque Country, and also in Spain. While our economy was collapsed, the new political frame was under construction and we lived in the middle of a major political violence. We are not worst now. So, the present time is always the best one for doing what you want to do. If you feel inside the impulse for creating, for undertaking a project, you have to follow it up without any doubt. Tomorrow could be too late. “Don’t leave for tomorrow what you can do today”, we usually say.

    Third learning: Those who feel the urge to create and undertake, but against these deep impulse, put off or avoid this commitment, will end feeling melancholy and sad passions. 

    4. BE FREE: DON’T WORK FOR ANYBODY BUT YOURSELF

    Once, when I was very young, my father told me that he didn’t want to work for anybody but himself. This is a matter of principles. We are educated in the belief that the most important aspiration in our life is to reach security. All our educational and cultural programme, all the social energy of our mothers, fathers and teachers, collaborate in setting this kind of value up. Tones of creativity, talent and personal possibilities of development are sacrificed in the security alter. But the consequences are cruel: we have built up a culture of bitterness and doubt; most people have got unreliable secret dreams. “There is a time for everything, and a season for every activity under heavens: a time to be born and a time to die; a time to plant and a time to uproot” (the Bible says).

    But the time goes by and, what happens when we haven’t done what we’d like to do? The answer is quite simple: social bottom of bitterness and envy, which punishes those who try to undertake projects. In our society, the social penalties for failing are too hard and rigorous, frequently are the first cause to drop out in the race for creating new enterprises and economic value.

    Fourth learning: be yourself, don’t work for anybody but yourself and don’t listen to the discouraging background noise of our fearful society.

    5. BE SELF-CONFIDENT AND BUILD A SOLID CHARACTER

    Our education is focused on contents, but less in applications, personal development and character formation. And success, as Woody Allen says, is not a question of intelligence but courage, audacity and bravery. The character formation is the key cultural competence to make effective a knowledge and open creative society. A society based on the creativity that fosters everybody’s talent. But now, in spite of the superficial rhetoric about the importance of innovation and talent, to be an entrepreneur, to found and promote and enterprise or business, to have the ambition of developing technology, is something that implies a hard fight against the social elements. But the school doesn’t work for the formation of character. Undertaking demands a lot of energy and a solid character even in those societies that don’t punish the failure; imagine how hard and difficult it would be when the society turns its back on whom has express the preference of living like an entrepreneur. The society that wastes talents is doomed to repeat its history as a farce.  Don’t forget, at least in the case of Spain, that our modern history, with the exception of the last thirty years (and this with shadows) is a story of decline and fall. I think that we have the duty to do something like the Basque dream (or Spanish dream if you want), a path that allows everybody to rise and aspire to a better life got over their efforts, will, merits and talents. Even in this case, character will be the key.

    Fifth learning: undertaking needs a self-confidence and a solid character, even more if we consider our educational, cultural and social values and environment.

    6. HAVE DREAMS, BUILD A CLEAR VISION CONSIDER CAREFULLY ALL THE CIRCUMSTANCES, AND JUST DO IT

    To do anything in the long term, you need first a solid vision. Without it, it is impossible to aggregate resources and talented people for your project. It’s necessary to visualize the point of arrival because any entrepreneurs has to communicate the project clearly to many players, pointing out the process and benefits of making the journey together. But visions need dreams. Martin Luther King said: “I have a dream”. In that moment, the dominance of the WASP people in the USA began to decline. After the Luther’s dream, there is the end of the apartheid that the black people suffered for centuries, and the rise of a society based on civil rights for everybody. Dreams are not enough. After having a dream, you have to be sure that you are not reinventing the wheel. And if you are sure, then you have to consider carefully all the things and circumstances from going from here to there, the arrival point that lightens your dream. Be careful! The entrepreneur who is not in love with its idea is an odd species. There is no place for crazy ideas, so consider carefully your project almost twice. And after all, JUST DO IT.

    Action is always beneficial. To connect thought and action is a magical formula that leads to sure success because, in this case, success is not only the final result, but also the process itself, which expresses the will to live the way you want.

    Sixth learning: Just do it.

    7. THE CREATION OF A TECHNOLOGY COMPANY. MONEY, RESOURCES AND TIME

    The will to do things is a necessary condition, like hard work and character, but again it’s not enough. All the projects need the adequate resources and… money, especially technology projects. In fact, money is used to get excellent resources; without them, will, character, vision and good ideas are almost nothing. To develop technology is expensive and requires to add several resources. Regrettable, this country doesn’t see itself as a technology creator, but as technological services designer. And here, when I say technology, I mean IT technologies, more precisely Internet technologies. This underlying belief makes it very difficult to get financial resources for undertaking in the field of technology. The people who could invest in this sort of projects don’t have faith in them. Here it is important to distinguish between a technological project and a business based on Internet technology. These last one are easy to finance because the investors have the expectation of a quick failure or a quick return on investment. Probably, we don’t have the financial culture and institutions to produce high-tech with global ambitious and, as a consequence, our bets are not enough aggressive, so we lose once and again generating in this way a vicious loop. Perhaps we don’t have nor the cultural conditions, nor the financial structures to aspire to have critical influence in the global Internet, but I think we should be brave for being a major player in the Spanish speaking Internet. This is the second agglutination and market, just after the English speaking Internet of the whole West Internet. Our project, GNOSS, has requested several financial resources. We have sixteen people working in our company; four of them are PhD, many engineers, etc. It’s not cheap. We have been fortunate, because we’ve been able of supporting this project with the solid commitment of our partners (Maturana Group and Luis Cacho, President of arsys.es) and with the collaboration of the public sector (CDTI).

    Of course, nobody reasonable should expect to get a loan from a bank, not now, but neither in the past when our financial system was extremely occupied laying and laying bricks. There are also public funds for innovation, but… it’s not the best way to do the things quickly enough. Bureaucracy is always too slow and demands too administrative task for an entrepreneur.

    Seventh learning: Be careful with the money. It’s never enough.

    8. MAKE A TALENTED TEAM

    Make a team is a critical subject for a technological entrepreneur. The reason tells us that we have bet for talent. Nevertheless, it’s convenient to take care when you want to hire someone. Some rules:

    • Avoid sad people; that is, people who see the bottle half empty, people who say: “I already said…”, and similar sentences. This kind of people resolves bored and discourages the rest of the team. There is no vaccine against this kind of people: only one of them can break down the moral of the best team.
    • Keep away from proud people and those who think that know everything. These people are always a brake. They usually aren’t able to ask for help and therefore, the way of solving problems is inefficient and slow.
    • Prevent against people who have communication problems and are cold from an emotional point of view.
    • Choose warm, smiling and optimistic people.
    • And last, spend money from the beginning in a very good human resources consultant, specialized in recruitment: it will be the best-spent money, for sure.

    Eighth learning: Always talent, avoid sad and proud people, choose the optimistic once and spend money in a very good human resources consultant, specialized in recruitment.

    9. PARTNERS?

    Ask yourself: Actually, do I need a partner?

    Frequently the conflicts between partners come from the different point of view about who of them are creating more value. This kind of discussion is not easy to solve. There are usually two points of view: the one of the investor and the one of the entrepreneur. Money trends to believe that it is the key factor, in spite of the fact that many brilliant projects fail because the entrepreneur and promoter loses the power of making decision. Be careful with partners and try to maintain always the power of decision. Technological start-up projects depend critically on the mood and moral of the promoter. Money can do almost nothing without an enthusiastic entrepreneur.

    Ninth learning: Partners only if needed and remember: money is always coward.

    10. (AND LAST): WORK AND WORK, WORK HARD, EVERYDAY

    Success is a very antiheroic task. Creating technology is not brilliant at every moment. Most days we spend time breaking stones. Talent and money are not enough without work, work and hard work.

    SUMMARY OF MY OWN LEARNINGS

    • IMAGINATION is the key human faculty for visualize future, opportunities, projects and business.
    • ENJOY. Your life is unique and you only live once. Everybody has the duty to try to be happy and useful. Nobody has the right to waste the time and life that has been given. Connect the deepest interests in your life; living with passion, that’s the formula of good life and good business too. Creating and undertaking are passions.
    • NOW OR NEVER. Those who feel the urge to create and undertake, but against these deep impulse, put off or avoid this commitment, will end feeling melancholy and sad passions.
    • BE YOURSELF AND BE FREE, don’t work for anybody but yourself and don’t listen to the discouraging background noise of our fearful society.
    • BE SELF-CONFIDENT AND BUILD A SOLID CHARACTER. Undertaking needs a self-confidence and a solid character, even more if we consider our educational, cultural and social values and environment.
    • HAVE DREAMS AND JUST DO IT. (Have dreams, build a clear vision, consider carefully all the circumstances, and just do it.)
    • MONEY!! Be careful with the money. It’s never enough.
    • MAKE A TALENTED TEAM. Always talent, avoid sad and proud people, choose the optimistic once and spend money in a very good human resources consultant, specialized in recruitment.
    • PARTNERS? Partners only if needed and remember: money is always coward.
    • WORK A LOT!! Talent and money are not enough without everyday work, work and hard work.

    Now, you can compare this with Fernando Trias de Bes says about the key reasons for failure when you start a new company ¿Are the more or less the same? I think basically yes. However, Trias de Bes considers some interesting causes in addition.

    KEY REASONS TO FAIL

    Fernando Trias de Bes, MBA professor at ESADE and writer of books as “The good luck” or “Lateral Marketing”, surprised everyone with his new book: “The black book for the entrepreneur” (El libro negro del emprendedor) were he explains his theory about the main factors for failure when starting a new company. This is based in his own experience, his work at the MBA school (ESADE) and many “chats” with different experienced entrepreneurs. He got to compile 14 key reasons to fail. Those factors are the following:

    • About the person:

    1 entrepreneur with a reason but without motivation
    2 not to have an entrepreneur mentality
    3 not to have a strong character to fight when is needed

    • About the business partners:

    4 count with them when in reality you don’t need partners at all
    5 choose partners without an election criteria
    6 share the same percent of capital when everyone is not giving the same value
    7 lack of communication and understanding between partners

    • About the business idea:

    to think that success only depends on that "great idea"
    9 start within fields you don’t like or lack knowledge
    10 start within non attractive fields (saturated, little growth)

    • About the impact in your family live:

    11 make the business dependant on your family economy and material needs
    12 not knowing the impact that starting a business will have in the quality of your personal live (time for your family, hobbies, …)

    • About management of the new company:

    13 create business models in which you don’t get benefits quickly and neither in the long term
    14 to be an entrepreneur (want to create something all the time) instead of a business man (like to manage growth) and not know the right moment to retire

    ...

    Artículo

    /

    Publicado el 16.12.2011 por Ricardo Alonso Maturana

    Recientemente se ha presentado la versión 1.0 de WebID (Web Identification and Discovery http://webid.info/spec). Es una especificación de autenticación con linked data en su núcleo, producida por un grupo de trabajo del W3C.

    Existe una aparente contradicción entre un sistema de autorización y un sistema basado en datos enlazados abiertos: "Si pedimos a la gente que se autentique es porque hay algo que proteger, algo que cerrar." Esto no es necesariamente así, ya que se puede usar la autenticación para ser aún más abierto.Por ejemplo, la mayoría de los sitios web son de solo lectura, porque no se puede confiar en todos los usuarios de la web. Pero se podrían usar relaciones de tipo "amigos de amigos" para autorizar la escritura de audencias más amplias que las actuales.

    Una red social global, que además fuera distribuida, requiere que cada persona sea capaz de controlar su identidad, que esa identidad sea enlazable entre sitios, y que sea posible autenticarse globalmente. Con una autenticación distribuida es más sencillo que cada persona proteja sus recursos y defina su privacidad.

    Además, WebID se puede usar, usando un protocolo sencillo como HTTPS, para automatizar la autenticación de robots, que pueden ser agentes trabajando en representación del usuario, ayudándole en sus tareas diarias. 

    La autenticación WebID se basa en la existencia de certificados de usuario. Al igual que ya sucede en GNOSS, se asume que el usuario puede tener varias identidades (personal, trabajo, asociativo, etc.), cada una con su propio certificado.

    ...