Watermelon: la web de datos enlazados en un eterno grafo de conocimiento > big data

    4 resultados

    Artículo

    /

    Publicado el 4.12.2018 por Ricardo Alonso Maturana

    "Estadística glorificada" puede parecer una pequeña boutade para referirse a uno de los pilares del actual Programa de Inteligencia Artificial. Sin embargo, lo que en ocasiones se denominan "tecnologías de Inteligencia Artificial" y que, en muchas ocasiones, aunque no siempre, se basan en la computación de datos masivos utilizando bases de datos como Spark o similares responde bastante bien a la idea de "estadística glorificada" que John Alexis Guerra, Profesor de la Universidad de Los Andes, utiliza en el artículo al que nos estamos refiriendo, publicado en Retina.

    Es por ello por lo que conviene distinguir. “Inteligencia Artificial” designa un conglomerado de aproximaciones diverso al problema de la emulación de la inteligencia humana por parte de las máquinas en el que cabe diferenciar dos grandes grupos. Por un lado, tenemos el programa de inteligencia artificial orientado a resolver problemas de aprendizaje. En esta misma línea se encuentran el conjunto de aproximaciones que integran los cálculos sobre datos muy masivos (big data) y el conjunto de reglas y algoritmos que podemos ejecutar sobre ellos de manera que las máquinas puedan “aprender” sobre esa base (Machine Learning y más recientemente Deep Learning). Esta aproximación produce resultados inteligentes, pero no recrea funciones superiores de las personas, como son todas las cognitivas, lo que en la práctica significa que no es capaz de emular comportamientos inteligentes. De esto es de lo que trata la Inteligencia Cognitiva, a la que podríamos definir como Inteligencia Artificial Semántica o Inteligencia Artificial interpretada semánticamente.

    El conjunto de tecnologías que se agrupan alrededor del Programa de Inteligencia Cognitiva  (ontologías, vocabularios, grafos de conocimiento, procesamiento y comprensión del lenguaje natural…) permite a las máquinas comprender e interpretar el mundo que las personas depositamos y representamos en el inmenso conjunto de datos y recursos digitales que hemos y estamos generando, amplificando a la par que emulando nuestras capacidades para enlazar información, razonar, inferir o descubrir conocimiento sobre ese universo de datos. 

    La Inteligencia Cognitiva representa, probablemente, el futuro de la Inteligencia Artificial, algo en lo que ya estamos trabajando y que ofrece grandes resultados muy satisfactorios ya en la construcción de ecosistemas complejos digitalizados. Previsiblemente este programa tendrá un enorme desarrollo en los próximos 10 años. En este escenario, la “mente” de los sistemas, lo que permite que éstos "comprendan" e interpreten el mundo de las personas, aquello que hace posible la comunicación efectiva entre estos y las personas, es y será sin duda semántico. Y ello es así porque si las máquinas no pueden hacer de alguna manera suyo el mundo de entidades y relaciones que constituye la base de los procesos de cognición humanos, no se ve el modo de que puedan llegar a emular verazmente comportamientos inteligentes o, dicho de otro modo, ser algo más que máquinas de un solo propósito o, si se prefiere, las máquinas herramienta de la inteligencia artificial. Y el futuro consiste en mucho más que eso, seguramente.

    https://retina.elpais.com/retina/2018/11/30/tendencias/1543592011_921900.html

    ...

    Artículo

    /

    Publicado el 8.12.2015 por Equipo GNOSS

    Big Data y Web Semántica. Ricardo Alonso Maturana

    En esta entrevista, Ricardo Alonso Maturana, Fundador y CEO de GNOSS reflexiona sobre la importancia de la Web Semántica en un mundo donde los datos crecen exponencialmente (big data) y se encuentran asilados y fragmentados en diversos sistemas de información.

    Ricardo explica las ventajas de las tecnologías de la Web Semántica y del movimiento linked data en el caso de los datos culturales que residen en las bibliotecas, archivos, museos.  Esta entrevista tuvo lugar en el marco de la VII Jornada profesional de la Red de Bibiliotecas del Instituto Cervantes celebrada el 11/12/2014.

    ...

    Artículo

    /

    Publicado el 18.9.2015 por Equipo GNOSS

    A propósito del BBVA: los procesos de transformación digital de la empresa

    Hablar hoy día 5 de mayo de 2015 de transformación digital de las organizaciones parece especialmente adecuado dadas las noticias que colman los periódicos del día y que nos hablan del nombramiento de Carlos Torres Vila como Consejero Delegado del BBVA, en sustitución de Angel Cano. Según se puede leer, junto con Torres Vila se han realizado nada menos que 13 nombramientos y se ha producido la salida de 6 antiguos directivos, lo que promete un cambio de calado, con el fondo de la transformación digital del banco como mayor prioridad. En la noticia publicada por El País se dice que " González (Lugo, 1944) ha transmitido a los ejecutivos que quiere que la entidad abandone la zona de confort actual para conseguir que el BBVA deje de ser un banco para convertirse en un elemento tecnológico de la industria bancaria". Todo apunta a que se trata de una apuesta de largo alcance llamada a remover el espacio de negocio y competencia del sector financiero y a la que deberán responder el resto de los jugadores más pronto o más tarde.

    Según creo, la transformación digital de una empresa o de un negocio tiene mucho que ver con el hecho de que estamos desarrollando, por primera vez de manera consistente y masiva, un conjunto de tecnologías que posibilitan que las máquinas y los sistemas interpreten de manera razonablemente correcta los recursos generados por las personas, tanto aquellos que se crean con un carácter intencional (los documentos), como aquellos otros que se registran de manera automática y que constituyen nuestra huella digital. En la práctica y en la medida en la que estamos también en un proceso de webificación de nuestros sistemas de información, lo que estamos haciendo es suplementar el casi colmatado internet de documentos (HTML), dotándole de una capa de representación del contenido interpretable por las máquinas. A este nuevo internet lo denominamos Web de los Datos e incluye los datos producidos por las personas y aquellos registrados por diversos sensores y que representan el modo en el que funcionan las cosas (generalmente en su relación con las personas) .

    Este nuevo internet está desplegándose en todos los sectores de actividad, cuyos negocios se están viendo transformados profudamente, y se verán aún más en el futuro, por este enfoque; así podemos hablar de una educación basada en datos, de una cultura basada en datos, de un turismo basado en datos, de una industria o un determinado proceso industrial basado en datos o de banca basada en datos. Todos estas denominaciones apuntan al hecho de que las máquinas, nuestro sistemas, pueden construir un grafo de conocimiento subyacente a cada espacio o ámbito de actividad humana y que en la explotación de ese grafo hay nuevas posibilidades económicas y de negocio. 

    La Web de los Datos se está construyendo sobre un conjunto de tecnologías y lenguajes técnicos que en su conjunto conocemos como Web Semántica. El modo en el que se expresa la Web Semántica como Web de Datos se conoce como Web de Datos Enlazables (o Enlazados) o Linked Data Web en inglés. Lo que sugiere esta denominación es que nuestros sistemas pueden enlazar datos con datos, información con información de manera automática o cuasi-automática. El resultado es un grafo de conocimiento, en el cual los datos se acoplan, conectan o vinculan de manera automática sí (esto es sin el concurso de un editor o de un lector), pero sobre todo significativa para las personas que de ese modo ven multiplicada por un factor enorme sus capacidades de lectura, interpretación y descubrimiento del conocimiento. En suma, los grafos de conocimiento y los modelos de interrogación que podemos desarrollar sobre ellos, son la condición tecnológica para que las personas, los grupos y las organizaciones puedan desarrollar procesos eficientes de gestión de conocimiento (que incluye modelos de interrogación, de enriquecimiento de la información, de inferencia y razonamiento y, por ende, de descubrimiento de conocimiento) en un mundo (digital) donde la información es hiperabundante y las capacidades humanas de interpretación crecientemente limitadas.

    El abordaje técnico que posibilita esta transformación de documentos (legibles para las personas)  en datos (legible por una máquina) se realiza por medio de ontologías o vocabularios, que recogen y describen en un lenguaje de programación (OWL u Ontology Web Languaje) un conjunto de entidades (junto con sus atributos) que representan un ámbito de la realidad y, por ende, un ámbito de conocimiento. No se trata, cono se ve, de una estrategia basada en el procesamiento del lenguaje natural (aunque recurra a algoritmos de aprendizaje y estadística basada en Bayes para algunos de sus procesos, como es el de la anotación semántica o de reconocimiento de las entidades que contiene un determinado texto), porque las máquinas sólo interpretan correctamente aquello que puede ser anotado o identificado por la ontología (las entidades y sus atributos), pero cuando lo hacen, lo hacen de manera indubitable. Eso permite computar, a partir de la representación de un número dado de recursos digitales relativos a un ámbito de conocimiento o realidad dado, el conjunto de relaciones implícitas entre ellos, lo que en la práctica supone activar procesos de conocimiento que en sí mismos ya son de un gran valor económico.

    Imaginemos el caso de que una empresa tuviera representadas las personas de su negocio (clientes, empleados) mediante FOAF (Friend of a Friend), una ontología que posibilita que los sistemas distingan el nombre, los apellidos y eventualmente otros atributos personales de cualquier otra posible secuencia de caracteres que contenga un texto; eso significa que la secuencia de caracteres J-o-s-e-f-i-n-a- -M-o-l-i-n-a se convierte para las máquinas que computan información en una persona con un nombre propio (Josefina) y un apellido (Molina); si además disponemos de algunos eventos representados del mismo modo, esto es de acuerdo con estándares de la Web Semántica, tales como, por ejemplo, el evento [comprar con tarjeta de crédito] (dentro del cual podríamos distinguir a su vez la cantidad, el lugar y el tipo de comercio donde se realiza la compra) estaríamos en condiciones de poder empezar a desarrollar modelos de interrogación sobre esas colecciones de datos que nos pueden llegar a proporcionar un conocimiento de calidad acerca de los patrones de comportamiento y los estilos de vida de las personas y que, en consecuencia, nos permitirían segmentarlas en audiencias y eventualmente desarrollar una cartera de productos y servicios adecuados a esos segmentos y, en el límite, personalizados o individualizados.

    Por supuesto, podríamos enlazar nuestros datos de Josefina Molina con datos de terceros, que podrían ser también de consumo (como por ejemplo los desplazamientos en avión, su frecuencia y destino, su consumo de teléfono, la naturaleza  y patrón de las llamadas, etc...) o de otro tipo (los artículos científicos, supongamos, que ha escrito Josefina Molina y que están recogidos en Elsevier o en Web of Knowledge). Eventualmente una web de datos podría identificar todo lo relacionado con Josefina Molina de manera indubitable. Un caso sencillo de descubrimiento de conocimiento, que por cierto es ya real o está muy cerca de serlo podría ser éste: Elsevier dispone en su vasta base de conocimiento de artículos científicos que contiene uno que describe el caso de un médico de urgencias de un hospital de provincias polaco que ha utilizado un determinado principio activo para paliar los síntomas más insidiosos de tal o cual enfermedad; Pfizer, por su parte, ha representado semánticamente el conjunto de su actividad investigadora y, por ende, sus ensayos clínicos y conoce por tanto qué principios activos experimentó y para qué, así como qué experimentos tuvieron éxito y cuáles no; en concreto el del principio activo al que nos estamos refiriendo no lo tuvo. Sin embargo, al enlazar los datos de su base de conocimiento con la de Elsevier puede descubrir, a partir de una experiencia empírica marginal realizada en un lugar periférico de la investigación clínica sobre un principio activo concreto que probablemente nadie ha citado y muy pocos han leido, una aplicación eventualmente muy prometedora para un principio activo cuya vida comercial estaba en vía muerta. Por cierto, la industria farmacéutica está haciendo un gran esfuerzo en este campo y también las grandes editoriales científicas. Elsevier, que es junto con World of Knowledge el principal contenedor de la producción científica mundial, tiene representada semánticamente toda su base de conocimiento; por su parte el conjunto de la industria farmaceútica utiliza Uniprot una base de conocimiento sobre proteínas y enzimas que contiene más de 20.000M de triples (el modo en el que se representa la información en Web Semángica) y los diferentes grandes actores del sector están trabajando activamente en su propias bases de conocimiento. Pero lo que merece la pena subrayar aquí se parece mucho a lo que expresaba Richard Feynman en 1959, el año que ganó el Premio Nobel durante la reunión anual de la Sociedad Física Americana celebrada en el Instituto de Tecnología de California (CALTECH), en una célebre conferencia cuyo título podríamos traducir como "Hay mucho espacio por debajo" (There´s Plenty of Room at the Bottom): "Yo imagino que los físicos experimentales deben mirar a menudo con envidia a hombres como Kamerlingh Onnes, quien descubrió un campo como la baja temperatura, la cual parece ser insondable y en el cual uno puede ir abajo y abajo. Un hombre tal es entonces un lider y tiene algún monopolio temporal en una aventura científica. Percy Bridgman, al diseñar una manera de obtener presiones mayores, abrió otro campo nuevo y fue capaz de moverse en él y guiarnos alrededor. El desarrollo de un vacío aún mayor fue un contínuo desarrollo de la misma especie..." (Traducción: Pablo Martín Agüero). Hay mucho espacio por debajo cuando comenzamos el desarrollo de una Web de Datos sea en el ámbito que sea, en un proceso industrial, un departamento de Marketing, una Universidad, un Museo...y muchas oportunidades de ganar nuevo espacio para los negocios, la gestión cultural o el impulso a la educación. De pronto mucho conocimiento marginal y aparentemente poco útil adquiere un nuevo vigor en el marco de un nuevo proceso de generación y descubrimiento de conocimiento.

    Dato, cuando se define desde este punto de vista técnico, debe entenderse en este contexto que hemos expuesto como la porción mínima de información interpretable correctamente por una máquina. Nuestro punto de vista sugiere que si los datos no están domesticados o interpretados mediante ontologías y vocabularios entonces resultarán poco útiles o difícilmente manejables, especialmente cuando se trate de datos muy masivos (Big Data). El disponer de datos representados del modo que hemos descrito, esto es, de "datos enriquecidos", permite desarrollar sistemas de interrogación basados en razonamiento natural especialmente útiles para las que personas conectan el conocimiento de tal manera que, como consecuencia, pueden explicitarse relaciones hasta ahora ignoradas u ocultas entre los datos que lo conforman. Este nuevo ámbito de conocimiento y aplicación que se ocupa de los modelos humanos de interrogación sobre grandes cantidades de información organizadas en un grafo se denomina Human Computer Interaction (HCI) y es una de las disciplinas emergente más interesantes en el ámbito de las IT, pues determina el modo en el que las personas terminarán por dar valor, utilizar e interrogar a los datos y, por ende, determina el conjunto de aplicaciones para usuario final que pueden desarrollarse sobre la base de la Web de los Datos. Por que, conviene subrayarlo, la Web de los Datos no es una Web para las Máquinas, sino la web que las máquinas devuelven a las personas cuando aquellas pueden razonablemente comprender los contenidos que producimos. Los modelos HCI que explotan las posibilidades de la representación semántica precisan, a su vez, de modelos de computación que posibiliten la realización de inferencias o de procesos iterados de interrogación sobre los datos. Y, finalmente, se precisa de una arquitectura de software que facilite una ejecución rápida o industrial de los proyectos. Nada más.

     

    ...

    Categorías:

    Artículo

    /

    Publicado el 3.9.2012 por Ricardo Alonso Maturana

    El futuro próximo de las tecnologías semánticas en la educación, la universidad, los media y la empresa: análisis de la Semantic Technology and Business Conference 2012 (SF, Londres y NY)

    El nombre de estas conferencias es una declaración de intenciones: demostrar que la aplicación de tecnologías semánticas en servicios y empresas es un hecho, superando el estado de investigación académica que a menudo se le atribuye. No es extraño que sea el mercado anglosajón quien promocione este enfoque, centrando cada  presentación en casos prácticos y aplicaciones concretas. Esta es la descripción del tipo de presentaciones que buscan:

    "The Semantic Technology & Business Conference (SemTechBiz) is the foremost conference series on semantic technologies held each year, and covers a wide range of topics that are redefining the landscape. Please note that we are seeking compelling and thought provoking practitioner depictions of real-world experience.

     

     

    We strongly favor presentations that include:

    • In-depth case studies
    • Step-by-step how-to's
    • Real brands
    • Solid data and results

    Priority consideration is given to speakers with hands-on implementation experience and broad industry knowledge. Precedence is also given to presentations offering actionable ideas and substantive answers to specific, real-world questions (share the mistakes along with the successes!)".

    Durante este año se celebra esta conferencia en Berlín (febrero), San Francisco (junio), Londres (septiembre) y Nueva York (octubre). Aún sin conocer el programa final de la conferencia de Nueva York, a partir de los que se ha presentado en San Francisco y de lo previsto en Londres se pueden extraer interesantes conclusiones respecto al momento de aplicación de las tecnologías semánticas en negocios y servicios.

    En primer lugar, algunos gigantes tecnológicos están tomando posiciones explícitas en este mercado. Por una parte, IBM y Oracle, con enfoques diferentes, se presentan como proveedores de soluciones de explotación de datos e inteligencia empresarial, usando tecnologías semánticas. Oracle profundiza en la relación entre sus soluciones de bases de datos relacionales y su producto de almacenamiento y consulta de grafos (RDF), proporcionando soluciones de minería y descubrimiento de información. IBM presume de sus sistemas de inteligencia artificial, análisis del lenguaje natural y búsqueda semántica, cuyo mayor exponente ha sido el proyecto Watson y su triunfo en el programa de televisión Jeopardy. IBM, además, ha sido Gold Sponsor de la conferencia de San Francisco, enlazando hacia sus productos y servicios ECM: “Content in Motion, Delivering content in motion for better business value”. Las presentaciones y paneles en que han participado estos grandes jugadores han tratado sobre la explotación del conocimiento implícito en cantidades masivas de datos o, dicho de otro modo, en cómo responder a la pregunta por el sentido y la interpretación en un nuevo contexto caracterizado a la vez por la enorme capacidad de los sistemas instalados y los nuevos desarrollos basados en sensores para producir datos hasta el nivel de los terabytes, a la par que nuestra viejo modelo de computación profundamente administrada se muestra incapaz de afrontar el desafío. Como podéis ver en la enumeración de las presentaciones que os ofrezco a continuación, la capa semántica completará los sistemas de gestión e inteligencia de nuestras empresas y nuestras ciudades y, de hecho, se convertirá en el modo "inteligente" de hablar con ellos:

    • You have Terabytes Worth of Triples, Now What? -- Mining Insights from Your Semantic Data Store, con Xavier Lopez y Zhe Wu, de Oracle Corporation: “Representing data in graph (triples) format is indispensable but not the whole story; you need to make sense out of the millions or billions of triples you have gathered. The dearth of business intelligence (BI) and data mining (DM) tools for RDF data leaves an analyst little choice but to run SPARQL queries, and perform logical inferences as the only way to analyze semantic data
    • PANEL: Linked Enterprise Data Patterns, con David Wood, de 3 Round Stones Inc, Arnaud Le Hors, de IBM y Ashok Malhotra, de Oracle: “Linked Data is rapidly becoming an alternative mechanism for data integration within large enterprises and a means of connecting the disparate APIs of enterprise software products.
    • Future Directions in Social Search and Analytics at IBM, con Bob Foyle, de IBM: “Search applications can be greatly enhanced when they incorporate relationships between the query, the content and the people analyzing information and the content itself.”
    • SCRIBE, a Semantic Model that Help Cities Become Smart, con Rosario Uceda-Sosa, de IBM: “Despite the progress made in semantic technologies and standards, semantic industry-strength models in complex domains are few and hard to use. However, data semantics is at the core of complex, heterogeneous and siloed systems like smart cities.”
    • Deriving Social Insight from Existing Business Applications, con Marie Wallace, de IBM: “In this presentation we will examine how we can we apply social analytics to a existing business application which is not a “social application” per sei. We will demonstrate how these applications hide a rich set of social and semantic links within their underlying schemas, relationships that may be well hidden and distributed across a myriad of tables and cells, but they are there nonetheless and can be represented as a socio-semantic graph on which social analytics can be easily applied.”
    • Bringing Location Analysis to the Semantic Web with the OGC GeoSPARQL Standard, con Matthew Perry y Xavier Lopez, de Oracle: “The Open Geospatial Consortium has recently introduced the GeoSPARQL standard for spatial query on the Semantic Web. Spatial data is pervasive on the Web, and standards from the OGC play a critical role in location-based applications that we use every day. GeoSPARQL standardizes key features, such as spatial datatypes and SPARQL extension functions, that will bring the Geo Web into the Semantic Web.”
    • Benefits and Applications of W3C's Provenance Standards in Enterprise Semantic Web Applications, con Reza Bfar, de Oracle: “This session will give a brief-overview of the current work going on by W3C's Provenance group. Most of the session will focus on why enterprise applications should implement it, some of the architectural benefits the standard offers, and how enterprise customers will benefit from its implementation.”
    • Semantic Spend Classification: The Convergence of Unstructured Data Processing, Semantics and Data Mining, con Arivoli Tirouvingadame, de Oracle: “Spend Classification is the process of managing how to spend money effectively in order to build products and services. The term is intended to encompass such processes as outsourcing, procurement, e-procurement, and supply chain management. Spend Classification is a key component of spend management that classifies transactional spend data into standard spend taxonomies thus enabling rich Spend Analytics. This data is typically highly unstructured in its nature but has deep value. Unlocking the value buried in this data requires synergistic use of linguistic text processing techniques, data mining and business intelligence resulting in high value results to the organization.”
    • Watson Goes Back to School - And what it tells us about the evolving role of semantic technology, con Christopher Welty, de IBM Research: “However, over time, the failure of the AI community to achieve this end-to-end vision made many, especially those in NLP, question the endpoint. In other words, to doubt the value of semantic technology. In this talk, we show that it was the vision, not the technology, that deserved to be doubted. Semantic technology has significant value in accomplishing tasks that require understanding, but it is not the endpoint.

    En segundo lugar, empresas como Google, Yahoo, Microsoft y Yandex, promueven la semantización de la Web mediante la iniciativa de microdatos schema.org, incrustando metadatos en el código HTML de las páginas. Como resultado, son cada vez más capaces de aplicar y vender sus sistemas de búsqueda en mercados verticales, como viajes o productos, con resultados más ricos en facetas y contextos. Las presentaciones en las que han participado son:

    • Semantic Search, con Thanh Duc Tran de AIFB y Peter Mika de Yahoo. “In this tutorial, we aim to provide a comprehensive overview on the different types of semantic search systems, and discuss the differences in the techniques underlying them. Both the application of Semantic Web technologies to the IR problem and vice versa, the application of IR techniques to Semantic Web problem are covered by this tutorial. In particular, focus is given to four topics of semantic search which have attracted much interest recently
    • PANEL: Schema.org, con Ivan Herman, de World Wide Web Consortium, Alexander Shubin, de Yandex, Dan Brickley, de Google, Evan Sandhaus, de New York Times Company, Jeffrey W. Preston, de Disney Interactive Media Group, John Giannandrea, de Google, Peter Mika, de Yahoo, R.V. Guha, de Google y Steve Macbeth, de Microsoft: “Just prior to the 2011 SemTechBiz Conference in San Francisco, Google, Yahoo, and Bing announced the creation of schema.org. Since that time, the effort has enjoyed a lot of attention and activity.

    Además de estos grandes players tecnológicos, importantes empresas basadas en el conocimiento, en sectores como la educación, los medios de comunicación o las ciencias de la salud, están desarrollando productos y servicios basados en tecnologías semánticas. No se trata de proyectos marginales o de investigación, sino que más bien expresan el inmediato mainstream tecnológico, a la par que muestran una estrategia de fondo y una apuesta clara por el uso de tecnologías semánticas. Estas grandes empresas sectoriales se están apoyando, para el desarrollo de estos productos y servicios, en un conjunto de empresas tecnológicas que se ofrecen como proveedores de soluciones y servicios en el ámbito de la semántica, y que, en la actualidad, son mucho menores en tamaño que los grandes proveedores anteriores. Son este conjunto de empresas que ahora emergen las que, en los últimos años, han realizado la transición la investigación a las aplicaciones y las que han construido la paleta de soluciones que hará de las tecnologías semánticas las tecnologías estrella en IT en el futuro inmediato. 

    Grosso modo, entre este conjunto de empresas podemos distinguir tres grupos: aquellas que son proveedores de soluciones de computación y bases de datos, las que lo son de plataforma y, por último, aquellas que ofrecen servicios a la carta, fundamentalmente de representación del conocimiento. En el siguiente cuadro pueden verse el conjunto de empresas de servicios que patrocinan o participan de algún modo en estos eventos. No están todas las que son, pero son todas las que están. Probablemente esta lista aumentará antes del cierre de la convocatoria del evento de Nueva York, previsto para el 15 de octubre.

     

    Semantic Technology and Business Conference 2012

     

    San Francisco 2012

    Londres 2012

    New York 2012

    Epimorphics Ltd (Reino Unido)

     

    Silver

     

    Fluid Operations (Alemania)

    Silver

    Silver

     

    Ontoba (Reino Unido)

     

    Sponsor

     

    Poolparty (Austria)

    Silver

    Exhibitor

     

    Cambridge Semantics (R.U.)

    Silver

     

    Silver

    Franz Inc (EEUU)

    Exhibitor/Sponsor

     

    Silver

    Orbis Technologies (EEUU)

    Silver

     

    Silver

    REvelytix (EEUU)

    Gold

     

    Silver

    Stardog (EEUU)

    Exhibitor/Sponsor

     

    Silver

    Yarcdata (EEUU)

     

     

    Silver

    Bigdata by systap (EEUU)

    Exhibitor/Sponsor

     

    Sponsor

    Ontotext (Bulgaria)

    Platinum

     

     

    IBM (EEUU)

    Gold

     

     

    beInformed (Holanda)

    Silver

     

     

    Elsevier (Holanda)

    Silver

     

     

    Profium (Finlandia)

    Silver

     

     

    TopQuadrant (EEUU/RU)

    Silver

     

     

    Expert system (Italia)

    Exhibitor/Sponsor

     

     

    Fynydd (EEUU)

    Exhibitor/Sponsor

     

     

    iQSer (Chequia)

    Exhibitor/Sponsor

     

     

    Knowledge Based Systems

    (EEUU)

    Exhibitor/Sponsor

     

     

    Morgan & Claypool Publishers

    (EEUU)

    Exhibitor/Sponsor

     

     

    Pure Discovery (EEUU)

    Exhibitor/Sponsor

     

     

    SindiceTech (Ireland)

    Exhibitor/Sponsor

     

     

    SkyTech Solutions (EEUU)

    Exhibitor/Sponsor

     

     

    Tom Sawyer Software (EEUU)

    Exhibitor/Sponsor

     

     

     

    Como hemos señalado anteriormente, el impacto de estas tecnologías va a resultar particularmente importante en algunos sectores, como pueden ser los de la educación, la educación superior, las ciencias de la salud y los medios de comunicación. Entresacamos a continuación las participaciones y conferencias que nos han parecido de mayor interés y alcance en estos sectores mencionados:

     

    EDUCACIÓN Y UNIVERSIDAD

    • LONDRES: Building a Linked Data Graph for Education Tom Heath, Talis Education Ltd: "Just as a social and professional graph have emerged through Facebook and LinkedIn, so too is an education graph emerging describing connections between students, teachers and the learning resources they use. The Talis Aspire application allows university lecturers to create lists of learning resources for a particular course, which are then expressed according to the Linked Data paradigm"

    Paper relacionado: Talis Aspire: Assembling and Applying an Education Graph based on Learning Resources in Universities

    • LONDRES Y SAN FRANCISCO: Linked Data at Pearson: The Proof is in the Putting Madi Weland Solomon, Pearson Plc: "This presentation offers up a recent Pearson proof of concept to reveal the promise of Linked Data as a path to approach issues such as DAM, Enterprise Taxonomy Management, Enterprise Search, and even alignment of content to education standards".
    • NUEVA YORK: Watson Goes Back to School - And what it tells us about the evolving role of semantic technology Christopher Welty, IBM Research: "In the traditional vision of AI, understanding flowed from perception through language to knowledge. It had always been envisioned that this understanding would be in some precise and unambiguous knowledge representation, and that all meaning processing would happen in this representation. This is the root of all semantic technology today".
    • SAN FRANCISCO: Project schoolKID: Linked School Data Hans Constandt, ontoforceTom Vankemmel, schoolKID: "SchoolKID (school Knowledge and Information dashboards) helps principals & their administration to address bottlenecks associated with finding scattered information about students with powerful but simple, attractive dashboards".

     

    BIO-FARMA

    • CONFERENCIA DE LONDRES

    Semantic Drug Research: Discovery of New Biomarkers and Phenotypes by Text Analytics Carlo A. Trugenberger Co-founder and Chief Scientific Officer / InfoCodex Semantic Technologies AG: "The ultimate goal of semantic technologies and text analytics is to devise software that can "understand" the meaning of free text in the practical sense of providing new, actionable information condensed out of a body of documents".

    A Faceted Browser for Drug Discovery: Integrating & Querying Big Data Hans Constandt Senior Consultant Information Integration / Eli Lilly: "Our project that joins the capabilities of semantic information integration & faceted browsing visualization. Faceted visualization of linked data spanning internal, external public and subscribed sources can provide an effective and generally applicable mechanism for deriving knowledge from the wealth of available integrated information. Any data source semantically exposed and woven into an information graph becomes available for faceted browsing access. This includes sources ranging from drug discovery to clinical development and operational support functions".

    Using and Improving the D2RQ Open-source RDB to RDF Mapping Tool Didier E. Chalon Data architect, New Medicines Informatics / UCB Pharma s.a.James Snowden Senior Scientist, New Medicines Informatics / UCB Celltech: "D2RQ is an open-source, freely available, relational database to RDF mapping technology. Its features and performance in a corporate environment have led UCB to identify it as the preferred tool for several data integration scenarios - with however possibilities for improvement in different areas".

    • CONFERENCIAS DE SAN FRANCISCO Y NUEVA YORK

    Using Linked Semantic Data in Biomedical Research and Pharmaceuticals: "This presentation and discussion includes key pharmaceutical Information experts on the value and promise of linked semantic data. Areas to be discussed will include: Drug Development, Clinical Data, Genomics, Regulatory, and Personalized Medicine".

    Faceted Search and a Slick UX for Integrating and Querying Big Data Hans Constandt Co-founder - ontoforce: "This project specifically joins the capabilities of semantic information integration & faceted browsing with slick and easy to use interfaces for multiple pharma and biotech mining internal and external data".

    Semantic Web Technologies in Life Sciences: Prejudices, Limitations, Advantages and Use Cases Martin Romacker Senior Knowledge Engineering Consultant Novartis Pharma AG: "Large-scale initiatives like openphacts in chemistry or biomart in the biological domain witness the increasing importance of having data available in a semantically reusable way with open access".

     

    MEDIOS DE COMUNICACIÓN

    • CONFERENCIA DE LONDRES

    Dynamic Semantic Publishing Empowering the BBC Sports Site and the 2012 Olympics Jem Rayfield Lead Technical Architect / BBC Borislav Popov Head of semantic annotation and search - Ontotext Lab / Peter Haase Lead Architect R&D fluid Operations: "It describes the latest developments in the transformational technology strategy the BBC Future Media & Technology department is using to evolve from a relational content model and static publishing framework to a fully dynamic semantic publishing (DSP) architecture".

    En cuanto a la BBC, te recomiendo que veas la presentación relacionada BBC Dynamic Semantic Publishing, que hemos subido en la comunidad NextWeb de gnoss.com

    • CONFERENCIAS DE SAN FRANCISCO Y NUEVA YORK

    rNews: The most versatile way to mark up Publishing Metadata Andreas Gebhard Managing Editor Getty Images, Inc.Evan Sandhaus Semantic Technologist - New York Times Company: "The International Press Telecommunications Council (IPTC) released rNews 1.0 in October 2011 after one year of development and community outreach work. With the integration into schema.org, rNews has quickly become the most versatile way to mark up publishing metadata in a Semantic Web compliant way".

    Omnimedia: Keeping It Simple: A Case Study in Shifting Expectations Barbara E McGlamery Taxonomist Martha Stewart Living Omnimedia: "This case study will compare how two companies approached the challenges involved with defining realistic objectives for using the Semantic Web and what obstacles were encountered in the development process".

    Semantics at Tribune Company Keith P DeWeese Director, Information and Semantics Management -The Tribune Company: "The Tribune Company has been working with various semantic technologies for years, but a formal semantic program was not until 2007. This presentation will cover the foundation of that program, achieved, lessons learned, and the forward-looking view the Tribune Company regarding a suite of semantic technologies that it will deploy in the future".

    Using the Semantic Web for online Sports News Stories Daniel Schwabe Professor Dept. of Informatics, PUC-Rio / Rafael Pena Product Owner of the Sports Data System Globo.com: "We present the use of a Domain Model for Soccer, together with a Discourse Model, were used to identify story leads for the largest Brazilian sports news website".

    AP Metadata Amy Sweigert Vice President of Information Management The Associated Press: "With the introduction of AP Metadata Services, the Associated Press is offering a standardized AP News Taxonomy, which in combination with the AP Tagging Service enables the automated creation of rich, semantic metadata".

    Agence France-Presse brings businesses the next generation of personalized news delivery/services with semantic technology. Janne Saarela CEO ProfiumErick Briere, Agence-France Presse: "AFP selected a semantic technology solution for managing personalized customer subscriptions supporting both the scalability and the high-availability requirements needed for today's real-time global news distribution business".

     

    En conclusión: todo parece apuntar que las tecnologías semánticas han alcanzado el grado de madurez y de legitimación tecnológica suficiente como para ser bien aceptadas en el conservador mundo de los negocios, especialmente en algunos sectores y funciones, como creemos haber mostrado. Esta noticia irá llegando en oleadas en los próximos meses, modificando profundamente algunas costumbres y enfoques y, por ende, la cultura IT de muchas organizaciones y empresas.

    ...