Recursos

    sortFiltrar Ordenar
    48 resultados

    Artículo

    /

    Publicado el 4.12.2018 por Ricardo Alonso Maturana

    En 1928 Paul Valèry publicaba “la conquista de la ubicuidad”. Consideraba allí que “el pasmoso crecimiento de nuestros medios (…) nos garantizan cambios muy próximos y hondos en la antigua industria de lo Bello” y, a propósito de esos cambios, anticipaba una sociedad para la distribución de Realidad Sensible a domicilio, algo nunca soñado antes y en la que llegarían a nuestras casas "imágenes visuales o auditivas que nazcan y se desvanezcan al menor gesto, casi un signo". En ese mundo, la distancia, el tiempo y el espacio se verán abolidos. Valèry específicamente, hablaba de “hacer presente” una obra en cualquier parte y de “recuperar a voluntad” cualquier obra. Este artículo trata sobre qué significa la ubicuidad en la época del internet basado en Inteligencia Artificial y qué implicaciones tiene y tendrá para el negocio de los museos.

    En el mundo ubicuo de Internet y de la Máquinas que Aprenden, un mundo en el que parece posible construir muchos de los relatos que nos interesan de forma automática o semiautomática, porque hemos transferido parte de nuestro conocimiento y talento narrativo a nuestros sistemas, las cosas no son como parecen (o a veces parecen ser como no son). Los museos en la web tienen por delante el desafío de construir una museografía digital que no virtualice las limitaciones de espacio, tiempo o duración del mundo determinado por las condiciones físicas y materiales y que, por tanto, responda de manera genuina a las nuevas posibilidades de experiencia, operación y negocio que posibilita la tecnología.

    En 1999, David Weinberger lanzó el Cluetrain Manifesto. La primera de sus 95 tesis decía: “los mercados son conversaciones”, vale decir aquí, “los museos son conversaciones”. Según el Manifiesto, desde los albores de internet, las organizaciones se estaban modificando empujadas por las nuevas posibilidades de las que disponían los consumidores gracias a la ampliación digital del mundo. En el futuro, la imagen de los museos será el resultado de su capacidad para conversar de manera personalizada con sus diferentes audiencias y públicos. Internet y las tecnologías avanzadas que la soportan parecen haber hecho posible el sueño de Malraux de un Museo Imaginario, personal, sin límites de espacio o tiempo, sin muros, sólo determinado por el gusto de quien lo construye, en suma, de un museo que ha dejado de ser una monolítica afirmación. Definitivamente, un Museo Imaginario es un meta-lugar del patrimonio y la memoria que debería ser fácilmente accesible de una manera más personalizada y cosmopolita por un público más conectado, curioso e informado que busca saber más, conocer antes, mejor y más verdaderamente. Las organizaciones más en la frontera y con ellas los museos más despiertos están utilizando la tecnología para comprender mejor a sus posibles clientes y audiencias con el fin de hablar personalmente con cada una de ellas.

    La tecnología no es neutral; un enfoque tecnológico inadecuado o un conjunto de tecnologías insuficientes determinan el resultado. La generalización de la Inteligencia Artificial y de las tecnologías cognitivas está permitiendo desarrollar una original simbiosis entre lo que saben las personas y, en un ambiente tecnológico cada vez más semánticamente consciente, lo que manejan y son capaces de interpretar los sistemas, dando como resultado, en el caso de los museos, un relato, o conjunto de ellos, cada vez más variado, profundo, personalizado y rico.

    Finalmente, en Internet todos los museos pueden llegar a ser uno sólo. Estamos contribuyendo a construir, cada vez que publicamos datos y nuestros sistemas inteligentes los enlazan, una gigantesca máquina de aprender. Gracias a ello y a las tecnologías de recuperación de la información disponibles, podremos responder a preguntas tan interesantes como: ¿qué estaba componiendo Beethoven cuando Goya pintaba tal o cual obra? De este modo, cualquier museo, cualquier colección podrá convertirse en la web en un relato/espacio educativo, pero recíprocamente, todos podrán convocar el conocimiento complementario que precisen para construir un conjunto de narraciones que hagan de la experiencia de la visita a la colección de un museo una experiencia superior. El internet inteligente puede convertirse, a través de los dispositivos móviles, en un ambiente que susurre al oído de los visitantes aspectos relevantes (y eventualmente personalizados) de la obra que está contemplando. En la práctica, la transformación tecnológica de los museos actúa como palanca para su transformación cultural. Parece evidente que con todo lo referido en acción, se abrirán a los museos nuevas posibilidades de negocio que demandarán de una nueva organización de los mismos.

    Con el Internet ubicuo, inteligente, aceleradamente creciente y extraordinariamente vasto que es el signo de nuestros tiempos, el conocimiento humano en su conjunto ha crecido y se ha vuelto más complejo, pero menos seguro y cierto. La nueva dimensión de hechos alternativos o noticias falsas sugiere que ahora necesitamos, mucho más que nunca, autoridades que ofrezcan sentido e interpretación. Sin duda, las nuevas museografías y, especialmente, sus extensiones digitales deberán reflexionar sobre (y resolver) esta tensión entre las posibilidades que se abren con la tecnología y los desafíos, compromiso y talento intrínsecamente humanos que implica su gobierno.

    El despliegue de internet ha determinado la creación de un espacio de vida digital, un espacio de vida real que no es sólo útil para la publicación, la distribución, la difusión de contenidos o la conversación, sino también para la producción y creación. El arte digital concebido originalmente en formato digital nos plantea desafíos específicos de exhibición, reproducción y preservación que habremos de saber resolver en los próximos años.

    Sobre todo esto tuve ocasión de conversar en el curso organizado por el Museo de Bellas Artes de Bilbao "Museografías: modos de ver el arte". Grandes figuras del arte y la gestión cultural como Norman Foster, Taco Dibbits, Director del Rijksmuseum en Ámsterdam o Gabriele Finaldi Director de la National Gallery también expusieron su visión sobre los nuevos desafíos museográficos a los que se enfrentan los museos en la era de la información. Siguiendo el siguiente enlace podéis ver, si os place, la conferencia que tuvo lugar el 28 de julio del presente año.

    https://www.gnoss.com/recurso/curso-museografias-modos-de-ver-el-arte/bf50c121-35a5-4d52-9121-e9fae9829740

     

    ...

    Categorías:

    Artículo

    /

    Publicado el 4.12.2018 por Ricardo Alonso Maturana

    "Estadística glorificada" puede parecer una pequeña boutade para referirse a uno de los pilares del actual Programa de Inteligencia Artificial. Sin embargo, lo que en ocasiones se denominan "tecnologías de Inteligencia Artificial" y que, en muchas ocasiones, aunque no siempre, se basan en la computación de datos masivos utilizando bases de datos como Spark o similares responde bastante bien a la idea de "estadística glorificada" que John Alexis Guerra, Profesor de la Universidad de Los Andes, utiliza en el artículo al que nos estamos refiriendo, publicado en Retina.

    Es por ello por lo que conviene distinguir. “Inteligencia Artificial” designa un conglomerado de aproximaciones diverso al problema de la emulación de la inteligencia humana por parte de las máquinas en el que cabe diferenciar dos grandes grupos. Por un lado, tenemos el programa de inteligencia artificial orientado a resolver problemas de aprendizaje. En esta misma línea se encuentran el conjunto de aproximaciones que integran los cálculos sobre datos muy masivos (big data) y el conjunto de reglas y algoritmos que podemos ejecutar sobre ellos de manera que las máquinas puedan “aprender” sobre esa base (Machine Learning y más recientemente Deep Learning). Esta aproximación produce resultados inteligentes, pero no recrea funciones superiores de las personas, como son todas las cognitivas, lo que en la práctica significa que no es capaz de emular comportamientos inteligentes. De esto es de lo que trata la Inteligencia Cognitiva, a la que podríamos definir como Inteligencia Artificial Semántica o Inteligencia Artificial interpretada semánticamente.

    El conjunto de tecnologías que se agrupan alrededor del Programa de Inteligencia Cognitiva  (ontologías, vocabularios, grafos de conocimiento, procesamiento y comprensión del lenguaje natural…) permite a las máquinas comprender e interpretar el mundo que las personas depositamos y representamos en el inmenso conjunto de datos y recursos digitales que hemos y estamos generando, amplificando a la par que emulando nuestras capacidades para enlazar información, razonar, inferir o descubrir conocimiento sobre ese universo de datos. 

    La Inteligencia Cognitiva representa, probablemente, el futuro de la Inteligencia Artificial, algo en lo que ya estamos trabajando y que ofrece grandes resultados muy satisfactorios ya en la construcción de ecosistemas complejos digitalizados. Previsiblemente este programa tendrá un enorme desarrollo en los próximos 10 años. En este escenario, la “mente” de los sistemas, lo que permite que éstos "comprendan" e interpreten el mundo de las personas, aquello que hace posible la comunicación efectiva entre estos y las personas, es y será sin duda semántico. Y ello es así porque si las máquinas no pueden hacer de alguna manera suyo el mundo de entidades y relaciones que constituye la base de los procesos de cognición humanos, no se ve el modo de que puedan llegar a emular verazmente comportamientos inteligentes o, dicho de otro modo, ser algo más que máquinas de un solo propósito o, si se prefiere, las máquinas herramienta de la inteligencia artificial. Y el futuro consiste en mucho más que eso, seguramente.

    https://retina.elpais.com/retina/2018/11/30/tendencias/1543592011_921900.html

    ...

    Artículo

    /

    Publicado el 27.11.2018 por Ricardo Alonso Maturana

     

    Os proponemos en esta ocasión revisar esta muy interesante entrevista realizada a Ramón López de Mántaras, director del Instituto de Investigación en Inteligencia Artificial (IIIA) del CSIC y uno de los pioneros en la investigación en Inteligencia Artificial en España.

    La entrevista se realizó con motivo de su participación en el encuentro "El futuro de la inteligencia artificial",  celebrado en febrero de este año, 2018, en La Casa Encendida y coordinado por Le Monde diplomatique en español y Fundación Mondiplo.

    En sus albores, todas las tecnologías que proponen una ruptura brusca con los modos de producir y hacer generan expectativas y temores más o menos exagerados o fantasiosos. Por un lado, sus efectos beneficiosos y aplicaciones tienden a sobrevenderse y, por otro, se crea un ambiente sobreexcitado alrededor de los riesgos y peligros que se entrevén, lo que con frecuencia deriva en la no comprensión real de los mismos. La literatura y el cine han producido obras excelentes e inspiradoras que dan cuenta de este estado de cosas. La electricidad no puede devolver los cuerpos a la vida, como suponía Mary Shelley cuando imaginó el mito de Frankenstein, el moderno Prometeo y Hal, el resentido ordenador central de la nave de 2001 es posiblemente una construcción imposible.

    Ramón López de Mántaras señala en este video que lo que denominamos Inteligencia Artificial en muchas ocasiones solo es el resultado inteligente de un programa capaz de resolver una sola clase de problemas, como ocurre por ejemplo con las máquinas que pueden jugar con éxito al ajedrez contra contrincantes humanos. Pero los resultados que simulan inteligencia no pueden confundirse con comportamientos inteligentes, como el aprendizaje o el conjunto de facultades y capacidades que de manera conjunta operan para producir lo que conocemos como Inteligencia General Humana. Estamos lejos todavía de producir máquinas que operen con sentido común, es decir, interpretando y dando sentido a un conjunto muy vasto de información, pero igualmente muy incompleto, como hacemos todas las personas de manera cotidiana.

    Gartner ha denominado a uno de sus productos de anticipación estrella Hype Cycle of...la tecnología o conjunto de tecnologías de que se traten. El Hyperbolic o Hype Cyclo of Emerging Technologies publicado en julio de 2018 se ocupa, al igual que nuestro entrevistado, de las enorme promesas que los mercados anticipan alrededor de los desarrollos de inteligencia artificial. En un artículo del mencionado informe firmado por Tom Austin podemos leer: “La inteligencia artificial general (Artificial General Intelligence,  AGI por sus siglas en inglés), también conocida como "inteligencia artificial fuerte" e "inteligencia de máquinas de propósito general", podría manejar una amplia gama de casos de uso, si existiera. No es así, aunque es un tema popular de la ciencia ficción. Las tecnologías actuales de inteligencia artificial no proporcionan inteligencia general artificial. Estas tecnologías, a pesar de que parecen estar dotadas de las capacidades humanas de aprender, razonar y adaptarse, carecen de sentido común, inteligencia y medios de auto mantenimiento y reproducción. La Inteligencia artificial de propósito especial - "IA débil" - existe, pero solo para casos de uso específicos y limitados”

    Considera que hay empresas como DeepMind (propiedad de Google), OpenAI y Vicarious, que están haciendo investigación básica en este campo, pero que el estado de la tecnología es embrionario y que con seguridad no veremos ningún resultado aplicable en los próximos 10 años.

    Gartner piensa que cuando surja algo en este campo, probablemente será el resultado de la agregación y combinación de proyectos de inteligencia artificial de propósito específico, y a propósito de esto concluye: “Es probable que sus beneficios sean enormes. Pero algunas de las implicaciones económicas, sociales y políticas serán perturbadoras y probablemente no todas positivas”.

    Ramón López de Mántaras aborda también en esta entrevista sobre los desafíos éticos, sociales y políticos inherentes a la aplicación de programas de inteligencia artificial en diferentes espacios de producción y de la vida social, desde el diagnóstico médico hasta la detección del fraude, la asignación de un nivel de riesgo bancario o la conducción inteligente. La conclusión es sencilla: las tecnologías no son buenas o males en sí mismas, además su progreso es inevitable; es asunto nuestro el hacer de ellas algo útil para nosotros, que finalmente sea la condición para una vida más abundante y feliz. Las tecnologías de la era industrial no provocaron el Holocausto, pero sin ellas la siniestra industrialización del asesinato no hubiera sido posible. Lo relevante, por tanto, es dotar de una intención adecuada a nuestras decisiones y eso será siempre un asunto nuestro, no de la tecnología.

    Desde un punto de vista social, López de Mántaras señala algo que a menudo se olvida: que el progreso tecnológico genera más empleo que el que destruye, sólo que lo desplaza a otro nivel, habitualmente más exigente desde un punto de vista cognitivo. En ese desplazamiento y en el desigual reparto entre los diferentes grupos sociales de las ventajas y amenazas que ello supone, es posible que podamos encontrar el origen de muchos de los miedos contemporáneos, que están sacudiendo la arena política global. Sin duda, la organización de la participación de todos en este proceso de transformación del trabajo, la producción y los procesos sociales supondrá un enorme desafío para nuestros sistemas políticos y educativos.

    Espero que disfruten de la entrevista.

    https://m.youtube.com/watch?v=GJVVrKxVKFk

    ...

    Artículo

    /

    Publicado el 4.11.2018 por Ricardo Alonso Maturana

    ¿Qué es una entidad? Entenderlo es la base para comprender cómo funciona un Grafo de Conocimiento

    Metaweb fue una compañía tecnológica con sede en San Francisco fundada en 2005 que desarrolló Freebase, una base de conocimiento abierta que contenía la descripción de millones de entidades como personas, lugares, organizaciones y todo tipo de cosas. El propósito de Freebase era el de proveer de las bases para convertir la World Wide Web en un Grafo de Conocimiento interrogable por máquinas y personas y, por consiguiente, para construir una web más semánticamente consciente. Freebase estaba concebido para, por así decirlo, ser "la mente" del Internet Inteligente o de la Web Semántica. En 2010 Metaweb fue adquirida por Google, que utilizó Freebase para construir su Grafo de Conocimiento, lo que anunció en 2012. Google cerró Freebase en 2016, transfiriendo todos sus datos a Wikidata.

    Google pudo gracias a esta compra dotar a su motor de búsqueda de la capacidad para entender y mostrar contenidos acerca de las entidades por las que preguntaba el usuario, haciendo de este modo que su buscador fuera más inteligente y más capaz de responder a preguntas complejas, así como de investigar cualquier tema con más profundidad, tal y como decían ellos mismos. El resultado de este empeño, más evidente y conocido por el público ha sido el Infobox, la caja con contenido preciso acerca de la entidad, persona, lugar, especie vegetal o animal, etc.... sobre la que se pregunta, que aparece a la derecha de la lista de resultados y que posibilita navegar a través de las relaciones entre la mencionada entidad y otras entidades relacionadas; podemos así, por ejemplo, navegar a través de las relaciones de una persona con otras personas, con los lugares importantes de su biografía, con obras suyas y de otros autores, etc.... El infobox es ya desde hace tiempo parte de la experiencia de búsqueda y recuperación de información "Google", pero el Grafo de Conocimiento subyacente puede valer para muchas cosas que no se ven, pero que tienen un extraordinario valor económico, como por ejemplo realizar recomendaciones publicitarias mejor dirigidas, más ajustadas a los intereses reales de los usuarios y, por tanto, más personalizadas, desarrollar buscadores especializados, como por ejemplo un buscador de enfermedades a partir de síntomas y, especialmente, para perfilar de manera más ajustada a los usuarios.

    El paso dado por Google permitió convertir la Internet pública que consumimos cotidianamente en una Web de Entidades o Web de Datos, capaz de admitir procesos de búsqueda e interrogación inteligentes y no simplemente basados en secuencias de caracteres (strings). Este proceso lo había anticipado Tim Berners Lee en 2001, en su artículo seminal The Semantic Web, publicado en Scientific American en 2001 .

    Los Grafos de Conocimiento son la condición para poder desarrollar un Programa de Inteligencia Artificial suficientemente expresivo y flexible como para que las máquinas y sistemas puedan interactuar y conversar con sentido con las personas sobre la base de procesar y comprender su lenguaje y los contenidos creados con él.

    En GNOSS hemos creado las herramientas para que cualquier empresa pueda disponer de la posibilidad de realizar con su contenido el mismo proyecto que Google, incluido el hecho de enlazarlo con contenido externo.

    El vídeo que proponemos a continuación es ya un clásico y ayuda a comprender todo esto de un modo ameno y sencillo. Metaweb trataba con él de responder a la pregunta: ¿Qué es una entidad? El vídeo muestra cómo funciona una Web de Entidades y cómo son los procesos de interrogación y búsqueda en un sistema de información con esas características. Sencillo, para todos los públicos y muy útil para entender el corazón semántico del renovado y muy actual Programa de Inteligencia Artificial.

    ...

    Vídeo

    /

    Publicado el 2.8.2018 por Equipo GNOSS

    Inteligencia artificial y Museos. "Esto no es un museo. Mirar el arte despues de internet"

    Conferencia impartida por Ricardo Alonso Maturana el 28 de junio de 2018 en el Museo de Bellas Artes de Bilbao en el marco del curso "Museografías: Modos de ver el Arte" en el que expuso su visión sobre como tras internet y en este proceso de ampliación y extensión vital provocado por la digitalización el arte, la tecnología hace posible nuevos modos y formas de acercarse y disfrutar del arte. Paul Valery, Walter Benjamin, André Malraux, John Berger, aparecen en esta reflexión sobre la intersección entre la tecnología y el arte y sus efectos.

    ...

    Vídeo

    /

    Publicado el 2.8.2018 por Equipo GNOSS

    Contar historias. La transformación digital del Museo del Prado. Diálogo entre Miguel Zugaza y Ricardo Alonso Maturana

    Decía Gabriel García Márquez que el mundo se divide entre los que saben contar historias y los que no. En este video podrás disfrutar de una buena historia. Miguel Zugaza, Director del Museo del Prado, y Ricardo Alonso Maturana, director de GNOSS exponen el proyecto de transformación digital llevado a cabo en el Museo del Prado denominado "El Prado en la Web". Miguel Zugaza cuenta como a lo largo del camino la tecnología ha ayudado al Museo del Prado a democratizar el arte, a poner la belleza al alcance de más gente, a generar una nueva experiencia de conversación y diálogo con el museo. Ricardo Alonso Maturana pone el acento en explicar cuales son los tres elementos principales que permiten evaluar si el proyecto ha sido un proyecto transformador:

    • ¿Se ha incrementado la tasa de visitantes digitales, su permanencia, su satisfacción, su vinculación al museo?
    • ¿Se han acometido proyectos de mejora interna que permitan conectar la creación del conocimiento con su publicación web?
    • ¿Se pueden ofrecer más y mejores servicios sobre un paradigma tecnológico diferente, posibilitador?

    Dialogar, tal y como lo entendían los clásicos griegos, es decir, construir entre dos por medio de la palabra algo, es lo que hacen Miguel Zugaza y Ricardo A. Maturana en esta conferencia celebrada en la Universidad de Deusto.

    www.museodelprado.es

    ...

    Pdf

    /

    Publicado el 2.8.2018 por Equipo GNOSS

    El portal web institucional de turismo de La Rioja (https://lariojaturismo.com) es un caso de uso en funcionamiento de construcción y explotación de un Grafo de Conocimiento turístico donde todos de los contenidos digitales referidos a lugares de interés, alojamientos, rutas, actividades, eventos, restaurantes, bodegas, etc, están representados semánticamente en RDF/OWL. La construcción del Grafo de Conocimiento se llevó a cabo mediante la conceptualización de un Modelo Digital Semántico que hibridó y extendió varias ontologías y vocabularios existentes (principalmente Harmonise, OnTour, Geonames, Rout, FRBR y rNews), siempre con el objetivo de generar un espacio digital donde la recuperación de la información fuera más sencilla, útil y práctica, y donde la experiencia web fuera una experiencia mucho más amigable y satisfactoria. En la actualidad, el Grafo de Conocimiento está formado por más de 7.000 contenidos digitales, 67.284 entidades, 472.361 relaciones y 675.368 triples. El espacio digital cuenta con más de medio millón de usuarios al año que consultan más de 2,5M de páginas. Las explotaciones más significativas del Grafo de Conocimiento están vinculadas a la existencia de un metabuscador, buscadores facetados para cada objeto de conocimiento, sistemas de información contextual y sistemas de visualización del Grafo mediante la combinación del mapa con geo-posicionamiento semántico.

    ...

    Categorías:

    Artículo

    /

    Publicado el 8.12.2015 por Equipo GNOSS

    Big Data y Web Semántica. Ricardo Alonso Maturana

    En esta entrevista, Ricardo Alonso Maturana, Fundador y CEO de GNOSS reflexiona sobre la importancia de la Web Semántica en un mundo donde los datos crecen exponencialmente (big data) y se encuentran asilados y fragmentados en diversos sistemas de información.

    Ricardo explica las ventajas de las tecnologías de la Web Semántica y del movimiento linked data en el caso de los datos culturales que residen en las bibliotecas, archivos, museos.  Esta entrevista tuvo lugar en el marco de la VII Jornada profesional de la Red de Bibiliotecas del Instituto Cervantes celebrada el 11/12/2014.

    ...

    Artículo

    /

    Publicado el 8.12.2015 por Equipo GNOSS

    Web Semántica y empresa. Ricardo Alonso Maturana. Entrevista de Corporate Excellence

    En este video realizado por Corporate Excellence, el think tank que agrupa a las principales empresas del país, y que investiga sobre el papel de los intangibles, la comunicación y la responsabilidad social de la empresa, Ricardo Alonso Maturana, fundador y creador de GNOSS reflexiona y explica el movimiento linked data que se está produciendo a nivel internacional y su importancia y transcendencia para en el mundo empresarial.

    El gran volumen de información que se genera cada día hace necesario desarrollar sistemas para la gestión de la información de una manera inteligente. A nivel internacional asistimos a un movimiento hacia la estructuración de datos abiertos y enlazables bajo la tecnología semántica, lo que se conoce como “Linked Open Data”. Linked Data o datos enlazados es una práctica que hace posible transitar de la actual web de documentos a una web de datos representados semánticamente. Permite concebir una organización como una única y global base de datos integrados, portables e interoperables. Datos empresariales que corresponden a contenidos (documentos, imágenes, videos, presentaciones, etc.) y a personas (clientes, proveedores, accionistas, etc.) se enlazan de forma mecánica, pertinente y útil, generando un ecosistema informativo que abre la vía al descubrimiento de nuevo conocimiento, a la aceleración del aprendizaje organizacional, y, aumentar las posibilidades y utilidades de uso de la información si esta se hace pública (Open).

    ...

    Artículo

    /

    Publicado el 8.12.2015 por Equipo GNOSS

    Linked (open) Data. Ricardo Alonso Maturana

    En este video, Ricardo Alonso Maturana, repasa los principales proyectos y movimientos que se están produciendo en el terreno de linked (open) data haciendo hincapié en las ventajas que acarrea poder enlazar datos que se encuentran asilados y fragmentados. Esto modifica la forma de ver las cosas. Se está llevando a cabo un movimiento creciente y acelerado en este sentido.

    De esta forma, comenta los casos que aparecen en educación, cultura, universidades, empresas y traslada la idea de que una gran parte de la web está migrando hacia una web que representa sus datos semánticamente.

    ...