Política de cookies

GNOSS usa cookies, propias y de terceros, con finalidad principalmente técnica y necesaria para la prestación de nuestros servicios.Más información sobre nuestra política de cookies. 

 

ACEPTA para confirmar que has leído la información y aceptado su instalación.Puedes modificar la configuración de tu navegador. 

El Machine Learning es estadística glorificada (John Alexis Guerra dixit)

"Estadística glorificada" puede parecer una pequeña boutade para referirse a uno de los pilares del actual Programa de Inteligencia Artificial. Sin embargo, lo que en ocasiones se denominan "tecnologías de Inteligencia Artificial" y que, en muchas ocasiones, aunque no siempre, se basan en la computación de datos masivos utilizando bases de datos como Spark o similares responde bastante bien a la idea de "estadística glorificada" que John Alexis Guerra, Profesor de la Universidad de Los Andes, utiliza en el artículo al que nos estamos refiriendo, publicado en Retina.

Es por ello por lo que conviene distinguir. “Inteligencia Artificial” designa un conglomerado de aproximaciones diverso al problema de la emulación de la inteligencia humana por parte de las máquinas en el que cabe diferenciar dos grandes grupos. Por un lado, tenemos el programa de inteligencia artificial orientado a resolver problemas de aprendizaje. En esta misma línea se encuentran el conjunto de aproximaciones que integran los cálculos sobre datos muy masivos (big data) y el conjunto de reglas y algoritmos que podemos ejecutar sobre ellos de manera que las máquinas puedan “aprender” sobre esa base (Machine Learning y más recientemente Deep Learning). Esta aproximación produce resultados inteligentes, pero no recrea funciones superiores de las personas, como son todas las cognitivas, lo que en la práctica significa que no es capaz de emular comportamientos inteligentes. De esto es de lo que trata la Inteligencia Cognitiva, a la que podríamos definir como Inteligencia Artificial Semántica o Inteligencia Artificial interpretada semánticamente.

El conjunto de tecnologías que se agrupan alrededor del Programa de Inteligencia Cognitiva  (ontologías, vocabularios, grafos de conocimiento, procesamiento y comprensión del lenguaje natural…) permite a las máquinas comprender e interpretar el mundo que las personas depositamos y representamos en el inmenso conjunto de datos y recursos digitales que hemos y estamos generando, amplificando a la par que emulando nuestras capacidades para enlazar información, razonar, inferir o descubrir conocimiento sobre ese universo de datos. 

La Inteligencia Cognitiva representa, probablemente, el futuro de la Inteligencia Artificial, algo en lo que ya estamos trabajando y que ofrece grandes resultados muy satisfactorios ya en la construcción de ecosistemas complejos digitalizados. Previsiblemente este programa tendrá un enorme desarrollo en los próximos 10 años. En este escenario, la “mente” de los sistemas, lo que permite que éstos "comprendan" e interpreten el mundo de las personas, aquello que hace posible la comunicación efectiva entre estos y las personas, es y será sin duda semántico. Y ello es así porque si las máquinas no pueden hacer de alguna manera suyo el mundo de entidades y relaciones que constituye la base de los procesos de cognición humanos, no se ve el modo de que puedan llegar a emular verazmente comportamientos inteligentes o, dicho de otro modo, ser algo más que máquinas de un solo propósito o, si se prefiere, las máquinas herramienta de la inteligencia artificial. Y el futuro consiste en mucho más que eso, seguramente.

https://retina.elpais.com/retina/2018/11/30/tendencias/1543592011_921900.html

mode_comment comentarios (0)

¿Quieres comentar? Regístrate o inicia sesión

Web de GNOSS