En este sitio web utilizamos cookies para mejorar tu experiencia de navegación y entender mejor tua preferencias. Eso nos ayuda a entenderte mejor y a centrarnos en aquellos tópicos que son de tu interés. Por favor, acepta nuestro uso de cookies.
Conocimiento en Imagenes
En esta sección se incluyen posters e infografías publicadas con periodicidad en redes sobre mis principales áreas de investigación y especialización.
Parece mentira, pero hace ya la friolera de 25 años que empezamos a entrar en Internet. En aquellos años navegar era una actividad efímera que se contaba por minutos. Primero esquilmábamos un terreno cuidadosamente elegido en el espacio de lo digital y sólo después, desconectados, rumiábamos con tranquilidad todos aquellos datos. Eran tiempos pasados de una nomadismo digital que muchos ni siquiera habrán vivido. Tiempos en los que nuestro nerviosismo atávico nos llevaba a consumir información como si no hubiera un mañana mientras que los negocios estaban explorando aquel nuevo espacio e intentando descubrir como sacarle partido como una valla publicitaria más. Te preguntarás que tiene que ver todo esto con la Inteligencia Artificial de nuestros días. Pues si me acompañas en las próximas tres semanas lo descubrirás.
Los negocios aprendieron rápidamente la lección. El espacio digital no iba a ser un terreno abonado para todos. Solamente sería repartido entre grandes bastiones, que establecerían allí su feudo digital. Y de la noche a la mañana, articulando la mentira de una web democrática para todos basada en productores y consumidores, consiguieron convertirnos a los usuarios en fieles vasallos que entregaban de manera sistemática y recurrente sus vidas en forma de historia digital. No importaba la relevancia de todo aquello. Lo relevante era entrar en un círculo vicioso de entrega sistemática para poder nutrir al gran reino feudal. Ese era el precio por disponer de un terreno digital dentro del feudo aparentemente gratuito. Y nuestra recompensa, para mantenernos felizmente integrados en aquella realidad social, eran las métricas de aceptación basadas en los "likes". Hoy Hemos salido ya de este oscuro, ¿o no?
Fue la tecnología la que tuvo que venir a nuestro rescate para despertarnos del letargo del feudalismo digital. Los consumidores habíamos logrado independizarnos de la dominación de los negocios y la inversión de control se había producido. Ahora serían ellos los que deberían perseguir la atención de sus clientes, a través de un universo de interacciones basadas en notificaciones que debían ser convenientemente atendidas a través de microgestos, todo ello articulado en un momento de fuerte competitividad creciente. Teníamos la libertad de decidir cómo y cuándo atender. Pero no nos engañemos, todo eso no fue más que un mero espejismo. Las plataformas de hoy en día construyen cámaras de eco y resonancia para manipular nuestras actitudes y condicionar nuestro comportamiento activo a su favor. Y lo peor es que este hecho esta llegando a trascender los límites fronterizos de lo digital.
Hoy en día hemos llegado al modernismo digital y la interacción entre los negocios y los consumidores está vertebrada por la Inteligencia Artificial. Operamos a través de un Agente Inteligente responsable de responder a todas nuestras necesidades de consulta. Aún es pronto, pero seguramente estos agentes pronto presentarán capacidades para aprender de los intereses de cada usuario en base a su actividad y comportamiento digital, lo que permitirá una modulación adaptativa creciente en cada nueva respuesta emitida. Pero si bien las respuestas obtenidas por los clientes serán progresivamente más satisfactorias, ¿no corremos el riesgo de que los agentes de consulta realicen actividades de sesgo cognitivo basadas en una malentendida experiencia adaptativa? Tal vez llegue el momento en que la adaptación intencional de los agentes nos deje ciegos ante determinados espacios de conocimiento. Y poniéndonos algo más paranoicos, puede que los fabricantes de estos agentes utilicen esa tendencia natural para crear cámaras de eco y resonancia digital al servicio de intereses oscuros. Eso solo el futuro lo dirá, Lo que está claro es que los negocios en esta nueva era irán perdiendo progresivamente todo el control de su tráfico e incluso de la experiencia que pueden entregar a sus clientes.
Hoy casi parece olvidado pero estuvimos la friolera de más de 30 años intentando hacer esa cuadratura del circulo en base a modelos de razonamientos capaces de operar con conocimiento formalmente representado. Intentábamos hacer un modelo del mundo para forzar después a que el mundo se adaptara a nuestro modelo. Aquella romántica idea de academia, aunque dio algunos frutos, nunca llego a funcionar. Tendrían que pasar muchos años más, casi hasta llegar a nuestros días, para darnos cuenta de que los comportamientos inteligentes se obtienen solamente a través de una confianza ciega en los datos. Había que entrenar los sistemas con grandes volúmenes de información y dejar que el comportamiento esperado emergiera por si mismo.
En 1948 Grey Walter decidió crear a Elmer y Elsie, dos tortugas robóticas. Parecían haber cobrado vida al mostraba un comportamiento emergente en la búsqueda incesante de fuentes de luz y alejándose de las zonas de penumbra. Pero lo que fue verdaderamente sorprendente es cuando se enfrentaron a un espejo. Entonces su propia imagen reflejada les hizo ponerse a templar. Cuando recuerdo esta historia siempre pienso en el valor que damos los humanos a nuestra propia inteligencia como factor de diferenciación. A la postre, no nos separan de otros animales más que algunos miles de años de evolución. Usamos iguales neuronas, mismos dendritas y axones e iguales convoluciones cerebrales por donde fluyen pensamientos en forma de impulsos eléctricos a través de sinapsis neuronales. Con la Inteligencia Artificial actual estamos creando esas mismas estructuras conexionistas en el laboratorio y los resultados de comportamiento emergente están resultando francamente sorprendentes. Quiza deberíamos dejar de pensar si la Inteligencia Artificial es verdaderamente inteligente para empezar a reflexionar sobre qué tiene de sublime lo que siempre hemos dado en llamar inteligencia humana.
Si te doy un punto, serás capaz de trazar infinitas rectas que pasen por el. Si te doy dos, solo podrás trazar una. Si te doy una nube de puntos no serás capaz de trazar recta alguna. Para este último escenario los matemáticos y estadísticos nos vienen al rescate ideando una recta imaginaria que sea la solución de mejor ajuste promedio a todos los puntos de la nube. Pues bien, exactamente eso es lo que hace una neurona artificial en su etapa de entrenamiento. Con cada nuevo punto de entrada la recta se reajusta para encontrar la mejor solución de compromiso. Al conjunto de puntos utilizados para articular esta solución se le llama datos de entrenamiento, a la recta así obtenida se le llama modelo inferido y al procedimiento de reajusta algorítmico sistemático se le llama modelo de aprendizaje. Y es que, como explicaré en próximas semanas esto es lo único que necesitamos para hacer emerger inteligencia en sistemas artificiales.
Con una sola neurona hemos conseguido crear un clasificador geométrico que opera sobre un espacio de múltiples dimensiones. Atravesada la fase de entrenamiento, el modelo puede usarse para clasificar. Todos los datos de entrada que lleguen en la fase de inferencia, caerán por encima o por debajo de la recta. Podemos ajustar nuestra neurona para que responda con un 1 si caen por encima o con un 0 si caen por debajo. Pero las posibilidades de un clasificador lineal no acaban ahí. Conjugando varias neuronas puedo identificar los clústeres en los que se subdivide un espacio de datos reales. Puedo predecir el valor de tendencia que tendrá un dato en la vertical a partir de su valor en la horizontal. O puedo usar el modelo para reducir por proyección la dimensionalidad de los datos. E incluso puedo generar nuevos datos sintéticos en la horizontal a partir de datos sorteados aleatoriamente en la vertical.
Las neuronas artificiales, a la postre no son nada si no se les hace atravesar por una fase adecuada de entrenamiento, y es aquí donde entran en juego los distintos modelos de aprendizaje. En el modelo de aprendizaje supervisado, los datos de entrenamiento se etiquetan con la respuesta que debe emitir la neurona. Sencillo pero pesado de construir. En el otro extremo los modelos no supervisados invitan a la neurona a ofrecer una respuesta intuitiva en base a la disposición espacial de los datos. Los modelos semi-supervisados y auto-supervisados resultan soluciones intermedias. En el primer caso se mezclan datos etiquetados con no etiquetados y para los segundos su respuesta se infiere por la respuesta que arrojan los datos de la vecindad. En el segundo caso, se generan de forma sintética datos de entrenamiento etiquetados a partir de valores reales. Pero sin lugar a dudas, los modelos de más rabiosa actualidad son los de aprendizaje por refuerzo en los que un agente inteligente es capaz de aprender iterativamente a partir de la observación de la respuesta que generan sus acciones en el entorno. Confía en los datos para crear inteligencia.
Parece que la Inteligencia Artificial es algo que acaba de nacer. Pero lo cierto es que el recorrido de toda esta disciplina ha sido un largo camino. Desde que Mc Culloch y Pitts idearan el primer modelo matemático sobre la neurona artificial y Rosemblatt descubriera su valor como operador geométrico de clasificación lineal hasta las más recientes arquitecturas de transformadores han pasado la friolera de 7 décadas. Y además todo ello atravesando dos periodos de inactividad por desanimo de los investigadores que se dieron en llamar los inviernos de la Inteligencia Artificial. Creo justo reclamar desde este rincón el mundo una merecida ovación y reconocimiento a todos aquellos incansables curiosos que hicieron sus contribuciones de academia para poder haber llegado hasta aquí.
Puede resultar injusto pero el auge de atención de la Inteligencia Artificial se alcanzo con la llegada de los modelos generativos, sistemas capaces de mostrar un comportamiento emergente creativo en la generación de textos, imágenes, audio o video. Pero quizá la mayor contribución de valor ha sido la de los modelos de lenguaje. Se trata de redes neuronales con la capacidad de capturar todo el contenido semántico de una consulta de entrada, abrigada por su correspondiente contexto en forma de una codificación numérica vectorial y generar después una continuidad a dicho contexto que se devuelve como respuesta a la consulta. En una primera fase de entrada el sistema es capaz de adjudicar a cada palabra un significado local que depende de la relación semántica que ésta mantiene con sus anteriores. En la fase de salida la interpretación semántica así generada se utiliza para generar siguientes palabras que den una continuidad coherente al texto introducido. Hay variantes y matices en todo esto.
El primer paso tendría que ser capturar el significado esencial de cada palabra de nuestro lenguaje de forma precisa. Durante muchos años habíamos intentado, sin éxito, conquistar este esfuerzo a base de los modelos lingüísticos que nos enseñaron en la escuela. Pero si algo habíamos aprendido de tantos años de inteligencia conexionista es que debemos confiar más en los datos al diseñar nuestras soluciones. Idealmente se trataría en encontrar una representación numérica vectorial para cada término manteniendo una único idea subyacente en todo el constructo. Todas las palabras que, de algún modo, estuvieran relacionadas con una dada deberían alojarse en la vecindad proximal dentro de ese espacio vectorial. Esa sería la esencia de la captura semántica. Pero, ¿qué queríamos decir con eso de estar relacionadas? Juguemos a un juego. Supongamos que ponemos a un sistema inteligente a procesar toda la literatura del siglo de oro español. Ahora fabriquemos 4 vectores distintos con un solo 1 en una posición y 0 en el resto. Da igual que posición se escoja con tal de que en cada vector la posición activa sea distinta. Imaginemos que nos fijamos en 4 palabras de todo ese corpus de texto y se las asociamos a cada vector. Rocinante será uno de los vectores, Quijote otro, Dulcinea un tercero y Sancho el cuarto. Ahora empieza el entrenamiento. Durante el procesamiento de cada frase dentro de cada texto buscamos las coocurrencias de nuestras palabras. Por ejemplo al procesar la palabra Quijote dentro de una frase dada, si la palabra Dulcinea también aparece en la frase entonces sumamos una pequeña contribución a la posición de Dulcinea dentro del vector de Quijote. Lo recíproco haremos al analizar esa misma frase computando el vector Dulcinea y encontrando la coocurrencia Quijote. Con esto, ya finalizada la fase de entrenamiento, obtendremos vectores para cada palabra que capturan la relación semántica con otras palabras por coocurrencia. Esto no es del todo preciso pero sirve para ilustrar el proceso. Resulta asombroso que de manera tan trivial pueda capturarse el significado de las palabras de forma numérica.
Mediante el uso de modelos de incrustación aprendimos a capturar el contenido semántico de cada palabra en el lenguaje en forma de una representación vectorial. Sin embargo, para capturar el significado completo de una frase no basta con disponer de todos esos significados. Necesitamos hacer una interpretación en términos de la estructura gramatical de la frase. Nuevamente aquí debemos alejarnos de modelos formales. Confiar en los datos en este punto también consiste en un proceso de composición vectorial. Para cada palabra dentro de una frase podremos calcular la distancia vectorial de las demás y eso nos da una medida de la relevancia de cada palabra en el proceso de interpretación de la frase completa. Este tipo de estrategias reciben el nombre de modelos de atención. Resulta confuso pensar que con tanto ajuste vectorial estemos moviendo el sistema a alguna suerte de representación formal del significado dirigido por los datos pero lo cierto es que de hecho es así. En la frase “El gato pardo se sentó en la alfombra” intuitivamente cabe pensar que cualquier proceso cognitivo de captura semántica pasa más cerca de hacer una interpretación semántica de las palabras “gato”, “sentó” y “alfombra” que de otras palabras presentes en la frase como “El”, “se” o “pardo”. Esa modulación en relevancia atencional es precisamente lo que consiguen discriminar los modelos de atención que aplican hoy en día con éxito todos los sistemas de Inteligencia Artificial Generativa centrados en lenguaje.
Hasta este punto del relato disponemos de los modelos de incrustación y los modelos de atención para capturar la esencia de significados que encierra cualquier frase en lenguaje natural. Pero ahora nuestros objetivos son otros. Tratamos de crear un sistema inteligente capaz de dar una respuesta como continuidad natural a la consulta abrigada de contexto enviada por el usuario. Se trata, en este sentido, de una actividad generativa que debe escoger nuevas palabras para extender creativa pero coherentemente al contexto recibido. Todo esto parece muy complejo pero si recordamos que nuestras palabras son vectores dispuestos por proximidad en nuestro espacio de incrustación entonces todo se simplifica. Situémonos en la última palabra del contexto, que llamaremos palabra de borde. Entonces busquemos en nuestro espacio vectorial aquel otro término que se encuentre más próximo a nuestra palabra de borde, escojámosla como solución de continuidad que da forma a nuestra respuesta y procedamos así nuevamente para generar la siguiente palabra hasta llegar a ciertas condiciones de cierre. Esto es, en esencia lo que hace un LLM cuando hablamos con él. Ya ves! Pensar, razonar, responder… es algo que se basa en esencia en dar saltos de vecindad en un espacio terminológico vectorial. Pero, ¿tiene todo esto sentido o estamos siendo ingenuamente simplistas? Lo cierto es que algo de sentido tiene. Si recordamos nuestras explicaciones anteriores, al entrenar nuestra inteligencia con los textos de la literatura de oro del siglo español ha creado un espacio de palabras dispuestas con la debida proximidad estratégica como para no sólo sabes responder en perfecto castellano sino también y sobre todo para capturar conocimiento especializado. Si preguntamos a nuestro sistema ¿Quién fue el amor de Quijote? Es de esperar que la respuesta sea Dulcinea, dado que es el primer nombre propio que se encuentre en las proximidades de la palabra Quijote. Aparentemente un mecanismo débil pero que se ha demostrado terriblemente eficaz. Ahora toca volver a reflexionar, ¿no será que nuestra inteligencia está regida por los mismos principios de aparente debilidad?
Pueden reconocerse 6 perímetros donde la Inteligencia Artificial Generativa impactará sonadamente dentro de nuestra profesión, y observo, en este sentido, que hay fuertes malentendidos dentro de todo este espacio de controversias cruzadas. Sin duda alguna, la Inteligencia Artificial cambiará la forma de entender el tipo de productos digitales pero no como se está explicando sino como un giro mucho mas copernicano. Las motivaciones de este cambio también están siendo mal entendidas, y también existe confusión sobre el locus donde se producirá el cambio y el momento del tiempo donde actúa la Inteligencia Artificial o sobre el impacto que ésta tendrá en los procesos de digitalización. Pero quizá el mayor eje de preocupación está en aventurar cómo este tsunami de transformación digital no afectará en lo laboral y profesional. Quisiera dedicar las próximas semanas a profundizar en todos estos perímetros.?
El espacio donde la llegada de la Inteligencia Artificial causará un mayor impacto gira en torno al tipo de productos que se construirán en el futuro y a cuáles serán los activos implicados en su construcción. Y es que es precisamente en este punto donde existe una confusión más generalizada. Se cree que el código fuente seguirá estando basado en especificaciones formales algorítmicas, Sin embargo, lo que verdaderamente constituirán es que los activos de valor digitales de un negocio u organización serán las especificaciones intencionales que dan forma al comportamiento emergente de sus arquitecturas centradas en Inteligencia Artificial.
Sobre el factor motivacional del cambio hacia un futuro digital centrado en la Inteligencia Artificial también hay mucha confusión. Aún creemos que los sistemas inteligentes serán asistentes al servicio de los humanos para ganar en productividad en sus tareas más rutinarias. Sin duda esa será una fuerte palanca de empuje. Pero el verdadero motivador para insertar la IA en los negocios aparecerá por la posibilidad de acortar intermediarios en la cadena de valor. Los sistemas inteligentes serán agentes con un comportamiento intencionalmente dictaminado por medio de especificaciones declarativas que se encontrará al servicio del cliente y del negocio. En el lado del cliente este tipo de agentes conformarán el canal de interacción principal con la organización. En el lado del negocio, este tipo de arquitecturas atesorarán de manera transversal todo el conocimiento e inteligencia empresarial necesaria para operar.
El locus de actividad de la Inteligencia Artificial Generativa también es un aspecto que genera grandes malentendidos. Es común encontrar voces que reclaman un espacio de actuación centrado los extremos de la arquitectura empresarial. Se dice que, o bien la IA será una herramienta que opera sobre la arquitectura de canales para mejorar los modelos de interacción y la experiencia de cliente, o bien se operará sobre la base de las arquitecturas de datos y persistencia especialmente centradas en hacer ingeniería analítica e inteligencia de negocio como ha venido ocurriendo de manera convencional. Si bien eso será una realidad de transición de los primeros estadios de la IA no lo será en absoluto a largo plazo. El nuevo paradigma de transición digital promoverá un modelo de arquitecturas donde la Inteligencia Artificial generativa sea el centro global que captura todo el conocimiento de negocio y es capaz de articula re manera fluida cualquier lógica de operación necesaria.
El espacio de tiempo donde la Inteligencia Artificial Generativa entrará en acción es otro de los elementos de fuerte discusión en la actualidad. Las voces más convencionales perciben la IA como un asistente que sólo ayudará en los procesos de construcción de productos de software liberando a los desarrolladores de las tareas más rutinarias y pesadas. Inteligencia Orientada al humano creo que lo llaman. Pero no, la Inteligencia Artificial es un potente activo que tendrá su espacio de intervención precisamente en tiempo de ejecución. En el transitorio ya encontramos soluciones de IA para asistir a crear productos convencionales de manera mas productiva. Pero el cambio de paradigma apuesta por un mañana en que la Inteligencia Artificial agentica será el verdadero artefacto sistémico que desarrollará la actividad empresarial manteniendo un diálogo vivo y contino con el cliente.
El espacio de actores implicados, sin lugar a dudas, es el mayor centro de impacto de la Inteligencia artificial generativa. Es aventurarse demasiado si decimos que los sistemas inteligentes del mañana acabarán con la profesión. Pero lo que si es una verdad tan posiblemente incomoda como insoslayable es que nuestro espacio de responsabilidad será desplazado. Al democratizar la especificación de comportamientos sistémicos inteligentes por medio de especificaciones intencionales expresadas en lenguaje natural parece que estamos cediendo nuestro espacio de técnicos expertos a los expertos de negocio, y esa es una realidad indiscutible que ya se está produciendo. Lo que parece que no advertirnos es que lejos de un perjuicio eso nos dará a los expertos en digitalización una dosis de oxigeno para podernos centrar en el diseño e ideación de productos desde una perspectiva más madura y sistemática. Es importante entender que el nuevo perímetro de acción requerirá de los técnicos habilidades en el diseño y desarrollo de productos dirigidos por un diálogo argumentativo e intencional. Esa es una nueva escuela que está aún por construir.
En no pocas ocasiones me han preguntado cuál es el camino de futuro de la Inteligencia Artificial. En mis últimas conferencias suelo usar este modelo de madurez para dar respuesta a esta pregunta. Asumiendo que todo este movimiento se popularizó a mediados de 2020 podemos reconocer 6 claros horizontes temporales dentro de este recorrido. A fecha de esta publicación, estamos entrando en la etapa deliberativa marcada por el uso masivo de cadenas de razonamiento profundo y ya se empieza a hablar de una subsiguiente fase operacional caracterizada por una inteligencia agentica capaz de operar de forma autónoma o supervisada en nombre del usuario. En las próximas semanas me gustaría repasar con vosotros cada una de las fases de esta hoja de ruta.
En no pocas ocasiones me han preguntado cuál es el camino de futuro de la Inteligencia Artificial. En mis últimas conferencias suelo usar este modelo de madurez para dar respuesta a esta pregunta. Asumiendo que todo este movimiento se popularizó a mediados de 2020 podemos reconocer 6 claros horizontes temporales dentro de este recorrido. A fecha de esta publicación, estamos entrando en la etapa deliberativa marcada por el uso masivo de cadenas de razonamiento profundo y ya se empieza a hablar de una subsiguiente fase operacional caracterizada por una inteligencia agentica capaz de operar de forma autónoma o supervisada en nombre del usuario. En las próximas semanas me gustaría repasar con vosotros cada una de las fases de esta hoja de ruta.
La fase dialectal de la Inteligencia Artificial cogió un fuerte momento allá por el año 2020. Hasta esa fecha los modelos de interacción hombre-máquina habían estado centrados en las metáforas de interacción exploratoria o atención micro-gestual. Sin embargo, la llegada de esta nueva corriente provocó que esos modelos dieran paso a una experiencia mucho mas centrada en la interacción dialógica continua basada en el lenguaje natural y en las expresiones argumentativas. Aún es pronto para asentar los inicios de un paradigma de experiencia de uso. Pero lo que si está claro es que en los próximos años la interacción dialógica cogerá eje de centralidad en detrimento de los modelos anteriores. Taz vez el equilibrio orgánico de esos 3 modelos será lo que más se parezca al diseño de producto del futuro.
En el horizonte H1 de Inteligencia Dialectal, los modelos de lenguaje habían cambiado el paradigma de interacción de la nueva era de productos digitales. Sin embargo, esta interacción esta fuertemente centrada en el procesamiento de texto. Necesitábamos dar un nuevo paso de gigante para hacernos entender con nuestras máquinas en toda suerte de formatos modales, desde una locución de voz o un audio hasta una imagen o un video. Este fue un salto cualitativo importante en la carrera de futuro de la Inteligencia Artificial y se marca como horizonte modal H2 dentro de mi modelo de madurez. Por que lo cierto es que hasta la llegada de las inteligencias multimodales, todas las entradas de recursos de medios tendrían que traducirse previamente a texto para poder ser convenientemente interpretadas por un motor de lenguaje.
Los modelos de lenguaje habían crecido hasta dimensiones inconmensurables. Parecía que la Inteligencia Artificial había tocado techo nuevamente y las voces expertas de fabricante anunciaban que el aumento en capacidad de comportamiento inteligente ya no era cuestión de mas carga neuronal. En lugar de eso teníamos que enseñar a nuestros sistemas a pensar. Por medio de la introducción de cadenas, árboles y grafos de razonamiento, la Inteligencia Artificial adquiriría habilidades en la descomposición de problemas, la planificación o la exploración estratégica, lo que se traduciría a mejores resultados incluso en modelos más pequeños y baratos. Había llegado el horizonte H3 de la Inteligencia Artificial Deliberativa según como se nombra en mi modelo de madurez. Aún estamos inmersos en esa carrera de mercado y cada vez sorprenden más los resultados obtenidos.
La Inteligencia Artificial va camino de convertirse en una verdadera herramienta operativa que nos asista en la realización de tareas complejas. Reservar las butacas para un teatro, planificar las vacaciones gestionando vuelo, estancia y ruta de ocio, organizar en trabajo, responder a nuestros correos, levantarnos con un resumen de la prensa cada mañana. Todo ello son tareas que nuestro Agente Inteligente puede resolver por nosotros. Este será el siguiente paso que yo he marcado como el horizonte H4 de futuro de la Inteligencia Artificial. Ya se empiezan a vislumbrar los primeros pilotos autónomos que son capaces de articular tareas complejas con perfecta eficacia. Inmersos en ese momento que nos dobla la esquina, nos parecerán extraños los días en los que la Inteligencia Artificial era poco más que un asistente de recuperación de información en Internet.
La Inteligencia Artificial Agentica se habrá desplegado al plano social cuando alcancemos el horizonte H5 de mi modelo de madurez. No es un juego de oráculo sino la transición natural de haber alcanzado el conocimiento operativo. Cuando cada organización y cliente con presencia activa en Internet disponga de un agente inteligente, las interacciones en la red se convertirán en verdaderos procesos dialógicos basados en episodios de negociación argumentativa donde tu agente negociará con el agente del teatro o de las líneas aéreas el mejor precio para una butaca o un billete a Paris. En esos días, la racionalidad con responsabilidad individual y social será fundamental para el éxito de las interacciones. Ya nos habló John Nash mucho de esto hace años.
Alcanzado el horizonte H6 de la fase inmersiva, la Inteligencia Artificial Agentica se ha convertido en una realidad cotidiana que permea todas nuestras vidas. De manera autónoma, continua y transparente los agentes en nuestros relojes, tarjetas, teléfonos, coches, semáforos, interactúan, negocian acciones y se coordinan para poder articular una respuesta bien orquestada que de lugar a una experiencia plena caracterizada por una conducción sin conductores donde los humanos solo seremos pasajeros consumidores de un servicio de transporte autónomo. Similares escenarios podrían idearse. El final sólo lo pones tu con tu imaginación. Parece una realidad lejana propia de una ficción distópica y futurista. Pero lo cierto es que al ritmo de avance de nuestros progresos en Inteligencia Artificial este tipo de escenarios puede no estar tan lejos.
Mira el hoy con ojos de mañana. Ni somos ni seremos fabricantes de modelos de lenguaje fundacionales. Tampoco proveedores de infraestructura de soporte. Nuestro papel es y será entender, atender y resolver las necesidades de nuestro mercado y nuestros clientes. Y todo ello deberemos hacerlo usando inteligencia y si se quiere artificial. Pero su construcción, la creación de modelos, su entrenamiento y refinamiento es algo que reside en manos de terceros. Puede parecer una trivialidad pero lo cierto es que veo mucho falso profeta invitando a adquirir competencias sobre espacios que no nos pertenecen. Decidir como serán los productos de futuro, los valores y creencias en los que se basan, su pragmática de uso y aplicación y los procesos de vehiculizarción hasta cubrir necesidades es una aventura que siempre estará reservada a nosotros, los expertos y los técnicos del nivel de negocio.
La estructura de roles que dará forma a los equipos de desarrollo de productos de negocio de mañana centrados en Inteligencia Artificial está aún por conformar. Sin embargo hay ya algunas ideas que son una realidad. Se tratará de estructuras de equipo con competencias interdisciplinares mucho más equilibradas en el desarrollo operativo. Si algo claro traerá la nueva era de la Inteligencia Artificial a nuestras vidas en el futuro inmediato es un proceso de democratización productiva que allanará los caminos y eliminará barreras de fricción, permitiendo que perfiles sin conocimientos técnicos profundos puedan mantener un diálogo intención continuo con la arquitectura inteligente para prescribir modelos de comportamiento emergentes. Los equipos serán una moneda de doble cara donde los expertos en negocio diseñarán la inteligencia y los técnicos construirán la plataforma donde dicha inteligencia tiene lugar.
Los procesos de desarrollo de productos digitales del mañana también se verán fuertemente afectados por la llegada de las arquitecturas Centradas en Inteligencia Artificial. Las metodologías dejarán de estar centradas en el desarrollo de activos de especificación formal algorítmica basados en lenguajes de tercera generación para convertirse en especificaciones intencionales expresadas en lenguaje natural. La cultura de desarrollo basada en esfuerzos de mantenimiento correctivo y evolutivo cederán espacio a un proceso basado en la reconstrucción sistemática y automática de los productos en atención a los deltas de cambio que se produzcan en las especificaciones intencionales. Y así mismo, los limites fronterizos en la experiencia de uso de los productos serán mucho más difusos. Pero eso ya os lo contaré otro día.
La llegada de la Inteligencia Artificial Generativa supondrá un cambio disruptivo en la conceptualización arquitectónica que venimos haciendo de los productos digitales de negocio. Bajo este nuevo paradigma, un motor central de inteligencia operativa tendrá competencia de acceso a cada una de las capacidades y servicios de la organización y su acceso a los mismos por parte de los clientes se modulará en base a un diálogo fluido e interactivo basado en lenguaje natural. Sobre este nuevo espacio es necesario poner esfuerzo en descubrir modelos, principios, patrones técnicas y mecanismos. De momento, me gustaría compartir con vosotros este nuevo marco de referencia arquitectónico que he ideado y entrar a discutir cada una de las capas del mismo en las próximas semanas.
Sobre la arquitectura de canales de cualquier organización, la llegada de la Inteligencia Artificial Generativa y Agentica tendrá un sonado impacto. Los modelos de interacción basados en exploración sistemática y micro-atención gestual cederán protagonismo a aquellos orientados a la interacción dialógica continua así como también ocurrirá con los canales orientados a unos y otros modelos. La transformación digital hacia la Inteligencia Artificial supondrá, sobre estos perímetros, encontrar nuevos mecanismos y palancas de interacción centrados en el diálogo, y el diseño de productos digitales tendrá que adaptarse bajo el espacio de uso de tales palancas. Los conceptos de experiencia fluida en entornos de una omnicanalidad inmersiva multimodal cogerán más fuerza que nunca hasta tal punto de que probablemente se cambie la anatomía de los dispositivos de acceso según hoy los conocemos.
Las interacciones que nos llegan desde la arquitectura de canales alcanzan la capa de diálogo. Si fuera necesario, estas entradas atraviesan motores especializados de Inteligencia Artificial Adaptativa que convierten señales modales de audio, imagen o video para transformarlas en mensajes de texto digeribles por el motor central de procesamiento. Un esfuerzo simétrico ocurre en el procesamiento de las señales de salida provenientes de dicho motor que requieren una adaptación de la respuesta de texto hacia salidas modales. Este es el relato para arquitecturas basadas en LLM del horizonte H1 de la Inteligencia Artificial. Pero con el uso de modelos modales del horizonte H2 estas fases preliminares de transformación ya no resultan necesarias. Además de esto, el mantenimiento de la sesión de diálogo también es parte de la responsabilidad de esta capa.
Tras la fase de diálogo nos llega una consulta convenientemente modulada desde las interacciones de cliente. Ahora es el momento de abrigar esa consulta de entrada con un contexto enriquecido que proviene de diferentes puntos de intervención. En primer lugar, la consulta se transforma para encajarla en un marco de pregunta según lo establecido en el diseño intencional de la interacción. En segundo, la consulta se enriquece con el contexto de conocimiento local competente para la naturaleza de la consulta formulada de acuerdo a la técnica de Retrieval Augmented Generation o RAG. Esta capa de contexto es fundamental para centrar el modelo de razonamiento de la arquitectura en el marco de conocimiento especializado del negocio.
La capa de operación es la parte nuclear del modelo de referencia que venimos presentados. De la capa anterior nos llega una consulta elaborada que proviene de la interacción del cliente y el proceso de interacción anterior. Ahora esa consulta debe ser procesada por el modelo de lenguaje para cuya resolución debe realizar un plan de acción cuya ejecución implicará a una colección de agentes inteligentes con conocimiento operativo especializado. En los horizontes dialógico y modal (H1 y H2) las capacidades de resolución están centradas en la generación directa de resultados. Al usar modelos deliberativos del horizonte H3 la inteligencia será capaz de diseñar cadenas de razonamiento elaboradas para trazar un plan. Hasta ese punto los agentes serán solo informadores de acciones a realizar (function calling). Pero a partir del horizonte operativo (H4) éstos tendrán la capacidad de atender de manera autónoma sobre cada una de sus tareas encomendadas.
Los comandos generados en la capa de operación llegan de manera remota a nuevos servicios ofrecidos públicamente en la nube de Internet. Si hasta ahora los protocolos de interacción en red se limitaban a un modelo de comandos, ahora un nuevo espacio de servicios convivirá con los anteriores. Se tratará de agentes de nube capaces de articular procesos de negociación basados en un intercambio fluido y convergente de mensajes argumentativos. Del lado de la capa de operación anterior eso significará que es posible asimismo distinguir agentes de operación que centren su operativa en el uso de comunicaciones REST convencionales centradas en comandos y otros que se orientarán a levantar canales de comunicación dialógica intencional. Con el tiempo es de esperar que este segundo tipo de interacciones vaya ganando terreno a los modelos de la generación anterior.