Javier Vélez Reyes - Artículos
Data & Inteligencia Artificial

Arquitecturas del Dato IA & ML

La Neurona Artificial

Inteligencia Artificial Conexionista I
Javier Vélez Abril 2024 13 mins

Introducción

La ingeniería, a lo largo de su historia, ha demostrado una notable capacidad para modelar diversos comportamientos del mundo real con un éxito considerable. Tradicionalmente, la mayoría de estas aproximaciones se fundamentaban en la definición explícita de procesos, que persiguían alcanzar un objetivo específico o dar respuesta a un tipo de problema particular. Estos métodos, basados en una prescripción algorítmica detallada, resultaron eficaces en numerosos campos y han sentado buena parte de las bases de la computación moderna tal y como la conocemos hoy.

Sin embargo, a partir del año 1956, comenzó a gestarse un nuevo enfoque paralelo que buscaba explorar vías alternativas para inducir comportamientos complejos en los sistemas de una manera más declarativa. En lugar de programar cada paso de forma formal y detallada, la idea era diseñar sistemas que pudieran aprender y adaptar su comportamiento a partir de la información proporcionada. Este incipiente campo de estudio, que sentaría las bases de una nueva revolución tecnológica, se formalizaría bajo el nombre de Inteligencia Artificial por aquellos años tal y como ya hemos explicado en otras ocasiones.

Lo cierto es que a partir de esta nueva aproximación, se lograrían avances significativos con el tiempo en el modelado de comportamientos autónomos. Por ejemplo, en la década de los sesenta, se desarrollaron técnicas para resolver problemas de exploración en espacios de búsqueda complejos mediante la aplicación de estrategias Heurísticas. Algunos de estos ya los hemos explorado al hablar de inteligencia de enjambre. Como vimos, estos métodos permitían a los sistemas tomar decisiones informadas para encontrar soluciones eficientes en escenarios con un gran número de posibilidades.

Asimismo, una década después, se definirían formalmente modelos de representación del conocimiento que posibilitarían a los sistemas desarrollar complejas cadenas de razonamiento de manera Simbólica sobre la información que se les habia proporcionado de manera declarativa y explícita. También son objeto de exploración en otra serie de artículos. Tales sistemas, a veces basados en reglas lógicas y otras en representaciones estructuradas del conocimiento equivalentes, demostraron su utilidad en dominios específicos, como el diagnóstico médico o la resolución de problemas complejos.

No obstante, la contribución más trascendental, aquella que con el tiempo se consolidaría como la más exitosa y que resuena con más fuerza hoy en nuestros días, no provendría de estas estrategias basadas en el diseño explícito de modelos formales. Emergería de una nueva forma de entender el diseño de sistemas inteligentes basado en el uso de técnicas de descubrimiento automático del conocimiento a partir de la exposición a grandes volúmenes de datos de los que se puede aprender.

Pero el origen de toda esta revolución, se encuentra muy alejado de esta narrativa tan ambiciosa. Está en la definición formal y matemática que un día, allá por el año 1943, un par de cientificos llamados McCulloch & Pitts harian para idear de un modelo de neurona artificial que tenía por objeto explicar el comportamiento de las células neuronales de caracter orgánico. Este intento de abstracción, de trasladar la complejidad de una célula nerviosa a un modelo comprensible y operativo, marcaría un antes y un después en la historia de la Inteligencia Artificial Conexionista.

A lo largo de esta serie de artículos, exploraremos en detalle la trascendencia de este punto de partida y del recorrido que se comenzaría a caminar desde entonces dejando en franco abandono buena parte de los otros caminos por los que ha transitado en exploración la Inteligencia Artificial hasta llegar a nuestros días.

La Neurona Artificial

Cuando Warren McCulloch, un neurofisiólogo y psiquiatra con un profundo interés en la mente y el cerebro, y Walter Pitts, un joven lógico y matemático prodigio, formularon su modelo de neurona artificial en el año 1943, probablemente no eran plenamente conscientes de la profunda relevancia que su contribución tendría para el futuro de la Inteligencia Artificial aún por fundar como disciplina cintífica.

McCulloch poseía una mente inquisitiva que lo llevó a explorar las bases biológicas de la cognición. Su formación en medicina y su posterior dedicación a la neurofisiología le proporcionaron una comprensión detallada del funcionamiento del sistema nervioso. Esta perspectiva biológica sería crucial en su intento por formalizar el comportamiento neuronal.

Por su parte, Pitts era un talento precoz en el campo de la lógica y las matemáticas. A pesar de su juventud, demostró una gran habilidad para el pensamiento abstracto y la construcción de modelos formales. Su capacidad para traducir conceptos complejos a un lenguaje matemático preciso sería fundamental en la colaboración con McCulloch.

Ambos comenzaron a trabajar juntos en la Universidad de Chicago, un entorno intelectualmente estimulante que fomentaba la investigación interdisciplinar. Su colaboración surgió de un interés compartido en comprender los mecanismos subyacentes a la actividad mental, buscando un puente entre la biología del cerebro y la lógica del pensamiento. En este contexto de exploración conjunta, se propusieron el ambicioso objetivo de crear un modelo formal que capturara la esencia del comportamiento neuronal.

Es importante destacar que su intención inicial no era desencadenar una revolución en el campo de lo que años después se conocería bajo el nombre de Inteligencia Artificial Conexionista. Su motivación principal radicaba en un intento por idear un modelo matemático riguroso que pudiera explicar, sobre el papel, el funcionamiento de las células neuronales biológicas, desentrañando los principios fundamentales que rigen su actividad.

Para comprender la propuesta de McCulloch y Pitts, es útil explicar de forma simplificada cómo funciona una neurona biológica. En esencia, una neurona puede describirse como una célula especializada en la transmisión de información a través de señales electroquímicas. Esta célula consta de varios elementos clave que desempeñan roles específicos en este proceso de comunicación.

Entre los elementos fundamentales de una neurona se encuentran las dendritas, que actúan como receptores de señales provenientes de otras neuronas. Estas señales de entrada, a menudo en forma de impulsos eléctricos, llegan a la neurona y son procesadas en el cuerpo celular o soma. Dentro del soma, estas señales entrantes se integran, y si la suma de estas señales supera un determinado umbral, la neurona genera una señal de salida que se propaga a lo largo de una extensión denominada axón. El axón, a su vez, puede ramificarse y conectarse con las dendritas de otras neuronas a través de las sinapsis, puntos de conexión donde se transmiten las señales. La intensidad de la influencia de una neurona sobre otra en la sinapsis puede variar, lo que en el modelo artificial se representaría mediante pesos sinápticos.

McCulloch y Pitts lograron abstraer estos elementos y procesos biológicos clave en un modelo formal. En su neurona artificial, las señales de entrada se representan como valores numéricos. Estas entradas están asociadas a pesos sinápticos, que modulan la influencia de cada señal entrante. La neurona artificial también incorpora un valor de umbral, que actúa como un punto de activación. La suma ponderada de las señales de entrada se compara con este umbral, y si lo supera, se activa una función de activación que determina la señal de salida de la neurona. Esta señal puede, a su vez, servir como entrada para otras neuronas artificiales, formando así redes complejas.

  • Señales de Entrada. Estas representan la información que la neurona artificial recibe del exterior o de otras neuronas dentro de una red. En el modelo formal, estas señales se expresan como valores numéricos. Cada señal de entrada simula la actividad eléctrica que llega a una neurona biológica a través de sus dendritas. La magnitud de estos valores numéricos codifica la intensidad de la señal entrante, proporcionando la información base para el procesamiento de la neurona artificial.

  • Pesos Sinápticos. Asociados a cada señal de entrada, los pesos sinápticos modulan la influencia que dicha señal tiene sobre la neurona artificial. Estos pesos son valores numéricos que pueden ser positivos (excitatorios) o negativos (inhibitorios). Un peso positivo incrementa la contribución de la señal de entrada a la activación de la neurona, mientras que un peso negativo la disminuye. Los pesos sinápticos son análogos a la fuerza de las conexiones sinápticas entre neuronas biológicas, determinando la importancia relativa de cada entrada en el proceso de decisión de la neurona.

  • Valor de Umbral. El valor de umbral, también conocido como bias en algunas implementaciones modernas, representa el nivel mínimo de activación que la neurona artificial debe alcanzar para producir una señal de salida. Este valor actúa como un punto de referencia interno. La suma ponderada de las señales de entrada debe superar este umbral para que la neurona se active. El umbral introduce un comportamiento de “todo o nada”, similar al potencial de acción en las neuronas biológicas, donde una señal solo se genera si la estimulación recibida es lo suficientemente fuerte.

  • Función de Activación. Una vez que la suma ponderada de las entradas supera el valor de umbral, se aplica una función de activación para determinar la señal de salida de la neurona. Esta función introduce no linealidad en el modelo, lo cual es crucial para permitir que las redes de neuronas artificiales aprendan relaciones complejas en los datos. La función de activación mapea la suma ponderada de las entradas a un rango de salida específico, que puede ser binario (activado/desactivado) o continuo, dependiendo del tipo de función utilizada.

  • Señal de Salida. La señal de salida es el resultado del procesamiento realizado por la neurona artificial. Este valor numérico se genera después de aplicar la función de activación a la suma ponderada de las entradas que han superado el umbral. La señal de salida puede servir como entrada para otras neuronas artificiales en una red, permitiendo la propagación de la información a través del sistema. Esta salida representa la “decisión” o la “respuesta” de la neurona artificial a las señales de entrada que ha recibido y procesado.

Este modelo simplificado, aunque abstracto, capturaba de manera elegante y natural el comportamiento fundamental de las neuronas biológicas. Ofrecía un marco de operación claro y conciso que permitía razonar a nivel formal sobre una neurona individual o sobre conjuntos de neuronas interconectadas en red, abriendo la puerta a la exploración teórica de sistemas inspirados en la arquitectura del cerebro.

La Neurona Artificial en Acción

El formalismo propuesto por McCulloch y Pitts trascendía una mera descripción estructural de una neurona. Constituía una formalización funcional que aspiraba a ser potencialmente equivalente a su homóloga orgánica en términos de procesamiento de información. No se trataba solo de identificar los componentes, sino también de definir cómo estos interactuaban para generar una respuesta.

En el modelo, las neuronas artificiales reciben señales, análogas a los impulsos eléctricos de las neuronas biológicas, que se cuantificaban dentro de un rango numérico de valores. Estas señales se interpretan como contribuciones entrantes que son convenientemente ponderadas de manera específica por los pesos sinápticos asociados a cada conexión. Y estos pesos representa la fuerza o la importancia de cada señal de entrada en la activación de la neurona.

Un aspecto crucial del modelo es la introducción de un valor umbral. La neurona artificial acumula la suma ponderada de todas sus entradas, y solo si esta suma alcanza el umbral predefinido, la neurona se activaba. Tal activación desencadena entonces la evalación de la función de activación, que a su vez determina la naturaleza y la intensidad de la señal de respuesta o salida de la neurona.

Es importante destacar que la función de activación en este modelo tiene por objeto romper el comportamiento de linealidad dentro de una red neuronal. En efecto, esta no linealidad es una propiedad fundamental, ya que permite que la composición de múltiples neuronas en redes no colapse en una simple combinación lineal de todas las neuronas de la red en una sola neurona equivalente. Con funciones de activación lineales, la capacidad de representación de las redes neuronales se vería severamente limitada.

El hecho es que, más allá de los detalles técnicos, parece que los aurores propios McCulloch y Pitts señalaron, casi de manera visionaria, en su trabajo original que su modelo de neurona era capaz de emular el razonamiento lógico formal. Demostraron que una neurona artificial así formulada podía configurarse para mostrar el comportamiento de operadores lógicos primitivos tales como la disyunción o la conjunción lógica. Al ajustar adecuadamente los pesos sinápticos y el valor umbral la neurona, ésta podía activarse solo cuando todas sus entradas estuvieran activas o cuando al menos una de sus entradas lo estuviera, respuestas propias de los anteriormente citados operadores.

Este hallazgo, aunque quizás no se percibiera en toda su magnitud en aquél momento, sentaría las bases conceptuales de la Inteligencia Artificial Conexionista y de una nueva estrategia para la construcción de sistemas inteligentes fuertemente dirigidos por los datos. La idea de que a partir de unidades simples llamadas neuronas artificiales, se pudieran crear vastas y complejas redes interconectadas y capaces de realizar operaciones lógicas elaboradas para realizar tareas complejas de procesamiento de información y aprendizaje representaba un cambio de paradigma fundamental.

Conclusiones

A lo largo de este artículo, hemos explorado en detalle el modelo pionero de la neurona artificial propuesto por Warren McCulloch y Walter Pitts. Su objetivo primordial era desarrollar un modelo formal simplificado que capturara la esencia del funcionamiento de una neurona biológica, traduciendo su complejidad a un lenguaje matemático preciso.

En su formulación original, la neurona artificial se caracteriza por recibir señales de entrada, cada una asociada a un peso sináptico que modula su influencia. Estas entradas ponderadas se combinan, y si la suma resultante supera un determinado nivel de umbral, se evalua una función de activación que genera una señal de respuesta o salida. Este proceso guarda una analogía conceptual con el funcionamiento de las células orgánicas, que reciben señales a través de las dendritas, las integran en el cuerpo neuronal y, si se alcanza un umbral, generan impulsos sinápticos que se propagan a través del axón.

Sin embargo, el modelo de McCulloch y Pitts era mucho más que una mera descripción estructural de una neurona. Constituía una descripción plenamente funcional y operativa que detallaba cómo una célula neuronal artificial era capaz de procesar un conjunto de señales numéricas de entrada para generar una respuesta numérica a la salida. Esta capacidad de procesamiento definía su potencial computacional.

Y lo que resultó ser particularmente pertinente y trascendental fue que dicha respuesta podía modularse mediante la configuración de los pesos sinápticos y el umbral para obtener comportamientos que imitaban formas elementales de razonamiento, específicamente a nivel de los operadores primitivos de conjunción y disyunción lógica. Esta demostración de la capacidad de la neurona artificial para realizar operaciones lógicas fundamentales se reconocería años después como un hito crucial en la historia de la Inteligencia Artificial Conexionista.

En efecto, el modelo de neurona artificial representaría un punto de partida representativo en la revolución de la Inteligencia Artificial que, con el paso de los años y numerosas contribuciones posteriores, ha llegado hasta nuestros días con la fuerza y el impacto que observamos actualmente. La concepción de la neurona artificial como una unidad básica de procesamiento de información, capaz de aprender y de realizar operaciones lógicas, abriría un camino inexplorado en la búsqueda de la Inteligencia Artificial.

En los próximos artículos de esta serie, profundizaremos en cómo, a partir de esta idea fundacional, se fueron sentando las bases del fructífero campo de lo que años más tarde se daría en llamar Inteligencia Artificial Conexionista, un paradigma basado en la interconexión de un gran número de estas unidades elementales en complejas arquitecturas conocidas como redes neuronales.