Primera parte
Los sistemas biológicos no nacen pre-programados con todo el conocimiento y las capacidades que llegarán a tener eventualmente. Un proceso de aprendizaje que tiene lugar a lo largo de un período de tiempo, modifica de alguna forma la red neuronal para incluir la nueva información. La teoría básica del aprendizaje procede del libro “Organización del comportamiento”, escrito el año 1949 por Donald O. Hebb; dicha teoría proporciona una idea de cómo es guardada la información en el cerebro, ésta dice así: “Cuando un axón de una célula A está suficientemente próximo para excitar a una célula B o toma parte en su disparo de forma persistente, tiene lugar algún proceso de crecimiento o algún cambio metabólico en una de las células, o en las dos, de tal modo que la eficiencia de A, como una de las células que desencadena el disparo de B, se ve incrementada. Dado que la conexión entre neuronas se hace a través de la sinapsis, es razonable suponer que cualesquiera cambios que puedan tener lugar durante el aprendizaje deberán producirse en ellas.” La teoría de Hebb suponía un aumento en el área de la unión sináptica, teorías más recientes, afirman que el responsable es un incremento en la velocidad con que se liberan los neurotransmisores, en todo caso, durante el aprendizaje se producen cambios en la sinapsis. En el cerebro el conocimiento se encuentra almacenado en las conexiones ponderadas entre las neuronas, en la denominada sinapsis; en el proceso de aprendizaje, se ajustan dichas conexiones ponderadas.
Darpa, en el libro escrito el año 1988 titulado “Estudio de las redes neuronales”, define una red neuronal como un sistema compuesto de muchos elementos simples de procesamiento, los cuales operan en paralelo y cuya función es determinada por la estructura de la red, el peso de las conexiones: realizándose el procesamiento en cada uno de los nodos o elementos de computo. Según Haykin, en el libro escrito el año 1994 titulado “Redes neuronales: Fundamentos comprensivos”, una red neuronal es un procesador paralelo masivamente distribuido que tiene una facilidad natural para el almacenamiento de conocimiento obtenido de la experiencia para luego hacerlo utilizable. Se parece al cerebro en dos aspectos: (1) el conocimiento es obtenido por la red a través de un proceso de aprendizaje. (2) Las conexiones interneuronales conocidas como pesos sinápticos son utilizadas para almacenar dicho conocimiento. Según Viñuela y Galvan, en el libro escrito el año 2004 titulado “Redes Neuronales Artificiales: Un enfoque práctico”, el proceso de aprendizaje se puede dividir en tres grandes grupos de acuerdo a sus características: (1) Aprendizaje supervisado. Se presenta a la red un conjunto de patrones de entrada junto con la salida esperada. Los pesos se van modificando de manera proporcional al error que se produce entre la salida real de la red y la salida esperada. (2) Aprendizaje no supervisado. Se presenta a la red un conjunto de patrones de entrada. No hay información disponible sobre la salida esperada. El proceso de entrenamiento en este caso deberá ajustar sus pesos en base a la correlación existente entre los datos de entrada. (3) Aprendizaje por refuerzo. Este tipo de aprendizaje se ubica entre medio de los dos anteriores. Se le presenta a la red un conjunto de patrones de entrada y se le indica a la red si la salida obtenida es o no correcta. Sin embargo, no se le proporciona el valor de la salida esperada. Este tipo de aprendizaje es muy útil en aquellos casos en que se desconoce cuál es la salida exacta que debe proporcionar la red.
Complementando y ampliando lo mencionado, una de las características de las redes neuronales artificiales es su capacidad de aprender a partir de ciertos datos. Una vez que ha sido elegida la arquitectura de red para un determinado problema, los pesos de las conexiones se ajustan para codificar la información contenida en un conjunto de datos de entrenamiento. Según Castillo y sus colegas, en el libro escrito el año 1999 titulado “Introducción a las redes funcionales con aplicaciones”, los métodos de aprendizaje se clasifican en dos categorías, dependiendo del tipo de información disponible: (1) Aprendizaje supervisado. En este caso, los patrones para el aprendizaje están formados por parejas, que constan de un vector de variables de entrada, junto con las salidas correspondientes. Por tanto cada valor de salida es la respuesta deseada a las señales de entrada. En este caso, los pesos se obtienen minimizando alguna función de error que mide la diferencia entre los valores de salida deseados y los calculados por la red neuronal. En este tipo de aprendizaje se debe tener en cuenta el problema de la convergencia del error. En general, la función de error resultante puede contener múltiples mínimos locales y, por lo tanto, el proceso de aprendizaje puede no converger al mínimo global óptimo. (2) Aprendizaje no supervisado. En este caso, los datos se presentan a la red sin información externa, y la red tiene que descubrir por sí misma patrones o categorías. Este tipo de aprendizaje se encuadra dentro de las técnicas autoorganizativas, o técnicas automáticas para descubrir la estructura de datos.
Portada de HOY |
1 Dólar: | 6.96 Bs. |
1 Euro: | 8.78 Bs. |
1 UFV: | 1.77736 Bs. |
Impunidad |