Backpropagation
Principal ] Información ] Software ] Aplicaciones ] Artículos ] Ligas y Bibliografía ] Libro de Visitantes ] Foro de discusión ]

 

El perceptrón solo es el ejemplo más elemental de una red neuronal, de hecho, no puede siquiera ser considerado una "red", puesto que no intervienen otros elementos. Si se combinan varios perceptrones en una "capa", y los estímulos de entrada después se suman tendremos ya una red neuronal. Una red neuronal muy eficaz para resolver fundamentalmente problemas de reconocimiento de patrones es la red neuronal de propagación hacia atrás, en inglés back propagation network.

backpropagation.gif (9098 bytes)

En esta red, se interconectan varias unidades de procesamiento en capas, las neuronas de cada capa no se interconectan entre sí. Sin embargo, cada neurona de una capa proporciona una entrada a cada una de las neuronas de la siguiente capa, esto es, cada neurona transmitirá su señal de salida a cada neurona de la capa siguiente. La figura muestra un ejemplo esquemático de la arquitectura de este tipo de redes neuronales.

Algoritmo

El algoritmo de aprendizaje proporciona una forma de entrenar una red multicapa con alimentación hacia adelante. Comienza alimentando los valores de la entrada de acuerdo a las siguientes ecuaciones:

wpe2.jpg (1952 bytes)                         

donde A es el grupo de neuronas en una capa, y B e la otra. Oj es la activacion para la neurona J, y Wji son los pesos asignados a la conexión entre las neuronas j e i. En la ecuación anterior, se toman los valores de salida y se alimentan a la siguiente capa a traves de los pesos. Esta operación se realiza para cada neurona en la siguiente capa, produciendo un valor de red para el. Este valor es la suma de todos los valores de activacion en las neuronas de la capa anterior, y cada valor de red es aplicado ahora a la siguiente ecuación, conocida como función de activación, para producir la activación de esa neurona.

wpe3.jpg (1762 bytes)

Despues de que todas las neuronas tienen un valor de activación asociado a un patrón de valores de entrada, el algoritmo sigue buscando errores en cada neurona que no es entrada.

Los errores encontrados para las neuronas de salidas, son propagados hacia atrás, a la capa anterior para que puedan ser asignados a neuronas de las capas escondidas, ésto se calcula por:

wpe7.jpg (2259 bytes)

donde D es el gripo de neuronas en una capa que no es de entrada y E es el grupo de neuronas de la siguiente capa. Este cálculo se repite para cada capa escondida en la red.

Después de que se ha encontrado la activación y el error asociado a cada grupo de neuronas, los pesos se actualizan, primero encontrando el valor que cada peso debe modificarse, esto se logra calculando:

wpe8.jpg (1975 bytes)

donde C, conocida como la razón de aprendizaje, es una constante que controla el valor del cambio de lso mesos y Wij es el cambio de los pesos entre la neurona i y j. El peso es cambiado evaluando:

wpe9.jpg (1595 bytes)

Anterior Principal Arriba Siguiente

 

Redes Neurales Artificiales
Derechos reservados ©1999 TREC internet
http://electronica.com.mx/neural e-mail: neural@electronica.com.mx
última actualización: 15-Oct-2000 11:22:17 PM