|
|
AntecedentesEn 1943, Warren McCulloc y Walter Pitts originaron el primer modelo de operación neuronal, el cual fué mejorado en sus aspectos biológicos por Donald Hebb en 1948. En 1962 Bernard Widrow propuso la regla de aprendizaje Widrow-Hoff, y Frank Rosenblatt desarrolló una prueba de convergencia, y definió el rango de problemas para los que su algoritmo aseguraba una solución. El propuso los 'Perceptrons' como herramienta computacional. FuncionamientoEn la siguiente figura se representa una neurona "artificial", que intenta modelar el comportamiento de la neurona biológica. Aquí el cuerpo de la neurona se representa como un sumador lineal de los estímulos externos zj, seguida de una función no lineal yj = f(zj). La función f(zj) es llamada la función de activación, y es la función que utiliza la suma de estímulos para determinar la actividad de salida de la neurona. Este modelo se conoce como perceptrón de McCulloch-Pitts, y es la base de la mayor parte de las arquitectura de las RNA que se interconectan entre sí. Las neuronas emplean funciones de activación diferentes según la aplicación, algunas veces son funciones lineales, otras funciones sigmoidales (p.ej. la tanh), y otras funciones de umbral de disparo. La eficiencia sináptica se representa por factores de peso de interconección wij, desde la neurona i, hasta la neurona j. Los pesos pueden ser positivos (excitación) o negativos (inhibición). Los pesos junto con las funciones f(z) dictan la operación de la red neuronal. Normalmente las funciones no se modifican de tal forma que el estado de la red neuronal depende del valor de los factores de peso (sinápsis) que se aplica a los estímulos de la neurona. En un perceptrón, cada entrada es multiplicada por el peso W correspondiente, y los resultados son sumados, siendo evaluados contra el valor de umbral, si el resultado es mayor al mismo, el perceptrón se activa. LimitantesEl perceptrón es capaz tan sólo de resolver funciones definidas por un hiperplano (objeto de dimensión N-1 contenida en un espacio de dimensión N). que corte un espacio de dimensión N. Un ejemplo de una función que no puede ser resuelta es el operador lógico XOR. Una explicación mas sencilla de un hiperplano sería, hablando en un plano de dos dimensiones, una línea que separa a los elementos existentes en dos grupos. El perceptrón sólo puede resolver una función, si todos los posibles resultados del problema pueden separarse de ésta forma (en dos secciones) es decir, que no se combinen entre sí. EntrenamientoEl entrenamiento de un perceptrón es por medio de la regla de aprendizaje delta: dW = LR ( T - Y ) X Donde LR es la razón de aprendizaje, T el valor deseado, Y el valor obtenido, y X la entrada aplicada al perceptrón. Tipos de perceptrónEl Perceptrón básico de dos capas (entrada con neuronas lineales, analógicas, y la de salida con función de activación de tipo escalón, digital) solo pude establecer dos regiones separadas por una frontera lineal en el espacio de patrones de entrada, donde se tendría un hiperplano. Un Perceptrón con tres niveles de neuronas puede formar cualquier región convexa en este espacio. Las regiones convexas se forman mediante la intelección entre las regiones formadas por cada neurona de la segunda capa, cada uno de estos elementos se comporta como un Perceptrón simple, activándose su salida para los patrones de un lado del hiperplano. Un Perceptrón con cuatro capas puede generar regiones de decisión arbitrariamente
complejas. El proceso de separación en clases que se lleva a cabo consiste en la
partición de la región deseada en pequeños hipercubos. Cada hipercubo requiere 2n
neuronas en la segunda capa (siendo n el numero de entradas a la red), una por cada lado
del hipercubo, y otra en la tercera capa, que lleva a cabo el and lógico de la salida de
los nodos del nivel anterior. La salida de los nodos de este tercer nivel se activaran
solo para las entradas de cada hipercubo. Los hipercubos se asignan a la región de
decisión adecuada mediante la conexión de la salida de cada nodo del tercer nivel solo
con la neurona de salida (cuarta capa) correspondiente a la región de decisión en la que
este comprendido el hipercubo llevándose a cabo una operación lógica Or en cada nodo de
salida. Este procedimiento se pude generalizar de manera que la forma de las regiones
convexas sea arbitraria, en lugar de hipercubos. Aplicaciones del perceptrónEl rango de tareas que el Perceptrón puede manejar es mucho mayor que simples decisiones y reconocimiento de patrones. Por ejemplo, se puede entrenar una red para formar el tiempo pasado de los verbos en ingles, leer texto en ingles y manuscrito. El Perceptrón multicapa (MLP) puede ser usado para la predicción de una serie de datos en el tiempo; tal a sido su éxito en la medición de la demanda de gas y electricidad, además de la predicción de cambios en el valor de los instrumentos financieros. Predicción de mercados financieros, diagnósticos médicos, el Perceptrón como una red codificadora, el Perceptrón aprende a sumar enteros. NETtalk es un Perceptrón que es capaz de transformar texto en ingles en sonido
individual (representaciones fonéticas) y la pronunciación con la utilización de un
sintetizador de voz; cuenta con aproximadamente 300 nodos de neuronas (siendo 80 en la
capa escondida) y 20,000 conexiones individuales.
|
Redes Neurales Artificiales |