lunes, 25 de enero de 2016

PERCEPTRON UNICAPA Y MULTICAPA

INTRODUCCIÓN
Una de las características más significativas de las redes neuronales es su capacidad para aprender a partir de alguna fuente de información interactuando con su entorno. En 1958 el psicólogo Frank Ronsenblant desarrolló un modelo simple de neurona basado en el modelo de McCulloch y Pitts y en una regla de aprendizaje basada en la corrección del error. A este modelo le llamó Perceptrón.

PERCEPTRON
Un perceptrón es una estructura neuronal más una regla de aprendizaje. Como se explicaba anteriormente, una neurona se compone de un conjunto de entradas, cada una con un peso, que se introducen en el cuerpo de la misma para su procesamiento.

PERCEPTRON SIMPLE
El Perceptrón Simple (Rosenblatt, 1959), consta de una red con una capa de salida de n neuronas y otra de salida con m neuronas. Utiliza señales binarias, tanto de entrada como de salida de las neuronas y su función de activación es de tipo signo. Como regla de propagación se usa la suma ponderada del producto escalar por el vector de entrada, debiendo superarse un cierto umbral.

ARQUITECTURA
·         Es una red monocapa con varias neuronas de entrada conectadas a la neurona de salida.
·         En el caso de que la salida sea +1, la entrada pertencerá a una clase, situada a un lado del hiperplano
·         En el caso de que la salida sea -1, la entrada pertencerá a la clase contraria, situada al otro lado del hiperplano
·         El perceptron simple es un hiperplano de dimensión n-1 capaz de separar las clases. La ecuación de dicho interplano es:
w1x1+w2x2+θ=0
APRENDIZAJE DEL PRECEPTRON SIMPLE
Los pasos a seguir para el aprendizaje son los siguientes:
1.    Inicialización aleatoria de los pesos y umbral.
2.    Se toma un patrón de entrada-salida.
3.    Se calcula la salida de la red.
4.    Si y = d(x) (clasificación correcta). 
1.    Si y ≠ d(x) (clasificación incorrecta) se modifican los parámetros.
5.    Se vuelve al paso 2 hasta completar el conjunto de patrones de entrenamiento.
6.    Se repiten los pasos anteriores hasta alcanzar el criterio de parada.

PERCEPTRON MULTICAPA

ARQUITECTURA
·         Capa de entrada: sólo se encarga de recibir las señales de entrada y propagarla a la siguiente capa.
·         Capa de salida: proporciona al exterior la respuesta de la red para cada patrón de entrada.
·         Capas ocultas: realizan un procesamiento no lineal de los datos de entrada.

APRENDIZAJE DEL PRECEPTRON MULTICAPA
1.    Se inicializan los pesos y umbrales (valores aleatorios próximos a 0).
2.    Se presenta un patrón "n" de entrenamiento y se propaga hacia la salida, obteniendo la salida de la red "y(n)"
3.    Se evalúa el error cuadrático, "e(n)", cometido por la red para cada patrón.
4.    Se aplica la Regla Delta Generalizada para modificar pesos y umbrales:
5.    Se calculan los valores "δ" para todas las neuronas de la capa de salida.
6.    Se calcula "δ" para el resto de neuronas, empezando por la última capa oculta y terminando en la capa de entrada.
7.    Se modifican los pesos y umbrales.
8.    Se repiten los pasos 2, 3 y 4 para todo el patrón de entrenamiento.
9.    Se evalúa el error total de la red.
10.  Se repite hasta alcanzar el error mínimo de entrenamiento, realizando "m" ciclos.

CONCLUSION
El perceptron es un modelo que fue diseñado para realizar tareas de clasificación de forma automática, la idea fue crear un sistema que a partir de ejemplos pueda determinar ecuaciones.
Existen dos tipos de  perceptrones, los simples y los multicapas que como su nombre lo indica tienen una capa más que el simple, ambos nos sirven para resolver problemas lineales ya sea que esperemos una o varias salidas.

BIBLIOGRAFÍA

Isasi, P; Galván, I; 2004. Redes de Neuronas Artificiales Un Enfoque Práctico. Madrid España.

No hay comentarios:

Publicar un comentario