INTRODUCCIÓN
Una de
las características más significativas de las redes neuronales es su capacidad
para aprender a partir de alguna fuente de información interactuando con su
entorno. En 1958 el psicólogo Frank Ronsenblant desarrolló un modelo simple de
neurona basado en el modelo de McCulloch y Pitts y en una regla de aprendizaje
basada en la corrección del error. A este modelo le llamó Perceptrón.
PERCEPTRON
Un
perceptrón es una estructura neuronal más una regla de aprendizaje. Como se
explicaba anteriormente, una neurona se compone de un conjunto de entradas,
cada una con un peso, que se introducen en el cuerpo de la misma para su
procesamiento.
PERCEPTRON SIMPLE
El
Perceptrón Simple (Rosenblatt, 1959), consta de una red con una capa de salida
de n neuronas y otra de salida con m neuronas. Utiliza señales binarias, tanto
de entrada como de salida de las neuronas y su función de activación es de tipo
signo. Como regla de propagación se usa la suma ponderada del producto escalar
por el vector de entrada, debiendo superarse un cierto umbral.
ARQUITECTURA
·
Es una red monocapa con varias
neuronas de entrada conectadas a la neurona de salida.
·
En el caso de que la salida
sea +1, la entrada pertencerá a una clase, situada a un lado del hiperplano
·
En el caso de que la salida
sea -1, la entrada pertencerá a la clase contraria, situada al otro lado del
hiperplano
·
El perceptron simple es un
hiperplano de dimensión n-1 capaz de separar las clases. La ecuación de dicho
interplano es:
w1x1+w2x2+θ=0
APRENDIZAJE DEL
PRECEPTRON SIMPLE
Los
pasos a seguir para el aprendizaje son los siguientes:
1. Inicialización
aleatoria de los pesos y umbral.
2. Se
toma un patrón de entrada-salida.
3. Se
calcula la salida de la red.
4. Si
y = d(x) (clasificación correcta).
1. Si
y ≠ d(x) (clasificación incorrecta) se modifican los parámetros.
5. Se
vuelve al paso 2 hasta completar el conjunto de patrones de entrenamiento.
6. Se
repiten los pasos anteriores hasta alcanzar el criterio de parada.
PERCEPTRON MULTICAPA
ARQUITECTURA
·
Capa de entrada: sólo se
encarga de recibir las señales de entrada y propagarla a la siguiente capa.
·
Capa de salida: proporciona al
exterior la respuesta de la red para cada patrón de entrada.
·
Capas ocultas: realizan un
procesamiento no lineal de los datos de entrada.
APRENDIZAJE DEL
PRECEPTRON MULTICAPA
1. Se
inicializan los pesos y umbrales (valores aleatorios próximos a 0).
2. Se
presenta un patrón "n" de entrenamiento y se propaga hacia la salida,
obteniendo la salida de la red "y(n)"
3. Se
evalúa el error cuadrático, "e(n)", cometido por la red para cada
patrón.
4. Se
aplica la Regla Delta Generalizada para modificar pesos y umbrales:
5. Se
calculan los valores "δ" para todas las neuronas de la capa de
salida.
6. Se
calcula "δ" para el resto de neuronas, empezando por la última capa
oculta y terminando en la capa de entrada.
7. Se
modifican los pesos y umbrales.
8. Se
repiten los pasos 2, 3 y 4 para todo el patrón de entrenamiento.
9. Se
evalúa el error total de la red.
10.
Se repite hasta alcanzar el
error mínimo de entrenamiento, realizando "m" ciclos.
CONCLUSION
El perceptron
es un modelo que fue diseñado para realizar tareas de clasificación de forma automática,
la idea fue crear un sistema que a partir de ejemplos pueda determinar
ecuaciones.
Existen
dos tipos de perceptrones, los simples y
los multicapas que como su nombre lo indica tienen una capa más que el simple,
ambos nos sirven para resolver problemas lineales ya sea que esperemos una o
varias salidas.
BIBLIOGRAFÍA
Isasi, P; Galván, I; 2004. Redes de Neuronas Artificiales
Un Enfoque Práctico. Madrid España.
Javier, R. 2013. El perceptrón (En linea). . Formato PDF. Disponible en: ftp://decsai.ugr.es/pub/usuarios/castro/Actividades/Redes-Neuronales/Apuntes/Apuntes%20Javier%20Rodriguez%20Blazquez/Redes%20de%20una%20capa.pdf



No hay comentarios:
Publicar un comentario