Translate

sábado, 18 de julio de 2015

PERCEPTRÓN MULTICAPA


INTRODUCCIÓN

Un perceptrón multicapa (MLP) es un modelo neuronal artificial feedforward red que asigna conjuntos de datos de entrada en un conjunto de salidas apropiadas. Un MLP consta de múltiples capas de nodos de un grafo dirigido, con cada capa totalmente conectado a la siguiente,excepto para los nodos de entrada, cada nodo es una neurona (o elemento de procesamiento) con una función de activación lineal.

A continuación profundizaremos en el tema.

MARCO TEÓRICO

MLP utiliza una técnica de aprendizaje supervisado denominado retropropagación para la formación de la red. MLP es una modificación del perceptrón lineal estándar y pueden distinguir los datos que no son linealmente separables.
Este es uno de los tipos de redes más comunes. Se basa en otra red más simple llamada perceptrón simple solo que el número de capas ocultas puede ser mayor o igual que una. Es una red unidireccional (feedforward). La arquitectura típica de esta red es la siguiente:


FUNCIÓN DE ACTIVACIÓN

Si un perceptrón multicapa tiene una función lineal en la activación de todas las neuronas, es decir, una función lineal que mapea las entradas ponderadas a la salida de cada neurona, entonces es fácilmente demostrado con el álgebra lineal que cualquier número de capas puede ser reducido a la norma modelo de de dos capas. Lo que hace que un perceptrón multicapa diferente es que cada neurona utiliza una función de activación no lineal que se desarrolló para modelar la frecuencia de potenciales de acción, o de cocción, de las neuronas biológicas en el cerebro. Esta función se modela de varias maneras.
Las dos funciones principales de activación utilizados en las aplicaciones actuales son ambos sigmoides, y se describen por:
y (vi) =  tang (vi) ;
y (vi) = 1 /  (1 + e ^(- vi)) )

En el que la primera función es la tangente hiperbólica que varía de -1 a 1, y el segundo, la función logística, es similar en forma pero oscila de 0 a 1 Aquí yi  es la salida del nodo i-ésimo (neurona) y vi  es la suma ponderada de las sinapsis de entrada.

APLICACIONES
Perceptrones multicapa utilizando un algoritmo de backpropagation son el algoritmo estándar para cualquier proceso de reconocimiento de patrones de aprendizaje supervisado y el tema de investigación en curso en la neurociencia computacional y procesamiento distribuido en paralelo. Son útiles en la investigación en términos de su capacidad para resolver problemas de forma estocástica, que a menudo permite a uno para obtener soluciones aproximadas para problemas muy complejos, como aproximación de la capacidad. MLP fueron una solución de aprendizaje de máquina popular en la década de 1980, la búsqueda de aplicaciones en diversos campos, tales como el reconocimiento de voz, reconocimiento de imágenes, y software de traducción automática, (Wasserman  ; Schwartz.  1988) pero desde la década de 1990 se enfrentaron la fuerte competencia de la mucho más simple  y relacionados apoyar las máquinas de vectores. Más recientemente, ha habido un cierto interés renovado en las redes de retro propagación debido a los éxitos de aprendizaje profundo

APRENDIZAJE EN EL PERCEPTRÓN MULTICAPA
1. Se inicializan los pesos y umbrales (valores aleatorios próximos a 0).
2. Se presenta un patrón “n” de entrenamiento y se propaga hacia la salida, obteniendo la salida de la red “y(n)”
3. Se evalúa el error cuadrático, “e(n)”, cometido por la red para cada patrón.
4. Se aplica la Regla Delta Generalizada para modificar pesos y umbrales:
Se calculan los valores “δ” para todas las neuronas de la capa de salida.
Se calcula “δ” para el resto de neuronas, empezando por la última capa oculta y terminando en la capa de entrada.
Se modifican los pesos y umbrales.
5. Se repiten los pasos 2, 3 y 4 para todo el patrón de entrenamiento.
6. Se evalúa el error total de la red.
7. Se repite hasta alcanzar el error mínimo de entrenamiento, realizando “m” ciclos. Se pueden establecer otros criterios de parada:
El error del entrenamiento se estabilice.
El error de validación se estabilice.
El error de validación aumente

CONCLUSIÓN
El  perceptrón multicapa pertenece a la familia de aprendizaje o entrenamiento supervisado su característica principal es la cantidad de nodos que contiene para obtener entradas de datos y dar una salida en base al modelo que tiene como función. Es uno de los modelos de redes neuronales más simples en la inteligencia artificial entonces como tal es la base fuerte para creación de nuevos modelos. 

BIBLIOGRAFÍA

Rosenblatt, F. 1961. Principles of Neurodynamics: Perceptrons and the Theory of Brain Mechanisms. Spartan Books, Washington DC
Rumelhart, D; Geoffrey E  and Williams, R. 1986. “Learning Internal Representations by Error Propagation”. David E. Rumelhart, James L. McClelland, and the PDP research
Cybenko, G. 1989. Approximation by superpositions of a sigmoidal function Mathematics of Control, Signals, and Systems, 1ra Edición, pag .303–314.


No hay comentarios.:

Publicar un comentario