INTRODUCCIÓN
Un perceptrón
multicapa (MLP) es un modelo neuronal artificial feedforward red que asigna
conjuntos de datos de entrada en un conjunto de salidas apropiadas. Un MLP
consta de múltiples capas de nodos de un grafo dirigido, con cada capa
totalmente conectado a la siguiente,excepto para los nodos de entrada, cada
nodo es una neurona (o elemento de procesamiento) con una función de activación
lineal.
A continuación profundizaremos en el tema.
MARCO TEÓRICO
MLP utiliza una
técnica de aprendizaje supervisado denominado retropropagación para la
formación de la red. MLP es una modificación del perceptrón lineal estándar y
pueden distinguir los datos que no son linealmente separables.
Este es uno de
los tipos de redes más comunes. Se basa en otra red más simple llamada
perceptrón simple solo que el número de capas ocultas puede ser mayor o igual
que una. Es una red unidireccional (feedforward). La arquitectura típica de
esta red es la siguiente:
FUNCIÓN DE ACTIVACIÓN
Si un perceptrón
multicapa tiene una función lineal en la activación de todas las neuronas, es
decir, una función lineal que mapea las entradas ponderadas a la salida de cada
neurona, entonces es fácilmente demostrado con el álgebra lineal que cualquier
número de capas puede ser reducido a la norma modelo de de dos capas. Lo que
hace que un perceptrón multicapa diferente es que cada neurona utiliza una
función de activación no lineal que se desarrolló para modelar la frecuencia de
potenciales de acción, o de cocción, de las neuronas biológicas en el cerebro.
Esta función se modela de varias maneras.
Las dos
funciones principales de activación utilizados en las aplicaciones actuales son
ambos sigmoides, y se describen por:
y (vi) =
tang (vi) ;
y (vi) = 1
/ (1 + e ^(- vi)) )
En el que la
primera función es la tangente hiperbólica que varía de -1 a 1, y el segundo,
la función logística, es similar en forma pero oscila de 0 a 1 Aquí yi es
la salida del nodo i-ésimo (neurona) y vi es la suma ponderada de las
sinapsis de entrada.
APLICACIONES
Perceptrones
multicapa utilizando un algoritmo de backpropagation son el algoritmo estándar
para cualquier proceso de reconocimiento de patrones de aprendizaje supervisado
y el tema de investigación en curso en la neurociencia computacional y
procesamiento distribuido en paralelo. Son útiles en la investigación en
términos de su capacidad para resolver problemas de forma estocástica, que a
menudo permite a uno para obtener soluciones aproximadas para problemas muy
complejos, como aproximación de la capacidad. MLP fueron una solución de
aprendizaje de máquina popular en la década de 1980, la búsqueda de
aplicaciones en diversos campos, tales como el reconocimiento de voz,
reconocimiento de imágenes, y software de traducción automática, (Wasserman
; Schwartz. 1988) pero desde la década de 1990 se enfrentaron la
fuerte competencia de la mucho más simple y relacionados apoyar las
máquinas de vectores. Más recientemente, ha habido un cierto interés renovado
en las redes de retro propagación debido a los éxitos de aprendizaje profundo
APRENDIZAJE EN EL PERCEPTRÓN MULTICAPA
1. Se
inicializan los pesos y umbrales (valores aleatorios próximos a 0).
2. Se presenta
un patrón “n” de entrenamiento y se propaga hacia la salida, obteniendo la
salida de la red “y(n)”
3. Se evalúa el
error cuadrático, “e(n)”, cometido por la red para cada patrón.
4. Se aplica la
Regla Delta Generalizada para modificar pesos y umbrales:
Se calculan los
valores “δ” para todas las neuronas de la capa de salida.
Se calcula “δ”
para el resto de neuronas, empezando por la última capa oculta y terminando en
la capa de entrada.
Se modifican los
pesos y umbrales.
5. Se repiten
los pasos 2, 3 y 4 para todo el patrón de entrenamiento.
6. Se evalúa el
error total de la red.
7. Se repite hasta
alcanzar el error mínimo de entrenamiento, realizando “m” ciclos. Se pueden
establecer otros criterios de parada:
El error del
entrenamiento se estabilice.
El error de
validación se estabilice.
El error de
validación aumente
CONCLUSIÓN
El perceptrón multicapa pertenece a la
familia de aprendizaje o entrenamiento supervisado su característica principal
es la cantidad de nodos que contiene para obtener entradas de datos y dar una
salida en base al modelo que tiene como función. Es uno de los modelos de redes
neuronales más simples en la inteligencia artificial entonces como tal es la
base fuerte para creación de nuevos modelos.
BIBLIOGRAFÍA
Rosenblatt,
F. 1961. Principles of Neurodynamics: Perceptrons and the Theory of Brain
Mechanisms. Spartan Books, Washington DC
Rumelhart,
D; Geoffrey E and Williams, R. 1986. “Learning Internal Representations
by Error Propagation”. David E. Rumelhart, James L. McClelland, and the PDP
research
Cybenko,
G. 1989. Approximation by superpositions of a sigmoidal function Mathematics of
Control, Signals, and Systems, 1ra Edición, pag .303–314.

No hay comentarios.:
Publicar un comentario