Translate

sábado, 18 de julio de 2015

REDES DE NEURONAS DE BASE RADIAL

INTRODUCCIÓN

Las redes de nuronas de base radial son redes multicapa con conexiones hacia delante con una única capa oculta, las neuronas ocultas poseen carácter local Cada neurona oculta se activa en una región distinta del espacio de entrada, El carácter local se debe al uso de las funciones de base radial como funciones de activación. Generalmente la función gaussiana, las neuronas de salida realizan una combinación lineal de las activaciones de las neuronas ocultas, se deben fundamentalmente a: Moody y Darken (1989), Renals (1989), Poggio y Girossi (1990).

MARCO TEÓRICO


En el campo de la modelización matemática, una red de función de base radial es una red neuronal artificial que usa funciones de base radial como funciones de activación. La salida de la red es una combinación lineal de funciones de base radial de las entradas y los parámetros de las neuronas. Redes de funciones de base radial tienen muchos usos, incluida la aproximación función, la predicción de series temporales, clasificación y control del sistema. Ellos fueron formuladas por primera vez en un documento de 1988 por Broomhead y Lowe, ambos investigadores de la Royal Radar Establishment, aunque la arquitectura pueda recordar a la de un MLP, la diferencia fundamental está en que las neuronas de la capa oculta en vez de de calcular una suma ponderada de las entradas y aplicar una sigmoide, estas neuronas calculan la distancia euclídea entre el vector de pesos sinápticos (que recibe el nombre en este tipo de redes de centro o centroide) y la entrada (de manera casi analoga a como se hacía con los mapas SOM) y sobre esa distancia se aplica una función de tipo radial con forma gaussiana.

APLICACIÓN
Tanto en la Ingeniería, como en la Economía, se presentan problemas en los cuales se necesita encontrar una variación entre un conjunto de variables dependientes y otro independientes. La función que une estas variables es generalmente no lineal y la mayor parte del tiempo no se conoce ninguna información sobre la forma de esta variación. Los procedimientos estadísticos se pueden utilizar, pero sufren de esa desventaja. Una red neuronal RBF se puede utilizar para extraer la relación dependiente e independiente. Para el ejemplo únicamente se ha considerado el caso 1D, sin embargo todos los conceptos que se han analizado son perfectamente válidos en 2 o más dimensiones. Se parte de una función conocida, a la que se añade ruido en forma seudoaleatoria, obsérvese que esto se hace únicamente con el fin de ilustrar y verificar los resultados. En cualquier aplicación al área de Ingeniería o Financiera esta función es desconocida.

Mediante el intérprete Scilab, se genera una función, como la de la figura. El ruido mismo se ha representado a través de puntos a lo largo de la función original. Para la red de inicialización se puede considerar que todos los puntos de ruido aportan con nodo para la red. 
Obsérvese que para definir un nodo de la red RBF se necesita establecer los parámetros de las funciones radiales, para este caso se ha escogido 3 tamaños para el parámetro r (radio) de estas funciones radiales (r = 0.5 1.0 1.5). El parámetro c (centros) es igual a los parámetros de entrada x en la inicialización. 
El algoritmo forward select, permite encontrar la red más adecuada para extraer una relación determinística, la función que realiza el proceso de escoger los nodos de la red en virtud de los criterios de selección de modelos que se han mencionada es forward Select(F,y) y la función que construye la red neuronal de inicialización es rbf Design (x,c,r). Una vez que se encuentra la red óptima, se procede a calcular los parámetros de la misma. Estos parámetros w permiten generalizar a la red para valores de entrada diferentes de los que fue entrenada. Se ha añadido además otro llamado a la función forwardSelect en la que se considera una variación al proceso de selección de nodos de la red más elaborado utilizando otros criterios de selección de modelos.

 Se ha demostrado que estos procedimientos permiten mejorar la solución en base al criterio de mínimos cuadrados

CONCLUSIÓN

Una red artificial de función Radial utiliza la distribución de Normal de la estadística la fórmula de aprendizaje es algo compleja porque utiliza métodos de integración triple y necesita una función gama y tao para determinar en donde tiene el patrón aprendido.
Al igual que el perceptron multicapa, las redes de neuronas de base radial son aproximadores universales, en el sentido de que pueden aproximar cualquier  función continua sobre un compacto de R^n.
Las funciones de base radial (RBF) definen hiperesferas o hiperelipses  que dividen el espacio de entrada. Cada RBF (cada neurona) construye una aproximación local no lineal en una determinada región del espacio de entrada.
Se han aplicado a gran variedad de problemas:
Análisis de series temporales, procesamiento de imágenes, reconocimiento automático del habla, diagnósticos médicos, etc

BIBLIOGRAFÍA

Broomhead, S ; Lowe, . 1988. Radial basis functions, multi-variable functional interpolation and adaptive networks. Complex Systems Publications. Reino Unido. Pags  x
Broomhead, S ; Lowe, . 1988. “Multivariable functional interpolation and adaptive networks”. Complex Systems Publications. Reino Unido. Pags  x
Schwenker, F; Kestler, H; Palm, G. 2001. “Three learning phases for radial-basis-function networks”. Pergamon. Alemania . pag 440 – x

No hay comentarios.:

Publicar un comentario