INTRODUCCIÓN
Las redes de nuronas de base radial son redes multicapa con conexiones hacia
delante con una única capa oculta, las
neuronas ocultas poseen carácter local Cada neurona oculta se activa en una región distinta del espacio de
entrada, El carácter local se debe al
uso de las funciones de base radial como funciones de activación. Generalmente la función
gaussiana, las neuronas de salida realizan una combinación lineal de las activaciones de las neuronas ocultas, se deben
fundamentalmente a: Moody y Darken (1989), Renals (1989), Poggio y Girossi
(1990).
MARCO TEÓRICO
En el campo de la modelización matemática,
una red de función de base radial es una red neuronal artificial que usa
funciones de base radial como funciones de activación. La salida de la red es
una combinación lineal de funciones de base radial de las entradas y los
parámetros de las neuronas. Redes de funciones de base radial tienen muchos
usos, incluida la aproximación función, la predicción de series temporales,
clasificación y control del sistema. Ellos fueron formuladas por primera vez en
un documento de 1988 por Broomhead y Lowe, ambos investigadores de la Royal
Radar Establishment, aunque la arquitectura pueda recordar a la de un MLP, la
diferencia fundamental está en que las neuronas de la capa oculta en vez de de
calcular una suma ponderada de las entradas y aplicar una sigmoide, estas neuronas
calculan la distancia euclídea entre el vector de pesos sinápticos (que recibe
el nombre en este tipo de redes de centro o centroide) y la entrada (de manera
casi analoga a como se hacía con los mapas SOM) y sobre esa distancia se aplica
una función de tipo radial con forma gaussiana.
APLICACIÓN
Tanto en la Ingeniería, como en la
Economía, se presentan problemas en los cuales se necesita encontrar una
variación entre un conjunto de variables dependientes y otro independientes. La
función que une estas variables es generalmente no lineal y la mayor parte del
tiempo no se conoce ninguna información sobre la forma de esta variación. Los
procedimientos estadísticos se pueden utilizar, pero sufren de esa desventaja.
Una red neuronal RBF se puede utilizar para extraer la relación dependiente e
independiente. Para el ejemplo únicamente se ha considerado el caso 1D, sin
embargo todos los conceptos que se han analizado son perfectamente válidos en 2
o más dimensiones. Se parte de una función conocida, a la que se añade ruido en
forma seudoaleatoria, obsérvese que esto se hace únicamente con el fin de
ilustrar y verificar los resultados. En cualquier aplicación al área de
Ingeniería o Financiera esta función es desconocida.
Mediante el intérprete Scilab, se genera
una función, como la de la figura. El ruido mismo se ha representado a través
de puntos a lo largo de la función original. Para la red de inicialización se
puede considerar que todos los puntos de ruido aportan con nodo para la red.
Obsérvese que para definir un nodo de la red RBF se necesita establecer los
parámetros de las funciones radiales, para este caso se ha escogido 3 tamaños
para el parámetro r (radio) de estas funciones radiales (r = 0.5 1.0 1.5). El
parámetro c (centros) es igual a los parámetros de entrada x en la
inicialización.
El algoritmo forward select, permite encontrar la red más
adecuada para extraer una relación determinística, la función que realiza el
proceso de escoger los nodos de la red en virtud de los criterios de selección
de modelos que se han mencionada es forward Select(F,y) y la función que
construye la red neuronal de inicialización es rbf Design (x,c,r). Una vez que
se encuentra la red óptima, se procede a calcular los parámetros de la misma.
Estos parámetros w permiten generalizar a la red para valores de
entrada diferentes de los que fue entrenada. Se ha añadido además otro llamado
a la función forwardSelect en la que se considera una variación al proceso de
selección de nodos de la red más elaborado utilizando otros criterios de
selección de modelos.
Se ha demostrado que estos procedimientos permiten
mejorar la solución en base al criterio de mínimos cuadrados
CONCLUSIÓN
Una red artificial
de función Radial utiliza la distribución de Normal de la estadística la
fórmula de aprendizaje es algo compleja porque utiliza métodos de integración
triple y necesita una función gama y tao para determinar en donde tiene el
patrón aprendido.
Al igual que el perceptron multicapa, las
redes de neuronas de base radial son aproximadores universales, en el sentido
de que pueden aproximar cualquier función continua sobre un compacto de
R^n.
Las funciones de base radial (RBF) definen
hiperesferas o hiperelipses que dividen el espacio de entrada. Cada RBF
(cada neurona) construye una aproximación local no lineal en una determinada
región del espacio de entrada.
Se han aplicado a gran variedad de
problemas:
Análisis de series temporales, procesamiento
de imágenes, reconocimiento automático del habla, diagnósticos médicos, etc
BIBLIOGRAFÍA
Broomhead,
S ; Lowe, . 1988. Radial basis functions, multi-variable functional
interpolation and adaptive networks. Complex Systems Publications. Reino Unido.
Pags x
Broomhead,
S ; Lowe, . 1988. “Multivariable functional interpolation and adaptive
networks”. Complex Systems Publications. Reino Unido. Pags x
Schwenker,
F; Kestler, H; Palm, G. 2001. “Three learning phases for radial-basis-function
networks”. Pergamon. Alemania . pag 440 – x
















