Evelin Trinidad Molina
|
|
|
|
|
Si buscas
hosting web,
dominios web,
correos empresariales o
crear páginas web gratis,
ingresa a
PaginaMX
![]() ![]() El perceptron multicapa (MLP)Este es uno de los tipos de redes m�s comunes. Se basa en otra red mas simple llamada perceptr�n simple solo que el n�mero de capas ocultas puede ser mayor o igual que una. Es una red unidireccional (feedforward). La arquitectura t�pica de esta red es la siguiente:
Figura 3-2. Representaci�n de un Perceptr�n Multicapa (MLP)
![]() Las neuronas de la capa oculta usan como regla de propagaci�n la suma ponderada de las entradas con los pesos sin�pticos wij y sobre esa suma ponderada se aplica una funci�n de transferencia de tipo sigmoide, que es acotada en respuesta.
Figura 3-3. Forma funcional de una sigmoide
![]() El aprendizaje que se suele usar en este tipo de redes recibe el nombre de retropropagacion del error (backpropagation). Como funcion de coste global, se usa el error cuadratico medio. Es decir, que dado un par (xk, dk) correspondiente a la entrada k de los datos de entrenamiento y salida deseada asociada se calcula la cantidad:
Ecuaci�n 3-1. Error cuadr�tico medio
que vemos que es la suma de los errores parciales debido a cada patr�n (�ndice p), resultantes de la diferencia entre la salida deseada dp y la salida que da la red f(.) ante el vector de entrada xk. Si estas salidas son muy diferentes de las salidas deseadas, el error cuadratico medio sera grande. f es la funci�n de activaci�n de las neuronas de la capa de salida e y la salida que proporcionan las neuronas de la ultima capa oculta.![]() Sobre esta funci�n de coste global se aplica algun procedimiento de minimizaci�n. En el caso del MLP se hace mediante un descenso por gradiente. Las expresiones que resultan aplicando la regla de la cadena son las siguientes:
Ecuaci�n 3-2. T�rminos delta
Siendo yk las salidas de la capa oculta.![]() El aprendizaje por backpropagation queda como sigue:
|
Tu Sitio Web Gratis © 2025 Evelin Trinidad Molina36718 |