Evelin Trinidad Molina

Si buscas hosting web, dominios web, correos empresariales o crear páginas web gratis, ingresa a PaginaMX
Por otro lado, si buscas crear códigos qr online ingresa al Creador de Códigos QR más potente que existe


Redes Autoorganizadas. Redes SOFM

En este tipo de redes el entrenamiento o aprendizaje es diferente al de las redes con entrenamiento supervisado. A la red no se le suministra junto a los patrones de entrenamiento, una salida deseada. Lo que har� la red es encontrar regularidades o clases en los datos de entrada, y modificar sus pesos para ser capaz de reconocer estas regularidades o clases.
Uno de los tipos de redes que pertenece a esta familia y que se ha usado bastante son los mapas autoorganizados, SOM (Self-Organizing Maps). La arquitectura t�pica de este tipo de mapas es la siguiente:
Figura 3-4. Arquitectura t�pica de un mapa SOM

Como se puede apreciar es una red de tipo unidireccional. La red se organiza en dos capas, siendo la primera capa la formada por las neuronas de entrada. La segunda capa consiste en un array de neuronas de dos dimensiones. Como se necesitan dos �ndices para etiquetar cada neurona, los pesos sinapticos asociados a cada neurona tendran tres �ndices (i,j,k) donde (i,j) indican la posici�n de la neurona en la capa y k, la componente o conexi�n con cierta neurona de entrada.
En cuanto al entrenamiento, este es un ejemplo de red que utiliza un aprendizaje de tipo no supervisado. Adem�s, cada neurona utiliza como regla de propagacion una distancia de su vector de pesos sin�pticos al patr�n de entrada. Otros conceptos importantes que intervienen en el proceso de aprendizaje son los conceptos de neurona ganadora y vecindad de la misma. Un algoritmo de aprendizaje muy usado con este tipo de redes es el algoritmo de Kohonen que se describe como sigue:


  1. Inicializacion de los pesos wijk. Hay varias opciones posibles
  2. Eleccion de un patr�n de entre el conjunto de patrones de entrenamiento
  3. Para cada neurona del mapa, calcular la distancia eucl�dea entre el patr�n de entrada x y el vector de pesos sin�pticos
    Ecuaci�n 3-3. Distancia Eucl�dea entre el vector sin�ptico y la entrada
  4. Evaluar la neurona ganadora, es decir aquella cuya distancia es la menor de todas
  5. Actualizar los pesos sin�pticos de la neurona ganadora y de sus vecinas seg�n la regla:
    Ecuaci�n 3-4. Actualizaci�n de los pesos en una red SOM
    alfa(t) es un factor llamado ritmo de aprendizaje que da cuenta de la importancia que la diferencia entre el patr�n y los pesos tiene en el ajuste de los mismos a lo largo del proceso de aprendizaje. Hay varias posibilidades para esta funci�n, desde un constante hasta alg�n tipo de funcion mon�tona decreciente con el tiempo. h es una funci�n de vecindad que nos indica en que medida se modifican los pesos de las neuronas vecinas. Con esto quiere decir que cuando la neurona ganadora modifica sus pesos, la vecindad de esta neurona lo hace tambi�n, en mayor o menor medida seg�n sea la forma funcional de h. En general, las funciones empleadas para h tienen un m�ximo en |i-j|=0 y decrecen m�s o menos rapido a medida que esta distancia aumenta.
  6. Lo usual es fijar un numero de iteraciones antes de comenzar el aprendizaje. Si no se lleg� al numero de iteraciones establecido previamente, se vuelve al paso 2. Sobre este n�mero de iteraciones necesario, se suelen tomar criterios como el n�mero de neuronas en el mapa.
     

© 2025 Evelin Trinidad Molina

36721