Evelin Trinidad Molina
|
|||||||||||||
|
|||||||||||||
|
Si buscas
hosting web,
dominios web,
correos empresariales o
crear páginas web gratis,
ingresa a
PaginaMX
![]() ![]() El modelo de KohonenT. Kohonen presentó en 1982 un sistema con un comportamiento semejante al del cerebro. Se trataba de un modelo de red neuronal con capacidad para formar mapas de características de manera similar a como ocurre en el cerebro. En éste hay neuronas que se organizan en muchas zonas, de forma que las informaciones captadas del entorno a través de los órganos sensoriales se representan internamente en forma de mapas bidimensionales. Este modelo tiene dos variantes, denominadas LVQ (Learning Vector Quantization) y TPM (Topology-Preserving Map). Ambas forman mapas topológicos para establecer características comunes entre las informaciones de entrada. ArquitecturaLa versión original (LVQ) consta de dos capas con N neuronas de entrada y M de salida. Cada una de las N neuronas de entrada se conecta a las M de salida a través de conexiones hacia adelante (feedforward).Entre las neuronas de la capa de salida existen conexiones laterales de inhibición (peso negativo) implícitas. Cada una de estas neuronas va a tener cierta influencia sobre sus vecinas. El valor que se asigne a los pesos de las conexiones feedforward entre las capas de entrada y salida durante el proceso de aprendizaje de la red va a depender precisamente de esta interacción lateral. La influencia que una neurona ejerce sobre las demás es función de la distancia entre ellas, siendo muy pequeña cuando están muy alejadas. ![]() FuncionamientoEl funcionamiento es relativamente simple. Cuando se presenta a la entrada una información Ek, cada una de las M neuronas de la capa de salida la recibe a través de la conexiones feedforward con pesos wji.También estas neuronas reciben las correspondientes entradas debidas a las conexiones laterales con el resto de las neuronas de salida y cuya influencia dependerá de la distancia a la que se encuentren.Se trata de una red de tipo competitivo, ya que al presentar una entrada Ek la red evoluciona a una situación estable en la que se activa una neurona de salida, la vencedora. La formulación matemática de su funcionamiento viene dada por la expresión
En la fase de funcionamiento, lo que se pretende es encontrar el dato aprendido más parecido al de entrada para, en consecuencia, averiguar qué neurona se activará y sobre todo, en qué zona del espacio bidimensional de salida se encuentra. Lo que hace la red en definitiva es realizar una tarea de clasificación, ya que la neurona de salida activada ante una entrada representa la clase a la que pertenece dicha información de entrada. Además, como ante otra entrada parecida se activa la misma neurona de salida, u otra cercana, debido a la semejanza entre las clases, se garantiza que las neuronas topológicamente próximas sean sensibles a entradas físicamente similares. Por tanto, esta red es especialmente útil para establecer relaciones entre conjuntos de datos. AprendizajeEs de tipo OFF LINE, por lo que se distingue una etapa de aprendizaje y otra de funcionamiento. También utiliza un aprendizaje no supervisado de tipo competitivo. Sólo una neurona de la capa de salida se activa ante la entrada, ajustándose los pesos de las conexiones en función de la neurona que ha resultado vencedora.Durante la etapa de entrenamiento, se presenta a la red un conjunto de informaciones de entrada para que ésta establezca, en función de la semejanza entre los datos, las diferentes categorías (una por neurona de salida) que servirán durante la fase de funcionamiento para realizar clasificaciones de nuevos datos que se presenten a la red. Los valores finales de los pesos de las conexiones entre cada neurona de la capa de salida con las de entrada se corresponderán con los valores de los componentes del vector de aprendizaje que consigue activar la neurona correspondiente. El aprendizaje no concluye después de presentarle una vez todos los patrones de entrada, sino que habrá que repetir el proceso varias veces para refinar el mapa topológico de salida, de tal forma que cuantas más veces se presenten los datos, tanto más se reducirán las zonas de neuronas que se deben activar ante entradas parecidas, consiguiendo que la red pueda realizar una clasificación más selectiva. AlgoritmoSea N el número de neuronas de entrada y M el número de neuronas de salida.Objetivo: establecer los valores de los pesos de las conexiones.
para j perteneciente a Zonaj*(t) El término ß(t) es un parámetro de gananacia o coeficiente de aprendizaje, con un valor entre 0 y 1 que decrece con el número de iteraciones del proceso de entrenamiento. Puede utilizarse la expresión ß(t) = 1/t
EjemploSe trata de utilizar una red con 2 neuronas de entrada, coordenadas X e Y de los puntos a clasificar, y 4 neuronas de salida, por lo que la red establecerá cuatro regiones o categorías de puntos en función de su situación en el plano. Los valores de entrada pertenecerán al intervalo [0,1] y no se va a establecer ninguna zona de vecindad.En la red existirán por tanto 2x4 = 8 conexiones entre la capa de entrada y salida con sus correspondientes pesos. Para entender el significado espacial de estos pesos se van a agrupar por parejas, vector Wj de dos componentes, correspondiendo la primera componente del vector a la conexión de la neurona de salida j con la neurona de entrada X e idem para la segunda componente y la neurona Y de entrada. Tendremos entonces cuatro vectores de pesos de la forma : Wj = [wjx, wjy] Elegimos los valores para los pesos, situándolos en la zona central del plano XY. W1 = [0.4, 0.5], W2 = [0.4, 0.6], W3 = [0.5, 0.6], W4 = [0.5, 0.5] También elegimos ß(t) = 1/t. El conjunto de patrones de entrenamiento va a estar formado por 20 puntos de componentes (px, py): ![]() A continuación aplicamos los pasos del algoritmo para obtener los nuevos valores de los pesos cuyas componentes se obtienen de las siguientes expresiones : Wjx(t+1) = wjx(t) + 1/t [px – wjx(t)] Wjy(t+1) = wjy(t) + 1/t [py – wjy(t)] La evolución de los pesos durante la fase de aprendizaje de los 20 puntos es la siguiente. ![]() Puede comprobarse que después de la iteración 126, los valores de los pesos permanecen estables. Los valores finales representan los centroides o centros de gravedad de los puntos que la red ha considerado pertencientes a cada una de las 4 clases que ha establecido. Además, las líneas que establecen las fronteras entre las regiones son perpendiculares a las líneas que unen los centroides Wj. ![]() Después del aprendizaje se pasaría a la fase de funcionamiento de la red, durante la cual se pueden presentar nuevos puntos P(px, py) para que la red los relacione con alguna de las cuatro clases establecidas. Esto se hará en función, como ya se ha comentado, de la distancia al representante (centroide) de cada clase, almacenado en el vector Wj correspondiente. La red calcularía la distancia dj = (px-wjx)2 + (py –wjy)2 a cada vector de pesos [wjx, wjy]. Se obtendrían entonces d1, d2, d3 y d4. La menor dj indicaría que el punto de entrada P, pertenece a la clase j. Si por ejemplo tratamos de clasificar el punto P=[0.2,0.5] nos daría como resultado la activación de la neurona de salida número 3, por lo que el punto pertenece a la clase 3. AplicacionesEl modelo de Kohonen es uno de los más útiles en computación neuronal, a pesar de sus limitaciones en cuanto a la duración del proceso de aprendizaje y a la imposibilidad de aprender nuevos datos sin tener que volver a repetir completamente el proceso de aprendizaje con todos los patrones.Como aplicaciones, destacan las relacionadas con el reconocimiento de patrones (voz, texto, imágenes, señales, etc), codificación de datos, compresión de imágenes y resolución de problemas de optimización. También se ha utilizado en robótica, comprobándose su utilidad en el diseño de sistemas para controlar el movimiento de un brazo mecánico en un espacio tridimensional. Se utiliza aquí la red para aprender las magnitudes tensoriales necesarias para moverse en un entorno real, considerando los efectos del desgaste que pueden alterar la dinámica del brazo con el transcurso del tiempo. | ||||||||||||
Tu Sitio Web Gratis © 2025 Evelin Trinidad Molina36720 |