Evelin Trinidad Molina
|
|
|
|
|
Si buscas
hosting web,
dominios web,
correos empresariales o
crear páginas web gratis,
ingresa a
PaginaMX
![]() ![]()
Fundamentos de las redes neuronales
La teoría y modelado de redes neuronales artificiales está inspirada en la estructura y funcionamiento de los sistemas nerviosos, donde la neurona es el elemento fundamental. ![]()
La neurona está formada por el cuerpo de la célula o soma, en donde se aloja el núcleo de la célula. Del cuerpo de la célula salen ramificaciones de diversas fibras conocidas como dendritas y sale también una fibra más larga denominada axón. Las dendritas se ramifican tejiendo una tupida red alrededor de la célula, mientras el axón se extiende generalmene un centímetro y en algunos casos hasta un metro. Este también se ramifica en filamentos y subfilamentos mediante los que establece conexión con las dendritas y los cuerpos de las células de otras neuronas. A esta conexión se la conoce con el nombre de sinapsis. Cada neurona puede establecer conexión desde con una docena de neuronas hasta con cientos de miles.
Las señales se propagan de una neurona a otra mediante una complicada reacción electroquímica. Las sinapsis liberan sustancias químicas transmisoras y entran a la dendrita, con lo cual se eleva el potencial eléctrico del cuerpo de la célula. Una vez que se rebasa un cierto límite, se envía al axón un impulso eléctrico o potencial de acción. El impulso se difunde a través de las ramas del axón llegando finalmente a las sinapsis y liberando transmisores en los cuerpos de otras neuronas. Las sinapsis que aumentan el potencial se conocen como excitadoras y las que lo disminuyen como inhibidoras. Una de las características más importantes de las conexiones sinápticas es la plasticidad: capacidad para alterar a largo plazo la intensidad de las conexiones como respuesta a un patrón de simulación. Las neuronas establecen también conexiones con otras neuronas y a veces con grupos de ellas capaces de migrar de un sitio a otro. Los mecanismos anteriores constituyen el fundamento del aprendizaje en el cerebro. Conviene, para aclarar ideas, establecer una similitud directa entre la actividad sináptica y la actividad análoga en las redes neuronales artificiales: Las señales que llegan a la sinapsis son las entradas a la neurona; éstas son ponderadas (atenuadas o simplificadas) a través de un parámetro, denominado peso, asociado a la sinapsis correspondiente. Estas señales de entrada pueden excitar a la neurona o inhibirla (peso negativo). El efecto es la suma de las entradas ponderadas. Si la suma es igual o mayor que el umbral de la neurona, entonces esta se activa. Elementos de una red neuronal artificial Las redes neuronales artificiales (RNA) son modelos que intentan reproducir el comportamiento del cerebro. Una RNA está constituida por nodos, o unidades, que están unidas mediante conexiones. Algunas de las unidades están conectadas al ambiente externo y se designan como unidades de entrada o de salida según reciban estímulos externos o den la respuesta del sistema, respectivamente. Hay otras unidades (neuronas) que simplemente están conectadas a otras neuronas del sistema y que al no tener relación directa con la información de entrada ni con la de salida del sistema, se denominan como unidades ocultas.Se conoce como capa o nivel a un conjunto de neuronas cuyas entradas provienen de la misma fuente ( que puede ser otra capa de neuronas) y cuyas salidas se dirigen al mismo destino (que puede ser otra capa de neuronas). ![]() A cada conexión se le asigna un peso numérico, wji. Este constituye el principal recurso de memoria de largo plazo, y el aprendizaje usualmente se realiza con la actualización de tales pesos. Además de las conexiones de entrada y de salida, cada neurona se caracteriza en cualquier instante por un valor numérico denominado estado o nivel de activación aj(t), cuyo cálculo está dividido en dos componentes, una lineal (función de entrada Netj) y otra no lineal (función de activación F). La función de activación F, determina el nuevo estado de activación aj(t+1) de la neurona teniendo en cuenta la entrada total calculada, Netj, y el anterior estado de activación aj(t). Por lo general, todas las unidades de la red utilizan la misma función de activación. aj(t+1) = F(aj(t), Netj)
yj(t+1) = f(Netj)
La entrada calculada Netj se define como la suma ponderada de las salidas yn de las neuronas conectadas a la entrada y los pesos wn asociados a cada sinapsis.Netj = Sum (wji yi(t))
yj = fj(aj(t))
En algunos modelos, esta salida es igual al nivel de activación de la unidad, en cuyo caso la función fj es la función identidad.
fj(aj(t)) = aj(t)
|
Tu Sitio Web Gratis © 2025 Evelin Trinidad Molina36728 |