Evelin Trinidad Molina

Si buscas hosting web, dominios web, correos empresariales o crear páginas web gratis, ingresa a PaginaMX
Por otro lado, si buscas crear códigos qr online ingresa al Creador de Códigos QR más potente que existe


 
ANTECEDENTES






1936 - Alan Turing. Fue el primero en estudiar el cerebro como una forma de
ver el mundo de la computación. Sin embargo, los primeros teóricos que concibieron los
fundamentos de la computación neuronal fueron Warren McCulloch, un neurofisiólogo,
y Walter Pitts, un matemático, quienes, en 1943, lanzaron una teoría acerca de la forma
de trabajar de las neuronas (Un Cálculo Lógico de la Inminente Idea de la Actividad
Nerviosa - Boletín de Matemática Biofísica 5: 115-133). Ellos modelaron una red
neuronal simple mediante circuitos eléctricos.
 
 1949 - Donald Hebb. Fue el primero en explicar los procesos del aprendizaje
(que es el elemento básico de la inteligencia humana) desde un punto de vista
psicológico, desarrollando una regla de como el aprendizaje ocurría. Aun hoy, este es el
fundamento de la mayoría de las funciones de aprendizaje que pueden hallarse en una
red neuronal. Su idea fue que el aprendizaje ocurría cuando ciertos cambios en una
neurona eran activados. También intentó encontrar semejanzas entre el aprendizaje y la
actividad nerviosa. Los trabajos de Hebb formaron las bases de la Teoría de las Redes
Neuronales.
 
1950 - Karl Lashley. En sus series de ensayos, encontró que la información no
era almacenada en forma centralizada en el cerebro sino que era distribuida encima de
él.
 
 1956 - Congreso de Dartmouth. Este Congreso frecuentemente se menciona para
indicar el nacimiento de la inteligencia artificial.
 
 1957 - Frank Rosenblatt. Comenzó el desarrollo del Perceptron. Esta es la red
neuronal más antigua; utilizándose hoy en día para aplicación como identificador de
patrones. Este modelo era capaz de generalizar, es decir, después de haber aprendido
una serie de patrones podía reconocer otros similares, aunque no se le hubiesen
presentado en el entrenamiento. Sin embargo, tenía una serie de limitaciones, por
ejemplo, su incapacidad para resolver el problema de la función OR-exclusiva y, en
general, era incapaz de clasificar clases no separables linealmente.
1959 - Frank Rosenblatt: Principios de Neurodinámica. En este libro confirmó
que, bajo ciertas condiciones, el aprendizaje del Perceptron convergía hacia un estado
finito (Teorema de Convergencia del Perceptron).
 
 1960 - Bernard Widroff/Marcian Hoff. Desarrollaron el modelo Adaline
(ADAptative LINear Elements). Esta fue la primera red neuronal aplicada a un
problema real (filtros adaptativos para eliminar ecos en las líneas telefónicas) que se ha
utilizado comercialmente durante varias décadas.
 
 1961 - Karl Steinbeck: Die Lernmatrix. Red neuronal para simples realizaciones
técnicas (memoria asociativa).
 
 1969 - Marvin Minsky/Seymour Papert. En este año casi se produjo la “muerte
abrupta” de las Redes Neuronales; ya que Minsky y Papert probaron (matemáticamente)
que el Perceptrons no era capaz de resolver problemas relativamente fáciles, tales como  7
el aprendizaje de una función no-lineal. Esto demostró que el Perceptron era muy débil,
dado que las funciones no-lineales son extensamente empleadas en computación y en
los problemas del mundo real.
 
 1974 - Paul Werbos. Desarrolló la idea básica del algoritmo de aprendizaje de
propagación hacia atrás (backpropagation); cuyo significado quedó definitivamente
aclarado en 1985.
 
 1977 - Stephen Grossberg: Teoría de Resonancia Adaptada (TRA). La Teoría de
Resonancia Adaptada es una arquitectura de red que se diferencia de todas las demás
previamente inventadas. La misma simula otras habilidades del cerebro: memoria a
largo y corto plazo.
 
 1985 - John Hopfield. Provocó el renacimiento de las redes neuronales con su
libro: “Computación neuronal de decisiones en problemas de optimización.”
 
 1986 - David Rumelhart/G. Hinton. Redescubrieron el algoritmo de aprendizaje
de propagación hacia atrás (backpropagation).
 
 A partir de 1986, el panorama fue alentador con respecto a las
investigaciones y el desarrollo de las redes neuronales. En la actualidad, son
numerosos los trabajos que se realizan y publican cada año, las aplicaciones
nuevas que surgen (sobretodo en el área de control) y las empresas que lanzan
al mercado productos nuevos, tanto hardware como software (sobre todo para
simulación).
© 2025 Evelin Trinidad Molina

36736