proyecto de mayo inicial 5 añitos aprender es bueno para tu niño
redes neuronales tipo Art3
1. MODELO DE RESONANCIA ADAPTATIVA (ART)MODELO DE RESONANCIA ADAPTATIVA (ART)
DILEMAS DE S. GROSSBERG
Plasticidad del aprendizaje: Cómo una red podría aprender nuevos patrones.Plasticidad del aprendizaje: Cómo una red podría aprender nuevos patrones.
Estabilidad del aprendizaje: Cómo una red podría retener los patrones previamente aprendidos.Estabilidad del aprendizaje: Cómo una red podría retener los patrones previamente aprendidos.
Esta teoría se aplica a sistemas competitivos
La teoría de la resonancia adaptativa se basa en la idea de hacer resonar la información de
entrada con los representantes o prototipos de las categorías que reconoce la red. Si entra en
resonancia con algunos, y es suficientemente similar, la red considera que pertenece a dicha
categoría y únicamente realiza una pequeña adaptación del prototipo almacenado incorporándole
algunas características del dato presentado en la entrada. Cuando no resuena con ninguno, esto
es, cuando no se parece a ningún representante de alguna categoría (recordados por la red hasta
ese momento), la red se encarga de crear una nueva categoría con el dato de entrada como
prototipo.
ARQUITECTURA DE LA RED ART
FUNCIONAMIENTO
1) Se presenta un vector de entrada.
2) Cada neurona de la capa de entrada recibe el valor del componente del vector de entrada y lo
envía a todas las neuronas de la capa de salida.
3) Cada neurona de la capa de salida compite con las demás de esta capa hasta que sólo una
permanece activa. Las conexiones laterales son las que permiten realizar esta competición, y
tienen un peso con un valor fijo - ε que debe ser menor que 1/M, donde M es el número de
neuronas de la capa de salida, para que la competición funcione correctamente:
2. Siendo f la función de transferencia de tipo escalón de las neuronas de salida.
Después de cierto número de iteraciones, se llega a un punto de estabilidad en la que una neurona
resulta vencedora, generando una salida de valor 1, mientras que en las demás neuronas la salida
es 0.
El valor de salida al final de la competición se pueden obtener más fácilmente mediante la
siguiente expresión:
4) La neurona vencedora envía su salida a través de las conexiones hacia atrás. Cada neurona
i-ésima de la capa de entrada recibe el valor:
Por tanto, al no influir el resto de las neuronas de salida por estar inactivas(0), en la capa de
entrada se reciben los valores de los pesos de las conexiones correspondientes.
5) Se compara la información de entrada con la categoría. Si la neurona de salida se ha activado.
Esta comparación se hace valorando la siguiente relación de semejanza:
Al trabajar con valores binarios, el producto aritmético equivale a la operación AND,
6) Se compara la relación de semejanza entre ambas informaciones con un parámetro de
vigilancia (ρ), el cual influirá en el número de clases que establecerá la red. Si no se cumple dicho
parámetro entonces la neurona vencedora se resetea, y se repite desde el paso número 2.
7) Si la semejanza es igual o mayor que el parámetro de vigilancia, entonces se asume que la
neurona que se ha activado a la salida es la que representa al vector de entrada, para después
proceder a ajustar los pesos de la red
APRENDIZAJE
El aprendizaje en el modelo ART es de tipo ON LINE, por lo que no se distingue entre etapa de
entrenamiento y de funcionamiento.
La red ART utiliza un aprendizaje no supervisado de tipo competitivo.
En este tipo de redes se pueden dar dos tipos de aprendizaje:
* Aprendizaje lento: ocurre cuando una información de entrada es asociada a una de las
categorías existentes.
* Aprendizaje rápido: se da cuando se establece una nueva categoría.
Inicialmente, cuando la red no ha aprendido nada se le asignan los siguientes pesos:
Después, cada vez que se presente un vector de entrada, se realiza el ajuste de los pesos de las
conexiones V de la neurona vencedora con cada una de las neuronas de entrada,en función de la
diferencia entre este vector y del representante, la variación de los pesos V se realiza según la
siguiente ecuación diferencial:
3. Si la neurona de salida no es la vencedora, el valor de su salida es cero, con lo que no debe
producir variación en el peso correspondiente. En caso contrario, si la neurona es la vencedora, su
salida es 1, con lo que la variación del peso de V sería de :
Los pesos de Wji se obtienen normalizando los anteriores.
Donde:
γ suele tener el valor de 0.5