SlideShare uma empresa Scribd logo
1 de 8
Baixar para ler offline
Página 1
UNIVERSIDAD DE FUERZAS ARMADAS “ESPE”
DEPARTAMENTO DE ELÉCTRICA Y ELECTRÓNICA
ASIGNATURA: CONTROL INTELIGENTE
Actividad No9. Lectura 6
Fecha: Lunes, 28 de Abril del 2014.
Nombre alumno: Evelyn Gabriela Lema Vinueza.
NRC: 2055.
1. Describa en detalle el aprendizaje por descenso de gradiente.
2. Describa el procedimiento para entrenar una red neuronal de una capa.
Para efectuar el aprendizaje por descenso de gradiente se efectúan los siguientes pasos:
1. El propósito del aprendizaje y entrenamiento de una red neuronal es minimizar el
error a la salida en un determinado conjunto de datos de entrenamiento mediante el
ajuste de los pesos de la red.
2. Se define una función de error que mide que tan lejos están la red actualmente de lo
deseado
3. Las derivadas parciales de la función error nos dicen en qué dirección nos debemos
mover en el espacio de pesos para reducir el error.
4. La tasa de aprendizaje especifica los tamaños de pasos que damos en el espacio de
peso para cada interacción en la ecuación de actualización de pesos.
5. Nos mantenemos dando pasos a través del espacio de peso hasta que los errores sean
lo suficientemente pequeños.
6. La actualización de los pesos se vuelve eficiente si escogemos funciones de
activación de la neurona que tengan derivadas de forma simple.
Para efectuar el procedimiento para entrenar una red neuronal se debe efectuar los
siguientes pasos:
1. Tomar el conjunto de patrones de entrenamiento que desee que la red aprenda.
2. Configurar su red neuronal con n unidades de entradas conectadas a n unidades de
salidas mediante conexiones ponderadas.
3. Generar pesos aleatorios en un rango
4. Seleccionar una función de error apropiada y una tasa de aprendizaje n
5. Aplicar una actualización de pesos a cada peso para cada patrón de entrenamiento.
Un conjunto de actualizaciones de todos los pesos para todos los patrones de
entrenamiento se llama una época de entrenamiento.
6. Repetir el paso 5 hasta que la función de error de la red sea suficientemente
pequeña.
Página 2
3. Describa el procedimiento para entrenar un perceptrón multicapa
4. Realice un cuadro sinóptico de las consideraciones prácticas para el aprendizaje por
descenso de gradiente.
Para efectuar el procedimiento para entrenar un perceptrón multicapa se debe efectuar los
siguientes pasos:
1. Tomar el conjunto de patrones de entrenamiento que desee que la red aprenda.
2. Configurar su red neuronal con n unidades de entradas conectadas a n unidades
de salidas mediante conexiones ponderadas.
3. Generar pesos aleatorios en un rango
4. Seleccionar una función de error apropiada y una tasa de aprendizaje n
5. Aplicar una actualización de pesos a cada peso para cada patrón de entrenamiento.
Un conjunto de actualizaciones de todos los pesos para todos los patrones de
entrenamiento se llama una época de entrenamiento. Aquí se puede considerar
técnicas como que la implica una retro propagación del error.
6. Repetir el paso 5 hasta que la función de error de la red sea suficientemente
pequeña.
ConsideracionesPrácticaspara
elAprendizaje
¿Necesitamos pre-procesar los datos de
entrenamiento? Si es así, ¿cómo?
¿Cómo elegimos los pesos iniciales de
los cuales empezaremos el
entrenamiento?
¿Cómo elegimos una tasa de
aprendizaje apropiado ?
¿Hay que cambiar los pesos después de
cada patrón de entrenamiento, o
después de todo el conjunto?
¿Son algunas de las funciones de
activación / transferencia mejores que
otras?
¿Cómo podemos evitar puntos planos en
la función de error?
¿Cómo podemos evitar los mínimos
locales en la función de error?
¿Cómo sabemos cuándo debemos parar el
entrenamiento?
Página 3
Consideracionesprácticasparael
aprendizajepordescensodegradiente.
Pre- procesamiento de los
datos de entrenamiento
Si se utiliza el entrenamiento on- line en lugar de entrenamiento por paquetes, por lo general debemos asegurarnos de
que cambiar el orden de los datos de entrenamiento de cada época.
Se debe Asegurar que los datos de entrenamiento sean representativos y que no contengan demasiados ejemplos de un
tipo a expensas de otro.
Elección de los pesos
iniciales
Este algoritmo trata a los pesos de la misma manera, por lo que si se tiene los mismos valores de pesos la red acabará
haciendo lo mismo y esta jamás aprenderá. Se debe comenzar todos los pesos con pequeños valores aleatorios.
Los pesos se los toma de una distribución plana en torno a cero [-smwt,+ smwt ] , o de una distribución Gaussiana
alrededor de cero con smwt desviación estándar. La elección de un buen valor de smwt deberá ser tan grande como
sea posible sin saturar cualquiera de los sigmoids
Elección de la tasa de
aprendizaje
Si h es demasiado pequeño, se tardará demasiado tiempo para llegar a cualquier lugar cerca del mínimo de la función de
error.y si h es demasiado grande, los cambios de peso se sobre-disparan el mínimo error y los pesos oscilarán, o incluso
divergirán.
Batch Training vs. On-
line Training
En el aprendizaje en online las actualizaciones de peso individuales pueden ser bastante irregulares.Una patrón de aprendizaje mucho
más bajo h será necesario que para el aprendizaje por paquetes. Debido a que tiene n patrones de actualizaciones por época. Este tipo
de aprendizaje suele ser mucho más rápido.
La elección de la función
de transferencia
Una alternativa conveniente a la función logística es la tangente hiperbólica. Cuando las salidas requeridas son no
binarias, es decir los valores reales continuos con la función de transferencia sigmoide ya no tiene sentido. En este caso,
una simple función de transferencia lineal f (x) = x es apropiada.
Puntos planos en la
función de error
Los cambios de los pesos por descenso de gradiente dependen de la pendiente de la función de error. En consecuencia, si la función de error tiene
puntos planos, el algoritmo de aprendizaje puede tardar mucho tiempo para pasar a través de ellos. Mantener a los pesos iniciales de la red lo
suficientemente pequeños es necesario para que la función no se sature antes del entrenamiento. El Off- setting de la target también tiene el efecto de
detener que los pesos de la red crezcan demasiado.
Mínimo local Si se parte en las proximidades de los mínimos locales, se puede terminar en el mínimo local en lugar del mínimo global. Empezando con un rango
de diferentes conjuntos de pesos iniciales, nosotros aumentamos las posibilidades de encontrar el mínimo global.
Paro del entrenamiento Si el algoritmo de entrenamiento puede en realidad nunca alcanzar el mínimo, se tiene que detener el proceso de formación cuando es
" lo suficientemente cerca". Lo que constituye " lo suficientemente cerca " depende del problema.
Página 4
5. Escriba el código para implementar las consideraciones prácticas.
a) Puntos planos en la función de error
Código del Programa:
clear all
in0=1;
in1=[0 1 0 1];
in2=[0 0 1 1];
targ=[0.1 0.9 0.9 0.1];
w1=rand();
w2=rand();
w3=rand();
w4=rand();
w5=rand();
w6=rand();
w7=rand();
w8=rand();
w9=rand();
n=0.1;
alpha=4;
dw1=0;dw2=0;dw3=0;dw4=0;dw5=0;dw6=0;dw7=0;dw8=0;dw9=0;
for j=1:1000
err_T=0;
for i=1:4
net1=in1(i)*w1+in2(i)*w3+in0*w7;
net2= in2(i)*w4+in1(i)*w2+in0*w8;
out1=1/(1+exp(-alpha*net1));
out2=1/(1+exp(-alpha*net2));
net= w5*out1+w6*out2+ in0*w9;
out=1/(1+ exp(-alpha*net) );
D_w1= n*(targ(i)-out)*[alpha*out*(1-out)+0.1]*w5*[alpha*out1*(1-out1)+0.1]*in1(i);
D_w2= n*(targ(i)-out)*[alpha*out*(1-out)+0.1]*w6*[alpha*out2*(1-out2)+0.1]*in1(i);
D_w3= n*(targ(i)-out)*[alpha*out*(1-out)+0.1]*w5*[alpha*out1*(1-out1)+0.1]*in2(i);
D_w4= n*(targ(i)-out)*[alpha*out*(1-out)+0.1]*w6*[alpha*out2*(1-out2)+0.1]*in2(i);
D_w5= n*(targ(i)-out)*[alpha*out*(1-out)+0.1]*out1;
D_w6= n*(targ(i)-out)*[alpha*out*(1-out)+0.1]*out2;
D_w7= n*(targ(i)-out)*[alpha*out*(1-out)+0.1]*w5*[alpha*out1*(1-out1)+0.1]*1;
D_w8= n*(targ(i)-out)*[alpha*out*(1-out)+0.1]*w6*[alpha*out2*(1-out2)+0.1]*1;
D_w9= n*(targ(i)-out)*[alpha*out*(1-out)+0.1];
dw1=dw1+D_w1;
dw2=dw2+D_w2;
dw3=dw3+D_w3;
dw4=dw4+D_w4;
dw5=dw5+D_w5;
dw6=dw6+D_w6;
dw7=dw7+D_w7;
dw8=dw8+D_w8;
dw9=dw9+D_w9;
err_i=(targ(i)-out)^2;
err_T=err_T+err_i;
end
w1=w1+dw1;
w2=w2+dw2;
w3=w3+dw3;
w4=w4+dw4;
w5=w5+dw5;
w6=w6+dw6;
w7=w7+dw7;
w8=w8+dw8;
w9=w9+dw9;
dw1=0;dw2=0;dw3=0;dw4=0;dw5=0;dw6=0;dw7=0;dw8=0;dw9=0;
vector_epocas(j)=j;
vector_err(j)=err_T;
plot(vector_epocas,vector_err);
ylabel('ERROR CUADRATICO')
xlabel('EPOCA')
end
Página 5
w11=w1;
w12=w2;
w21=w3;
w22=w4;
lw1=w5;
lw2=w6;
b1=w7;
b2=w8;
b3=w9;
[in11,in22]= meshgrid (0:.01:1,0:.01:1);
alpha=4;
net1a= in11*w11+in22*w21+in0*b1;
net2b= in11*w12+in22*w22+in0*b2;
out1a=1./(1+exp(-alpha*net1a));
out2b=1./(1+exp(-alpha*net2b));
net3c= out1a*lw1+out2b*lw2+in0*b3;
outxr= 1./(1+exp(-alpha*net3c))
figure(9);
out21xr= round (outxr);
subplot(2,1,1);
mesh(in11,in22,outxr);
xlabel('in2');ylabel('in1');zlabel('out')
subplot(2,1,2);
mesh(in11,in22,out21xr);
xlabel('in2');ylabel('in1');zlabel('out')
Curva de aprendizajeFunción de Aprendizaje de la Neurona
Gráfica de las Líneas de Frontera
Página 6
b) Uso de la función de activación tanh.
Yo Evelyn Gabriela Lema Vinueza afirmo que esta actividad es de mi autoría y establezco que
para la elaboración de la misma he seguido los lineamientos del Código de Ética de la
Universidad de las Fuerzas Armadas ESPE
Código del Programa:
close all
clear all
in0=1;
in1=[0 1 0 1];
in2=[0 0 1 1];
targ=[-1 1 1 -1];
w1=rand();
w2=rand();
w3=rand();
w4=rand();
w5=rand();
w6=rand();
w7=rand();
w8=rand();
w9=rand();
n=0.1;
alpha=4;
dw1=0;dw2=0;dw3=0;dw4=0;dw5=0;dw6=0;dw7=0;dw8=0;dw9=0;
for j=1:2000
err_T=0;
for i=1:4
net1=in1(i)*w1+in2(i)*w3+in0*w7;
net2= in2(i)*w4+in1(i)*w2+in0*w8;
out1=(2/pi)*tanh(alpha*net1);
out2=(2/pi)*tanh(alpha*net2);
net= w5*out1+w6*out2+ in0*w9;
out=(2/pi)*tanh(alpha*net);
D_w1= n*(targ(i)-out)*[1-out*out+0.1]*w5*[1-out1*out1+0.1]*in1(i);
D_w2= n*(targ(i)-out)*[1-out*out+0.1]*w6*[1-out2*out2+0.1]*in1(i);
D_w3= n*(targ(i)-out)*[1-out*out+0.1]*w5*[1-out1*out1+0.1]*in2(i);
D_w4= n*(targ(i)-out)*[1-out*out+0.1]*w6*[1-out2*out2+0.1]*in2(i);
D_w5= n*(targ(i)-out)*[1-out*out+0.1]*out1;
D_w6= n*(targ(i)-out)*[1-out*out+0.1]*out2;
D_w7= n*(targ(i)-out)*[1-out*out+0.1]*w5*[1-out1*out1+0.1]*1;
D_w8= n*(targ(i)-out)*[1-out*out+0.1]*w6*[1-out2*out2+0.1]*1;
D_w9= n*(targ(i)-out)*[1-out*out+0.1];
dw1=dw1+D_w1;
dw2=dw2+D_w2;
dw3=dw3+D_w3;
dw4=dw4+D_w4;
dw5=dw5+D_w5;
dw6=dw6+D_w6;
dw7=dw7+D_w7;
dw8=dw8+D_w8;
dw9=dw9+D_w9;
err_i=(targ(i)-out)^2;
err_T=err_T+err_i;
end
w1=w1+dw1;
w2=w2+dw2;
w3=w3+dw3;
w4=w4+dw4;
w5=w5+dw5;
w6=w6+dw6;
w7=w7+dw7;
w8=w8+dw8;
w9=w9+dw9;
dw1=0;dw2=0;dw3=0;dw4=0;dw5=0;dw6=0;dw7=0;dw8=0;dw9=0;
vector_epocas(j)=j;
vector_err(j)=err_T;
plot(vector_epocas,vector_err);
ylabel('ERROR CUADRATICO')
xlabel('EPOCA')
end
w11=w1;
w12=w2;
w21=w3;
w22=w4;
Página 7
Página 7
w21=w3;
w22=w4;
lw1=w5;
lw2=w6;
b1=w7;
b2=w8;
b3=w9;
[in11,in22]= meshgrid (0:.005:1,0:.005:1);
net1a= in11*w11+in22*w21+in0*b1;
net2b= in11*w12+in22*w22+in0*b2;
out1a=(2/pi)*tanh(alpha*net1a)
out2b=(2/pi)*tanh(alpha*net2b)
net3c= out1a*lw1+out2b*lw2+in0*b3;
outxr=(2/pi)*tanh(alpha*net3c)
figure(9);
out21xr= round (outxr);
subplot(2,1,1);
mesh(in11,in22,outxr);
xlabel('in2')
ylabel('in1')
zlabel('out')
subplot(2,1,2);
mesh(in11,in22,out21xr);
xlabel('in2')
ylabel('in1')
zlabel('out')
Función de Aprendizaje de la Neurona
Gráfica de la Líenas de Frontera
Página 8
Yo Evelyn Gabriela Lema Vinueza afirmo que esta actividad es de mi autoría y establezco que para
la elaboración de la misma he seguido los lineamientos del Código de Ética de la Universidad de las
Fuerzas Armadas ESPE

Mais conteúdo relacionado

Semelhante a Red neuronal para aprendizaje por descenso de gradiente

Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de RetropropagaciónESCOM
 
Razón de Aprendizaje Variable lvbp
Razón de Aprendizaje  Variable lvbpRazón de Aprendizaje  Variable lvbp
Razón de Aprendizaje Variable lvbpESCOM
 
Reporte avance individual redes neuronales
Reporte avance individual redes neuronalesReporte avance individual redes neuronales
Reporte avance individual redes neuronalesAdán Silva
 
Utp sirn_s6_adaline y backpropagation
 Utp sirn_s6_adaline y backpropagation Utp sirn_s6_adaline y backpropagation
Utp sirn_s6_adaline y backpropagationjcbp_peru
 
Utp 2015-2_ia_s6_adaline y backpropagation
 Utp 2015-2_ia_s6_adaline y backpropagation Utp 2015-2_ia_s6_adaline y backpropagation
Utp 2015-2_ia_s6_adaline y backpropagationjcbp_peru
 
Utp 2015-2_sirn_s6_adaline y backpropagation
 Utp 2015-2_sirn_s6_adaline y backpropagation Utp 2015-2_sirn_s6_adaline y backpropagation
Utp 2015-2_sirn_s6_adaline y backpropagationjcbenitezp
 
Utp ia_2014-2_s6_backpropagation
 Utp ia_2014-2_s6_backpropagation Utp ia_2014-2_s6_backpropagation
Utp ia_2014-2_s6_backpropagationjcbp_peru
 
Diseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y EntrenamientoDiseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y EntrenamientoESCOM
 
Counterpropagation
CounterpropagationCounterpropagation
CounterpropagationESCOM
 
algoritmo de ordenamiento.pptx
algoritmo de ordenamiento.pptxalgoritmo de ordenamiento.pptx
algoritmo de ordenamiento.pptxIvan Esmit Mayhua
 
REDES NEUROANLES ELMAN DEMO
REDES NEUROANLES ELMAN DEMOREDES NEUROANLES ELMAN DEMO
REDES NEUROANLES ELMAN DEMOESCOM
 
Aprendizaje automático I - Tema 3 Aprendizaje Automático Supervisado.pdf
Aprendizaje automático I - Tema 3 Aprendizaje Automático Supervisado.pdfAprendizaje automático I - Tema 3 Aprendizaje Automático Supervisado.pdf
Aprendizaje automático I - Tema 3 Aprendizaje Automático Supervisado.pdfGerard Alba
 
Capítulo 07 interpretación de resultados
Capítulo 07 interpretación de resultadosCapítulo 07 interpretación de resultados
Capítulo 07 interpretación de resultadosSergio Valenzuela Mayer
 
Unidad 1 Introducción a los Algoritmos.ppt
Unidad 1 Introducción a los Algoritmos.pptUnidad 1 Introducción a los Algoritmos.ppt
Unidad 1 Introducción a los Algoritmos.pptssuser6eba56
 
Técnicas de Inteligencia Artificial
Técnicas de Inteligencia Artificial Técnicas de Inteligencia Artificial
Técnicas de Inteligencia Artificial Gina Mejía
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalESCOM
 

Semelhante a Red neuronal para aprendizaje por descenso de gradiente (20)

Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
 
Perceptron parte 2
Perceptron parte 2Perceptron parte 2
Perceptron parte 2
 
Razón de Aprendizaje Variable lvbp
Razón de Aprendizaje  Variable lvbpRazón de Aprendizaje  Variable lvbp
Razón de Aprendizaje Variable lvbp
 
Reporte avance individual redes neuronales
Reporte avance individual redes neuronalesReporte avance individual redes neuronales
Reporte avance individual redes neuronales
 
Utp sirn_s6_adaline y backpropagation
 Utp sirn_s6_adaline y backpropagation Utp sirn_s6_adaline y backpropagation
Utp sirn_s6_adaline y backpropagation
 
Utp 2015-2_ia_s6_adaline y backpropagation
 Utp 2015-2_ia_s6_adaline y backpropagation Utp 2015-2_ia_s6_adaline y backpropagation
Utp 2015-2_ia_s6_adaline y backpropagation
 
Utp 2015-2_sirn_s6_adaline y backpropagation
 Utp 2015-2_sirn_s6_adaline y backpropagation Utp 2015-2_sirn_s6_adaline y backpropagation
Utp 2015-2_sirn_s6_adaline y backpropagation
 
Utp ia_2014-2_s6_backpropagation
 Utp ia_2014-2_s6_backpropagation Utp ia_2014-2_s6_backpropagation
Utp ia_2014-2_s6_backpropagation
 
Diseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y EntrenamientoDiseño de Redes Neuronales Multicapa y Entrenamiento
Diseño de Redes Neuronales Multicapa y Entrenamiento
 
Counterpropagation
CounterpropagationCounterpropagation
Counterpropagation
 
algoritmo de ordenamiento.pptx
algoritmo de ordenamiento.pptxalgoritmo de ordenamiento.pptx
algoritmo de ordenamiento.pptx
 
Aprendizaje de un perceptrón simple
Aprendizaje de un perceptrón simpleAprendizaje de un perceptrón simple
Aprendizaje de un perceptrón simple
 
2020-T13 Redes Neuronales II
2020-T13 Redes Neuronales II2020-T13 Redes Neuronales II
2020-T13 Redes Neuronales II
 
Boletin1
Boletin1Boletin1
Boletin1
 
REDES NEUROANLES ELMAN DEMO
REDES NEUROANLES ELMAN DEMOREDES NEUROANLES ELMAN DEMO
REDES NEUROANLES ELMAN DEMO
 
Aprendizaje automático I - Tema 3 Aprendizaje Automático Supervisado.pdf
Aprendizaje automático I - Tema 3 Aprendizaje Automático Supervisado.pdfAprendizaje automático I - Tema 3 Aprendizaje Automático Supervisado.pdf
Aprendizaje automático I - Tema 3 Aprendizaje Automático Supervisado.pdf
 
Capítulo 07 interpretación de resultados
Capítulo 07 interpretación de resultadosCapítulo 07 interpretación de resultados
Capítulo 07 interpretación de resultados
 
Unidad 1 Introducción a los Algoritmos.ppt
Unidad 1 Introducción a los Algoritmos.pptUnidad 1 Introducción a los Algoritmos.ppt
Unidad 1 Introducción a los Algoritmos.ppt
 
Técnicas de Inteligencia Artificial
Técnicas de Inteligencia Artificial Técnicas de Inteligencia Artificial
Técnicas de Inteligencia Artificial
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación Neuronal
 

Mais de Evelyn Gabriela Lema Vinueza

Mais de Evelyn Gabriela Lema Vinueza (17)

Actividad no20 3do parcial
Actividad no20 3do parcialActividad no20 3do parcial
Actividad no20 3do parcial
 
Actividad no12. resuelta_1er_parcial _lema_evelyn
Actividad no12. resuelta_1er_parcial _lema_evelynActividad no12. resuelta_1er_parcial _lema_evelyn
Actividad no12. resuelta_1er_parcial _lema_evelyn
 
Actividad no10 1er parcial lema evelyn
Actividad no10 1er parcial lema evelynActividad no10 1er parcial lema evelyn
Actividad no10 1er parcial lema evelyn
 
Actividad no10 1er parcial lema evelyn
Actividad no10 1er parcial lema evelynActividad no10 1er parcial lema evelyn
Actividad no10 1er parcial lema evelyn
 
Lectura seis
Lectura seisLectura seis
Lectura seis
 
Actividad no8. 1er parcial lema evelyn
Actividad no8. 1er parcial lema evelynActividad no8. 1er parcial lema evelyn
Actividad no8. 1er parcial lema evelyn
 
Actividad no7. 1er parcial lema evelyn
Actividad no7. 1er parcial lema evelynActividad no7. 1er parcial lema evelyn
Actividad no7. 1er parcial lema evelyn
 
Actividad no6. 1er parcial lema evelyn
Actividad no6. 1er parcial lema evelynActividad no6. 1er parcial lema evelyn
Actividad no6. 1er parcial lema evelyn
 
Aprendizaje del perceptrón
Aprendizaje del perceptrónAprendizaje del perceptrón
Aprendizaje del perceptrón
 
Actividad no20 3do parcial
Actividad no20 3do parcialActividad no20 3do parcial
Actividad no20 3do parcial
 
Actividad no19 2do parcial
Actividad no19 2do parcialActividad no19 2do parcial
Actividad no19 2do parcial
 
Actividad no17 2er parcial lema evelyn
Actividad no17 2er parcial lema evelynActividad no17 2er parcial lema evelyn
Actividad no17 2er parcial lema evelyn
 
Actividad no17 2er parcial lema evelyn
Actividad no17 2er parcial lema evelynActividad no17 2er parcial lema evelyn
Actividad no17 2er parcial lema evelyn
 
Actividad no18 2do_parcial_lema_evelyn
Actividad no18 2do_parcial_lema_evelynActividad no18 2do_parcial_lema_evelyn
Actividad no18 2do_parcial_lema_evelyn
 
Actividad no16 2do parcial lema evelyn
Actividad no16 2do parcial lema evelynActividad no16 2do parcial lema evelyn
Actividad no16 2do parcial lema evelyn
 
Actividad no15 2do_parcial_lema_evelyn
Actividad no15 2do_parcial_lema_evelynActividad no15 2do_parcial_lema_evelyn
Actividad no15 2do_parcial_lema_evelyn
 
Actividad no13 y_14_de_1er_parcial_lema_evelyn
Actividad no13 y_14_de_1er_parcial_lema_evelynActividad no13 y_14_de_1er_parcial_lema_evelyn
Actividad no13 y_14_de_1er_parcial_lema_evelyn
 

Último

ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxzulyvero07
 
cortes de luz abril 2024 en la provincia de tungurahua
cortes de luz abril 2024 en la provincia de tungurahuacortes de luz abril 2024 en la provincia de tungurahua
cortes de luz abril 2024 en la provincia de tungurahuaDANNYISAACCARVAJALGA
 
Sesión de aprendizaje Planifica Textos argumentativo.docx
Sesión de aprendizaje Planifica Textos argumentativo.docxSesión de aprendizaje Planifica Textos argumentativo.docx
Sesión de aprendizaje Planifica Textos argumentativo.docxMaritzaRetamozoVera
 
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.pptDE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.pptELENA GALLARDO PAÚLS
 
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADODECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADOJosé Luis Palma
 
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURAFORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURAEl Fortí
 
Historia y técnica del collage en el arte
Historia y técnica del collage en el arteHistoria y técnica del collage en el arte
Historia y técnica del collage en el arteRaquel Martín Contreras
 
Planificacion Anual 4to Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 4to Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 4to Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 4to Grado Educacion Primaria 2024 Ccesa007.pdfDemetrio Ccesa Rayme
 
2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdfBaker Publishing Company
 
MAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMarjorie Burga
 
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...JAVIER SOLIS NOYOLA
 
La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.amayarogel
 
RETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docxRETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docxAna Fernandez
 
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIARAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIACarlos Campaña Montenegro
 
Neurociencias para Educadores NE24 Ccesa007.pdf
Neurociencias para Educadores  NE24  Ccesa007.pdfNeurociencias para Educadores  NE24  Ccesa007.pdf
Neurociencias para Educadores NE24 Ccesa007.pdfDemetrio Ccesa Rayme
 
Lecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadLecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadAlejandrino Halire Ccahuana
 
Dinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes dDinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes dstEphaniiie
 
TECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptx
TECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptxTECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptx
TECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptxKarlaMassielMartinez
 

Último (20)

Presentacion Metodología de Enseñanza Multigrado
Presentacion Metodología de Enseñanza MultigradoPresentacion Metodología de Enseñanza Multigrado
Presentacion Metodología de Enseñanza Multigrado
 
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
 
cortes de luz abril 2024 en la provincia de tungurahua
cortes de luz abril 2024 en la provincia de tungurahuacortes de luz abril 2024 en la provincia de tungurahua
cortes de luz abril 2024 en la provincia de tungurahua
 
Sesión de aprendizaje Planifica Textos argumentativo.docx
Sesión de aprendizaje Planifica Textos argumentativo.docxSesión de aprendizaje Planifica Textos argumentativo.docx
Sesión de aprendizaje Planifica Textos argumentativo.docx
 
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.pptDE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
DE LAS OLIMPIADAS GRIEGAS A LAS DEL MUNDO MODERNO.ppt
 
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADODECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
DECÁGOLO DEL GENERAL ELOY ALFARO DELGADO
 
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURAFORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
 
Historia y técnica del collage en el arte
Historia y técnica del collage en el arteHistoria y técnica del collage en el arte
Historia y técnica del collage en el arte
 
Planificacion Anual 4to Grado Educacion Primaria 2024 Ccesa007.pdf
Planificacion Anual 4to Grado Educacion Primaria   2024   Ccesa007.pdfPlanificacion Anual 4to Grado Educacion Primaria   2024   Ccesa007.pdf
Planificacion Anual 4to Grado Educacion Primaria 2024 Ccesa007.pdf
 
2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf
 
MAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grande
 
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
ACERTIJO DE LA BANDERA OLÍMPICA CON ECUACIONES DE LA CIRCUNFERENCIA. Por JAVI...
 
La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.
 
RETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docxRETO MES DE ABRIL .............................docx
RETO MES DE ABRIL .............................docx
 
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIARAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
RAIZ CUADRADA Y CUBICA PARA NIÑOS DE PRIMARIA
 
Neurociencias para Educadores NE24 Ccesa007.pdf
Neurociencias para Educadores  NE24  Ccesa007.pdfNeurociencias para Educadores  NE24  Ccesa007.pdf
Neurociencias para Educadores NE24 Ccesa007.pdf
 
Lecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdadLecciones 04 Esc. Sabática. Defendamos la verdad
Lecciones 04 Esc. Sabática. Defendamos la verdad
 
Medición del Movimiento Online 2024.pptx
Medición del Movimiento Online 2024.pptxMedición del Movimiento Online 2024.pptx
Medición del Movimiento Online 2024.pptx
 
Dinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes dDinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes d
 
TECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptx
TECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptxTECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptx
TECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptx
 

Red neuronal para aprendizaje por descenso de gradiente

  • 1. Página 1 UNIVERSIDAD DE FUERZAS ARMADAS “ESPE” DEPARTAMENTO DE ELÉCTRICA Y ELECTRÓNICA ASIGNATURA: CONTROL INTELIGENTE Actividad No9. Lectura 6 Fecha: Lunes, 28 de Abril del 2014. Nombre alumno: Evelyn Gabriela Lema Vinueza. NRC: 2055. 1. Describa en detalle el aprendizaje por descenso de gradiente. 2. Describa el procedimiento para entrenar una red neuronal de una capa. Para efectuar el aprendizaje por descenso de gradiente se efectúan los siguientes pasos: 1. El propósito del aprendizaje y entrenamiento de una red neuronal es minimizar el error a la salida en un determinado conjunto de datos de entrenamiento mediante el ajuste de los pesos de la red. 2. Se define una función de error que mide que tan lejos están la red actualmente de lo deseado 3. Las derivadas parciales de la función error nos dicen en qué dirección nos debemos mover en el espacio de pesos para reducir el error. 4. La tasa de aprendizaje especifica los tamaños de pasos que damos en el espacio de peso para cada interacción en la ecuación de actualización de pesos. 5. Nos mantenemos dando pasos a través del espacio de peso hasta que los errores sean lo suficientemente pequeños. 6. La actualización de los pesos se vuelve eficiente si escogemos funciones de activación de la neurona que tengan derivadas de forma simple. Para efectuar el procedimiento para entrenar una red neuronal se debe efectuar los siguientes pasos: 1. Tomar el conjunto de patrones de entrenamiento que desee que la red aprenda. 2. Configurar su red neuronal con n unidades de entradas conectadas a n unidades de salidas mediante conexiones ponderadas. 3. Generar pesos aleatorios en un rango 4. Seleccionar una función de error apropiada y una tasa de aprendizaje n 5. Aplicar una actualización de pesos a cada peso para cada patrón de entrenamiento. Un conjunto de actualizaciones de todos los pesos para todos los patrones de entrenamiento se llama una época de entrenamiento. 6. Repetir el paso 5 hasta que la función de error de la red sea suficientemente pequeña.
  • 2. Página 2 3. Describa el procedimiento para entrenar un perceptrón multicapa 4. Realice un cuadro sinóptico de las consideraciones prácticas para el aprendizaje por descenso de gradiente. Para efectuar el procedimiento para entrenar un perceptrón multicapa se debe efectuar los siguientes pasos: 1. Tomar el conjunto de patrones de entrenamiento que desee que la red aprenda. 2. Configurar su red neuronal con n unidades de entradas conectadas a n unidades de salidas mediante conexiones ponderadas. 3. Generar pesos aleatorios en un rango 4. Seleccionar una función de error apropiada y una tasa de aprendizaje n 5. Aplicar una actualización de pesos a cada peso para cada patrón de entrenamiento. Un conjunto de actualizaciones de todos los pesos para todos los patrones de entrenamiento se llama una época de entrenamiento. Aquí se puede considerar técnicas como que la implica una retro propagación del error. 6. Repetir el paso 5 hasta que la función de error de la red sea suficientemente pequeña. ConsideracionesPrácticaspara elAprendizaje ¿Necesitamos pre-procesar los datos de entrenamiento? Si es así, ¿cómo? ¿Cómo elegimos los pesos iniciales de los cuales empezaremos el entrenamiento? ¿Cómo elegimos una tasa de aprendizaje apropiado ? ¿Hay que cambiar los pesos después de cada patrón de entrenamiento, o después de todo el conjunto? ¿Son algunas de las funciones de activación / transferencia mejores que otras? ¿Cómo podemos evitar puntos planos en la función de error? ¿Cómo podemos evitar los mínimos locales en la función de error? ¿Cómo sabemos cuándo debemos parar el entrenamiento?
  • 3. Página 3 Consideracionesprácticasparael aprendizajepordescensodegradiente. Pre- procesamiento de los datos de entrenamiento Si se utiliza el entrenamiento on- line en lugar de entrenamiento por paquetes, por lo general debemos asegurarnos de que cambiar el orden de los datos de entrenamiento de cada época. Se debe Asegurar que los datos de entrenamiento sean representativos y que no contengan demasiados ejemplos de un tipo a expensas de otro. Elección de los pesos iniciales Este algoritmo trata a los pesos de la misma manera, por lo que si se tiene los mismos valores de pesos la red acabará haciendo lo mismo y esta jamás aprenderá. Se debe comenzar todos los pesos con pequeños valores aleatorios. Los pesos se los toma de una distribución plana en torno a cero [-smwt,+ smwt ] , o de una distribución Gaussiana alrededor de cero con smwt desviación estándar. La elección de un buen valor de smwt deberá ser tan grande como sea posible sin saturar cualquiera de los sigmoids Elección de la tasa de aprendizaje Si h es demasiado pequeño, se tardará demasiado tiempo para llegar a cualquier lugar cerca del mínimo de la función de error.y si h es demasiado grande, los cambios de peso se sobre-disparan el mínimo error y los pesos oscilarán, o incluso divergirán. Batch Training vs. On- line Training En el aprendizaje en online las actualizaciones de peso individuales pueden ser bastante irregulares.Una patrón de aprendizaje mucho más bajo h será necesario que para el aprendizaje por paquetes. Debido a que tiene n patrones de actualizaciones por época. Este tipo de aprendizaje suele ser mucho más rápido. La elección de la función de transferencia Una alternativa conveniente a la función logística es la tangente hiperbólica. Cuando las salidas requeridas son no binarias, es decir los valores reales continuos con la función de transferencia sigmoide ya no tiene sentido. En este caso, una simple función de transferencia lineal f (x) = x es apropiada. Puntos planos en la función de error Los cambios de los pesos por descenso de gradiente dependen de la pendiente de la función de error. En consecuencia, si la función de error tiene puntos planos, el algoritmo de aprendizaje puede tardar mucho tiempo para pasar a través de ellos. Mantener a los pesos iniciales de la red lo suficientemente pequeños es necesario para que la función no se sature antes del entrenamiento. El Off- setting de la target también tiene el efecto de detener que los pesos de la red crezcan demasiado. Mínimo local Si se parte en las proximidades de los mínimos locales, se puede terminar en el mínimo local en lugar del mínimo global. Empezando con un rango de diferentes conjuntos de pesos iniciales, nosotros aumentamos las posibilidades de encontrar el mínimo global. Paro del entrenamiento Si el algoritmo de entrenamiento puede en realidad nunca alcanzar el mínimo, se tiene que detener el proceso de formación cuando es " lo suficientemente cerca". Lo que constituye " lo suficientemente cerca " depende del problema.
  • 4. Página 4 5. Escriba el código para implementar las consideraciones prácticas. a) Puntos planos en la función de error Código del Programa: clear all in0=1; in1=[0 1 0 1]; in2=[0 0 1 1]; targ=[0.1 0.9 0.9 0.1]; w1=rand(); w2=rand(); w3=rand(); w4=rand(); w5=rand(); w6=rand(); w7=rand(); w8=rand(); w9=rand(); n=0.1; alpha=4; dw1=0;dw2=0;dw3=0;dw4=0;dw5=0;dw6=0;dw7=0;dw8=0;dw9=0; for j=1:1000 err_T=0; for i=1:4 net1=in1(i)*w1+in2(i)*w3+in0*w7; net2= in2(i)*w4+in1(i)*w2+in0*w8; out1=1/(1+exp(-alpha*net1)); out2=1/(1+exp(-alpha*net2)); net= w5*out1+w6*out2+ in0*w9; out=1/(1+ exp(-alpha*net) ); D_w1= n*(targ(i)-out)*[alpha*out*(1-out)+0.1]*w5*[alpha*out1*(1-out1)+0.1]*in1(i); D_w2= n*(targ(i)-out)*[alpha*out*(1-out)+0.1]*w6*[alpha*out2*(1-out2)+0.1]*in1(i); D_w3= n*(targ(i)-out)*[alpha*out*(1-out)+0.1]*w5*[alpha*out1*(1-out1)+0.1]*in2(i); D_w4= n*(targ(i)-out)*[alpha*out*(1-out)+0.1]*w6*[alpha*out2*(1-out2)+0.1]*in2(i); D_w5= n*(targ(i)-out)*[alpha*out*(1-out)+0.1]*out1; D_w6= n*(targ(i)-out)*[alpha*out*(1-out)+0.1]*out2; D_w7= n*(targ(i)-out)*[alpha*out*(1-out)+0.1]*w5*[alpha*out1*(1-out1)+0.1]*1; D_w8= n*(targ(i)-out)*[alpha*out*(1-out)+0.1]*w6*[alpha*out2*(1-out2)+0.1]*1; D_w9= n*(targ(i)-out)*[alpha*out*(1-out)+0.1]; dw1=dw1+D_w1; dw2=dw2+D_w2; dw3=dw3+D_w3; dw4=dw4+D_w4; dw5=dw5+D_w5; dw6=dw6+D_w6; dw7=dw7+D_w7; dw8=dw8+D_w8; dw9=dw9+D_w9; err_i=(targ(i)-out)^2; err_T=err_T+err_i; end w1=w1+dw1; w2=w2+dw2; w3=w3+dw3; w4=w4+dw4; w5=w5+dw5; w6=w6+dw6; w7=w7+dw7; w8=w8+dw8; w9=w9+dw9; dw1=0;dw2=0;dw3=0;dw4=0;dw5=0;dw6=0;dw7=0;dw8=0;dw9=0; vector_epocas(j)=j; vector_err(j)=err_T; plot(vector_epocas,vector_err); ylabel('ERROR CUADRATICO') xlabel('EPOCA') end
  • 5. Página 5 w11=w1; w12=w2; w21=w3; w22=w4; lw1=w5; lw2=w6; b1=w7; b2=w8; b3=w9; [in11,in22]= meshgrid (0:.01:1,0:.01:1); alpha=4; net1a= in11*w11+in22*w21+in0*b1; net2b= in11*w12+in22*w22+in0*b2; out1a=1./(1+exp(-alpha*net1a)); out2b=1./(1+exp(-alpha*net2b)); net3c= out1a*lw1+out2b*lw2+in0*b3; outxr= 1./(1+exp(-alpha*net3c)) figure(9); out21xr= round (outxr); subplot(2,1,1); mesh(in11,in22,outxr); xlabel('in2');ylabel('in1');zlabel('out') subplot(2,1,2); mesh(in11,in22,out21xr); xlabel('in2');ylabel('in1');zlabel('out') Curva de aprendizajeFunción de Aprendizaje de la Neurona Gráfica de las Líneas de Frontera
  • 6. Página 6 b) Uso de la función de activación tanh. Yo Evelyn Gabriela Lema Vinueza afirmo que esta actividad es de mi autoría y establezco que para la elaboración de la misma he seguido los lineamientos del Código de Ética de la Universidad de las Fuerzas Armadas ESPE Código del Programa: close all clear all in0=1; in1=[0 1 0 1]; in2=[0 0 1 1]; targ=[-1 1 1 -1]; w1=rand(); w2=rand(); w3=rand(); w4=rand(); w5=rand(); w6=rand(); w7=rand(); w8=rand(); w9=rand(); n=0.1; alpha=4; dw1=0;dw2=0;dw3=0;dw4=0;dw5=0;dw6=0;dw7=0;dw8=0;dw9=0; for j=1:2000 err_T=0; for i=1:4 net1=in1(i)*w1+in2(i)*w3+in0*w7; net2= in2(i)*w4+in1(i)*w2+in0*w8; out1=(2/pi)*tanh(alpha*net1); out2=(2/pi)*tanh(alpha*net2); net= w5*out1+w6*out2+ in0*w9; out=(2/pi)*tanh(alpha*net); D_w1= n*(targ(i)-out)*[1-out*out+0.1]*w5*[1-out1*out1+0.1]*in1(i); D_w2= n*(targ(i)-out)*[1-out*out+0.1]*w6*[1-out2*out2+0.1]*in1(i); D_w3= n*(targ(i)-out)*[1-out*out+0.1]*w5*[1-out1*out1+0.1]*in2(i); D_w4= n*(targ(i)-out)*[1-out*out+0.1]*w6*[1-out2*out2+0.1]*in2(i); D_w5= n*(targ(i)-out)*[1-out*out+0.1]*out1; D_w6= n*(targ(i)-out)*[1-out*out+0.1]*out2; D_w7= n*(targ(i)-out)*[1-out*out+0.1]*w5*[1-out1*out1+0.1]*1; D_w8= n*(targ(i)-out)*[1-out*out+0.1]*w6*[1-out2*out2+0.1]*1; D_w9= n*(targ(i)-out)*[1-out*out+0.1]; dw1=dw1+D_w1; dw2=dw2+D_w2; dw3=dw3+D_w3; dw4=dw4+D_w4; dw5=dw5+D_w5; dw6=dw6+D_w6; dw7=dw7+D_w7; dw8=dw8+D_w8; dw9=dw9+D_w9; err_i=(targ(i)-out)^2; err_T=err_T+err_i; end w1=w1+dw1; w2=w2+dw2; w3=w3+dw3; w4=w4+dw4; w5=w5+dw5; w6=w6+dw6; w7=w7+dw7; w8=w8+dw8; w9=w9+dw9; dw1=0;dw2=0;dw3=0;dw4=0;dw5=0;dw6=0;dw7=0;dw8=0;dw9=0; vector_epocas(j)=j; vector_err(j)=err_T; plot(vector_epocas,vector_err); ylabel('ERROR CUADRATICO') xlabel('EPOCA') end w11=w1; w12=w2; w21=w3; w22=w4;
  • 7. Página 7 Página 7 w21=w3; w22=w4; lw1=w5; lw2=w6; b1=w7; b2=w8; b3=w9; [in11,in22]= meshgrid (0:.005:1,0:.005:1); net1a= in11*w11+in22*w21+in0*b1; net2b= in11*w12+in22*w22+in0*b2; out1a=(2/pi)*tanh(alpha*net1a) out2b=(2/pi)*tanh(alpha*net2b) net3c= out1a*lw1+out2b*lw2+in0*b3; outxr=(2/pi)*tanh(alpha*net3c) figure(9); out21xr= round (outxr); subplot(2,1,1); mesh(in11,in22,outxr); xlabel('in2') ylabel('in1') zlabel('out') subplot(2,1,2); mesh(in11,in22,out21xr); xlabel('in2') ylabel('in1') zlabel('out') Función de Aprendizaje de la Neurona Gráfica de la Líenas de Frontera
  • 8. Página 8 Yo Evelyn Gabriela Lema Vinueza afirmo que esta actividad es de mi autoría y establezco que para la elaboración de la misma he seguido los lineamientos del Código de Ética de la Universidad de las Fuerzas Armadas ESPE