SlideShare uma empresa Scribd logo
1 de 5
Baixar para ler offline
Página 1
UNIVERSIDAD DE FUERZAS ARMADAS “ESPE”
DEPARTAMENTO DE ELÉCTRICA Y ELECTRÓNICA
ASIGNATURA: CONTROL INTELIGENTE
Actividad No4. Aprendizaje de un perceptrón simple
Fecha: Lunes, 14 de Abril del 2014.
Nombre alumno: Evelyn Gabriela Lema Vinueza.
NRC: 2055.
1. Determine y grafique la ecuación de una línea recta que separe los patrones en la
compuerta AND
Para una compuerta AND de dos entradas tenemos que:
in1 in2 out
0 0 0
0 1 0
1 0 0
1 1 1
Por lo tanto la ecuación de la recta es:
Si realizamos una gráfica de los valores de las entradas de la compuerta AND (puntos de color
amarillo) podremos determinar los posibles valores de los parámetros de la red para dicha compuerta.
Si:
La ecuación de la recta estará dada por:
Dicha ecuación corresponde a la recta de negro puesto que:
Ecuación de la recta que separa los parámetros de
una compuerta AND
Página 2
2. Demuestre analítica y gráficamente que el problema de clasificación de aviones es
linealmente separable
Se tendrá dos tipos de aviones:
 Aviones de Carga (■)
 Aviones de Transporte de tropa ( ),
Ambos tipos de aviones poseen coordenadas (in1, in2), se puede demostrar analíticamente y gráficamente la
clasificación de dichos aviones es linealmente utilizaremos un único hiper plano para clasificarlos, empleando la
ecuación anteriormente dada:
Se tendrá entonces los dos casos para la clasificación de aviones:
Avión de Carga (C).
Avión de Transporte de tropa (T).
En el siguiente gráfico de ubicación de aviones se muestra la solución gráfica y las coordenadas de ubicación de los
mismos:
Para la demostración analítica reemplazamos los valores de coordenadas de (■) en la ecuación se tiene:
Donde se puede expresar:
∑
Al reemplazar los valores de coordenadas de ( ) en la ecuación se tiene:
Donde se puede expresar:
∑
Página 3
De forma gráfica como analítica el problema de separación de aviones es linealmente separable, la recta de decisión
separa los aviones tipo carga de los aviones tipo transporte de tropa.
3. Justifique mediante la separabilidad lineal, la imposibilidad de encontrar los parámetros
para que una neurona de 2 entradas realice la función XOR.
Con el uso de la tabla de verdad de la función XOR obtenemos las desigualdades es así que es evidente que la
segunda y tercera desigualdad son incompatibles con la cuarta por lo que se deduce que la función XOR no es
linealmente separable.
Por lo tanto:
Las desigualdades obtenidas son:
Como se ve en la figura se puede determinar que no es posible encontrar los parámetros de la red ya que se
necesitaría de dos rectas de decisión para que una neurona de 2 entradas realice la función XOR.
4. Escriba la ecuación del hiperplano para una neurona de 5 entradas
Página 4
5. Justifique la razón por la que “ Existe un compromiso que existe entre Generalización y
Aprendizaje, cuando mejora la una característica, la otra empeora”
6. Explique los términos “aprendizaje”, “pesos iniciales aleatorios” y “algoritmo de
aprendizaje iterativo” en el entrenamiento de un perceptrón.
Aprendizaje.- El aprendizaje se lo realiza con el fin de que la red sea entrenada para realizar un
determinado tipo de procesamiento, el entrenamiento de un perceptrón es un procedimiento general
que se basa en que la red aprenda los pesos adecuados desde un conjunto representativo de datos de
entrenamiento.
Pesos iniciales aleatorios.- Debido a que el cálculo directo de los pesos es intratable,
se empieza con pesos iniciales aleatorios esto quiere decir que partiendo de un conjunto de pesos
sinápticos aleatorios, el proceso de aprendizaje busca un conjunto de pesos que permitan a la red
desarrollar correctamente una determinada tarea, son aleatorios ya que se debe ajustarlos en pequeños
pasos hasta que se produzcan los resultados requeridos.
Algoritmo de aprendizaje iterativo.- El algoritmo de aprendizaje iterativo hace referencia a un
método por el cual, el perceptrón aprende de acuerdo a una tabla de patrones de entrenamiento,
corriendo los desplazamientos ocurridos para cada patrón. Esto permite que luego de varias
interacciones el perceptrón aprenda, tomando así los valores de los pesos y los umbrales adecuados,
para resolver el problema propuesto.
Se establece un compromiso entre la generalización y el aprendizaje puesto que cuando mejora
la una empeora la otra, esto se debe a que la capacidad de aprendizaje es un proceso de
entrenamiento o acondicionamiento en el que se necesita suficientes conexiones entre los nodos
para que la red neuronal sea capaz de aproximar la función, durante este proceso la causa más
común de la pérdida de capacidad de generalización es la generación de un sobre aprendizaje.
Esto se debe a que la cantidad de ciclos de entrenamientos tiende a ser muy alta. Se observa que
la respuesta de la red a los patrones de entrenamiento es muy buena mientras que la respuesta a
nuevos patrones tiende a ser muy pobre. Al aumentar el número de ciclos la red tiende a sobre
ajustar la respuesta a los patrones de entrenamiento, a expensas de una menor capacidad de
generalización.
Todo lo anteriormente expuesto se puede mostrar en la figura en la primera grafica vemos que
existe un buen compromiso entre el aprendizaje y la generalización mientras que en la segunda
gráfica hay una mejor generalización que puede producir un mal aprendizaje y resultados.
Página 5
7. Explique en detalle la “regla de aprendizaje del perceptrón”
Yo Evelyn Gabriela Lema Vinueza afirmo que esta actividad es de mi autoría y establezco que
para la elaboración de la misma he seguido los lineamientos del Código de Ética de la
Universidad de las Fuerzas Armadas ESPE
(∑ )
La regla de aprendizaje del perceptrón, es un procedimiento en el que se modifican los pesos y el
umbral de una red es conocida también como algoritmo de entrenamiento.
El objetivo de la regla de aprendizaje es estrenar a la red para realizar una tarea. En este algoritmo de
entrenamiento se proporciona ejemplos denominados un set de entrenamiento (training set), además
de un conjunto de respuestas que se espera a la salida y que normalmente se denomina set de salida
objetivo (target set). En conclusión se puede decir que el algoritmo se usa para ajustar los pesos y los
umbrales para ajustar la respuesta de la neurona a lo que se desea obtener.
Para demostrar la regla de aprendizaje se debe seguir estos pasos:
 Si los pesos de la red en el momento t son wij(t), entonces el proceso de cambio corresponde
a moverlos por una cantidad ∆ wij(t), de modo que en el tiempo t+1 se tenga:
 Para la formulación del cambio de pesos se supone que el objetivo de producción de la
unidad j es targj y la salida actual es:
Donde ini son las activaciones de la capa anterior de las neuronas. Entonces se puede simplemente ir a
través de todas las posibilidades de llegar a un conjunto apropiado de pequeños cambios de peso, y
colocar todo en una forma común:
=0
Donde ∑ es demasiado grande.
=1
Donde ∑ es demasiado pequeño
Cada caso se puede escribir en la forma:
Donde el parámetro n positiva se llama la tasa de aprendizaje o tamaño de paso y determina la
suavidad con que se cambia los límites de decisión.

Mais conteúdo relacionado

Mais procurados

El Perceptron simple
El Perceptron simple El Perceptron simple
El Perceptron simple mcastillox
 
Red NEURONAL MADALINE
Red NEURONAL MADALINERed NEURONAL MADALINE
Red NEURONAL MADALINEESCOM
 
Red NEURONAL de Hamming
Red   NEURONAL    de HammingRed   NEURONAL    de Hamming
Red NEURONAL de HammingESCOM
 
Backpropagation con momentum
Backpropagation  con momentumBackpropagation  con momentum
Backpropagation con momentumESCOM
 
REDES NEURONALES RECURRENTES Elman
REDES NEURONALES RECURRENTES ElmanREDES NEURONALES RECURRENTES Elman
REDES NEURONALES RECURRENTES ElmanESCOM
 
Utp 2015-2_ia_s4_red perceptron
 Utp 2015-2_ia_s4_red perceptron Utp 2015-2_ia_s4_red perceptron
Utp 2015-2_ia_s4_red perceptronjcbp_peru
 
Utp 2015-2_sirn_s4_red perceptron
 Utp 2015-2_sirn_s4_red perceptron Utp 2015-2_sirn_s4_red perceptron
Utp 2015-2_sirn_s4_red perceptronjcbp_peru
 
Utp 2015-2_ia_lab1.pdf
 Utp 2015-2_ia_lab1.pdf Utp 2015-2_ia_lab1.pdf
Utp 2015-2_ia_lab1.pdfjcbp_peru
 
Utp sirn_2015-2 lab1
 Utp sirn_2015-2 lab1 Utp sirn_2015-2 lab1
Utp sirn_2015-2 lab1jcbp_peru
 
Utp 2015-2_ia_s6_adaline y backpropagation
 Utp 2015-2_ia_s6_adaline y backpropagation Utp 2015-2_ia_s6_adaline y backpropagation
Utp 2015-2_ia_s6_adaline y backpropagationjcbp_peru
 
Utp 2015-2_sirn lab2
 Utp 2015-2_sirn lab2 Utp 2015-2_sirn lab2
Utp 2015-2_sirn lab2jcbp_peru
 
Utp ia_2014-2_s10_redes de funciones de base radial
 Utp ia_2014-2_s10_redes de funciones de base radial Utp ia_2014-2_s10_redes de funciones de base radial
Utp ia_2014-2_s10_redes de funciones de base radialjcbp_peru
 
Función Logsig y tansig
Función Logsig y tansigFunción Logsig y tansig
Función Logsig y tansigVane Erraez
 
Utp sirn_2015-2 lab3
 Utp sirn_2015-2 lab3 Utp sirn_2015-2 lab3
Utp sirn_2015-2 lab3jcbenitezp
 
Utp sirn_s13_sistemas de control basados en logic difusa
 Utp sirn_s13_sistemas de control basados en logic difusa Utp sirn_s13_sistemas de control basados en logic difusa
Utp sirn_s13_sistemas de control basados en logic difusajcbp_peru
 
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoPerceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoAndrea Lezcano
 
Utp sirn_s12_sistemas de control basados en logic difusa
 Utp sirn_s12_sistemas de control basados en logic difusa Utp sirn_s12_sistemas de control basados en logic difusa
Utp sirn_s12_sistemas de control basados en logic difusajcbp_peru
 

Mais procurados (20)

Tedes estocasticas
Tedes estocasticasTedes estocasticas
Tedes estocasticas
 
Perceptron parte 1
Perceptron parte 1Perceptron parte 1
Perceptron parte 1
 
El Perceptron simple
El Perceptron simple El Perceptron simple
El Perceptron simple
 
Red NEURONAL MADALINE
Red NEURONAL MADALINERed NEURONAL MADALINE
Red NEURONAL MADALINE
 
Red NEURONAL de Hamming
Red   NEURONAL    de HammingRed   NEURONAL    de Hamming
Red NEURONAL de Hamming
 
Backpropagation con momentum
Backpropagation  con momentumBackpropagation  con momentum
Backpropagation con momentum
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
REDES NEURONALES RECURRENTES Elman
REDES NEURONALES RECURRENTES ElmanREDES NEURONALES RECURRENTES Elman
REDES NEURONALES RECURRENTES Elman
 
Utp 2015-2_ia_s4_red perceptron
 Utp 2015-2_ia_s4_red perceptron Utp 2015-2_ia_s4_red perceptron
Utp 2015-2_ia_s4_red perceptron
 
Utp 2015-2_sirn_s4_red perceptron
 Utp 2015-2_sirn_s4_red perceptron Utp 2015-2_sirn_s4_red perceptron
Utp 2015-2_sirn_s4_red perceptron
 
Utp 2015-2_ia_lab1.pdf
 Utp 2015-2_ia_lab1.pdf Utp 2015-2_ia_lab1.pdf
Utp 2015-2_ia_lab1.pdf
 
Utp sirn_2015-2 lab1
 Utp sirn_2015-2 lab1 Utp sirn_2015-2 lab1
Utp sirn_2015-2 lab1
 
Utp 2015-2_ia_s6_adaline y backpropagation
 Utp 2015-2_ia_s6_adaline y backpropagation Utp 2015-2_ia_s6_adaline y backpropagation
Utp 2015-2_ia_s6_adaline y backpropagation
 
Utp 2015-2_sirn lab2
 Utp 2015-2_sirn lab2 Utp 2015-2_sirn lab2
Utp 2015-2_sirn lab2
 
Utp ia_2014-2_s10_redes de funciones de base radial
 Utp ia_2014-2_s10_redes de funciones de base radial Utp ia_2014-2_s10_redes de funciones de base radial
Utp ia_2014-2_s10_redes de funciones de base radial
 
Función Logsig y tansig
Función Logsig y tansigFunción Logsig y tansig
Función Logsig y tansig
 
Utp sirn_2015-2 lab3
 Utp sirn_2015-2 lab3 Utp sirn_2015-2 lab3
Utp sirn_2015-2 lab3
 
Utp sirn_s13_sistemas de control basados en logic difusa
 Utp sirn_s13_sistemas de control basados en logic difusa Utp sirn_s13_sistemas de control basados en logic difusa
Utp sirn_s13_sistemas de control basados en logic difusa
 
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoPerceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
 
Utp sirn_s12_sistemas de control basados en logic difusa
 Utp sirn_s12_sistemas de control basados en logic difusa Utp sirn_s12_sistemas de control basados en logic difusa
Utp sirn_s12_sistemas de control basados en logic difusa
 

Semelhante a Aprendizaje de un perceptrón simple

Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronalesHugo Chong
 
Utp ia_s4_red perceptron
 Utp ia_s4_red perceptron Utp ia_s4_red perceptron
Utp ia_s4_red perceptronjcbp_peru
 
Red neuronal artificial
Red neuronal artificialRed neuronal artificial
Red neuronal artificialcarlos colque
 
implementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapaimplementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapaBrian Piragauta
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de RetropropagaciónESCOM
 
Utp sirn_s3_red perceptron
 Utp sirn_s3_red perceptron Utp sirn_s3_red perceptron
Utp sirn_s3_red perceptronc09271
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL BackpropagationESCOM
 
Utp ia_2014-2_s4_red perceptron
 Utp ia_2014-2_s4_red perceptron Utp ia_2014-2_s4_red perceptron
Utp ia_2014-2_s4_red perceptronhiperu2005
 
Actividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialActividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialCarlos Mendoza
 
Utp sirn_s4_red perceptron
 Utp sirn_s4_red perceptron Utp sirn_s4_red perceptron
Utp sirn_s4_red perceptronjcbp_peru
 
Clase redes neuronales 3
Clase redes neuronales 3Clase redes neuronales 3
Clase redes neuronales 3JUANCHO_ANAYA
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales SomESCOM
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalESCOM
 
Simulación en Ing. Eléctrica - Aproximación de funciones
Simulación en Ing. Eléctrica - Aproximación de funcionesSimulación en Ing. Eléctrica - Aproximación de funciones
Simulación en Ing. Eléctrica - Aproximación de funcionesCarlos Vergara Branje
 
Redes Neuronales ”Función de Aprendizaje”
Redes Neuronales ”Función de Aprendizaje”Redes Neuronales ”Función de Aprendizaje”
Redes Neuronales ”Función de Aprendizaje”Raul
 
Mejores Tecnicas en Redes Neuronales
Mejores Tecnicas en Redes NeuronalesMejores Tecnicas en Redes Neuronales
Mejores Tecnicas en Redes NeuronalesCristianMartnDAgata
 
Inteligencia artificial avanzada
Inteligencia artificial avanzadaInteligencia artificial avanzada
Inteligencia artificial avanzadaDiego Guamán
 

Semelhante a Aprendizaje de un perceptrón simple (20)

Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Utp ia_s4_red perceptron
 Utp ia_s4_red perceptron Utp ia_s4_red perceptron
Utp ia_s4_red perceptron
 
Leccion 3 - Tema 3
Leccion 3 - Tema 3Leccion 3 - Tema 3
Leccion 3 - Tema 3
 
Red neuronal artificial
Red neuronal artificialRed neuronal artificial
Red neuronal artificial
 
implementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapaimplementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapa
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
 
Utp sirn_s3_red perceptron
 Utp sirn_s3_red perceptron Utp sirn_s3_red perceptron
Utp sirn_s3_red perceptron
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL Backpropagation
 
Utp ia_2014-2_s4_red perceptron
 Utp ia_2014-2_s4_red perceptron Utp ia_2014-2_s4_red perceptron
Utp ia_2014-2_s4_red perceptron
 
Actividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialActividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcial
 
Utp sirn_s4_red perceptron
 Utp sirn_s4_red perceptron Utp sirn_s4_red perceptron
Utp sirn_s4_red perceptron
 
Clase redes neuronales 3
Clase redes neuronales 3Clase redes neuronales 3
Clase redes neuronales 3
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales Som
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación Neuronal
 
Simulación en Ing. Eléctrica - Aproximación de funciones
Simulación en Ing. Eléctrica - Aproximación de funcionesSimulación en Ing. Eléctrica - Aproximación de funciones
Simulación en Ing. Eléctrica - Aproximación de funciones
 
Redes Neuronales ”Función de Aprendizaje”
Redes Neuronales ”Función de Aprendizaje”Redes Neuronales ”Función de Aprendizaje”
Redes Neuronales ”Función de Aprendizaje”
 
Gauss
GaussGauss
Gauss
 
Gauss
GaussGauss
Gauss
 
Mejores Tecnicas en Redes Neuronales
Mejores Tecnicas en Redes NeuronalesMejores Tecnicas en Redes Neuronales
Mejores Tecnicas en Redes Neuronales
 
Inteligencia artificial avanzada
Inteligencia artificial avanzadaInteligencia artificial avanzada
Inteligencia artificial avanzada
 

Mais de Evelyn Gabriela Lema Vinueza

Mais de Evelyn Gabriela Lema Vinueza (20)

Tarjeta de Adquisición STM32F4-Discovery
Tarjeta de Adquisición STM32F4-Discovery Tarjeta de Adquisición STM32F4-Discovery
Tarjeta de Adquisición STM32F4-Discovery
 
Actividad no20 3do parcial
Actividad no20 3do parcialActividad no20 3do parcial
Actividad no20 3do parcial
 
Actividad no12. resuelta_1er_parcial _lema_evelyn
Actividad no12. resuelta_1er_parcial _lema_evelynActividad no12. resuelta_1er_parcial _lema_evelyn
Actividad no12. resuelta_1er_parcial _lema_evelyn
 
Actividad no10 1er parcial lema evelyn
Actividad no10 1er parcial lema evelynActividad no10 1er parcial lema evelyn
Actividad no10 1er parcial lema evelyn
 
Actividad no10 1er parcial lema evelyn
Actividad no10 1er parcial lema evelynActividad no10 1er parcial lema evelyn
Actividad no10 1er parcial lema evelyn
 
Lectura seis
Lectura seisLectura seis
Lectura seis
 
Actividad no9. 1er parcial lema evelyn
Actividad no9. 1er parcial lema evelynActividad no9. 1er parcial lema evelyn
Actividad no9. 1er parcial lema evelyn
 
Actividad no8. 1er parcial lema evelyn
Actividad no8. 1er parcial lema evelynActividad no8. 1er parcial lema evelyn
Actividad no8. 1er parcial lema evelyn
 
Actividad no7. 1er parcial lema evelyn
Actividad no7. 1er parcial lema evelynActividad no7. 1er parcial lema evelyn
Actividad no7. 1er parcial lema evelyn
 
Actividad no6. 1er parcial lema evelyn
Actividad no6. 1er parcial lema evelynActividad no6. 1er parcial lema evelyn
Actividad no6. 1er parcial lema evelyn
 
Aprendizaje del perceptrón
Aprendizaje del perceptrónAprendizaje del perceptrón
Aprendizaje del perceptrón
 
Actividad no20 3do parcial
Actividad no20 3do parcialActividad no20 3do parcial
Actividad no20 3do parcial
 
Controlador con Red Neuronal Inversa
Controlador con Red Neuronal InversaControlador con Red Neuronal Inversa
Controlador con Red Neuronal Inversa
 
Actividad no19 2do parcial
Actividad no19 2do parcialActividad no19 2do parcial
Actividad no19 2do parcial
 
Actividad no17 2er parcial lema evelyn
Actividad no17 2er parcial lema evelynActividad no17 2er parcial lema evelyn
Actividad no17 2er parcial lema evelyn
 
Actividad no17 2er parcial lema evelyn
Actividad no17 2er parcial lema evelynActividad no17 2er parcial lema evelyn
Actividad no17 2er parcial lema evelyn
 
Actividad no18 2do_parcial_lema_evelyn
Actividad no18 2do_parcial_lema_evelynActividad no18 2do_parcial_lema_evelyn
Actividad no18 2do_parcial_lema_evelyn
 
Actividad no16 2do parcial lema evelyn
Actividad no16 2do parcial lema evelynActividad no16 2do parcial lema evelyn
Actividad no16 2do parcial lema evelyn
 
Actividad no15 2do_parcial_lema_evelyn
Actividad no15 2do_parcial_lema_evelynActividad no15 2do_parcial_lema_evelyn
Actividad no15 2do_parcial_lema_evelyn
 
Actividad no13 y_14_de_1er_parcial_lema_evelyn
Actividad no13 y_14_de_1er_parcial_lema_evelynActividad no13 y_14_de_1er_parcial_lema_evelyn
Actividad no13 y_14_de_1er_parcial_lema_evelyn
 

Último

FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURAFORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURAEl Fortí
 
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxzulyvero07
 
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdfSELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdfAngélica Soledad Vega Ramírez
 
Curso = Metodos Tecnicas y Modelos de Enseñanza.pdf
Curso = Metodos Tecnicas y Modelos de Enseñanza.pdfCurso = Metodos Tecnicas y Modelos de Enseñanza.pdf
Curso = Metodos Tecnicas y Modelos de Enseñanza.pdfFrancisco158360
 
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Carlos Muñoz
 
INSTRUCCION PREPARATORIA DE TIRO .pptx
INSTRUCCION PREPARATORIA DE TIRO   .pptxINSTRUCCION PREPARATORIA DE TIRO   .pptx
INSTRUCCION PREPARATORIA DE TIRO .pptxdeimerhdz21
 
La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.amayarogel
 
Ley 21.545 - Circular Nº 586.pdf circular
Ley 21.545 - Circular Nº 586.pdf circularLey 21.545 - Circular Nº 586.pdf circular
Ley 21.545 - Circular Nº 586.pdf circularMooPandrea
 
Qué es la Inteligencia artificial generativa
Qué es la Inteligencia artificial generativaQué es la Inteligencia artificial generativa
Qué es la Inteligencia artificial generativaDecaunlz
 
2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdfBaker Publishing Company
 
TECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptx
TECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptxTECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptx
TECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptxKarlaMassielMartinez
 
MAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMarjorie Burga
 
Registro Auxiliar - Primaria 2024 (1).pptx
Registro Auxiliar - Primaria  2024 (1).pptxRegistro Auxiliar - Primaria  2024 (1).pptx
Registro Auxiliar - Primaria 2024 (1).pptxFelicitasAsuncionDia
 
PLAN DE REFUERZO ESCOLAR primaria (1).docx
PLAN DE REFUERZO ESCOLAR primaria (1).docxPLAN DE REFUERZO ESCOLAR primaria (1).docx
PLAN DE REFUERZO ESCOLAR primaria (1).docxlupitavic
 
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...JAVIER SOLIS NOYOLA
 
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLA
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLAACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLA
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLAJAVIER SOLIS NOYOLA
 

Último (20)

FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURAFORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
 
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptxACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
ACUERDO MINISTERIAL 078-ORGANISMOS ESCOLARES..pptx
 
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdfSELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
 
Curso = Metodos Tecnicas y Modelos de Enseñanza.pdf
Curso = Metodos Tecnicas y Modelos de Enseñanza.pdfCurso = Metodos Tecnicas y Modelos de Enseñanza.pdf
Curso = Metodos Tecnicas y Modelos de Enseñanza.pdf
 
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
Plan Refuerzo Escolar 2024 para estudiantes con necesidades de Aprendizaje en...
 
INSTRUCCION PREPARATORIA DE TIRO .pptx
INSTRUCCION PREPARATORIA DE TIRO   .pptxINSTRUCCION PREPARATORIA DE TIRO   .pptx
INSTRUCCION PREPARATORIA DE TIRO .pptx
 
La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.La triple Naturaleza del Hombre estudio.
La triple Naturaleza del Hombre estudio.
 
Presentacion Metodología de Enseñanza Multigrado
Presentacion Metodología de Enseñanza MultigradoPresentacion Metodología de Enseñanza Multigrado
Presentacion Metodología de Enseñanza Multigrado
 
Ley 21.545 - Circular Nº 586.pdf circular
Ley 21.545 - Circular Nº 586.pdf circularLey 21.545 - Circular Nº 586.pdf circular
Ley 21.545 - Circular Nº 586.pdf circular
 
Qué es la Inteligencia artificial generativa
Qué es la Inteligencia artificial generativaQué es la Inteligencia artificial generativa
Qué es la Inteligencia artificial generativa
 
Fe contra todo pronóstico. La fe es confianza.
Fe contra todo pronóstico. La fe es confianza.Fe contra todo pronóstico. La fe es confianza.
Fe contra todo pronóstico. La fe es confianza.
 
2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf2024 - Expo Visibles - Visibilidad Lesbica.pdf
2024 - Expo Visibles - Visibilidad Lesbica.pdf
 
TECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptx
TECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptxTECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptx
TECNOLOGÍA FARMACEUTICA OPERACIONES UNITARIAS.pptx
 
MAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grandeMAYO 1 PROYECTO día de la madre el amor más grande
MAYO 1 PROYECTO día de la madre el amor más grande
 
Registro Auxiliar - Primaria 2024 (1).pptx
Registro Auxiliar - Primaria  2024 (1).pptxRegistro Auxiliar - Primaria  2024 (1).pptx
Registro Auxiliar - Primaria 2024 (1).pptx
 
PLAN DE REFUERZO ESCOLAR primaria (1).docx
PLAN DE REFUERZO ESCOLAR primaria (1).docxPLAN DE REFUERZO ESCOLAR primaria (1).docx
PLAN DE REFUERZO ESCOLAR primaria (1).docx
 
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...
 
Power Point: Fe contra todo pronóstico.pptx
Power Point: Fe contra todo pronóstico.pptxPower Point: Fe contra todo pronóstico.pptx
Power Point: Fe contra todo pronóstico.pptx
 
Tema 8.- PROTECCION DE LOS SISTEMAS DE INFORMACIÓN.pdf
Tema 8.- PROTECCION DE LOS SISTEMAS DE INFORMACIÓN.pdfTema 8.- PROTECCION DE LOS SISTEMAS DE INFORMACIÓN.pdf
Tema 8.- PROTECCION DE LOS SISTEMAS DE INFORMACIÓN.pdf
 
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLA
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLAACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLA
ACERTIJO DE POSICIÓN DE CORREDORES EN LA OLIMPIADA. Por JAVIER SOLIS NOYOLA
 

Aprendizaje de un perceptrón simple

  • 1. Página 1 UNIVERSIDAD DE FUERZAS ARMADAS “ESPE” DEPARTAMENTO DE ELÉCTRICA Y ELECTRÓNICA ASIGNATURA: CONTROL INTELIGENTE Actividad No4. Aprendizaje de un perceptrón simple Fecha: Lunes, 14 de Abril del 2014. Nombre alumno: Evelyn Gabriela Lema Vinueza. NRC: 2055. 1. Determine y grafique la ecuación de una línea recta que separe los patrones en la compuerta AND Para una compuerta AND de dos entradas tenemos que: in1 in2 out 0 0 0 0 1 0 1 0 0 1 1 1 Por lo tanto la ecuación de la recta es: Si realizamos una gráfica de los valores de las entradas de la compuerta AND (puntos de color amarillo) podremos determinar los posibles valores de los parámetros de la red para dicha compuerta. Si: La ecuación de la recta estará dada por: Dicha ecuación corresponde a la recta de negro puesto que: Ecuación de la recta que separa los parámetros de una compuerta AND
  • 2. Página 2 2. Demuestre analítica y gráficamente que el problema de clasificación de aviones es linealmente separable Se tendrá dos tipos de aviones:  Aviones de Carga (■)  Aviones de Transporte de tropa ( ), Ambos tipos de aviones poseen coordenadas (in1, in2), se puede demostrar analíticamente y gráficamente la clasificación de dichos aviones es linealmente utilizaremos un único hiper plano para clasificarlos, empleando la ecuación anteriormente dada: Se tendrá entonces los dos casos para la clasificación de aviones: Avión de Carga (C). Avión de Transporte de tropa (T). En el siguiente gráfico de ubicación de aviones se muestra la solución gráfica y las coordenadas de ubicación de los mismos: Para la demostración analítica reemplazamos los valores de coordenadas de (■) en la ecuación se tiene: Donde se puede expresar: ∑ Al reemplazar los valores de coordenadas de ( ) en la ecuación se tiene: Donde se puede expresar: ∑
  • 3. Página 3 De forma gráfica como analítica el problema de separación de aviones es linealmente separable, la recta de decisión separa los aviones tipo carga de los aviones tipo transporte de tropa. 3. Justifique mediante la separabilidad lineal, la imposibilidad de encontrar los parámetros para que una neurona de 2 entradas realice la función XOR. Con el uso de la tabla de verdad de la función XOR obtenemos las desigualdades es así que es evidente que la segunda y tercera desigualdad son incompatibles con la cuarta por lo que se deduce que la función XOR no es linealmente separable. Por lo tanto: Las desigualdades obtenidas son: Como se ve en la figura se puede determinar que no es posible encontrar los parámetros de la red ya que se necesitaría de dos rectas de decisión para que una neurona de 2 entradas realice la función XOR. 4. Escriba la ecuación del hiperplano para una neurona de 5 entradas
  • 4. Página 4 5. Justifique la razón por la que “ Existe un compromiso que existe entre Generalización y Aprendizaje, cuando mejora la una característica, la otra empeora” 6. Explique los términos “aprendizaje”, “pesos iniciales aleatorios” y “algoritmo de aprendizaje iterativo” en el entrenamiento de un perceptrón. Aprendizaje.- El aprendizaje se lo realiza con el fin de que la red sea entrenada para realizar un determinado tipo de procesamiento, el entrenamiento de un perceptrón es un procedimiento general que se basa en que la red aprenda los pesos adecuados desde un conjunto representativo de datos de entrenamiento. Pesos iniciales aleatorios.- Debido a que el cálculo directo de los pesos es intratable, se empieza con pesos iniciales aleatorios esto quiere decir que partiendo de un conjunto de pesos sinápticos aleatorios, el proceso de aprendizaje busca un conjunto de pesos que permitan a la red desarrollar correctamente una determinada tarea, son aleatorios ya que se debe ajustarlos en pequeños pasos hasta que se produzcan los resultados requeridos. Algoritmo de aprendizaje iterativo.- El algoritmo de aprendizaje iterativo hace referencia a un método por el cual, el perceptrón aprende de acuerdo a una tabla de patrones de entrenamiento, corriendo los desplazamientos ocurridos para cada patrón. Esto permite que luego de varias interacciones el perceptrón aprenda, tomando así los valores de los pesos y los umbrales adecuados, para resolver el problema propuesto. Se establece un compromiso entre la generalización y el aprendizaje puesto que cuando mejora la una empeora la otra, esto se debe a que la capacidad de aprendizaje es un proceso de entrenamiento o acondicionamiento en el que se necesita suficientes conexiones entre los nodos para que la red neuronal sea capaz de aproximar la función, durante este proceso la causa más común de la pérdida de capacidad de generalización es la generación de un sobre aprendizaje. Esto se debe a que la cantidad de ciclos de entrenamientos tiende a ser muy alta. Se observa que la respuesta de la red a los patrones de entrenamiento es muy buena mientras que la respuesta a nuevos patrones tiende a ser muy pobre. Al aumentar el número de ciclos la red tiende a sobre ajustar la respuesta a los patrones de entrenamiento, a expensas de una menor capacidad de generalización. Todo lo anteriormente expuesto se puede mostrar en la figura en la primera grafica vemos que existe un buen compromiso entre el aprendizaje y la generalización mientras que en la segunda gráfica hay una mejor generalización que puede producir un mal aprendizaje y resultados.
  • 5. Página 5 7. Explique en detalle la “regla de aprendizaje del perceptrón” Yo Evelyn Gabriela Lema Vinueza afirmo que esta actividad es de mi autoría y establezco que para la elaboración de la misma he seguido los lineamientos del Código de Ética de la Universidad de las Fuerzas Armadas ESPE (∑ ) La regla de aprendizaje del perceptrón, es un procedimiento en el que se modifican los pesos y el umbral de una red es conocida también como algoritmo de entrenamiento. El objetivo de la regla de aprendizaje es estrenar a la red para realizar una tarea. En este algoritmo de entrenamiento se proporciona ejemplos denominados un set de entrenamiento (training set), además de un conjunto de respuestas que se espera a la salida y que normalmente se denomina set de salida objetivo (target set). En conclusión se puede decir que el algoritmo se usa para ajustar los pesos y los umbrales para ajustar la respuesta de la neurona a lo que se desea obtener. Para demostrar la regla de aprendizaje se debe seguir estos pasos:  Si los pesos de la red en el momento t son wij(t), entonces el proceso de cambio corresponde a moverlos por una cantidad ∆ wij(t), de modo que en el tiempo t+1 se tenga:  Para la formulación del cambio de pesos se supone que el objetivo de producción de la unidad j es targj y la salida actual es: Donde ini son las activaciones de la capa anterior de las neuronas. Entonces se puede simplemente ir a través de todas las posibilidades de llegar a un conjunto apropiado de pequeños cambios de peso, y colocar todo en una forma común: =0 Donde ∑ es demasiado grande. =1 Donde ∑ es demasiado pequeño Cada caso se puede escribir en la forma: Donde el parámetro n positiva se llama la tasa de aprendizaje o tamaño de paso y determina la suavidad con que se cambia los límites de decisión.