SlideShare una empresa de Scribd logo
1 de 4
UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO 
CENTRO UNIVERSITARIO UAEM ATLACOMULCO 
Redes Neuronales BackPropagation “El Sesgo en Backpropagation” ico17 
Levi Guadarrama Tercero 
Juan Carlos Tomas Reyes 
Oliver Sánchez Cruz 
Sesgo en Backpropagation 
Una forma de ver las redes neuronales es como metafunciones que aceptan un 
número fijo de entradas numéricas y producen un número fijo de salidas numéricas. 
En la mayoría de los casos, las redes neuronales tienen una capa de neuronas 
ocultas, donde cada una de estas está conectada completamente con las neuronas 
de entrada y de salida. Asociado con cada neurona oculta y cada neurona de 
salida individual se encuentra un conjunto de valores de ponderación y un 
valor único llamado sesgo. Las ponderaciones y sesgos determinan los valores 
de salida para un conjunto dado de valores de entrada. 
La técnica más común para calcular las ponderaciones y sesgos óptimos se llama 
propagación inversa. Aunque existen muchas referencias excelentes que describen 
las matemáticas complejas que subyacen a la propagación inversa, hay pocas guías 
disponibles para los programadores, que describan claramente cómo programar el 
algoritmo de propagación inversa. Este artículo explica cómo implementar la 
propagación inversa. El lenguaje de programación en los ejemplos es C#, pero no 
debería ser difícil refactorizarlos a otros lenguajes. 
La mejor forma de ver mi objetivo es mirar la captura de pantalla de un programa de 
demostración en la Ilustración 1. Este programa crea una red neuronal que tiene 
tres neuronas de entrada, con una capa oculta de cuatro neuronas y dos neuronas 
de salida. Las redes neuronales con una sola capa oculta requieren de dos 
funciones de activación. En muchas situaciones, sin embargo, estas dos funciones 
son iguales, habitualmente la función sigmoidea. Pero en esta demostración, para 
ilustrar la relación entre las funciones de activación y la propagación inversa, empleo 
funciones de activación diferentes: la función sigmoidea para los cálculos de la capa 
de entrada a la oculta, y la tangente hiperbólica para los cálculos de la capa oculta 
a la de salida. 
1
UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO 
CENTRO UNIVERSITARIO UAEM ATLACOMULCO 
Redes Neuronales BackPropagation “El Sesgo en Backpropagation” ico17 
Levi Guadarrama Tercero 
Juan Carlos Tomas Reyes 
Oliver Sánchez Cruz 
Ilustracion 1 Algoritmo de propagación inversa en acción 
2
UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO 
CENTRO UNIVERSITARIO UAEM ATLACOMULCO 
Redes Neuronales BackPropagation “El Sesgo en Backpropagation” ico17 
Levi Guadarrama Tercero 
Juan Carlos Tomas Reyes 
Oliver Sánchez Cruz 
Una red neuronal 3-4-2 completamente conectada requiere de 3*4 + 4*2 = 20 
valores de ponderación y 4+2 = 6 valores de sesgo, lo que suma un total de 26 
ponderaciones y sesgos. Estas ponderaciones y sesgos se inicializan en valores 
más o menos arbitrarios. Los valores de entrada genéricos se establecen en 1,0, 
2,0 y 3,0. Con los valores iniciales de ponderación, sesgo y entrada, los valores de 
salida iniciales que calcula la red neuronal son {0,7225; -0,8779}. El programa de 
demostración supone que los dos valores de salida correctos son {-0,8500; 0,7500}. 
La finalidad del algoritmo de propagación inversa es encontrar un nuevo conjunto 
de ponderaciones y sesgos que generen resultados muy próximos a los valores 
correctos para las entradas {1,0; 2,0; 3,0}. 
La propagación inversa requiere de dos parámetros libres. La velocidad de 
aprendizaje, generalmente designada con la letra griega eta en la literatura sobre 
propagación inversa, controla la velocidad con la que el algoritmo converge en el 
cálculo final. El momento, designado generalmente con la letra griega alfa, permite 
que el algoritmo de propagación inversa evite las situaciones donde el algoritmo 
oscila sin converger en un cálculo final. El programa de demostración establece la 
velocidad de aprendizaje en 0,90 y el momento en 0,04. Normalmente estos valores 
se encuentran por ensayo y error. 
El proceso de encontrar el mejor conjunto de ponderaciones y sesgos para una red 
neuronal a veces se denomina entrenamiento de la red. En el caso de la 
propagación inversa, el entrenamiento es un proceso iterativo. En cada iteración, la 
propagación inversa calcula un nuevo conjunto de valores de ponderación y sesgo 
que, en teoría, generan valores de salida que estarán más cercanos a los valores 
esperados. Después de la primera iteración de entrenamiento del programa de 
demostración, el algoritmo de propagación inversa encontró los nuevos valores de 
ponderación y sesgo, que generaron los resultados nuevos {-0,8932; -0,8006}. El 
primer valor de salida de -0,8932 está mucho más cercano al primer valor esperado 
de -0,8500. El segundo valor nuevo de salida de -0,8006 sigue estando muy alejado 
del valor esperado de 0,7500. 
El proceso de entrenamiento se puede terminar de diferentes formas. El programa 
de demostración itera el entrenamiento hasta que la suma de las diferencias 
absolutas entre los valores de salida y los esperados sea menor que <= 0,01 o el 
entrenamiento llegue a 1.000 iteraciones. En la demostración, después de seis 
iteraciones de entrenamiento, la propagación inversa encontró un conjunto de 
valores de ponderación y sesgo que generaron salidas de {-0,8423; 0,7481}; muy 
próximas a los valores esperados de {-0,8500; 0,7500}. 
3
UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO 
CENTRO UNIVERSITARIO UAEM ATLACOMULCO 
Redes Neuronales BackPropagation “El Sesgo en Backpropagation” ico17 
Levi Guadarrama Tercero 
Juan Carlos Tomas Reyes 
Oliver Sánchez Cruz 
4 
Bibliografía 
“Profundización en las redes neuronales”, en 
msdn.microsoft.com/magazine/hh975375.) El código del programa que aparece en 
la Ilustración 1 es demasiado extenso para presentarlo en este artículo, de modo 
que me concentraré en explicar las partes claves del algoritmo. El código fuente 
completo para el programa de demostración está disponible en 
archive.msdn.microsoft.com/mag201210TestRun.

Más contenido relacionado

Destacado

Derechos de los estudiantes universitario.
Derechos de los estudiantes universitario.Derechos de los estudiantes universitario.
Derechos de los estudiantes universitario.ariana_gq96
 
Presentación1 (1)
Presentación1 (1)Presentación1 (1)
Presentación1 (1)auddi
 
El arte a nuestro alrededor
El arte a nuestro alrededorEl arte a nuestro alrededor
El arte a nuestro alrededorriicardo_n
 
Tiempos perfectos
Tiempos perfectosTiempos perfectos
Tiempos perfectosmisderecho
 
Boletin 10 adquisiciones 2015 1 contaduria
Boletin 10 adquisiciones 2015 1 contaduriaBoletin 10 adquisiciones 2015 1 contaduria
Boletin 10 adquisiciones 2015 1 contaduriaDocente Contaduría
 
Fotos de mi familia y mías
Fotos de mi familia y mías   Fotos de mi familia y mías
Fotos de mi familia y mías Lissette Ochoa
 
Proyecto TIC para fortalecer el Trabajo Colectivo
Proyecto TIC para fortalecer el Trabajo ColectivoProyecto TIC para fortalecer el Trabajo Colectivo
Proyecto TIC para fortalecer el Trabajo ColectivoMontserratAguila
 
Piensaenunnumero
PiensaenunnumeroPiensaenunnumero
Piensaenunnumeroconillet
 
Proyecto iava Fortalecimiento de los valores en la educación
Proyecto iava Fortalecimiento de los valores en la educaciónProyecto iava Fortalecimiento de los valores en la educación
Proyecto iava Fortalecimiento de los valores en la educaciónMarygelPerez
 
MAPA CONCEPTUAL ANDRÉS SÁNCHEZ
MAPA CONCEPTUAL ANDRÉS SÁNCHEZMAPA CONCEPTUAL ANDRÉS SÁNCHEZ
MAPA CONCEPTUAL ANDRÉS SÁNCHEZandrescorage
 

Destacado (20)

Derechos de los estudiantes universitario.
Derechos de los estudiantes universitario.Derechos de los estudiantes universitario.
Derechos de los estudiantes universitario.
 
Presentación1 (1)
Presentación1 (1)Presentación1 (1)
Presentación1 (1)
 
El arte a nuestro alrededor
El arte a nuestro alrededorEl arte a nuestro alrededor
El arte a nuestro alrededor
 
presentación personal
presentación personal presentación personal
presentación personal
 
Tiempos perfectos
Tiempos perfectosTiempos perfectos
Tiempos perfectos
 
Normas apa
Normas apaNormas apa
Normas apa
 
Terapia do elogio
Terapia do elogioTerapia do elogio
Terapia do elogio
 
los valores en la educación primaria
los valores en la educación primarialos valores en la educación primaria
los valores en la educación primaria
 
Boletin 10 adquisiciones 2015 1 contaduria
Boletin 10 adquisiciones 2015 1 contaduriaBoletin 10 adquisiciones 2015 1 contaduria
Boletin 10 adquisiciones 2015 1 contaduria
 
Fotos de mi familia y mías
Fotos de mi familia y mías   Fotos de mi familia y mías
Fotos de mi familia y mías
 
Proyecto TIC para fortalecer el Trabajo Colectivo
Proyecto TIC para fortalecer el Trabajo ColectivoProyecto TIC para fortalecer el Trabajo Colectivo
Proyecto TIC para fortalecer el Trabajo Colectivo
 
Otimismo sempre
Otimismo sempreOtimismo sempre
Otimismo sempre
 
Presentation
PresentationPresentation
Presentation
 
O barbeiro
O barbeiro O barbeiro
O barbeiro
 
O lugar certo
O lugar certoO lugar certo
O lugar certo
 
Piensaenunnumero
PiensaenunnumeroPiensaenunnumero
Piensaenunnumero
 
Proyecto iava Fortalecimiento de los valores en la educación
Proyecto iava Fortalecimiento de los valores en la educaciónProyecto iava Fortalecimiento de los valores en la educación
Proyecto iava Fortalecimiento de los valores en la educación
 
Diplomado en linea iava
Diplomado en linea iavaDiplomado en linea iava
Diplomado en linea iava
 
MAPA CONCEPTUAL ANDRÉS SÁNCHEZ
MAPA CONCEPTUAL ANDRÉS SÁNCHEZMAPA CONCEPTUAL ANDRÉS SÁNCHEZ
MAPA CONCEPTUAL ANDRÉS SÁNCHEZ
 
los valores para la vida
los valores para la vida los valores para la vida
los valores para la vida
 

Similar a Sesgo BacoProgpagation

Clase redes neuronales 3
Clase redes neuronales 3Clase redes neuronales 3
Clase redes neuronales 3JUANCHO_ANAYA
 
Inteligencia artificial avanzada
Inteligencia artificial avanzadaInteligencia artificial avanzada
Inteligencia artificial avanzadaDiego Guamán
 
implementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapaimplementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapaBrian Piragauta
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL BackpropagationESCOM
 
Redes Neuronales - Robótica
Redes Neuronales - RobóticaRedes Neuronales - Robótica
Redes Neuronales - RobóticaJoaquinMontoro
 
Actividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialActividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialCarlos Mendoza
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de RetropropagaciónESCOM
 
Funciones de Activación Tansig y Logsig
Funciones de Activación Tansig y Logsig Funciones de Activación Tansig y Logsig
Funciones de Activación Tansig y Logsig Raul
 
Metodos Neuronales En Sistemas Difusos
Metodos Neuronales En Sistemas DifusosMetodos Neuronales En Sistemas Difusos
Metodos Neuronales En Sistemas DifusosESCOM
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalESCOM
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronalesjcbenitezp
 
Funciones satlin y satlins
Funciones satlin y satlinsFunciones satlin y satlins
Funciones satlin y satlinsJuan Pinzón
 
Redes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansigRedes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansigJefferson Sarmiento
 
Presentacion proyecto final de carrera grado sistemas informática Valencia
Presentacion proyecto final de carrera grado sistemas informática ValenciaPresentacion proyecto final de carrera grado sistemas informática Valencia
Presentacion proyecto final de carrera grado sistemas informática ValenciaUniversidad CEU Cardenal Herrera
 

Similar a Sesgo BacoProgpagation (20)

Clase redes neuronales 3
Clase redes neuronales 3Clase redes neuronales 3
Clase redes neuronales 3
 
Perceptron parte 2
Perceptron parte 2Perceptron parte 2
Perceptron parte 2
 
Inteligencia artificial avanzada
Inteligencia artificial avanzadaInteligencia artificial avanzada
Inteligencia artificial avanzada
 
implementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapaimplementación simulated annealing-en-perceptronmulticapa
implementación simulated annealing-en-perceptronmulticapa
 
RED NEURONAL Backpropagation
RED NEURONAL BackpropagationRED NEURONAL Backpropagation
RED NEURONAL Backpropagation
 
Redes Neuronales - Robótica
Redes Neuronales - RobóticaRedes Neuronales - Robótica
Redes Neuronales - Robótica
 
Aprendizaje de un perceptrón simple
Aprendizaje de un perceptrón simpleAprendizaje de un perceptrón simple
Aprendizaje de un perceptrón simple
 
Actividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcialActividad no13 y_14_de_2do_parcial
Actividad no13 y_14_de_2do_parcial
 
Algoritmo de Retropropagación
Algoritmo de RetropropagaciónAlgoritmo de Retropropagación
Algoritmo de Retropropagación
 
Funciones de Activación Tansig y Logsig
Funciones de Activación Tansig y Logsig Funciones de Activación Tansig y Logsig
Funciones de Activación Tansig y Logsig
 
Leccion 3 - Tema 3
Leccion 3 - Tema 3Leccion 3 - Tema 3
Leccion 3 - Tema 3
 
Metodos Neuronales En Sistemas Difusos
Metodos Neuronales En Sistemas DifusosMetodos Neuronales En Sistemas Difusos
Metodos Neuronales En Sistemas Difusos
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación Neuronal
 
48690471 redes-neuronales
48690471 redes-neuronales48690471 redes-neuronales
48690471 redes-neuronales
 
Neurona de Mc culloch
Neurona de Mc cullochNeurona de Mc culloch
Neurona de Mc culloch
 
Clase 05 (2)
Clase 05 (2)Clase 05 (2)
Clase 05 (2)
 
Funciones satlin y satlins
Funciones satlin y satlinsFunciones satlin y satlins
Funciones satlin y satlins
 
Redes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansigRedes neuronales funciones de activación logsig y tansig
Redes neuronales funciones de activación logsig y tansig
 
Rna10
Rna10Rna10
Rna10
 
Presentacion proyecto final de carrera grado sistemas informática Valencia
Presentacion proyecto final de carrera grado sistemas informática ValenciaPresentacion proyecto final de carrera grado sistemas informática Valencia
Presentacion proyecto final de carrera grado sistemas informática Valencia
 

Más de Levy GT

Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaLevy GT
 
Teoremas perceptron multicapa
Teoremas perceptron multicapaTeoremas perceptron multicapa
Teoremas perceptron multicapaLevy GT
 
Como se aplica el Momento en una Red Perceptron Multicapa
Como se aplica el Momento en una Red Perceptron MulticapaComo se aplica el Momento en una Red Perceptron Multicapa
Como se aplica el Momento en una Red Perceptron MulticapaLevy GT
 
El sesgo en la Backpropagation
El sesgo en la BackpropagationEl sesgo en la Backpropagation
El sesgo en la BackpropagationLevy GT
 
Derivada de un punto
Derivada de un puntoDerivada de un punto
Derivada de un puntoLevy GT
 
Derivada perceptron repecto u w
Derivada perceptron repecto u wDerivada perceptron repecto u w
Derivada perceptron repecto u wLevy GT
 
Derivada Perceptron con respecto al NET
Derivada Perceptron con respecto al NETDerivada Perceptron con respecto al NET
Derivada Perceptron con respecto al NETLevy GT
 
Comprobacion de pesos Red Neuronal
Comprobacion de pesos Red NeuronalComprobacion de pesos Red Neuronal
Comprobacion de pesos Red NeuronalLevy GT
 
Investigacion e momento
Investigacion e momentoInvestigacion e momento
Investigacion e momentoLevy GT
 
Fibonacci Serie
Fibonacci SerieFibonacci Serie
Fibonacci SerieLevy GT
 
Factorial de un número
Factorial de un númeroFactorial de un número
Factorial de un númeroLevy GT
 
Función sigmoide instroduciendo tres valores distintos a la contsante
Función sigmoide instroduciendo tres valores distintos a la contsanteFunción sigmoide instroduciendo tres valores distintos a la contsante
Función sigmoide instroduciendo tres valores distintos a la contsanteLevy GT
 
Backprogation actualizacion pesos
Backprogation actualizacion pesosBackprogation actualizacion pesos
Backprogation actualizacion pesosLevy GT
 
Desmostracion BACKPROPAGATION
Desmostracion  BACKPROPAGATIONDesmostracion  BACKPROPAGATION
Desmostracion BACKPROPAGATIONLevy GT
 
Desmostración de la función Sigmoide en gnuplot
Desmostración de la función Sigmoide en gnuplotDesmostración de la función Sigmoide en gnuplot
Desmostración de la función Sigmoide en gnuplotLevy GT
 
Cap 3 redes neuronales
Cap 3 redes neuronalesCap 3 redes neuronales
Cap 3 redes neuronalesLevy GT
 
Matriz traspuesta
Matriz traspuestaMatriz traspuesta
Matriz traspuestaLevy GT
 
Cálculo de pesos
Cálculo de pesosCálculo de pesos
Cálculo de pesosLevy GT
 
Progrma de operación and con numeros binarios
Progrma de operación and con numeros binariosProgrma de operación and con numeros binarios
Progrma de operación and con numeros binariosLevy GT
 

Más de Levy GT (20)

Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapa
 
Teoremas perceptron multicapa
Teoremas perceptron multicapaTeoremas perceptron multicapa
Teoremas perceptron multicapa
 
Como se aplica el Momento en una Red Perceptron Multicapa
Como se aplica el Momento en una Red Perceptron MulticapaComo se aplica el Momento en una Red Perceptron Multicapa
Como se aplica el Momento en una Red Perceptron Multicapa
 
El sesgo en la Backpropagation
El sesgo en la BackpropagationEl sesgo en la Backpropagation
El sesgo en la Backpropagation
 
Derivada de un punto
Derivada de un puntoDerivada de un punto
Derivada de un punto
 
Derivada perceptron repecto u w
Derivada perceptron repecto u wDerivada perceptron repecto u w
Derivada perceptron repecto u w
 
Derivada Perceptron con respecto al NET
Derivada Perceptron con respecto al NETDerivada Perceptron con respecto al NET
Derivada Perceptron con respecto al NET
 
Comprobacion de pesos Red Neuronal
Comprobacion de pesos Red NeuronalComprobacion de pesos Red Neuronal
Comprobacion de pesos Red Neuronal
 
Investigacion e momento
Investigacion e momentoInvestigacion e momento
Investigacion e momento
 
Fibonacci Serie
Fibonacci SerieFibonacci Serie
Fibonacci Serie
 
Factorial de un número
Factorial de un númeroFactorial de un número
Factorial de un número
 
Función sigmoide instroduciendo tres valores distintos a la contsante
Función sigmoide instroduciendo tres valores distintos a la contsanteFunción sigmoide instroduciendo tres valores distintos a la contsante
Función sigmoide instroduciendo tres valores distintos a la contsante
 
Backprogation actualizacion pesos
Backprogation actualizacion pesosBackprogation actualizacion pesos
Backprogation actualizacion pesos
 
Desmostracion BACKPROPAGATION
Desmostracion  BACKPROPAGATIONDesmostracion  BACKPROPAGATION
Desmostracion BACKPROPAGATION
 
Desmostración de la función Sigmoide en gnuplot
Desmostración de la función Sigmoide en gnuplotDesmostración de la función Sigmoide en gnuplot
Desmostración de la función Sigmoide en gnuplot
 
Cap 3 redes neuronales
Cap 3 redes neuronalesCap 3 redes neuronales
Cap 3 redes neuronales
 
Matriz traspuesta
Matriz traspuestaMatriz traspuesta
Matriz traspuesta
 
Recta
RectaRecta
Recta
 
Cálculo de pesos
Cálculo de pesosCálculo de pesos
Cálculo de pesos
 
Progrma de operación and con numeros binarios
Progrma de operación and con numeros binariosProgrma de operación and con numeros binarios
Progrma de operación and con numeros binarios
 

Último

CONSTRUCCIONES II - SEMANA 01 - REGLAMENTO NACIONAL DE EDIFICACIONES.pdf
CONSTRUCCIONES II - SEMANA 01 - REGLAMENTO NACIONAL DE EDIFICACIONES.pdfCONSTRUCCIONES II - SEMANA 01 - REGLAMENTO NACIONAL DE EDIFICACIONES.pdf
CONSTRUCCIONES II - SEMANA 01 - REGLAMENTO NACIONAL DE EDIFICACIONES.pdfErikNivor
 
Tema 7 Plantas Industriales (2).pptx ingenieria
Tema 7 Plantas Industriales (2).pptx ingenieriaTema 7 Plantas Industriales (2).pptx ingenieria
Tema 7 Plantas Industriales (2).pptx ingenieriaLissetteMorejonLeon
 
Descubrimiento de la penicilina en la segunda guerra mundial
Descubrimiento de la penicilina en la segunda guerra mundialDescubrimiento de la penicilina en la segunda guerra mundial
Descubrimiento de la penicilina en la segunda guerra mundialyajhairatapia
 
trabajos en altura 2024, sistemas de contencion anticaidas
trabajos en altura 2024, sistemas de contencion anticaidastrabajos en altura 2024, sistemas de contencion anticaidas
trabajos en altura 2024, sistemas de contencion anticaidasNelsonQuispeQuispitu
 
Trabajo en altura de acuerdo a la normativa peruana
Trabajo en altura de acuerdo a la normativa peruanaTrabajo en altura de acuerdo a la normativa peruana
Trabajo en altura de acuerdo a la normativa peruana5extraviado
 
I LINEAMIENTOS Y CRITERIOS DE INFRAESTRUCTURA DE RIEGO.pptx
I LINEAMIENTOS Y CRITERIOS DE INFRAESTRUCTURA DE RIEGO.pptxI LINEAMIENTOS Y CRITERIOS DE INFRAESTRUCTURA DE RIEGO.pptx
I LINEAMIENTOS Y CRITERIOS DE INFRAESTRUCTURA DE RIEGO.pptxPATRICIAKARIMESTELAL
 
ESTUDIO TÉCNICO DEL PROYECTO DE CREACION DE SOFTWARE PARA MANTENIMIENTO
ESTUDIO TÉCNICO DEL PROYECTO DE CREACION DE SOFTWARE PARA MANTENIMIENTOESTUDIO TÉCNICO DEL PROYECTO DE CREACION DE SOFTWARE PARA MANTENIMIENTO
ESTUDIO TÉCNICO DEL PROYECTO DE CREACION DE SOFTWARE PARA MANTENIMIENTOCamiloSaavedra30
 
SEMANA 6 MEDIDAS DE TENDENCIA CENTRAL.pdf
SEMANA  6 MEDIDAS DE TENDENCIA CENTRAL.pdfSEMANA  6 MEDIDAS DE TENDENCIA CENTRAL.pdf
SEMANA 6 MEDIDAS DE TENDENCIA CENTRAL.pdffredyflores58
 
La mineralogia y minerales, clasificacion
La mineralogia y minerales, clasificacionLa mineralogia y minerales, clasificacion
La mineralogia y minerales, clasificacionnewspotify528
 
Historia de la Arquitectura II, 1era actividad..pdf
Historia de la Arquitectura II, 1era actividad..pdfHistoria de la Arquitectura II, 1era actividad..pdf
Historia de la Arquitectura II, 1era actividad..pdfIsbelRodrguez
 
Edificio residencial Tarsia de AEDAS Homes Granada
Edificio residencial Tarsia de AEDAS Homes GranadaEdificio residencial Tarsia de AEDAS Homes Granada
Edificio residencial Tarsia de AEDAS Homes GranadaANDECE
 
Revista estudiantil, trabajo final Materia ingeniería de Proyectos
Revista estudiantil, trabajo final Materia ingeniería de ProyectosRevista estudiantil, trabajo final Materia ingeniería de Proyectos
Revista estudiantil, trabajo final Materia ingeniería de ProyectosJeanCarlosLorenzo1
 
PLAN DE TRABAJO - CONTRATISTA CORIS.docx
PLAN DE TRABAJO - CONTRATISTA CORIS.docxPLAN DE TRABAJO - CONTRATISTA CORIS.docx
PLAN DE TRABAJO - CONTRATISTA CORIS.docxTAKESHISAC
 
Diseño de un aerogenerador de 400w de eje vertical
Diseño de un aerogenerador de 400w de eje verticalDiseño de un aerogenerador de 400w de eje vertical
Diseño de un aerogenerador de 400w de eje verticalEfrain Yungan
 
Edificio residencial Becrux en Madrid. Fachada de GRC
Edificio residencial Becrux en Madrid. Fachada de GRCEdificio residencial Becrux en Madrid. Fachada de GRC
Edificio residencial Becrux en Madrid. Fachada de GRCANDECE
 
LICENCIA DE CONSTRUCCION, Y EDIFICACIONES RESPECTO A LA LEY 29090.pptx
LICENCIA DE CONSTRUCCION, Y EDIFICACIONES RESPECTO A LA LEY 29090.pptxLICENCIA DE CONSTRUCCION, Y EDIFICACIONES RESPECTO A LA LEY 29090.pptx
LICENCIA DE CONSTRUCCION, Y EDIFICACIONES RESPECTO A LA LEY 29090.pptxLucindaMy
 
S454444444444444444_CONTROL_SET_A_GEOMN1204.pdf
S454444444444444444_CONTROL_SET_A_GEOMN1204.pdfS454444444444444444_CONTROL_SET_A_GEOMN1204.pdf
S454444444444444444_CONTROL_SET_A_GEOMN1204.pdffredyflores58
 
FORMACION-INTEGRAL-DE-LINIEROS modelo de curso.pdf
FORMACION-INTEGRAL-DE-LINIEROS modelo de curso.pdfFORMACION-INTEGRAL-DE-LINIEROS modelo de curso.pdf
FORMACION-INTEGRAL-DE-LINIEROS modelo de curso.pdfEfrain Yungan
 

Último (20)

CONSTRUCCIONES II - SEMANA 01 - REGLAMENTO NACIONAL DE EDIFICACIONES.pdf
CONSTRUCCIONES II - SEMANA 01 - REGLAMENTO NACIONAL DE EDIFICACIONES.pdfCONSTRUCCIONES II - SEMANA 01 - REGLAMENTO NACIONAL DE EDIFICACIONES.pdf
CONSTRUCCIONES II - SEMANA 01 - REGLAMENTO NACIONAL DE EDIFICACIONES.pdf
 
Tema 7 Plantas Industriales (2).pptx ingenieria
Tema 7 Plantas Industriales (2).pptx ingenieriaTema 7 Plantas Industriales (2).pptx ingenieria
Tema 7 Plantas Industriales (2).pptx ingenieria
 
presentación manipulación manual de cargas sunafil
presentación manipulación manual de cargas sunafilpresentación manipulación manual de cargas sunafil
presentación manipulación manual de cargas sunafil
 
Descubrimiento de la penicilina en la segunda guerra mundial
Descubrimiento de la penicilina en la segunda guerra mundialDescubrimiento de la penicilina en la segunda guerra mundial
Descubrimiento de la penicilina en la segunda guerra mundial
 
trabajos en altura 2024, sistemas de contencion anticaidas
trabajos en altura 2024, sistemas de contencion anticaidastrabajos en altura 2024, sistemas de contencion anticaidas
trabajos en altura 2024, sistemas de contencion anticaidas
 
Trabajo en altura de acuerdo a la normativa peruana
Trabajo en altura de acuerdo a la normativa peruanaTrabajo en altura de acuerdo a la normativa peruana
Trabajo en altura de acuerdo a la normativa peruana
 
I LINEAMIENTOS Y CRITERIOS DE INFRAESTRUCTURA DE RIEGO.pptx
I LINEAMIENTOS Y CRITERIOS DE INFRAESTRUCTURA DE RIEGO.pptxI LINEAMIENTOS Y CRITERIOS DE INFRAESTRUCTURA DE RIEGO.pptx
I LINEAMIENTOS Y CRITERIOS DE INFRAESTRUCTURA DE RIEGO.pptx
 
ESTUDIO TÉCNICO DEL PROYECTO DE CREACION DE SOFTWARE PARA MANTENIMIENTO
ESTUDIO TÉCNICO DEL PROYECTO DE CREACION DE SOFTWARE PARA MANTENIMIENTOESTUDIO TÉCNICO DEL PROYECTO DE CREACION DE SOFTWARE PARA MANTENIMIENTO
ESTUDIO TÉCNICO DEL PROYECTO DE CREACION DE SOFTWARE PARA MANTENIMIENTO
 
SEMANA 6 MEDIDAS DE TENDENCIA CENTRAL.pdf
SEMANA  6 MEDIDAS DE TENDENCIA CENTRAL.pdfSEMANA  6 MEDIDAS DE TENDENCIA CENTRAL.pdf
SEMANA 6 MEDIDAS DE TENDENCIA CENTRAL.pdf
 
Linea del tiempo de la inteligencia artificial.pptx
Linea del tiempo de la inteligencia artificial.pptxLinea del tiempo de la inteligencia artificial.pptx
Linea del tiempo de la inteligencia artificial.pptx
 
La mineralogia y minerales, clasificacion
La mineralogia y minerales, clasificacionLa mineralogia y minerales, clasificacion
La mineralogia y minerales, clasificacion
 
Historia de la Arquitectura II, 1era actividad..pdf
Historia de la Arquitectura II, 1era actividad..pdfHistoria de la Arquitectura II, 1era actividad..pdf
Historia de la Arquitectura II, 1era actividad..pdf
 
Edificio residencial Tarsia de AEDAS Homes Granada
Edificio residencial Tarsia de AEDAS Homes GranadaEdificio residencial Tarsia de AEDAS Homes Granada
Edificio residencial Tarsia de AEDAS Homes Granada
 
Revista estudiantil, trabajo final Materia ingeniería de Proyectos
Revista estudiantil, trabajo final Materia ingeniería de ProyectosRevista estudiantil, trabajo final Materia ingeniería de Proyectos
Revista estudiantil, trabajo final Materia ingeniería de Proyectos
 
PLAN DE TRABAJO - CONTRATISTA CORIS.docx
PLAN DE TRABAJO - CONTRATISTA CORIS.docxPLAN DE TRABAJO - CONTRATISTA CORIS.docx
PLAN DE TRABAJO - CONTRATISTA CORIS.docx
 
Diseño de un aerogenerador de 400w de eje vertical
Diseño de un aerogenerador de 400w de eje verticalDiseño de un aerogenerador de 400w de eje vertical
Diseño de un aerogenerador de 400w de eje vertical
 
Edificio residencial Becrux en Madrid. Fachada de GRC
Edificio residencial Becrux en Madrid. Fachada de GRCEdificio residencial Becrux en Madrid. Fachada de GRC
Edificio residencial Becrux en Madrid. Fachada de GRC
 
LICENCIA DE CONSTRUCCION, Y EDIFICACIONES RESPECTO A LA LEY 29090.pptx
LICENCIA DE CONSTRUCCION, Y EDIFICACIONES RESPECTO A LA LEY 29090.pptxLICENCIA DE CONSTRUCCION, Y EDIFICACIONES RESPECTO A LA LEY 29090.pptx
LICENCIA DE CONSTRUCCION, Y EDIFICACIONES RESPECTO A LA LEY 29090.pptx
 
S454444444444444444_CONTROL_SET_A_GEOMN1204.pdf
S454444444444444444_CONTROL_SET_A_GEOMN1204.pdfS454444444444444444_CONTROL_SET_A_GEOMN1204.pdf
S454444444444444444_CONTROL_SET_A_GEOMN1204.pdf
 
FORMACION-INTEGRAL-DE-LINIEROS modelo de curso.pdf
FORMACION-INTEGRAL-DE-LINIEROS modelo de curso.pdfFORMACION-INTEGRAL-DE-LINIEROS modelo de curso.pdf
FORMACION-INTEGRAL-DE-LINIEROS modelo de curso.pdf
 

Sesgo BacoProgpagation

  • 1. UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO CENTRO UNIVERSITARIO UAEM ATLACOMULCO Redes Neuronales BackPropagation “El Sesgo en Backpropagation” ico17 Levi Guadarrama Tercero Juan Carlos Tomas Reyes Oliver Sánchez Cruz Sesgo en Backpropagation Una forma de ver las redes neuronales es como metafunciones que aceptan un número fijo de entradas numéricas y producen un número fijo de salidas numéricas. En la mayoría de los casos, las redes neuronales tienen una capa de neuronas ocultas, donde cada una de estas está conectada completamente con las neuronas de entrada y de salida. Asociado con cada neurona oculta y cada neurona de salida individual se encuentra un conjunto de valores de ponderación y un valor único llamado sesgo. Las ponderaciones y sesgos determinan los valores de salida para un conjunto dado de valores de entrada. La técnica más común para calcular las ponderaciones y sesgos óptimos se llama propagación inversa. Aunque existen muchas referencias excelentes que describen las matemáticas complejas que subyacen a la propagación inversa, hay pocas guías disponibles para los programadores, que describan claramente cómo programar el algoritmo de propagación inversa. Este artículo explica cómo implementar la propagación inversa. El lenguaje de programación en los ejemplos es C#, pero no debería ser difícil refactorizarlos a otros lenguajes. La mejor forma de ver mi objetivo es mirar la captura de pantalla de un programa de demostración en la Ilustración 1. Este programa crea una red neuronal que tiene tres neuronas de entrada, con una capa oculta de cuatro neuronas y dos neuronas de salida. Las redes neuronales con una sola capa oculta requieren de dos funciones de activación. En muchas situaciones, sin embargo, estas dos funciones son iguales, habitualmente la función sigmoidea. Pero en esta demostración, para ilustrar la relación entre las funciones de activación y la propagación inversa, empleo funciones de activación diferentes: la función sigmoidea para los cálculos de la capa de entrada a la oculta, y la tangente hiperbólica para los cálculos de la capa oculta a la de salida. 1
  • 2. UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO CENTRO UNIVERSITARIO UAEM ATLACOMULCO Redes Neuronales BackPropagation “El Sesgo en Backpropagation” ico17 Levi Guadarrama Tercero Juan Carlos Tomas Reyes Oliver Sánchez Cruz Ilustracion 1 Algoritmo de propagación inversa en acción 2
  • 3. UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO CENTRO UNIVERSITARIO UAEM ATLACOMULCO Redes Neuronales BackPropagation “El Sesgo en Backpropagation” ico17 Levi Guadarrama Tercero Juan Carlos Tomas Reyes Oliver Sánchez Cruz Una red neuronal 3-4-2 completamente conectada requiere de 3*4 + 4*2 = 20 valores de ponderación y 4+2 = 6 valores de sesgo, lo que suma un total de 26 ponderaciones y sesgos. Estas ponderaciones y sesgos se inicializan en valores más o menos arbitrarios. Los valores de entrada genéricos se establecen en 1,0, 2,0 y 3,0. Con los valores iniciales de ponderación, sesgo y entrada, los valores de salida iniciales que calcula la red neuronal son {0,7225; -0,8779}. El programa de demostración supone que los dos valores de salida correctos son {-0,8500; 0,7500}. La finalidad del algoritmo de propagación inversa es encontrar un nuevo conjunto de ponderaciones y sesgos que generen resultados muy próximos a los valores correctos para las entradas {1,0; 2,0; 3,0}. La propagación inversa requiere de dos parámetros libres. La velocidad de aprendizaje, generalmente designada con la letra griega eta en la literatura sobre propagación inversa, controla la velocidad con la que el algoritmo converge en el cálculo final. El momento, designado generalmente con la letra griega alfa, permite que el algoritmo de propagación inversa evite las situaciones donde el algoritmo oscila sin converger en un cálculo final. El programa de demostración establece la velocidad de aprendizaje en 0,90 y el momento en 0,04. Normalmente estos valores se encuentran por ensayo y error. El proceso de encontrar el mejor conjunto de ponderaciones y sesgos para una red neuronal a veces se denomina entrenamiento de la red. En el caso de la propagación inversa, el entrenamiento es un proceso iterativo. En cada iteración, la propagación inversa calcula un nuevo conjunto de valores de ponderación y sesgo que, en teoría, generan valores de salida que estarán más cercanos a los valores esperados. Después de la primera iteración de entrenamiento del programa de demostración, el algoritmo de propagación inversa encontró los nuevos valores de ponderación y sesgo, que generaron los resultados nuevos {-0,8932; -0,8006}. El primer valor de salida de -0,8932 está mucho más cercano al primer valor esperado de -0,8500. El segundo valor nuevo de salida de -0,8006 sigue estando muy alejado del valor esperado de 0,7500. El proceso de entrenamiento se puede terminar de diferentes formas. El programa de demostración itera el entrenamiento hasta que la suma de las diferencias absolutas entre los valores de salida y los esperados sea menor que <= 0,01 o el entrenamiento llegue a 1.000 iteraciones. En la demostración, después de seis iteraciones de entrenamiento, la propagación inversa encontró un conjunto de valores de ponderación y sesgo que generaron salidas de {-0,8423; 0,7481}; muy próximas a los valores esperados de {-0,8500; 0,7500}. 3
  • 4. UNIVERSIDAD AUTÓNOMA DEL ESTADO DE MÉXICO CENTRO UNIVERSITARIO UAEM ATLACOMULCO Redes Neuronales BackPropagation “El Sesgo en Backpropagation” ico17 Levi Guadarrama Tercero Juan Carlos Tomas Reyes Oliver Sánchez Cruz 4 Bibliografía “Profundización en las redes neuronales”, en msdn.microsoft.com/magazine/hh975375.) El código del programa que aparece en la Ilustración 1 es demasiado extenso para presentarlo en este artículo, de modo que me concentraré en explicar las partes claves del algoritmo. El código fuente completo para el programa de demostración está disponible en archive.msdn.microsoft.com/mag201210TestRun.