SlideShare uma empresa Scribd logo
1 de 68
Perceptrón Simple
Redes Neuronales con Aprendizaje
Supervisado
Tutor de Cátedra: Ing. Sergio Pohlmann
Alumno: Andrea Fidela Lezcano Irala
Algunas Posibles Aplicaciones
Espacio Aéreo Automotriz
• Pilotos automáticos de alto
desempeño
• Simulaciones y predicciones
de trayectoria de vuelo
• Sistemas de control de vuelo
• Detección de fallas de
componentes de la nave
• Sistemas automáticos de
navegación
• Comando por voz
Bancos
• Lectores de documentos
• Evaluadores de asignación de
crédito
• Identificador de firmas.
Algunas Posibles Aplicaciones
Telecomunicaciones Electrónica
• Compresión de datos e
imágenes
• Servicios automáticos de
información
• Traducción de lenguaje
hablado en tiempo real
• Predicción de secuencias de
códigos
• Control de procesos
• Análisis de fallas de circuitos
• Visión de máquina
• Síntesis de voz
• Modelado no lineal
Algunas Posibles Aplicaciones
Robótica Transportación
• Control de trayectorias
• Control de manipuladores
• Sistemas de visión
• Sistemas ruteadores
• Diagnóstico de motores
• Tiempos y movimientos
Voz
• Reconocimiento de voz
• Compresión de voz
• Sintetizadores de texto a voz
Seguridad
• Reconocimiento de rostros
• Identificación
• Acceso de personas
Algunas Posibles Aplicaciones
Financieros Manufactura
• Evaluación de bienes raíces
• Consultor de prestamos
• Evaluación de bonos
corporativos
• Análisis del uso de la línea de
crédito
• Predicción de tipo de cambio
• Control de procesos de
manufactura
• Análisis y diseño de productos
• Diagnóstico de máquinas y
procesos
• Identificación de partes en tiempo
real
• Sistemas de inspección de calidad
• Predicción de fin de proceso
• Análisis de mantenimiento de
máquinas
• Modelado de sistemas dinámicos
Algunas Posibles Aplicaciones
Medicina Otros…
• Detección de cáncer mamario
o en la piel
• Análisis de EEG y ECG
• Diseño de prótesis
• Optimización de tiempos de
trasplante
• Reducción de gastos en
hospitales
• Oficinas postales
• Verificación remota
• Predicciones Climatológicas
• Filtrado de ruido
• ServoControl
• etc.
Modelos existentes de RNA
• Perceptrón
• Adaline
• Perceptrón multicapa
• Memorias asociativas
• Máquina de Boltzmann
• Máquina de Cauchy
• Propagación hacia atrás (backpropagation)
• Redes de Elman
• Redes de Hopfield
• Red de contrapropagación
• Redes de neuronas de base radial
• Redes de neuronas de aprendizaje competitivo
• Mapas Autoorganizados (Redes de Kohonen)
• Crecimiento dinámico de células
• Gas Neuronal Creciente
• Redes ART (Adaptative Resonance Theory)
Clasificación de las RNA
• Según su Topología o Patrón de Conexiones
pueden ser:
▫ Redes de propagación hacia adelante
 Monocapa
 Multicapa
▫ Redes Recurrentes
• Según su Tipo de Entrada pueden ser:
▫ Redes Analógicas
▫ Redes Discretas
▫ Redes Híbridas //Entrada Analógica y Salida Discreta
Clasificación de las RNA
• Según su Tipo de Aprendizaje pueden ser:
▫ Aprendizaje Supervisado
 Aprendizaje por corrección de error.
 Aprendizaje por refuerzo.
 Aprendizaje estocástico.
▫ Aprendizaje No Supervisado
 Aprendizaje Hebbiano.
 Aprendizaje competitivo y cooperativo.
▫ Aprendizaje Híbrido //Fase Supervisada y No Supervisada
Clasificación de las RNA
• Según el Aprendizaje que Observan:
▫ Redes OFF LINE //son más estables, poseen pesos estáticos
 Se distingue entre la fase de aprendizaje y la fase de
operación
▫ Redes ON LINE //se debe estudiar estabilidad, pesos dinámicos
 No se distingue entre la fase de entrenamiento y de
operación
El Perceptrón se sitúa en:
• Según su Topología o Patrón de Conexión:
▫ Red de propagación hacia adelante
 Monocapa
• Según su Tipo de Entrada:
▫ Red Híbrida // su entrada es analógica y su salida es discreta
• Según su Tipo de Aprendizaje:
▫ Aprendizaje Supervisado
Entonces podemos decir que…
El Perceptrón es un tipo Red Neuronal Monocapa
Híbrida de Aprendizaje Supervisado.
Ahora veamos las analogías de la Red Neuronal
Biológica y las Redes Neuronales Artificiales
para comprender mejor como trabaja y
aprende el Perceptrón…..
“Entender el cerebro y emular su potencia”
Bases Biológicas
• El cerebro humano es un sistema súper complejo y es el
más poderoso que existe.
• El proceso de información biológico es robusto y
tolerante a fallos.
• Los procesadores de información biológicos son
flexibles, no necesitan volver a ser programados cuando
se cambia de entorno o ambiente, sino que ellos mismos
se reajustan al entorno.
• Son capaces de trabajar con información incompleta, con
ruido e inconsistente.
• La maquinaría que realiza estas funciones es altamente
paralela, pequeña, compacta y disipa poca cantidad de
energía.
Esta maquinaria biológica es la célula del cerebro llamada neurona.
Neurona Biológica
Funcionamiento de la neurona
biológica
• Las Neuronas biológicas se componen de: Sinapsis,
Dendritas, Axones y Cuerpos Celulares.
• Un axón es el encargado de transportar la salida de la
neurona hasta las conexiones de otras neuronas
• Las dendritas facilitan la conexión con los axones de
otras neuronas.
• Una neurona no hace nada, a menos que la influencia
colectiva de todas sus entradas alcance un nivel de
umbral.
• Los axones influyen en las dendritas sobre unos espacios
estrechos llamados Sinapsis.
• La estimulación en unas sinapsis hace que las neuronas
se disparen y en otras desalienta el disparo.
Analogía de las RNA y Redes
Biológicas
• Las señales que llegan a la sinapsis son las entradas a la
neurona.
• Dichas señales son ponderadas (atenuadas o
modificadas) a través de un parámetro, denominado
PESO, asociado a la sinapsis correspondiente.
• Las señales pueden excitar a la neurona (sinapsis con
peso positivo) o inhibirla (peso negativo).
• El efecto es la suma de las entradas ponderadas.
• Si la suma es igual o mayor que el umbral de la neurona,
entonces la neurona se activa.
• Cada neurona se activa o no se activa
Representación Gráfica
Topologías Varias
Definiciones,
Características y
Algoritmos de Aprendizaje.
¿Qué es una RNA?
• Es un arreglo masivo de elementos de
procesamiento simple llamados neuronas, los cuales
poseen un alto grado de inter conectividad entre sus
elementos, en los que la información puede fluir en
cascada o en retroceso.
• Estos arreglos están inspirados en la naturaleza
biológica de las neuronas, las cuales intentan
interactuar con los objetos del mundo real del
mismo modo que lo hace el sistema nervioso
biológico.
Característica de las RNA
• Aprendizaje Adaptativo.
 Capacidad de aprender tareas basada en un entrenamiento
o una experiencia inicial.
• Auto organización.
 La red crea su propia organización o representación de la
información que recibe mediante una etapa de aprendizaje.
• Tolerancia a fallos.
 La red puede funcionar con información incompleta o
errónea o a pesar de algunos elementos inoperantes.
• Operación en tiempo real.
 La red procesa la información en paralelo y muy rápido
• Operación paralela.
Red Perceptrón. Propuesta Original
• En 1943 Warren Mc Culloch/Walter Pitts.-
Originaron el primer modelo de operación
neuronal.
• La característica principal del modelo neuronal
de Warren es que la suma ponderada de las
señales de entrada es comparada con un umbral
para determinar la salida de la neurona. Cuando
la suma es mayor o igual al umbral, la salida es
igual a 1. Cuando la suma es menor que el
umbral, la salida es 0
Contribución en 1950 de Frank
Rosenblatt
• Su contribución fue: Una regla de aprendizaje
para entrenar el perceptrón en la solución de
problemas de reconocimiento.
• La regla de aprendizaje simple convergirá a los
pesos correctos de la red si es que existen los
pesos que solucionan dicho problema. La regla
de aprendizaje es simple y automáticamente la
red aprende de sus errores.
Características del Perceptrón
• Aprendizaje Supervisado (offline)
• Aprendizaje por corrección de error
• Reconocimiento de patrones sencillos
• Clasificación de patrones linealmente
separables
Arquitectura del Perceptrón
• Dos Capas
• 1a Capa compuesta de varias neuronas
• 2a. Capa formada por una sola neurona
• Función de transferencia en escalón .
p1
p2
w1,1
w1,2
n a

b
1
El Perceptrón
• Bloque de construcción
básico
• Compuesto por el peso
sináptico y la neurona
• Los Pesos ponderan los
valores de las entradas
• La combinación de los
pesos y la función de
transferencia F(x),
transforma las entradas a la
salida “O” necesaria
• El entrenato es a traves de
los cambios en los pesos
hasta que el lograr la salida
deseada
F(x)
Bias 
I1
I2
In
I3
X
O
W1
W2
W3
Wn
Entradas Pesos
Sinapticos Neurona
¿Qué tipo de problemas resuelve?
• Un hiperplano es un objeto de dimensión n-1
que actúa en un espacio de dimensión n.
En general un perceptron de n entradas puede
ejecutar cualquier función que esté determinada
por un hiperplano que corte un espacio de
dimensión n. ¿Implicaciones?
Propuesta de Warren Mc Culloch
y Walter Pitts
Regla de Aprendizaje
If t 1 and a 0, then w1
new
w1
old
p+== =
If t 0 and a 1, then w1
n ew
w1
old
p–== =
If t a, then w1
new
w1
old
==
Ejemplo 1.
p1 t1{ , } p2 t2{ , }  pQ tQ{ , }  
p1
1
2
= t1 1=
 
 
 
p2
1–
2
= t2 0=
 
 
 
p3
0
1–
= t3 0=
 
 
 
Punto de Partida
w1
1.0
0.8–
=
Presentar p1 a la RNA:
a hardlim wT
1 p1  hardlim 1.0 0.8–
1
2 
 
 
= = a hardlim 0.6–  0= =
Inicialización aleatoria de los pesos
Clasificación Incorrecta
Regla de Aprendizaje Tentativo
• Conjunto1
w para p1
– No es estable
• Agregar p1
a 1
w
If t 1 and a 0, then w1
new
w1
old
p+== =
w1
new
w1
ol d
p1+ 1.0
0.8–
1
2
+ 2.0
1.2
= = =
Regla Tentativa:
Segundo Vector de Entrada
If t 0 and a 1, then w1
new
w1
old
p–== =
a hardlim wT
1 p2  hardlim 2.0 1.2
1–
2 
 
 
= =
a hardlim 0.4  1= = (Clasificación Incorrecta)
Modificación de la Regla:
w1
new
w1
ol d
p2–
2.0
1.2
1–
2
–
3.0
0.8–
= = =
Tercer Vector de Entrada
Los patrones están ahora
correctamente clasificados
a hardlim w
T
1 p3  hardlim 3.0 0.8–
0
1– 
 
 
= =
a hardlim 0.8  1= =
(Clasificación Incorrecta)
w1
new
w1
ol d
p3– 3.0
0.8–
0
1–
– 3.0
0.2
= = =
If t a, then w1
new
w1
o ld
.==
Contribución de Frank Rosenblatt
Unificación de la Regla de
Aprendizaje
e t a–=
w1
new
w1
old
ep+ w1
old
t a– p+= =
b
new
b
old
e+=
El bias es un
PESO con
entrada de 1
Perceptrones de Múltiples
Neuronas
wi
new
wi
old
eip+=
bi
new
bi
old
ei+=
Wnew
Wold
epT
+=
b
new
b
old
e+=
Para actualizar la fila i de la matriz de Pesos: Forma Matricial:
Ejemplo 2.
W 0.5 1– 0.5–= b 0.5=
Conjunto de Entrenamiento
Pesos Iniciales
p1
1–
1
1–
t1 1= =
 
 
 
 
 
p2
1
1
1–
t2 0= =
 
 
 
 
 
Recordando la función de
transferencia se define como:
 


 

contrariolotodo
nsi
nhardlima
0
01
n=Wp+b n
Época y Bias
• Se le llama época a cada iteración de la red por el
lote de entradas en la que haya ajuste de variables.
El ajuste de variables se puede hacer después de la
presentación de vectores de entrada individuales o
por lotes.
• La variable  también es llamada elemento de
tendencia o 'bias‘, que es el que mueve el hiperplano
de decisión a lo largo del eje 'x' o ‘y’. A esta variable
se le denomina en muchas ocasiones con el símbolo
‘b’.
Algoritmo de entrenamiento del
Perceptrón
repetir
para cada par de los vectores de entrenamiento (x, t)
evaluar la salida ai cuando xi es la entrada al perceptrón
si a  t, entonces
forme un nuevo vector de pesos w’ de acuerdo a...
la ecuación correspondiente
de otra manera,
no haga nada
fin (del si)
fin (del para)
hasta que a = t para todos los vectores.
Los valores de los pesos para este caso están restringidos entre -
1 y 1.
¿Qué pasa si la función que queremos
realizar ahora es la siguiente?
x1
x2
(0,0
)
(1,0)
(1,1)(0,1)
1
0
0
1
¿Esta función sería realizable con un Perceptron, o no?
X1 X2 Y
0 0 0
0 1 1
1 0 1
1 1 0
La capacidad de la Regla del
Perceptrón
La regla del Perceptrón siempre
convergirá a los pesos que cumplan
con la clasificación deseada,
asumiendo que tales pesos existan.
NOTA: Recordar que la longitud del vector de
pesos no es importante, lo único
importante es su dirección.
Soluciona Problemas linealmente
Separables
Incapaz de Resolver Problemas no
linealmente separables
Limitaciones del Perceptrón
Simple:
• El Perceptrón básico de dos capas o dimensiones solo
pude establecer dos regiones separadas por una frontera
lineal en el espacio de patrones de entrada, donde se
tendría el hiperplano.
48
Solución a problemas no lineales
• Un Perceptrón con tres niveles de neuronas puede
formar cualquier región convexa en este espacio.
• Un Perceptrón con cuatro capas puede generar regiones
de decisión arbitrariamente complejas.
49
50
Clasificación con el Perceptrón
Multicapa
¿Preguntas?
Google es tu mejor amigo 
Con un “poco” de ayudita extra para saber si vas por el buen
camino
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado

Mais conteúdo relacionado

Mais procurados

Analisis de fourier para señales
Analisis de fourier para señalesAnalisis de fourier para señales
Analisis de fourier para señalesdoc digitus
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESESCOM
 
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesConstruccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesESCOM
 
RED NEURONAL ADALINE
RED NEURONAL ADALINERED NEURONAL ADALINE
RED NEURONAL ADALINEESCOM
 
Regla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleRegla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleAndrea Lezcano
 
REDES NEURONALES Aprendizaje Competitivo Cooperativo
REDES NEURONALES Aprendizaje Competitivo CooperativoREDES NEURONALES Aprendizaje Competitivo Cooperativo
REDES NEURONALES Aprendizaje Competitivo CooperativoESCOM
 
Red Neuronal Difusa
Red Neuronal DifusaRed Neuronal Difusa
Red Neuronal DifusaESCOM
 
ORDENAMIENTO POR INTERCAMBIO
ORDENAMIENTO POR INTERCAMBIOORDENAMIENTO POR INTERCAMBIO
ORDENAMIENTO POR INTERCAMBIOWilmer Quintero
 
Maquinas de turing
Maquinas de turingMaquinas de turing
Maquinas de turingMitra Mejia
 
Programación 3: árboles de búsqueda equilibrados
Programación 3: árboles de búsqueda equilibradosProgramación 3: árboles de búsqueda equilibrados
Programación 3: árboles de búsqueda equilibradosAngel Vázquez Patiño
 
REDES NEURONALES DE APRENDIZAJE NO SUPERVISADO HEBB
REDES NEURONALES DE APRENDIZAJE NO SUPERVISADO HEBBREDES NEURONALES DE APRENDIZAJE NO SUPERVISADO HEBB
REDES NEURONALES DE APRENDIZAJE NO SUPERVISADO HEBBESCOM
 
Programación 3: Grafos, representación y operaciones
Programación 3: Grafos, representación y operacionesProgramación 3: Grafos, representación y operaciones
Programación 3: Grafos, representación y operacionesAngel Vázquez Patiño
 
REDES NEURONALES Base Radial
REDES NEURONALES Base RadialREDES NEURONALES Base Radial
REDES NEURONALES Base RadialESCOM
 
Maquina de Estado Finito, Circuito Secuenciales y Automatas de Estado Finito
Maquina de Estado Finito, Circuito Secuenciales y Automatas de Estado FinitoMaquina de Estado Finito, Circuito Secuenciales y Automatas de Estado Finito
Maquina de Estado Finito, Circuito Secuenciales y Automatas de Estado FinitoRosangela Perez
 
Tema 4 Sistemas Basados En Reglas Difusas
Tema 4 Sistemas Basados En Reglas DifusasTema 4 Sistemas Basados En Reglas Difusas
Tema 4 Sistemas Basados En Reglas DifusasESCOM
 
Variantes de BACKPROPAGATION
Variantes de BACKPROPAGATIONVariantes de BACKPROPAGATION
Variantes de BACKPROPAGATIONESCOM
 
Ingeniera de control: Criterio de estabilidad de nyquist
Ingeniera de control: Criterio de estabilidad de nyquistIngeniera de control: Criterio de estabilidad de nyquist
Ingeniera de control: Criterio de estabilidad de nyquistSANTIAGO PABLO ALBERTO
 
Propiedades de la convolución
Propiedades de la convoluciónPropiedades de la convolución
Propiedades de la convoluciónYolanda Mora
 
SeñAles Y Sistemas1
SeñAles Y Sistemas1SeñAles Y Sistemas1
SeñAles Y Sistemas1Matematissen
 

Mais procurados (20)

Analisis de fourier para señales
Analisis de fourier para señalesAnalisis de fourier para señales
Analisis de fourier para señales
 
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALESINTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCIÓN A LAS REDES NEURONALES ARTIFICIALES
 
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesConstruccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
 
RED NEURONAL ADALINE
RED NEURONAL ADALINERED NEURONAL ADALINE
RED NEURONAL ADALINE
 
Regla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simpleRegla de aprendizaje del perceptrón simple
Regla de aprendizaje del perceptrón simple
 
REDES NEURONALES Aprendizaje Competitivo Cooperativo
REDES NEURONALES Aprendizaje Competitivo CooperativoREDES NEURONALES Aprendizaje Competitivo Cooperativo
REDES NEURONALES Aprendizaje Competitivo Cooperativo
 
Red Neuronal Difusa
Red Neuronal DifusaRed Neuronal Difusa
Red Neuronal Difusa
 
ORDENAMIENTO POR INTERCAMBIO
ORDENAMIENTO POR INTERCAMBIOORDENAMIENTO POR INTERCAMBIO
ORDENAMIENTO POR INTERCAMBIO
 
Maquinas de turing
Maquinas de turingMaquinas de turing
Maquinas de turing
 
Programación 3: árboles de búsqueda equilibrados
Programación 3: árboles de búsqueda equilibradosProgramación 3: árboles de búsqueda equilibrados
Programación 3: árboles de búsqueda equilibrados
 
REDES NEURONALES DE APRENDIZAJE NO SUPERVISADO HEBB
REDES NEURONALES DE APRENDIZAJE NO SUPERVISADO HEBBREDES NEURONALES DE APRENDIZAJE NO SUPERVISADO HEBB
REDES NEURONALES DE APRENDIZAJE NO SUPERVISADO HEBB
 
Programación 3: Grafos, representación y operaciones
Programación 3: Grafos, representación y operacionesProgramación 3: Grafos, representación y operaciones
Programación 3: Grafos, representación y operaciones
 
REDES NEURONALES Base Radial
REDES NEURONALES Base RadialREDES NEURONALES Base Radial
REDES NEURONALES Base Radial
 
Maquina de Estado Finito, Circuito Secuenciales y Automatas de Estado Finito
Maquina de Estado Finito, Circuito Secuenciales y Automatas de Estado FinitoMaquina de Estado Finito, Circuito Secuenciales y Automatas de Estado Finito
Maquina de Estado Finito, Circuito Secuenciales y Automatas de Estado Finito
 
Tema 4 Sistemas Basados En Reglas Difusas
Tema 4 Sistemas Basados En Reglas DifusasTema 4 Sistemas Basados En Reglas Difusas
Tema 4 Sistemas Basados En Reglas Difusas
 
Variantes de BACKPROPAGATION
Variantes de BACKPROPAGATIONVariantes de BACKPROPAGATION
Variantes de BACKPROPAGATION
 
Ingeniera de control: Criterio de estabilidad de nyquist
Ingeniera de control: Criterio de estabilidad de nyquistIngeniera de control: Criterio de estabilidad de nyquist
Ingeniera de control: Criterio de estabilidad de nyquist
 
Propiedades de la convolución
Propiedades de la convoluciónPropiedades de la convolución
Propiedades de la convolución
 
SeñAles Y Sistemas1
SeñAles Y Sistemas1SeñAles Y Sistemas1
SeñAles Y Sistemas1
 
Estructura de Datos - Unidad 6 Metodos de busqueda
Estructura de Datos - Unidad 6 Metodos de busquedaEstructura de Datos - Unidad 6 Metodos de busqueda
Estructura de Datos - Unidad 6 Metodos de busqueda
 

Semelhante a Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado

presentacion RNA y arquitecturas
presentacion RNA y arquitecturaspresentacion RNA y arquitecturas
presentacion RNA y arquitecturasJhonatan Navarro
 
Tema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
Tema 8 Aprendizaje De Sistemas Difusos Con Redes NeuronalesTema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
Tema 8 Aprendizaje De Sistemas Difusos Con Redes NeuronalesESCOM
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronalesDanielars26
 
Inteligencia Artificial Clase 2
Inteligencia Artificial Clase 2Inteligencia Artificial Clase 2
Inteligencia Artificial Clase 2UNEFA
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronalesJimmy Ramos
 
Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaLevy GT
 
Introduccion redes neuronales artificiales
Introduccion redes neuronales artificialesIntroduccion redes neuronales artificiales
Introduccion redes neuronales artificialesESCOM
 
Utp sirn_s2_rna 2014-2
 Utp sirn_s2_rna 2014-2 Utp sirn_s2_rna 2014-2
Utp sirn_s2_rna 2014-2c09271
 
Utp sirn_s2_rna 2014-2
 Utp sirn_s2_rna 2014-2 Utp sirn_s2_rna 2014-2
Utp sirn_s2_rna 2014-2c09271
 
Generalidades De Las Redes Neuronales Artificiales (RNA)
Generalidades De Las  Redes Neuronales Artificiales  (RNA)Generalidades De Las  Redes Neuronales Artificiales  (RNA)
Generalidades De Las Redes Neuronales Artificiales (RNA)ESCOM
 
Utp 2014-2_ia_s2_intro a las rna
 Utp 2014-2_ia_s2_intro a las rna  Utp 2014-2_ia_s2_intro a las rna
Utp 2014-2_ia_s2_intro a las rna c09271
 

Semelhante a Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado (20)

presentacion RNA y arquitecturas
presentacion RNA y arquitecturaspresentacion RNA y arquitecturas
presentacion RNA y arquitecturas
 
Tema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
Tema 8 Aprendizaje De Sistemas Difusos Con Redes NeuronalesTema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
Tema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Inteligencia Artificial Clase 2
Inteligencia Artificial Clase 2Inteligencia Artificial Clase 2
Inteligencia Artificial Clase 2
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Slidecats
SlidecatsSlidecats
Slidecats
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapaRedes neuronales multicapa y monocapa
Redes neuronales multicapa y monocapa
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
redes neuronales
redes neuronalesredes neuronales
redes neuronales
 
2º asignacion redes neuronales
2º asignacion redes neuronales2º asignacion redes neuronales
2º asignacion redes neuronales
 
Introduccion redes neuronales artificiales
Introduccion redes neuronales artificialesIntroduccion redes neuronales artificiales
Introduccion redes neuronales artificiales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Utp sirn_s2_rna 2014-2
 Utp sirn_s2_rna 2014-2 Utp sirn_s2_rna 2014-2
Utp sirn_s2_rna 2014-2
 
Utp sirn_s2_rna 2014-2
 Utp sirn_s2_rna 2014-2 Utp sirn_s2_rna 2014-2
Utp sirn_s2_rna 2014-2
 
Generalidades De Las Redes Neuronales Artificiales (RNA)
Generalidades De Las  Redes Neuronales Artificiales  (RNA)Generalidades De Las  Redes Neuronales Artificiales  (RNA)
Generalidades De Las Redes Neuronales Artificiales (RNA)
 
Utp 2014-2_ia_s2_intro a las rna
 Utp 2014-2_ia_s2_intro a las rna  Utp 2014-2_ia_s2_intro a las rna
Utp 2014-2_ia_s2_intro a las rna
 

Último

SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptx
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptxSEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptx
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptxYadi Campos
 
origen y desarrollo del ensayo literario
origen y desarrollo del ensayo literarioorigen y desarrollo del ensayo literario
origen y desarrollo del ensayo literarioELIASAURELIOCHAVEZCA1
 
Feliz Día de la Madre - 5 de Mayo, 2024.pdf
Feliz Día de la Madre - 5 de Mayo, 2024.pdfFeliz Día de la Madre - 5 de Mayo, 2024.pdf
Feliz Día de la Madre - 5 de Mayo, 2024.pdfMercedes Gonzalez
 
Prueba libre de Geografía para obtención título Bachillerato - 2024
Prueba libre de Geografía para obtención título Bachillerato - 2024Prueba libre de Geografía para obtención título Bachillerato - 2024
Prueba libre de Geografía para obtención título Bachillerato - 2024Juan Martín Martín
 
Lecciones 05 Esc. Sabática. Fe contra todo pronóstico.
Lecciones 05 Esc. Sabática. Fe contra todo pronóstico.Lecciones 05 Esc. Sabática. Fe contra todo pronóstico.
Lecciones 05 Esc. Sabática. Fe contra todo pronóstico.Alejandrino Halire Ccahuana
 
Prueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESO
Prueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESOPrueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESO
Prueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESOluismii249
 
PINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).ppt
PINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).pptPINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).ppt
PINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).pptAlberto Rubio
 
PLAN DE REFUERZO ESCOLAR primaria (1).docx
PLAN DE REFUERZO ESCOLAR primaria (1).docxPLAN DE REFUERZO ESCOLAR primaria (1).docx
PLAN DE REFUERZO ESCOLAR primaria (1).docxlupitavic
 
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdfSELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdfAngélica Soledad Vega Ramírez
 
Tema 10. Dinámica y funciones de la Atmosfera 2024
Tema 10. Dinámica y funciones de la Atmosfera 2024Tema 10. Dinámica y funciones de la Atmosfera 2024
Tema 10. Dinámica y funciones de la Atmosfera 2024IES Vicent Andres Estelles
 
Abril 2024 - Maestra Jardinera Ediba.pdf
Abril 2024 -  Maestra Jardinera Ediba.pdfAbril 2024 -  Maestra Jardinera Ediba.pdf
Abril 2024 - Maestra Jardinera Ediba.pdfValeriaCorrea29
 
AFICHE EL MANIERISMO HISTORIA DE LA ARQUITECTURA II
AFICHE EL MANIERISMO HISTORIA DE LA ARQUITECTURA IIAFICHE EL MANIERISMO HISTORIA DE LA ARQUITECTURA II
AFICHE EL MANIERISMO HISTORIA DE LA ARQUITECTURA IIIsauraImbrondone
 
Dinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes dDinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes dstEphaniiie
 
Proyecto de aprendizaje dia de la madre MINT.pdf
Proyecto de aprendizaje dia de la madre MINT.pdfProyecto de aprendizaje dia de la madre MINT.pdf
Proyecto de aprendizaje dia de la madre MINT.pdfpatriciaines1993
 
SESION DE PERSONAL SOCIAL. La convivencia en familia 22-04-24 -.doc
SESION DE PERSONAL SOCIAL.  La convivencia en familia 22-04-24  -.docSESION DE PERSONAL SOCIAL.  La convivencia en familia 22-04-24  -.doc
SESION DE PERSONAL SOCIAL. La convivencia en familia 22-04-24 -.docRodneyFrankCUADROSMI
 
🦄💫4° SEM32 WORD PLANEACIÓN PROYECTOS DARUKEL 23-24.docx
🦄💫4° SEM32 WORD PLANEACIÓN PROYECTOS DARUKEL 23-24.docx🦄💫4° SEM32 WORD PLANEACIÓN PROYECTOS DARUKEL 23-24.docx
🦄💫4° SEM32 WORD PLANEACIÓN PROYECTOS DARUKEL 23-24.docxEliaHernndez7
 
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...JAVIER SOLIS NOYOLA
 
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURAFORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURAEl Fortí
 

Último (20)

SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptx
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptxSEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptx
SEXTO SEGUNDO PERIODO EMPRENDIMIENTO.pptx
 
origen y desarrollo del ensayo literario
origen y desarrollo del ensayo literarioorigen y desarrollo del ensayo literario
origen y desarrollo del ensayo literario
 
Medición del Movimiento Online 2024.pptx
Medición del Movimiento Online 2024.pptxMedición del Movimiento Online 2024.pptx
Medición del Movimiento Online 2024.pptx
 
Feliz Día de la Madre - 5 de Mayo, 2024.pdf
Feliz Día de la Madre - 5 de Mayo, 2024.pdfFeliz Día de la Madre - 5 de Mayo, 2024.pdf
Feliz Día de la Madre - 5 de Mayo, 2024.pdf
 
Prueba libre de Geografía para obtención título Bachillerato - 2024
Prueba libre de Geografía para obtención título Bachillerato - 2024Prueba libre de Geografía para obtención título Bachillerato - 2024
Prueba libre de Geografía para obtención título Bachillerato - 2024
 
Tema 8.- PROTECCION DE LOS SISTEMAS DE INFORMACIÓN.pdf
Tema 8.- PROTECCION DE LOS SISTEMAS DE INFORMACIÓN.pdfTema 8.- PROTECCION DE LOS SISTEMAS DE INFORMACIÓN.pdf
Tema 8.- PROTECCION DE LOS SISTEMAS DE INFORMACIÓN.pdf
 
Lecciones 05 Esc. Sabática. Fe contra todo pronóstico.
Lecciones 05 Esc. Sabática. Fe contra todo pronóstico.Lecciones 05 Esc. Sabática. Fe contra todo pronóstico.
Lecciones 05 Esc. Sabática. Fe contra todo pronóstico.
 
Prueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESO
Prueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESOPrueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESO
Prueba de evaluación Geografía e Historia Comunidad de Madrid 2º de la ESO
 
PINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).ppt
PINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).pptPINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).ppt
PINTURA DEL RENACIMIENTO EN ESPAÑA (SIGLO XVI).ppt
 
PLAN DE REFUERZO ESCOLAR primaria (1).docx
PLAN DE REFUERZO ESCOLAR primaria (1).docxPLAN DE REFUERZO ESCOLAR primaria (1).docx
PLAN DE REFUERZO ESCOLAR primaria (1).docx
 
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdfSELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
SELECCIÓN DE LA MUESTRA Y MUESTREO EN INVESTIGACIÓN CUALITATIVA.pdf
 
Tema 10. Dinámica y funciones de la Atmosfera 2024
Tema 10. Dinámica y funciones de la Atmosfera 2024Tema 10. Dinámica y funciones de la Atmosfera 2024
Tema 10. Dinámica y funciones de la Atmosfera 2024
 
Abril 2024 - Maestra Jardinera Ediba.pdf
Abril 2024 -  Maestra Jardinera Ediba.pdfAbril 2024 -  Maestra Jardinera Ediba.pdf
Abril 2024 - Maestra Jardinera Ediba.pdf
 
AFICHE EL MANIERISMO HISTORIA DE LA ARQUITECTURA II
AFICHE EL MANIERISMO HISTORIA DE LA ARQUITECTURA IIAFICHE EL MANIERISMO HISTORIA DE LA ARQUITECTURA II
AFICHE EL MANIERISMO HISTORIA DE LA ARQUITECTURA II
 
Dinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes dDinámica florecillas a María en el mes d
Dinámica florecillas a María en el mes d
 
Proyecto de aprendizaje dia de la madre MINT.pdf
Proyecto de aprendizaje dia de la madre MINT.pdfProyecto de aprendizaje dia de la madre MINT.pdf
Proyecto de aprendizaje dia de la madre MINT.pdf
 
SESION DE PERSONAL SOCIAL. La convivencia en familia 22-04-24 -.doc
SESION DE PERSONAL SOCIAL.  La convivencia en familia 22-04-24  -.docSESION DE PERSONAL SOCIAL.  La convivencia en familia 22-04-24  -.doc
SESION DE PERSONAL SOCIAL. La convivencia en familia 22-04-24 -.doc
 
🦄💫4° SEM32 WORD PLANEACIÓN PROYECTOS DARUKEL 23-24.docx
🦄💫4° SEM32 WORD PLANEACIÓN PROYECTOS DARUKEL 23-24.docx🦄💫4° SEM32 WORD PLANEACIÓN PROYECTOS DARUKEL 23-24.docx
🦄💫4° SEM32 WORD PLANEACIÓN PROYECTOS DARUKEL 23-24.docx
 
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...
LABERINTOS DE DISCIPLINAS DEL PENTATLÓN OLÍMPICO MODERNO. Por JAVIER SOLIS NO...
 
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURAFORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
FORTI-MAYO 2024.pdf.CIENCIA,EDUCACION,CULTURA
 

Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado

  • 1. Perceptrón Simple Redes Neuronales con Aprendizaje Supervisado
  • 2. Tutor de Cátedra: Ing. Sergio Pohlmann Alumno: Andrea Fidela Lezcano Irala
  • 3. Algunas Posibles Aplicaciones Espacio Aéreo Automotriz • Pilotos automáticos de alto desempeño • Simulaciones y predicciones de trayectoria de vuelo • Sistemas de control de vuelo • Detección de fallas de componentes de la nave • Sistemas automáticos de navegación • Comando por voz Bancos • Lectores de documentos • Evaluadores de asignación de crédito • Identificador de firmas.
  • 4. Algunas Posibles Aplicaciones Telecomunicaciones Electrónica • Compresión de datos e imágenes • Servicios automáticos de información • Traducción de lenguaje hablado en tiempo real • Predicción de secuencias de códigos • Control de procesos • Análisis de fallas de circuitos • Visión de máquina • Síntesis de voz • Modelado no lineal
  • 5. Algunas Posibles Aplicaciones Robótica Transportación • Control de trayectorias • Control de manipuladores • Sistemas de visión • Sistemas ruteadores • Diagnóstico de motores • Tiempos y movimientos Voz • Reconocimiento de voz • Compresión de voz • Sintetizadores de texto a voz Seguridad • Reconocimiento de rostros • Identificación • Acceso de personas
  • 6. Algunas Posibles Aplicaciones Financieros Manufactura • Evaluación de bienes raíces • Consultor de prestamos • Evaluación de bonos corporativos • Análisis del uso de la línea de crédito • Predicción de tipo de cambio • Control de procesos de manufactura • Análisis y diseño de productos • Diagnóstico de máquinas y procesos • Identificación de partes en tiempo real • Sistemas de inspección de calidad • Predicción de fin de proceso • Análisis de mantenimiento de máquinas • Modelado de sistemas dinámicos
  • 7. Algunas Posibles Aplicaciones Medicina Otros… • Detección de cáncer mamario o en la piel • Análisis de EEG y ECG • Diseño de prótesis • Optimización de tiempos de trasplante • Reducción de gastos en hospitales • Oficinas postales • Verificación remota • Predicciones Climatológicas • Filtrado de ruido • ServoControl • etc.
  • 8. Modelos existentes de RNA • Perceptrón • Adaline • Perceptrón multicapa • Memorias asociativas • Máquina de Boltzmann • Máquina de Cauchy • Propagación hacia atrás (backpropagation) • Redes de Elman • Redes de Hopfield • Red de contrapropagación • Redes de neuronas de base radial • Redes de neuronas de aprendizaje competitivo • Mapas Autoorganizados (Redes de Kohonen) • Crecimiento dinámico de células • Gas Neuronal Creciente • Redes ART (Adaptative Resonance Theory)
  • 9. Clasificación de las RNA • Según su Topología o Patrón de Conexiones pueden ser: ▫ Redes de propagación hacia adelante  Monocapa  Multicapa ▫ Redes Recurrentes • Según su Tipo de Entrada pueden ser: ▫ Redes Analógicas ▫ Redes Discretas ▫ Redes Híbridas //Entrada Analógica y Salida Discreta
  • 10. Clasificación de las RNA • Según su Tipo de Aprendizaje pueden ser: ▫ Aprendizaje Supervisado  Aprendizaje por corrección de error.  Aprendizaje por refuerzo.  Aprendizaje estocástico. ▫ Aprendizaje No Supervisado  Aprendizaje Hebbiano.  Aprendizaje competitivo y cooperativo. ▫ Aprendizaje Híbrido //Fase Supervisada y No Supervisada
  • 11. Clasificación de las RNA • Según el Aprendizaje que Observan: ▫ Redes OFF LINE //son más estables, poseen pesos estáticos  Se distingue entre la fase de aprendizaje y la fase de operación ▫ Redes ON LINE //se debe estudiar estabilidad, pesos dinámicos  No se distingue entre la fase de entrenamiento y de operación
  • 12. El Perceptrón se sitúa en: • Según su Topología o Patrón de Conexión: ▫ Red de propagación hacia adelante  Monocapa • Según su Tipo de Entrada: ▫ Red Híbrida // su entrada es analógica y su salida es discreta • Según su Tipo de Aprendizaje: ▫ Aprendizaje Supervisado
  • 13. Entonces podemos decir que… El Perceptrón es un tipo Red Neuronal Monocapa Híbrida de Aprendizaje Supervisado. Ahora veamos las analogías de la Red Neuronal Biológica y las Redes Neuronales Artificiales para comprender mejor como trabaja y aprende el Perceptrón…..
  • 14. “Entender el cerebro y emular su potencia”
  • 15. Bases Biológicas • El cerebro humano es un sistema súper complejo y es el más poderoso que existe. • El proceso de información biológico es robusto y tolerante a fallos. • Los procesadores de información biológicos son flexibles, no necesitan volver a ser programados cuando se cambia de entorno o ambiente, sino que ellos mismos se reajustan al entorno. • Son capaces de trabajar con información incompleta, con ruido e inconsistente. • La maquinaría que realiza estas funciones es altamente paralela, pequeña, compacta y disipa poca cantidad de energía. Esta maquinaria biológica es la célula del cerebro llamada neurona.
  • 17. Funcionamiento de la neurona biológica • Las Neuronas biológicas se componen de: Sinapsis, Dendritas, Axones y Cuerpos Celulares. • Un axón es el encargado de transportar la salida de la neurona hasta las conexiones de otras neuronas • Las dendritas facilitan la conexión con los axones de otras neuronas. • Una neurona no hace nada, a menos que la influencia colectiva de todas sus entradas alcance un nivel de umbral. • Los axones influyen en las dendritas sobre unos espacios estrechos llamados Sinapsis. • La estimulación en unas sinapsis hace que las neuronas se disparen y en otras desalienta el disparo.
  • 18. Analogía de las RNA y Redes Biológicas • Las señales que llegan a la sinapsis son las entradas a la neurona. • Dichas señales son ponderadas (atenuadas o modificadas) a través de un parámetro, denominado PESO, asociado a la sinapsis correspondiente. • Las señales pueden excitar a la neurona (sinapsis con peso positivo) o inhibirla (peso negativo). • El efecto es la suma de las entradas ponderadas. • Si la suma es igual o mayor que el umbral de la neurona, entonces la neurona se activa. • Cada neurona se activa o no se activa
  • 22. ¿Qué es una RNA? • Es un arreglo masivo de elementos de procesamiento simple llamados neuronas, los cuales poseen un alto grado de inter conectividad entre sus elementos, en los que la información puede fluir en cascada o en retroceso. • Estos arreglos están inspirados en la naturaleza biológica de las neuronas, las cuales intentan interactuar con los objetos del mundo real del mismo modo que lo hace el sistema nervioso biológico.
  • 23. Característica de las RNA • Aprendizaje Adaptativo.  Capacidad de aprender tareas basada en un entrenamiento o una experiencia inicial. • Auto organización.  La red crea su propia organización o representación de la información que recibe mediante una etapa de aprendizaje. • Tolerancia a fallos.  La red puede funcionar con información incompleta o errónea o a pesar de algunos elementos inoperantes. • Operación en tiempo real.  La red procesa la información en paralelo y muy rápido • Operación paralela.
  • 24. Red Perceptrón. Propuesta Original • En 1943 Warren Mc Culloch/Walter Pitts.- Originaron el primer modelo de operación neuronal. • La característica principal del modelo neuronal de Warren es que la suma ponderada de las señales de entrada es comparada con un umbral para determinar la salida de la neurona. Cuando la suma es mayor o igual al umbral, la salida es igual a 1. Cuando la suma es menor que el umbral, la salida es 0
  • 25. Contribución en 1950 de Frank Rosenblatt • Su contribución fue: Una regla de aprendizaje para entrenar el perceptrón en la solución de problemas de reconocimiento. • La regla de aprendizaje simple convergirá a los pesos correctos de la red si es que existen los pesos que solucionan dicho problema. La regla de aprendizaje es simple y automáticamente la red aprende de sus errores.
  • 26. Características del Perceptrón • Aprendizaje Supervisado (offline) • Aprendizaje por corrección de error • Reconocimiento de patrones sencillos • Clasificación de patrones linealmente separables
  • 27. Arquitectura del Perceptrón • Dos Capas • 1a Capa compuesta de varias neuronas • 2a. Capa formada por una sola neurona • Función de transferencia en escalón . p1 p2 w1,1 w1,2 n a  b 1
  • 28. El Perceptrón • Bloque de construcción básico • Compuesto por el peso sináptico y la neurona • Los Pesos ponderan los valores de las entradas • La combinación de los pesos y la función de transferencia F(x), transforma las entradas a la salida “O” necesaria • El entrenato es a traves de los cambios en los pesos hasta que el lograr la salida deseada F(x) Bias  I1 I2 In I3 X O W1 W2 W3 Wn Entradas Pesos Sinapticos Neurona
  • 29. ¿Qué tipo de problemas resuelve? • Un hiperplano es un objeto de dimensión n-1 que actúa en un espacio de dimensión n. En general un perceptron de n entradas puede ejecutar cualquier función que esté determinada por un hiperplano que corte un espacio de dimensión n. ¿Implicaciones?
  • 30. Propuesta de Warren Mc Culloch y Walter Pitts
  • 31. Regla de Aprendizaje If t 1 and a 0, then w1 new w1 old p+== = If t 0 and a 1, then w1 n ew w1 old p–== = If t a, then w1 new w1 old ==
  • 32. Ejemplo 1. p1 t1{ , } p2 t2{ , }  pQ tQ{ , }   p1 1 2 = t1 1=       p2 1– 2 = t2 0=       p3 0 1– = t3 0=      
  • 33. Punto de Partida w1 1.0 0.8– = Presentar p1 a la RNA: a hardlim wT 1 p1  hardlim 1.0 0.8– 1 2      = = a hardlim 0.6–  0= = Inicialización aleatoria de los pesos Clasificación Incorrecta
  • 34. Regla de Aprendizaje Tentativo • Conjunto1 w para p1 – No es estable • Agregar p1 a 1 w If t 1 and a 0, then w1 new w1 old p+== = w1 new w1 ol d p1+ 1.0 0.8– 1 2 + 2.0 1.2 = = = Regla Tentativa:
  • 35. Segundo Vector de Entrada If t 0 and a 1, then w1 new w1 old p–== = a hardlim wT 1 p2  hardlim 2.0 1.2 1– 2      = = a hardlim 0.4  1= = (Clasificación Incorrecta) Modificación de la Regla: w1 new w1 ol d p2– 2.0 1.2 1– 2 – 3.0 0.8– = = =
  • 36. Tercer Vector de Entrada Los patrones están ahora correctamente clasificados a hardlim w T 1 p3  hardlim 3.0 0.8– 0 1–      = = a hardlim 0.8  1= = (Clasificación Incorrecta) w1 new w1 ol d p3– 3.0 0.8– 0 1– – 3.0 0.2 = = = If t a, then w1 new w1 o ld .==
  • 38. Unificación de la Regla de Aprendizaje e t a–= w1 new w1 old ep+ w1 old t a– p+= = b new b old e+= El bias es un PESO con entrada de 1
  • 40. Ejemplo 2. W 0.5 1– 0.5–= b 0.5= Conjunto de Entrenamiento Pesos Iniciales p1 1– 1 1– t1 1= =           p2 1 1 1– t2 0= =          
  • 41. Recordando la función de transferencia se define como:        contrariolotodo nsi nhardlima 0 01 n=Wp+b n
  • 42. Época y Bias • Se le llama época a cada iteración de la red por el lote de entradas en la que haya ajuste de variables. El ajuste de variables se puede hacer después de la presentación de vectores de entrada individuales o por lotes. • La variable  también es llamada elemento de tendencia o 'bias‘, que es el que mueve el hiperplano de decisión a lo largo del eje 'x' o ‘y’. A esta variable se le denomina en muchas ocasiones con el símbolo ‘b’.
  • 43. Algoritmo de entrenamiento del Perceptrón repetir para cada par de los vectores de entrenamiento (x, t) evaluar la salida ai cuando xi es la entrada al perceptrón si a  t, entonces forme un nuevo vector de pesos w’ de acuerdo a... la ecuación correspondiente de otra manera, no haga nada fin (del si) fin (del para) hasta que a = t para todos los vectores. Los valores de los pesos para este caso están restringidos entre - 1 y 1.
  • 44. ¿Qué pasa si la función que queremos realizar ahora es la siguiente? x1 x2 (0,0 ) (1,0) (1,1)(0,1) 1 0 0 1 ¿Esta función sería realizable con un Perceptron, o no? X1 X2 Y 0 0 0 0 1 1 1 0 1 1 1 0
  • 45. La capacidad de la Regla del Perceptrón La regla del Perceptrón siempre convergirá a los pesos que cumplan con la clasificación deseada, asumiendo que tales pesos existan. NOTA: Recordar que la longitud del vector de pesos no es importante, lo único importante es su dirección.
  • 47. Incapaz de Resolver Problemas no linealmente separables
  • 48. Limitaciones del Perceptrón Simple: • El Perceptrón básico de dos capas o dimensiones solo pude establecer dos regiones separadas por una frontera lineal en el espacio de patrones de entrada, donde se tendría el hiperplano. 48
  • 49. Solución a problemas no lineales • Un Perceptrón con tres niveles de neuronas puede formar cualquier región convexa en este espacio. • Un Perceptrón con cuatro capas puede generar regiones de decisión arbitrariamente complejas. 49
  • 50. 50 Clasificación con el Perceptrón Multicapa
  • 51. ¿Preguntas? Google es tu mejor amigo 
  • 52. Con un “poco” de ayudita extra para saber si vas por el buen camino