SlideShare uma empresa Scribd logo
1 de 47
Baixar para ler offline
Introducción a Las redes
        Neuronales (Neurales)
              CO-6612
Coordenadas iniciales:
 Prof. Minaya Villasana
 Oficina: CBI-112
 Extension: 906 3386
 forma más fácil (preferida) de contacto: mvillasa@usb.ve




                                         Introducción a las Redes Neuronales Artificiales
• Bibliografia:
  – Simon Haykin, Neural Networks: A comprehensive
     Foundation, Segunda Edición, Prentince Hall, 1998.
   – Christopher Bishop, Neural networks for pattern
     recognition, Oxford press, 1995.
   – " Neural Networks Toolbox: User's guide. Version 4",           H.
     Demuth and M. Beale (Disponible en
     http://www.mathworks.com/access/helpdesk/h
     elp/pdf_doc/nnet/nnet.pdf)
   – Otros recursos en internet y en biblioteca central.
   – Página del curso: http://prof.usb.ve/mvillasa/




                                            Introducción a las Redes Neuronales Artificiales
• Sistema de Evaluación:
  – Proyecto asignado (30%)
     • Será una data común para todos que deben analizar (clasificar,
       interpolar) con cierto grado de dificultad asociado. Se espera
       que ustedes realicen un analisis profundo de la data y obtener
       los mejores resultados.
     • El proyecto es la última entrega del trimestre en semana 11/12
       y lo tendrán desde la semana 8/9 (aprox.)
  – Proyecto de Investigación (20%)
     • A discreción del estudiante.
     • Trabajos publicados (mas no trabajos hechos por ustedes
       mismos), temas complementarios, etc.
     • Consiste en una presentación.
  – Tareas (50%)
     • Me gustan mucho las tareas (una especie de adicción).
     • Las tareas vencen a las dos semanas de ser entregadas.


                                          Introducción a las Redes Neuronales Artificiales
• Horario y demás menudencias:
  – Horario tentativo:
     • Viernes 1:30 a 4:30 p.m.
     • CBI-131
  – Para la semana 10/11 el grueso del curso
    debe estar listo.




                                  Introducción a las Redes Neuronales Artificiales
INTRODUCCIÓN A LAS
REDES NEURONALES Y
 SUS APLICACIONES



            Introducción a las Redes Neuronales Artificiales
Introducción




Una red neuronal artificial es una herramienta diseñada para
emular la forma en que el cerebro humano funciona


    ¿ Cómo funciona el cerebro humano ?

    ¿ Cómo aprende el ser humano ?

    ¿ Dónde se guarda el conocimiento ?

   ¿Por qué es tan eficiente el cerebro humano ?




                                          Introducción a las Redes Neuronales Artificiales
Introducción


El cerebro humano está compuesto por una gran cantidad de elementos
básicos denominados neuronas

Básicamente las neuronas están formadas por:


• Un cuerpo central o Núcleo

• Un mecanismo de conexión con
otras neuronas (sinapsis):

   Axón y dendritas




                                               Introducción a las Redes Neuronales Artificiales
Introducción




 http://www.4colorvision.com/pix/pyramidpix.gif
Introducción a las Redes Neuronales Artificiales
Introducción



Los estímulos recibidos en el cerebro son
transmitidos entre las neuronas mediante las
conexiones sinápticas.


Cuando una neurona es estimulada libera una
pequeña cantidad de un componente químico
(neurotransmisor). Este viaja a través del axón
hasta llegar a las dendritas de otras neuronas en las
cuales el proceso se repite.


Este proceso sirve para incrementar o
disminuir la relación entre las neuronas
involucradas en el.


Así, ante un determinado estímulo ciertas
neuronas se activan y otras se inhiben




                                                        Introducción a las Redes Neuronales Artificiales
Introducción



   Ejemplo



                                        Respuesta
Estímulo 1




Estímulo 2
                                        Respuesta




             Introducción a las Redes Neuronales Artificiales
Introducción


Mediante un proceso de aprendizaje se logran establecer los
niveles correctos de activación-inhibición de las neuronas


Cuando este proceso se completa entonces ante determinados
estímulos sabemos como responder y “aprendemos”


El “conocimiento” adquirido está entonces en los niveles de
relación entre las neuronas logrados durante el proceso de
aprendizaje


El cerebro es “entrenado” por repetición de estímulos !



 Ejemplo: Los niños !



                                        Introducción a las Redes Neuronales Artificiales
Introducción



¿ Cómo puede ser el cerebro tan eficiente ?

Por la enorme cantidad de neuronas (aprox. 100 billones) y
la manera en que están interconectadas (aprox. 60 trillones
de sinapsis)

Por la capacidad de organizarse, construir reglas y aprender
de la experiencia



¿ Qué es y cómo construir una red neuronal artificial?




                                      Introducción a las Redes Neuronales Artificiales
Introducción


Emulando entonces el funcionamiento del cerebro construiremos
redes neuronales artificiales interconectando elementos de
procesamiento más básicos como las neuronas.




                      Feedforward neural network               Kohonen network
Hopfield network



Para entender las redes neuronales artificiales es necesario
entender y modelar las unidades más básicas o neuronas
artificiales


                                                   Introducción a las Redes Neuronales Artificiales
Introducción




Redes Neuronales Artificiales
   Is a massive parallel distributed
  processor that has a natural propensity
  for storing experimental knowledge and
  making available for use (Haykin, 1994)




                           Introducción a las Redes Neuronales Artificiales
Introducción


         Beneficios de usar RNA
• Generalización: Capacidad para producir respuestas
  razonables a estimulos no presentados durante su
  entrenamiento.
• Adaptabilidad: La red puede ser construida para
  adaptar sus pesos sinápticos al medio ambiente (re-
  entrenar).
• Robusta: Por su caracter distributivo, una red maneja
  muy bien daños a su estructura (ruido).
• Complejidad: Puede capturar comportamiento complejo
  que no es posible con métodos tradicionales.
• No-paramétrico: No hace suposiciones a priori.


                                  Introducción a las Redes Neuronales Artificiales
MODELO DE UNA
  NEURONA




         Introducción a las Redes Neuronales Artificiales
Modelo de una neurona

Dendritas:                                 Pesos sinápticos:
Para recibir el estímulo o                 Cada dendrita tendrá un peso         wj
establecer las conexiones
sinápticas                                 para guardar el conocimiento adquirido


                                   w1


                             w2



                             Μ     wm
                                                                        Axón:
                                                                        Para enviar la
                                                                        respuesta




                                 Núcleo:
                                 Para procesar la
                                 información

                                                    Introducción a las Redes Neuronales Artificiales
Modelo de una neurona

Los estímulos se consideran vectores

                               ( x1 , x 2 , Κ , x m )
Cada entrada del vector corresponde a un estímulo o variable en particular de la cual
se tiene cierta cantidad de observaciones o valores.

Cuando se recibe el estímulo, cada entrada de este es multiplicada por el
correspondiente peso sináptico de la dendrita que recibe dicho valor, y luego cada
uno de estos resultados se suman.


       x1          w1
                                                             m
      x2         w2
                          w x1 + w2 x2 +Κ + wm xm = ∑wj xj
                           1
                                                            j=1
       ΜΜ
                  wm
      xm
                                             Este valor se considera como el
                                             estímulo que recibe la neurona

                                                        Introducción a las Redes Neuronales Artificiales
Modelo de una neurona


El estímulo es procesado en el núcleo mediante la operación

                          ⎛m            ⎞
                        ϕ
                          ⎜ j= 1        ⎟
                                               (
                          ⎜ ∑wj x j + b ⎟ = ϕ X tW + b   )
                          ⎝             ⎠
    ϕ   Se denomina función de transferencia o activación

    b es el parámetro de sesgo o bias

        x1         w1

        x2       w2        ∑                        ϕ ( X tW + b)
        ΜΜ
                   wm
        xm                                   Este valor se considera como la
                                               respuesta de la neurona al
                                                    estímulo recibido
                                                    Introducción a las Redes Neuronales Artificiales
Modelo de una neurona



En conclusión, los parámetros del modelo de una neurona son:


• La función de transferencia   ϕ

• El conjunto de pesos sinápticos   W


• El parámetro de sesgo   b
 Este puede ser considerado como un peso sináptico w = b asociado a
                                                    0
 una dendrita que recibe siempre el estímulo x0 = 1

                                                      ⎡1⎤                 ⎡b⎤
  ⎛m            ⎞ ⎛m          ⎞                       ⎢x ⎥                ⎢w ⎥
  ⎜ j=1         ⎟ ⎜ j= 0      ⎟
                                    (
 ϕ⎜ ∑wj x j + b ⎟ = ⎜ ∑wj x j ⎟ =ϕ X tW   )        X =⎢ 1⎥             W =⎢ 1⎥
  ⎝             ⎠ ⎝           ⎠                       ⎢Μ  ⎥               ⎢Μ  ⎥
                                                      ⎢ ⎥                 ⎢ ⎥
                                                      ⎣xm ⎦               ⎣wm ⎦
                                              Introducción a las Redes Neuronales Artificiales
ACERCA DE LA FUNCIÓN
   DE ACTIVACIÓN




             Introducción a las Redes Neuronales Artificiales
La función de activación




La función de activación se utiliza para limitar el rango de valores de
la respuesta de la neurona.

Generalmente los rangos de valores se limitan a [0,1] o [-1,1], sin
embargo otros rangos son posibles de acuerdo a la aplicación o
problema a resolver.

Existen diversas funciones de activación y la decisión entre una u
otra dependerá nuevamente de la aplicación o problema a resolver.

Existen funciones de activación comúnmente utilizadas y con las
cuales    se han obtenido resultados satisfactorios en diversas
aplicaciones.




                                             Introducción a las Redes Neuronales Artificiales
La función de activación


La función Umbral o threshold function

   Esta función está definida como


                         ⎧ 1 si x ≥ 0
                 ϕ (x) = ⎨
                         ⎩ 0 si x < 0

  La respuesta de la neurona es entonces 1 o 0.

  Estos valores se pueden asociar a verdadero o falso y esta condición
  dependerá de si

               X tW ≥ − b        o       X tW < − b
  Generalmente se utiliza para establecer criterios de clasificación. Por
  ejemplo, 1=Elemento tipo A, 0=Elemento tipo B

                                                   En matlab la función se denomina
                                                   hard-limit function

                                              Introducción a las Redes Neuronales Artificiales
La función de activación



                            1               X tW +b ≥ 0



                                                               1 =

          -1                          1                         0 =




                            -1
X tW +b ≤ 0

                   ⎡0⎤       ⎡1⎤
               W = ⎢1⎥   X = ⎢x⎥
                             ⎢ ⎥
                   ⎢⎥               X tW + b = x + y
                   ⎢1⎥
                   ⎣⎦        ⎢ y⎥
                             ⎣ ⎦
                                    Introducción a las Redes Neuronales Artificiales
La función de activación



  Ejemplo:

             ⎡0⎤                           ⎡0.8⎤
             ⎢1⎥                           ⎢1⎥
estímulo X = ⎢ ⎥      Pesos sinápticos W = ⎢ ⎥             sesgo       b = −1
             ⎢−1⎥                          ⎢1⎥
             ⎢ ⎥                           ⎢ ⎥
             ⎣0⎦                           ⎣0.5⎦

Cuál es la respuesta de la neurona si se utiliza la función umbral ?



             X tW +b = 0 * 0.8 +1*1 −1*1 + 0 * 0.5 −1 = −1

                             ϕ (− 1) = 0


                                                Introducción a las Redes Neuronales Artificiales
La función de activación


La función signo
   Esta función está definida como

                        ⎧ − 1 si x < 0
                        ⎪
              ϕ ( x ) = ⎨ 0 si x = 0
                        ⎪ 1 si x > 0
                        ⎩
 La respuesta de la neurona es entonces -1, 0 o 1.

                             ϕ

                              1




                                   -1
                                                           En matlab la función se
                                                           denomina hardlimits

                                              Introducción a las Redes Neuronales Artificiales
La función de activación




                                            X tW +b > 0
                            1


                                                                  1 =

                                                                  -1 =

              -1                        1                          0 =




X tW +b < 0                 -1

                                                   X tW +b = 0


                   X tW + b = x + y

                                      Introducción a las Redes Neuronales Artificiales
La función de activación



  Ejemplo:

             ⎡0⎤                           ⎡0.8⎤
             ⎢1⎥                           ⎢1⎥
estímulo X = ⎢ ⎥      Pesos sinápticos W = ⎢ ⎥             sesgo       b = −1
             ⎢−1⎥                          ⎢1⎥
             ⎢ ⎥                           ⎢ ⎥
             ⎣0⎦                           ⎣0.5⎦

Cuál es la respuesta de la neurona si se utiliza la función signo ?



             X tW +b = 0 * 0.8 +1*1 −1*1 + 0 * 0.5 −1 = −1

                             ϕ (− 1) = − 1


                                                Introducción a las Redes Neuronales Artificiales
La función de activación


La función logística
  Esta función está definida como

                       ϕ (x ) =
                                            1
                                                              x ∈ R, α > 0
                                  1 + exp       (− α x )
 Es una de las funciones más utilizadas en la construcción de redes neuronales
 Es continua a valores en [0, 1] e infinitamente diferenciable
 Es la versión continua de la función umbral y se utiliza en problemas de aproximación


         ϕ     1.4
                                                                                  α =3
               1.2
                                                                                   α =1
                1

               0.8                                                               α = 0.3
               0.6

               0.4
                                                                          En matlab la función se
               0.2                                                        denomina logsig
                0
                -10        -5          0              5          10
                                                           Introducción a las Redes Neuronales Artificiales
La función de activación



  Ejemplo:

             ⎡0⎤                          ⎡0.8⎤
             ⎢1⎥                          ⎢1⎥
estímulo X = ⎢ ⎥     Pesos sinápticos W = ⎢ ⎥                sesgo       b = −1
             ⎢−1⎥                         ⎢1⎥
             ⎢ ⎥                          ⎢ ⎥
             ⎣0⎦                          ⎣0.5⎦

Cuál es la respuesta de la neurona si se utiliza la función logística con
parámetro 1 ?


             X tW +b = 0 * 0.8 +1*1 −1*1 + 0 * 0.5 −1 = −1


                 ϕ (− 1 ) =
                                   1
                                              = 0 . 2689
                              1 + exp   (1)

                                                  Introducción a las Redes Neuronales Artificiales
La función de activación


La función tangente hiperbólica
  Esta función está definida como

                                                   1 − exp (− α x )
                        ϕ ( x ) = tanh( x / 2) =                           x ∈ R, α > 0
                                                   1 + exp (− α x )
   Es la versión continua de la función signo y se usa en problemas de aproximación
   Es importante por sus propiedades analíticas

   Es continua a valores en [-1, 1] e infinitamente diferenciable
                 1.5
          ϕ                                                                             α =3
                   1
                                                                                         α =1
                 0.5
                                                                                        α = 0.3
                   0

                 -0.5

                  -1                                                          En matlab la función se
                                                                              denomina tansig
                 -1.5
                    -10           -5          0            5          10

                                                                Introducción a las Redes Neuronales Artificiales
La función de activación



  Ejemplo:

             ⎡0⎤                           ⎡0.8⎤
             ⎢1⎥                           ⎢1⎥
estímulo X = ⎢ ⎥      Pesos sinápticos W = ⎢ ⎥              sesgo      b = −1
             ⎢−1⎥                          ⎢1⎥
             ⎢ ⎥                           ⎢ ⎥
             ⎣0⎦                           ⎣0.5⎦

Cuál es la respuesta de la neurona si se utiliza la función tangente
hiperbólica con parámetro 2 ?


             X tW +b = 0 * 0.8 +1*1 −1*1 + 0 * 0.5 −1 = −1


                 ϕ (− 1) = 1 − exp ( 2 ) =   − 0 . 76159
                           1 + exp ( 2 )

                                                Introducción a las Redes Neuronales Artificiales
La función de activación


La función Lineal
  Esta función está definida como

                               ϕ (x ) = x         x∈R

   No limita la respuesta de la neurona

   Se utiliza en problemas de aproximación o estimación lineal


                           ϕ
                               3
                               2
                               1


                                    1     2   3



                                                               En matlab la función se
                                                               denomina purelin



                                                    Introducción a las Redes Neuronales Artificiales
La función de activación

Una regresión lineal simple puede ser vista como la respuesta de una
neurona con función de activación lineal




          ⎡1⎤           ⎡b⎤
       X =⎢ ⎥        W =⎢ ⎥               X tW = ax+ b
          ⎣ x⎦          ⎣a⎦

              b

                      ∑
      1
                                         ϕ ( X tW ) = ax + b
      x        a




                                           Introducción a las Redes Neuronales Artificiales
La función de activación


La función Lineal acotada
  Esta función está definida como

                           ⎧0     si x ≤ 0
                           ⎪
                 ϕ ( x ) = ⎨ x si 0 ≤ x ≤ 1
                           ⎪ 1 si x ≥ 1
                           ⎩

                            ϕ
                                1




                                       1




                                                         En matlab la función se
                                                         denomina satlin (saturating
                                                         linear)

                                              Introducción a las Redes Neuronales Artificiales
La función de activación


La función Lineal acotada simétrica
  Esta función está definida como

                           ⎧− 1    si x ≤ − 1
                           ⎪
                 ϕ ( x ) = ⎨ x si − 1 ≤ x ≤ 1
                           ⎪ 1 si x ≥ 1
                           ⎩


                              ϕ
                                  1




                         -1                1


                                      -1
                                                         En matlab la función se
                                                         denomina satlins (symmetric
                                                         saturating linear

                                               Introducción a las Redes Neuronales Artificiales
La función de activación


                       Estímulo

     X tW + b = 0 * 0.8 + 1*1 − 1*1 + 0 * 0.5 − 1 = −1
  Función de activación                    Respuesta

  Umbral o threshold                               0
   Signo                                           -1
   logística                                   0.2689
   Tangente Hiperbólica                       -0.76159
   Lineal                                          -1

   Lineal Acotada                                  0
   Lineal Acotada Simétrica                        -1


La escogencia de la función de activación depende de la
aplicación o problema a resolver !

                                         Introducción a las Redes Neuronales Artificiales
ACERCA DE LOS PESOS
    SINÁPTICOS

                              w1


                           w2           ∑
                      Μ      wm


            Introducción a las Redes Neuronales Artificiales
Los pesos sinápticos


Recordemos que los pesos sinápticos sirven para guardar el
conocimiento adquirido.

En analogía con el funcionamiento del cerebro, los valores de los
pesos sinápticos se obtienen mediante un proceso de aprendizaje.

Este proceso de aprendizaje puede ser dividido en: Paradigmas de
aprendizaje y algoritmos de entrenamiento.

• Paradigmas de aprendizaje
 Corresponden a la manera en que la red neuronal interactúa o se
 relaciona con el ambiente en el cual opera. Básicamente existen 2
 tipos de paradigmas:

   Aprendizaje supervisado (Supervised learning)

   Aprendizaje no supervisado (Non supervised learning)




                                           Introducción a las Redes Neuronales Artificiales
Los pesos sinápticos


• Algoritmos de entrenamiento
  Son técnicas matemáticas o heurísticas bien establecidas a través de
  los cuales se obtienen los valores de los pesos sinápticos y el
  parámetro de sesgo. Estos algoritmos NO modifican la función de
  activación elegida para el modelo de red neuronal que se entrena.
  Lo que hacen es modificar los pesos sinápticos utilizando el valor
  anterior de este mas un factor de corrección

                  W   nuevo
                              =W   viejo
                                           + ΔW
 y se diferencian uno de otro en la forma en que dicha corrección es
 obtenida

Existen una amplia variedad de algoritmos de entrenamiento cada cual
con sus fortalezas y debilidades.

Distintos paradigmas de aprendizaje junto con distintos algoritmos de
entrenamiento producen diversas redes neuronales

                                             Introducción a las Redes Neuronales Artificiales
Los pesos sinápticos




 Existen muchos algoritmos de entrenamiento, algunos de los cuales
 se mencionan aqui:

•Error correction learning or delta rule: es un aprendizaje supervisado,
en donde se usa el error obtenido en la presentación del estímulo para
determinar el factor de corrección.

•Competitive learning: las neuronas compiten entre si para hacerse activas
estableciendo. Solo una se activa a la vez (especialización).

•Hebbian learning: correlaciona la actividad pre y post sináptica (si ambas
neuronas se activan se fortalece la conexión y se debilita en caso contrario).
Aquí el factor de corrección es multiplicativo entre la actividad pre y post
sináptica.

•Memory Based learning: la red almacena data ya procesada en memoria. Un
nuevo patrón es procesado según su cercanía (en sentido euclideo) a un patrón
en memoria.

                                                  Introducción a las Redes Neuronales Artificiales
Los pesos sinápticos


Error correction learning or delta rule
  Se utiliza bajo un paradigma de entrenamiento supervisado.

 La respuesta de la red neuronal se compara con la respuesta
 deseada y el error cometido se utiliza para modificar los pesos
 sinápticos

                                    Neuron   k
              x1           wk 1

                                                     Yk =ϕk (∑wkj xj )
              x2        wk 2             ∑
              Μ Μ
                          wkm
              xm
                                                    α = Constante de aprendizaje
    wkj (η +1) = wkj (η) +α ek (η) x j (η)
                                                    ek = dk −Yk =      Error cometido
                                  Δwkj
                                                 Introducción a las Redes Neuronales Artificiales
Los pesos sinápticos


Hebbian learning or activity product rule
Es el postulado de entrenamiento más antiguo y se basa en consideraciones
desarrolladas por Hebb, D.O (1949) en su libro The organization of behavior:
A neuropsychological theory

El postulado de Hebb establece básicamente que:

    Cuando dos neuronas conectadas (sinápsis) se activan
    simultáneamente, la relación entre estas se fortalece. En caso
    contrario, la relación se debilita o es eliminada.

La formulación matemática apropiada es establecer entonces la correlación
entre el estimulo de entrada y la respuesta a dicho estímulo y utilizar esta
información para actualizar el valor de los pesos sinápticos

                                             xj
  wkj (η +1) = wkj (η) +α yk (η) x j (η)
                                                      w kj
                                                                          Yk
                            Δwkj                         Neuron   k

                                               Introducción a las Redes Neuronales Artificiales
Los pesos sinápticos



Competitive Learning

En este tipo de algoritmos se establece un mecanismo de competencia
entre las neuronas y la respuesta de la red ante un determinado estímulo
proviene exclusivamente de la neurona ganadora



                                Wj (t +1) = Wj (t ) + η(t ) [ X (t ) −Wj (t ) ]

                                                                  Δ w kj




 X (t )                           Es esta característica la que hace que
                                  este tipo de algoritmos sean apropiados
                                  para descubrir patrones en un conjunto
                                  de datos y que por lo tanto sean usados
                                  para clasificación



                                             Introducción a las Redes Neuronales Artificiales
Los pesos sinápticos



    Memory based learning


•   En este tipo de entrenamiento las experiencias pasadas están
    almacenadas en la “memoria” de ejemplos que han sido clasificados
    correctamente.

• En este tipo de entrenamiento un nuevo patrón de entrada es
comparado con k patrones cercanos (concepto de vecindad) y luego es
  asignado la clasificación más frecuente en la vecindad.

Las RBF utilizan este tipo de postulado en su entrenamiento, al igual que
   las redes SOM

Distancias                                             ||x-y||
• Euclidea : ||x-y||                  x
• Producto interno : xt*y                              y
                                          xTy
                                                Introducción a las Redes Neuronales Artificiales
Arquitecturas


                 Arquitecturas
• Una capa, feedforward



• Multicapa feedforward



• Redes recurrentes




                           Introducción a las Redes Neuronales Artificiales
Problemas



            Qué tipos de problemas se pueden resolver?


•   Asociación de patrones: escritura. La red es presentada con
    muchos ejemplos de un patron hasta “guardar” el patron, luego al
    ser presentado una versión con ruido esta es capaz de reconocer el
    patrón.
•   Clasificación: una la red es entrenada con ejemplos de clasificación
    conocida.
•   Aproximación de funciones. Identificación, problemas inversos.
•   Control: se conoce una señal de referencia y el objetivo es ajustar
    los parámetros libres para seguir la salida deseada.
•   Filtro: son útiles en predicciones.




                                             Introducción a las Redes Neuronales Artificiales

Mais conteúdo relacionado

Mais procurados

Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes NeuronalesDavid852
 
Sistemas Basados en Casos IUT
Sistemas Basados en Casos IUTSistemas Basados en Casos IUT
Sistemas Basados en Casos IUTLuis Álamo
 
Sistemas neuronales
Sistemas neuronalesSistemas neuronales
Sistemas neuronalescenation993
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronalesgueste7b261
 
RED NEURONAL ARTIFICIAL . I.A
RED NEURONAL ARTIFICIAL . I.A RED NEURONAL ARTIFICIAL . I.A
RED NEURONAL ARTIFICIAL . I.A daniatacho
 
Equipo Redes Neuronales Artificiales
Equipo Redes Neuronales ArtificialesEquipo Redes Neuronales Artificiales
Equipo Redes Neuronales ArtificialesArgenis Vicent
 
5.2 Redes neuronales (RN) [presentación].
5.2 Redes neuronales (RN) [presentación].5.2 Redes neuronales (RN) [presentación].
5.2 Redes neuronales (RN) [presentación].Humberto Chalate Jorge
 
Redes neuronales Luis Lozano CI 22.840.519
Redes neuronales   Luis Lozano CI 22.840.519Redes neuronales   Luis Lozano CI 22.840.519
Redes neuronales Luis Lozano CI 22.840.519lozanolc
 
INTRODUCCION A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCION A LAS REDES NEURONALES ARTIFICIALESINTRODUCCION A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCION A LAS REDES NEURONALES ARTIFICIALESESCOM
 
Generalidades De Las Redes Neuronales Artificiales (RNA)
Generalidades De Las  Redes Neuronales Artificiales  (RNA)Generalidades De Las  Redes Neuronales Artificiales  (RNA)
Generalidades De Las Redes Neuronales Artificiales (RNA)ESCOM
 
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoPerceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoAndrea Lezcano
 

Mais procurados (20)

Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Sistemas Basados en Casos IUT
Sistemas Basados en Casos IUTSistemas Basados en Casos IUT
Sistemas Basados en Casos IUT
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Sistemas neuronales
Sistemas neuronalesSistemas neuronales
Sistemas neuronales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
RED NEURONAL ARTIFICIAL . I.A
RED NEURONAL ARTIFICIAL . I.A RED NEURONAL ARTIFICIAL . I.A
RED NEURONAL ARTIFICIAL . I.A
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Equipo Redes Neuronales Artificiales
Equipo Redes Neuronales ArtificialesEquipo Redes Neuronales Artificiales
Equipo Redes Neuronales Artificiales
 
5.2 Redes neuronales (RN) [presentación].
5.2 Redes neuronales (RN) [presentación].5.2 Redes neuronales (RN) [presentación].
5.2 Redes neuronales (RN) [presentación].
 
Redes neuronales artificiales
Redes neuronales artificialesRedes neuronales artificiales
Redes neuronales artificiales
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Redes neuronales Luis Lozano CI 22.840.519
Redes neuronales   Luis Lozano CI 22.840.519Redes neuronales   Luis Lozano CI 22.840.519
Redes neuronales Luis Lozano CI 22.840.519
 
INTRODUCCION A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCION A LAS REDES NEURONALES ARTIFICIALESINTRODUCCION A LAS REDES NEURONALES ARTIFICIALES
INTRODUCCION A LAS REDES NEURONALES ARTIFICIALES
 
Generalidades De Las Redes Neuronales Artificiales (RNA)
Generalidades De Las  Redes Neuronales Artificiales  (RNA)Generalidades De Las  Redes Neuronales Artificiales  (RNA)
Generalidades De Las Redes Neuronales Artificiales (RNA)
 
Neurona de Mc culloch
Neurona de Mc cullochNeurona de Mc culloch
Neurona de Mc culloch
 
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje SupervisadoPerceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
Perceptrón Simple – Redes Neuronales con Aprendizaje Supervisado
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Slidecats
SlidecatsSlidecats
Slidecats
 

Destaque

REDES NEURONALES ARTIFICIALES HISTORIA Y TEORIA
REDES NEURONALES ARTIFICIALES HISTORIA Y TEORIAREDES NEURONALES ARTIFICIALES HISTORIA Y TEORIA
REDES NEURONALES ARTIFICIALES HISTORIA Y TEORIAESCOM
 
El Perceptrón Multicapa
El Perceptrón  MulticapaEl Perceptrón  Multicapa
El Perceptrón MulticapaESCOM
 
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesConstruccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesESCOM
 
Perceptrón simple y multicapa
Perceptrón simple y multicapaPerceptrón simple y multicapa
Perceptrón simple y multicapaJefferson Guillen
 
Sesgo en una Red Neuronal Artificial
Sesgo en una Red Neuronal ArtificialSesgo en una Red Neuronal Artificial
Sesgo en una Red Neuronal ArtificialLevy GT
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronalesVictor_lino
 
GAlib: A C++ Library of Genetic Algorithm Components
GAlib: A C++ Library of Genetic Algorithm ComponentsGAlib: A C++ Library of Genetic Algorithm Components
GAlib: A C++ Library of Genetic Algorithm ComponentsESCOM
 
Combining LEARNING FOR Multilayer Nets CO
Combining LEARNING FOR Multilayer Nets COCombining LEARNING FOR Multilayer Nets CO
Combining LEARNING FOR Multilayer Nets COESCOM
 
Two algorithms to accelerate training of back-propagation neural networks
Two algorithms to accelerate training of back-propagation neural networksTwo algorithms to accelerate training of back-propagation neural networks
Two algorithms to accelerate training of back-propagation neural networksESCOM
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia AdaptativaESCOM
 
Red Neuronal Artificial Aplicada para la Supervisión del Desempeño Docente De...
Red Neuronal Artificial Aplicada para la Supervisión del Desempeño Docente De...Red Neuronal Artificial Aplicada para la Supervisión del Desempeño Docente De...
Red Neuronal Artificial Aplicada para la Supervisión del Desempeño Docente De...Enrique Adolfo Simmonds Barrios
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales SomESCOM
 
Funciones De Matlab En Redes Hopfield
Funciones De Matlab En Redes HopfieldFunciones De Matlab En Redes Hopfield
Funciones De Matlab En Redes HopfieldESCOM
 
Clase Inteligencia Artificial Unidad 3
Clase Inteligencia Artificial Unidad 3Clase Inteligencia Artificial Unidad 3
Clase Inteligencia Artificial Unidad 3K Reyes
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalESCOM
 

Destaque (20)

REDES NEURONALES ARTIFICIALES HISTORIA Y TEORIA
REDES NEURONALES ARTIFICIALES HISTORIA Y TEORIAREDES NEURONALES ARTIFICIALES HISTORIA Y TEORIA
REDES NEURONALES ARTIFICIALES HISTORIA Y TEORIA
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
El Perceptrón Multicapa
El Perceptrón  MulticapaEl Perceptrón  Multicapa
El Perceptrón Multicapa
 
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales ArtificialesConstruccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
Construccion , Diseño y Entrenamiento de Redes Neuronales Artificiales
 
Perceptrón simple y multicapa
Perceptrón simple y multicapaPerceptrón simple y multicapa
Perceptrón simple y multicapa
 
Sesgo en una Red Neuronal Artificial
Sesgo en una Red Neuronal ArtificialSesgo en una Red Neuronal Artificial
Sesgo en una Red Neuronal Artificial
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
GAlib: A C++ Library of Genetic Algorithm Components
GAlib: A C++ Library of Genetic Algorithm ComponentsGAlib: A C++ Library of Genetic Algorithm Components
GAlib: A C++ Library of Genetic Algorithm Components
 
Combining LEARNING FOR Multilayer Nets CO
Combining LEARNING FOR Multilayer Nets COCombining LEARNING FOR Multilayer Nets CO
Combining LEARNING FOR Multilayer Nets CO
 
Two algorithms to accelerate training of back-propagation neural networks
Two algorithms to accelerate training of back-propagation neural networksTwo algorithms to accelerate training of back-propagation neural networks
Two algorithms to accelerate training of back-propagation neural networks
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
Teoria Resonancia Adaptativa
Teoria Resonancia AdaptativaTeoria Resonancia Adaptativa
Teoria Resonancia Adaptativa
 
Red Neuronal Artificial Aplicada para la Supervisión del Desempeño Docente De...
Red Neuronal Artificial Aplicada para la Supervisión del Desempeño Docente De...Red Neuronal Artificial Aplicada para la Supervisión del Desempeño Docente De...
Red Neuronal Artificial Aplicada para la Supervisión del Desempeño Docente De...
 
redes neuronales Som
redes neuronales Somredes neuronales Som
redes neuronales Som
 
Rn
RnRn
Rn
 
Funciones De Matlab En Redes Hopfield
Funciones De Matlab En Redes HopfieldFunciones De Matlab En Redes Hopfield
Funciones De Matlab En Redes Hopfield
 
Clase Inteligencia Artificial Unidad 3
Clase Inteligencia Artificial Unidad 3Clase Inteligencia Artificial Unidad 3
Clase Inteligencia Artificial Unidad 3
 
RED De Retro-propagación Neuronal
RED De Retro-propagación NeuronalRED De Retro-propagación Neuronal
RED De Retro-propagación Neuronal
 

Semelhante a Introduccion a las redes neuronales

Overview of Artificial Neural Networks and its Applications
Overview of Artificial Neural Networks and its ApplicationsOverview of Artificial Neural Networks and its Applications
Overview of Artificial Neural Networks and its ApplicationsRamiro Aduviri Velasco
 
Tema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
Tema 8 Aprendizaje De Sistemas Difusos Con Redes NeuronalesTema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
Tema 8 Aprendizaje De Sistemas Difusos Con Redes NeuronalesESCOM
 
Henrion poggi analytics - ann - 1
Henrion poggi   analytics - ann - 1Henrion poggi   analytics - ann - 1
Henrion poggi analytics - ann - 1Gaston Liberman
 
REDES NEURONALES
REDES NEURONALESREDES NEURONALES
REDES NEURONALESeduardop18
 
Funciones satlin satlins
Funciones satlin satlinsFunciones satlin satlins
Funciones satlin satlinsChristian Lara
 
2024-T8-Redes_Neuronales_I.ppsx
2024-T8-Redes_Neuronales_I.ppsx2024-T8-Redes_Neuronales_I.ppsx
2024-T8-Redes_Neuronales_I.ppsxRicardo Lopez-Ruiz
 
Inteligencia Artificial Clase 2
Inteligencia Artificial Clase 2Inteligencia Artificial Clase 2
Inteligencia Artificial Clase 2UNEFA
 
Nedes Neuronales Artificiales
Nedes Neuronales Artificiales Nedes Neuronales Artificiales
Nedes Neuronales Artificiales Rufino meri?
 
La importancia de las redes neuronales en la ciencia
La importancia de las redes neuronales en la cienciaLa importancia de las redes neuronales en la ciencia
La importancia de las redes neuronales en la cienciaHenryFabian13
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronalesAngel G
 
redes neuronales
redes neuronalesredes neuronales
redes neuronalesSara Silva
 

Semelhante a Introduccion a las redes neuronales (20)

Intro redes neuronales
Intro redes neuronalesIntro redes neuronales
Intro redes neuronales
 
Presentación redes neuronales
Presentación redes neuronalesPresentación redes neuronales
Presentación redes neuronales
 
Overview of Artificial Neural Networks and its Applications
Overview of Artificial Neural Networks and its ApplicationsOverview of Artificial Neural Networks and its Applications
Overview of Artificial Neural Networks and its Applications
 
Tema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
Tema 8 Aprendizaje De Sistemas Difusos Con Redes NeuronalesTema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
Tema 8 Aprendizaje De Sistemas Difusos Con Redes Neuronales
 
Henrion poggi analytics - ann - 1
Henrion poggi   analytics - ann - 1Henrion poggi   analytics - ann - 1
Henrion poggi analytics - ann - 1
 
REDES NEURONALES
REDES NEURONALESREDES NEURONALES
REDES NEURONALES
 
REDES NEURONALES
REDES NEURONALESREDES NEURONALES
REDES NEURONALES
 
Funciones satlin satlins
Funciones satlin satlinsFunciones satlin satlins
Funciones satlin satlins
 
Redes 1
Redes 1Redes 1
Redes 1
 
Dn 12 u2_a3_got
Dn 12 u2_a3_gotDn 12 u2_a3_got
Dn 12 u2_a3_got
 
2024-T8-Redes_Neuronales_I.ppsx
2024-T8-Redes_Neuronales_I.ppsx2024-T8-Redes_Neuronales_I.ppsx
2024-T8-Redes_Neuronales_I.ppsx
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Inteligencia Artificial Clase 2
Inteligencia Artificial Clase 2Inteligencia Artificial Clase 2
Inteligencia Artificial Clase 2
 
Nedes Neuronales Artificiales
Nedes Neuronales Artificiales Nedes Neuronales Artificiales
Nedes Neuronales Artificiales
 
La importancia de las redes neuronales en la ciencia
La importancia de las redes neuronales en la cienciaLa importancia de las redes neuronales en la ciencia
La importancia de las redes neuronales en la ciencia
 
Redes neuronales
Redes neuronalesRedes neuronales
Redes neuronales
 
redes neuronales
redes neuronalesredes neuronales
redes neuronales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
Redes Neuronales
Redes NeuronalesRedes Neuronales
Redes Neuronales
 
redes neuronales
redes neuronalesredes neuronales
redes neuronales
 

Último

9egb-lengua y Literatura.pdf_texto del estudiante
9egb-lengua y Literatura.pdf_texto del estudiante9egb-lengua y Literatura.pdf_texto del estudiante
9egb-lengua y Literatura.pdf_texto del estudianteAndreaHuertas24
 
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...silviayucra2
 
KELA Presentacion Costa Rica 2024 - evento Protégeles
KELA Presentacion Costa Rica 2024 - evento ProtégelesKELA Presentacion Costa Rica 2024 - evento Protégeles
KELA Presentacion Costa Rica 2024 - evento ProtégelesFundación YOD YOD
 
Trabajo Mas Completo De Excel en clase tecnología
Trabajo Mas Completo De Excel en clase tecnologíaTrabajo Mas Completo De Excel en clase tecnología
Trabajo Mas Completo De Excel en clase tecnologíassuserf18419
 
trabajotecologiaisabella-240424003133-8f126965.pdf
trabajotecologiaisabella-240424003133-8f126965.pdftrabajotecologiaisabella-240424003133-8f126965.pdf
trabajotecologiaisabella-240424003133-8f126965.pdfIsabellaMontaomurill
 
CLASE DE TECNOLOGIA E INFORMATICA PRIMARIA
CLASE  DE TECNOLOGIA E INFORMATICA PRIMARIACLASE  DE TECNOLOGIA E INFORMATICA PRIMARIA
CLASE DE TECNOLOGIA E INFORMATICA PRIMARIAWilbisVega
 
International Women's Day Sucre 2024 (IWD)
International Women's Day Sucre 2024 (IWD)International Women's Day Sucre 2024 (IWD)
International Women's Day Sucre 2024 (IWD)GDGSucre
 
Plan de aula informatica segundo periodo.docx
Plan de aula informatica segundo periodo.docxPlan de aula informatica segundo periodo.docx
Plan de aula informatica segundo periodo.docxpabonheidy28
 
guía de registro de slideshare por Brayan Joseph
guía de registro de slideshare por Brayan Josephguía de registro de slideshare por Brayan Joseph
guía de registro de slideshare por Brayan JosephBRAYANJOSEPHPEREZGOM
 
Cortes-24-de-abril-Tungurahua-3 año 2024
Cortes-24-de-abril-Tungurahua-3 año 2024Cortes-24-de-abril-Tungurahua-3 año 2024
Cortes-24-de-abril-Tungurahua-3 año 2024GiovanniJavierHidalg
 
EPA-pdf resultado da prova presencial Uninove
EPA-pdf resultado da prova presencial UninoveEPA-pdf resultado da prova presencial Uninove
EPA-pdf resultado da prova presencial UninoveFagnerLisboa3
 
Global Azure Lima 2024 - Integración de Datos con Microsoft Fabric
Global Azure Lima 2024 - Integración de Datos con Microsoft FabricGlobal Azure Lima 2024 - Integración de Datos con Microsoft Fabric
Global Azure Lima 2024 - Integración de Datos con Microsoft FabricKeyla Dolores Méndez
 
Redes direccionamiento y subredes ipv4 2024 .pdf
Redes direccionamiento y subredes ipv4 2024 .pdfRedes direccionamiento y subredes ipv4 2024 .pdf
Redes direccionamiento y subredes ipv4 2024 .pdfsoporteupcology
 
Proyecto integrador. Las TIC en la sociedad S4.pptx
Proyecto integrador. Las TIC en la sociedad S4.pptxProyecto integrador. Las TIC en la sociedad S4.pptx
Proyecto integrador. Las TIC en la sociedad S4.pptx241521559
 
Hernandez_Hernandez_Practica web de la sesion 12.pptx
Hernandez_Hernandez_Practica web de la sesion 12.pptxHernandez_Hernandez_Practica web de la sesion 12.pptx
Hernandez_Hernandez_Practica web de la sesion 12.pptxJOSEMANUELHERNANDEZH11
 
La era de la educación digital y sus desafios
La era de la educación digital y sus desafiosLa era de la educación digital y sus desafios
La era de la educación digital y sus desafiosFundación YOD YOD
 

Último (16)

9egb-lengua y Literatura.pdf_texto del estudiante
9egb-lengua y Literatura.pdf_texto del estudiante9egb-lengua y Literatura.pdf_texto del estudiante
9egb-lengua y Literatura.pdf_texto del estudiante
 
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
POWER POINT YUCRAElabore una PRESENTACIÓN CORTA sobre el video película: La C...
 
KELA Presentacion Costa Rica 2024 - evento Protégeles
KELA Presentacion Costa Rica 2024 - evento ProtégelesKELA Presentacion Costa Rica 2024 - evento Protégeles
KELA Presentacion Costa Rica 2024 - evento Protégeles
 
Trabajo Mas Completo De Excel en clase tecnología
Trabajo Mas Completo De Excel en clase tecnologíaTrabajo Mas Completo De Excel en clase tecnología
Trabajo Mas Completo De Excel en clase tecnología
 
trabajotecologiaisabella-240424003133-8f126965.pdf
trabajotecologiaisabella-240424003133-8f126965.pdftrabajotecologiaisabella-240424003133-8f126965.pdf
trabajotecologiaisabella-240424003133-8f126965.pdf
 
CLASE DE TECNOLOGIA E INFORMATICA PRIMARIA
CLASE  DE TECNOLOGIA E INFORMATICA PRIMARIACLASE  DE TECNOLOGIA E INFORMATICA PRIMARIA
CLASE DE TECNOLOGIA E INFORMATICA PRIMARIA
 
International Women's Day Sucre 2024 (IWD)
International Women's Day Sucre 2024 (IWD)International Women's Day Sucre 2024 (IWD)
International Women's Day Sucre 2024 (IWD)
 
Plan de aula informatica segundo periodo.docx
Plan de aula informatica segundo periodo.docxPlan de aula informatica segundo periodo.docx
Plan de aula informatica segundo periodo.docx
 
guía de registro de slideshare por Brayan Joseph
guía de registro de slideshare por Brayan Josephguía de registro de slideshare por Brayan Joseph
guía de registro de slideshare por Brayan Joseph
 
Cortes-24-de-abril-Tungurahua-3 año 2024
Cortes-24-de-abril-Tungurahua-3 año 2024Cortes-24-de-abril-Tungurahua-3 año 2024
Cortes-24-de-abril-Tungurahua-3 año 2024
 
EPA-pdf resultado da prova presencial Uninove
EPA-pdf resultado da prova presencial UninoveEPA-pdf resultado da prova presencial Uninove
EPA-pdf resultado da prova presencial Uninove
 
Global Azure Lima 2024 - Integración de Datos con Microsoft Fabric
Global Azure Lima 2024 - Integración de Datos con Microsoft FabricGlobal Azure Lima 2024 - Integración de Datos con Microsoft Fabric
Global Azure Lima 2024 - Integración de Datos con Microsoft Fabric
 
Redes direccionamiento y subredes ipv4 2024 .pdf
Redes direccionamiento y subredes ipv4 2024 .pdfRedes direccionamiento y subredes ipv4 2024 .pdf
Redes direccionamiento y subredes ipv4 2024 .pdf
 
Proyecto integrador. Las TIC en la sociedad S4.pptx
Proyecto integrador. Las TIC en la sociedad S4.pptxProyecto integrador. Las TIC en la sociedad S4.pptx
Proyecto integrador. Las TIC en la sociedad S4.pptx
 
Hernandez_Hernandez_Practica web de la sesion 12.pptx
Hernandez_Hernandez_Practica web de la sesion 12.pptxHernandez_Hernandez_Practica web de la sesion 12.pptx
Hernandez_Hernandez_Practica web de la sesion 12.pptx
 
La era de la educación digital y sus desafios
La era de la educación digital y sus desafiosLa era de la educación digital y sus desafios
La era de la educación digital y sus desafios
 

Introduccion a las redes neuronales

  • 1. Introducción a Las redes Neuronales (Neurales) CO-6612 Coordenadas iniciales: Prof. Minaya Villasana Oficina: CBI-112 Extension: 906 3386 forma más fácil (preferida) de contacto: mvillasa@usb.ve Introducción a las Redes Neuronales Artificiales
  • 2. • Bibliografia: – Simon Haykin, Neural Networks: A comprehensive Foundation, Segunda Edición, Prentince Hall, 1998. – Christopher Bishop, Neural networks for pattern recognition, Oxford press, 1995. – " Neural Networks Toolbox: User's guide. Version 4", H. Demuth and M. Beale (Disponible en http://www.mathworks.com/access/helpdesk/h elp/pdf_doc/nnet/nnet.pdf) – Otros recursos en internet y en biblioteca central. – Página del curso: http://prof.usb.ve/mvillasa/ Introducción a las Redes Neuronales Artificiales
  • 3. • Sistema de Evaluación: – Proyecto asignado (30%) • Será una data común para todos que deben analizar (clasificar, interpolar) con cierto grado de dificultad asociado. Se espera que ustedes realicen un analisis profundo de la data y obtener los mejores resultados. • El proyecto es la última entrega del trimestre en semana 11/12 y lo tendrán desde la semana 8/9 (aprox.) – Proyecto de Investigación (20%) • A discreción del estudiante. • Trabajos publicados (mas no trabajos hechos por ustedes mismos), temas complementarios, etc. • Consiste en una presentación. – Tareas (50%) • Me gustan mucho las tareas (una especie de adicción). • Las tareas vencen a las dos semanas de ser entregadas. Introducción a las Redes Neuronales Artificiales
  • 4. • Horario y demás menudencias: – Horario tentativo: • Viernes 1:30 a 4:30 p.m. • CBI-131 – Para la semana 10/11 el grueso del curso debe estar listo. Introducción a las Redes Neuronales Artificiales
  • 5. INTRODUCCIÓN A LAS REDES NEURONALES Y SUS APLICACIONES Introducción a las Redes Neuronales Artificiales
  • 6. Introducción Una red neuronal artificial es una herramienta diseñada para emular la forma en que el cerebro humano funciona ¿ Cómo funciona el cerebro humano ? ¿ Cómo aprende el ser humano ? ¿ Dónde se guarda el conocimiento ? ¿Por qué es tan eficiente el cerebro humano ? Introducción a las Redes Neuronales Artificiales
  • 7. Introducción El cerebro humano está compuesto por una gran cantidad de elementos básicos denominados neuronas Básicamente las neuronas están formadas por: • Un cuerpo central o Núcleo • Un mecanismo de conexión con otras neuronas (sinapsis): Axón y dendritas Introducción a las Redes Neuronales Artificiales
  • 9. Introducción Los estímulos recibidos en el cerebro son transmitidos entre las neuronas mediante las conexiones sinápticas. Cuando una neurona es estimulada libera una pequeña cantidad de un componente químico (neurotransmisor). Este viaja a través del axón hasta llegar a las dendritas de otras neuronas en las cuales el proceso se repite. Este proceso sirve para incrementar o disminuir la relación entre las neuronas involucradas en el. Así, ante un determinado estímulo ciertas neuronas se activan y otras se inhiben Introducción a las Redes Neuronales Artificiales
  • 10. Introducción Ejemplo Respuesta Estímulo 1 Estímulo 2 Respuesta Introducción a las Redes Neuronales Artificiales
  • 11. Introducción Mediante un proceso de aprendizaje se logran establecer los niveles correctos de activación-inhibición de las neuronas Cuando este proceso se completa entonces ante determinados estímulos sabemos como responder y “aprendemos” El “conocimiento” adquirido está entonces en los niveles de relación entre las neuronas logrados durante el proceso de aprendizaje El cerebro es “entrenado” por repetición de estímulos ! Ejemplo: Los niños ! Introducción a las Redes Neuronales Artificiales
  • 12. Introducción ¿ Cómo puede ser el cerebro tan eficiente ? Por la enorme cantidad de neuronas (aprox. 100 billones) y la manera en que están interconectadas (aprox. 60 trillones de sinapsis) Por la capacidad de organizarse, construir reglas y aprender de la experiencia ¿ Qué es y cómo construir una red neuronal artificial? Introducción a las Redes Neuronales Artificiales
  • 13. Introducción Emulando entonces el funcionamiento del cerebro construiremos redes neuronales artificiales interconectando elementos de procesamiento más básicos como las neuronas. Feedforward neural network Kohonen network Hopfield network Para entender las redes neuronales artificiales es necesario entender y modelar las unidades más básicas o neuronas artificiales Introducción a las Redes Neuronales Artificiales
  • 14. Introducción Redes Neuronales Artificiales Is a massive parallel distributed processor that has a natural propensity for storing experimental knowledge and making available for use (Haykin, 1994) Introducción a las Redes Neuronales Artificiales
  • 15. Introducción Beneficios de usar RNA • Generalización: Capacidad para producir respuestas razonables a estimulos no presentados durante su entrenamiento. • Adaptabilidad: La red puede ser construida para adaptar sus pesos sinápticos al medio ambiente (re- entrenar). • Robusta: Por su caracter distributivo, una red maneja muy bien daños a su estructura (ruido). • Complejidad: Puede capturar comportamiento complejo que no es posible con métodos tradicionales. • No-paramétrico: No hace suposiciones a priori. Introducción a las Redes Neuronales Artificiales
  • 16. MODELO DE UNA NEURONA Introducción a las Redes Neuronales Artificiales
  • 17. Modelo de una neurona Dendritas: Pesos sinápticos: Para recibir el estímulo o Cada dendrita tendrá un peso wj establecer las conexiones sinápticas para guardar el conocimiento adquirido w1 w2 Μ wm Axón: Para enviar la respuesta Núcleo: Para procesar la información Introducción a las Redes Neuronales Artificiales
  • 18. Modelo de una neurona Los estímulos se consideran vectores ( x1 , x 2 , Κ , x m ) Cada entrada del vector corresponde a un estímulo o variable en particular de la cual se tiene cierta cantidad de observaciones o valores. Cuando se recibe el estímulo, cada entrada de este es multiplicada por el correspondiente peso sináptico de la dendrita que recibe dicho valor, y luego cada uno de estos resultados se suman. x1 w1 m x2 w2 w x1 + w2 x2 +Κ + wm xm = ∑wj xj 1 j=1 ΜΜ wm xm Este valor se considera como el estímulo que recibe la neurona Introducción a las Redes Neuronales Artificiales
  • 19. Modelo de una neurona El estímulo es procesado en el núcleo mediante la operación ⎛m ⎞ ϕ ⎜ j= 1 ⎟ ( ⎜ ∑wj x j + b ⎟ = ϕ X tW + b ) ⎝ ⎠ ϕ Se denomina función de transferencia o activación b es el parámetro de sesgo o bias x1 w1 x2 w2 ∑ ϕ ( X tW + b) ΜΜ wm xm Este valor se considera como la respuesta de la neurona al estímulo recibido Introducción a las Redes Neuronales Artificiales
  • 20. Modelo de una neurona En conclusión, los parámetros del modelo de una neurona son: • La función de transferencia ϕ • El conjunto de pesos sinápticos W • El parámetro de sesgo b Este puede ser considerado como un peso sináptico w = b asociado a 0 una dendrita que recibe siempre el estímulo x0 = 1 ⎡1⎤ ⎡b⎤ ⎛m ⎞ ⎛m ⎞ ⎢x ⎥ ⎢w ⎥ ⎜ j=1 ⎟ ⎜ j= 0 ⎟ ( ϕ⎜ ∑wj x j + b ⎟ = ⎜ ∑wj x j ⎟ =ϕ X tW ) X =⎢ 1⎥ W =⎢ 1⎥ ⎝ ⎠ ⎝ ⎠ ⎢Μ ⎥ ⎢Μ ⎥ ⎢ ⎥ ⎢ ⎥ ⎣xm ⎦ ⎣wm ⎦ Introducción a las Redes Neuronales Artificiales
  • 21. ACERCA DE LA FUNCIÓN DE ACTIVACIÓN Introducción a las Redes Neuronales Artificiales
  • 22. La función de activación La función de activación se utiliza para limitar el rango de valores de la respuesta de la neurona. Generalmente los rangos de valores se limitan a [0,1] o [-1,1], sin embargo otros rangos son posibles de acuerdo a la aplicación o problema a resolver. Existen diversas funciones de activación y la decisión entre una u otra dependerá nuevamente de la aplicación o problema a resolver. Existen funciones de activación comúnmente utilizadas y con las cuales se han obtenido resultados satisfactorios en diversas aplicaciones. Introducción a las Redes Neuronales Artificiales
  • 23. La función de activación La función Umbral o threshold function Esta función está definida como ⎧ 1 si x ≥ 0 ϕ (x) = ⎨ ⎩ 0 si x < 0 La respuesta de la neurona es entonces 1 o 0. Estos valores se pueden asociar a verdadero o falso y esta condición dependerá de si X tW ≥ − b o X tW < − b Generalmente se utiliza para establecer criterios de clasificación. Por ejemplo, 1=Elemento tipo A, 0=Elemento tipo B En matlab la función se denomina hard-limit function Introducción a las Redes Neuronales Artificiales
  • 24. La función de activación 1 X tW +b ≥ 0 1 = -1 1 0 = -1 X tW +b ≤ 0 ⎡0⎤ ⎡1⎤ W = ⎢1⎥ X = ⎢x⎥ ⎢ ⎥ ⎢⎥ X tW + b = x + y ⎢1⎥ ⎣⎦ ⎢ y⎥ ⎣ ⎦ Introducción a las Redes Neuronales Artificiales
  • 25. La función de activación Ejemplo: ⎡0⎤ ⎡0.8⎤ ⎢1⎥ ⎢1⎥ estímulo X = ⎢ ⎥ Pesos sinápticos W = ⎢ ⎥ sesgo b = −1 ⎢−1⎥ ⎢1⎥ ⎢ ⎥ ⎢ ⎥ ⎣0⎦ ⎣0.5⎦ Cuál es la respuesta de la neurona si se utiliza la función umbral ? X tW +b = 0 * 0.8 +1*1 −1*1 + 0 * 0.5 −1 = −1 ϕ (− 1) = 0 Introducción a las Redes Neuronales Artificiales
  • 26. La función de activación La función signo Esta función está definida como ⎧ − 1 si x < 0 ⎪ ϕ ( x ) = ⎨ 0 si x = 0 ⎪ 1 si x > 0 ⎩ La respuesta de la neurona es entonces -1, 0 o 1. ϕ 1 -1 En matlab la función se denomina hardlimits Introducción a las Redes Neuronales Artificiales
  • 27. La función de activación X tW +b > 0 1 1 = -1 = -1 1 0 = X tW +b < 0 -1 X tW +b = 0 X tW + b = x + y Introducción a las Redes Neuronales Artificiales
  • 28. La función de activación Ejemplo: ⎡0⎤ ⎡0.8⎤ ⎢1⎥ ⎢1⎥ estímulo X = ⎢ ⎥ Pesos sinápticos W = ⎢ ⎥ sesgo b = −1 ⎢−1⎥ ⎢1⎥ ⎢ ⎥ ⎢ ⎥ ⎣0⎦ ⎣0.5⎦ Cuál es la respuesta de la neurona si se utiliza la función signo ? X tW +b = 0 * 0.8 +1*1 −1*1 + 0 * 0.5 −1 = −1 ϕ (− 1) = − 1 Introducción a las Redes Neuronales Artificiales
  • 29. La función de activación La función logística Esta función está definida como ϕ (x ) = 1 x ∈ R, α > 0 1 + exp (− α x ) Es una de las funciones más utilizadas en la construcción de redes neuronales Es continua a valores en [0, 1] e infinitamente diferenciable Es la versión continua de la función umbral y se utiliza en problemas de aproximación ϕ 1.4 α =3 1.2 α =1 1 0.8 α = 0.3 0.6 0.4 En matlab la función se 0.2 denomina logsig 0 -10 -5 0 5 10 Introducción a las Redes Neuronales Artificiales
  • 30. La función de activación Ejemplo: ⎡0⎤ ⎡0.8⎤ ⎢1⎥ ⎢1⎥ estímulo X = ⎢ ⎥ Pesos sinápticos W = ⎢ ⎥ sesgo b = −1 ⎢−1⎥ ⎢1⎥ ⎢ ⎥ ⎢ ⎥ ⎣0⎦ ⎣0.5⎦ Cuál es la respuesta de la neurona si se utiliza la función logística con parámetro 1 ? X tW +b = 0 * 0.8 +1*1 −1*1 + 0 * 0.5 −1 = −1 ϕ (− 1 ) = 1 = 0 . 2689 1 + exp (1) Introducción a las Redes Neuronales Artificiales
  • 31. La función de activación La función tangente hiperbólica Esta función está definida como 1 − exp (− α x ) ϕ ( x ) = tanh( x / 2) = x ∈ R, α > 0 1 + exp (− α x ) Es la versión continua de la función signo y se usa en problemas de aproximación Es importante por sus propiedades analíticas Es continua a valores en [-1, 1] e infinitamente diferenciable 1.5 ϕ α =3 1 α =1 0.5 α = 0.3 0 -0.5 -1 En matlab la función se denomina tansig -1.5 -10 -5 0 5 10 Introducción a las Redes Neuronales Artificiales
  • 32. La función de activación Ejemplo: ⎡0⎤ ⎡0.8⎤ ⎢1⎥ ⎢1⎥ estímulo X = ⎢ ⎥ Pesos sinápticos W = ⎢ ⎥ sesgo b = −1 ⎢−1⎥ ⎢1⎥ ⎢ ⎥ ⎢ ⎥ ⎣0⎦ ⎣0.5⎦ Cuál es la respuesta de la neurona si se utiliza la función tangente hiperbólica con parámetro 2 ? X tW +b = 0 * 0.8 +1*1 −1*1 + 0 * 0.5 −1 = −1 ϕ (− 1) = 1 − exp ( 2 ) = − 0 . 76159 1 + exp ( 2 ) Introducción a las Redes Neuronales Artificiales
  • 33. La función de activación La función Lineal Esta función está definida como ϕ (x ) = x x∈R No limita la respuesta de la neurona Se utiliza en problemas de aproximación o estimación lineal ϕ 3 2 1 1 2 3 En matlab la función se denomina purelin Introducción a las Redes Neuronales Artificiales
  • 34. La función de activación Una regresión lineal simple puede ser vista como la respuesta de una neurona con función de activación lineal ⎡1⎤ ⎡b⎤ X =⎢ ⎥ W =⎢ ⎥ X tW = ax+ b ⎣ x⎦ ⎣a⎦ b ∑ 1 ϕ ( X tW ) = ax + b x a Introducción a las Redes Neuronales Artificiales
  • 35. La función de activación La función Lineal acotada Esta función está definida como ⎧0 si x ≤ 0 ⎪ ϕ ( x ) = ⎨ x si 0 ≤ x ≤ 1 ⎪ 1 si x ≥ 1 ⎩ ϕ 1 1 En matlab la función se denomina satlin (saturating linear) Introducción a las Redes Neuronales Artificiales
  • 36. La función de activación La función Lineal acotada simétrica Esta función está definida como ⎧− 1 si x ≤ − 1 ⎪ ϕ ( x ) = ⎨ x si − 1 ≤ x ≤ 1 ⎪ 1 si x ≥ 1 ⎩ ϕ 1 -1 1 -1 En matlab la función se denomina satlins (symmetric saturating linear Introducción a las Redes Neuronales Artificiales
  • 37. La función de activación Estímulo X tW + b = 0 * 0.8 + 1*1 − 1*1 + 0 * 0.5 − 1 = −1 Función de activación Respuesta Umbral o threshold 0 Signo -1 logística 0.2689 Tangente Hiperbólica -0.76159 Lineal -1 Lineal Acotada 0 Lineal Acotada Simétrica -1 La escogencia de la función de activación depende de la aplicación o problema a resolver ! Introducción a las Redes Neuronales Artificiales
  • 38. ACERCA DE LOS PESOS SINÁPTICOS w1 w2 ∑ Μ wm Introducción a las Redes Neuronales Artificiales
  • 39. Los pesos sinápticos Recordemos que los pesos sinápticos sirven para guardar el conocimiento adquirido. En analogía con el funcionamiento del cerebro, los valores de los pesos sinápticos se obtienen mediante un proceso de aprendizaje. Este proceso de aprendizaje puede ser dividido en: Paradigmas de aprendizaje y algoritmos de entrenamiento. • Paradigmas de aprendizaje Corresponden a la manera en que la red neuronal interactúa o se relaciona con el ambiente en el cual opera. Básicamente existen 2 tipos de paradigmas: Aprendizaje supervisado (Supervised learning) Aprendizaje no supervisado (Non supervised learning) Introducción a las Redes Neuronales Artificiales
  • 40. Los pesos sinápticos • Algoritmos de entrenamiento Son técnicas matemáticas o heurísticas bien establecidas a través de los cuales se obtienen los valores de los pesos sinápticos y el parámetro de sesgo. Estos algoritmos NO modifican la función de activación elegida para el modelo de red neuronal que se entrena. Lo que hacen es modificar los pesos sinápticos utilizando el valor anterior de este mas un factor de corrección W nuevo =W viejo + ΔW y se diferencian uno de otro en la forma en que dicha corrección es obtenida Existen una amplia variedad de algoritmos de entrenamiento cada cual con sus fortalezas y debilidades. Distintos paradigmas de aprendizaje junto con distintos algoritmos de entrenamiento producen diversas redes neuronales Introducción a las Redes Neuronales Artificiales
  • 41. Los pesos sinápticos Existen muchos algoritmos de entrenamiento, algunos de los cuales se mencionan aqui: •Error correction learning or delta rule: es un aprendizaje supervisado, en donde se usa el error obtenido en la presentación del estímulo para determinar el factor de corrección. •Competitive learning: las neuronas compiten entre si para hacerse activas estableciendo. Solo una se activa a la vez (especialización). •Hebbian learning: correlaciona la actividad pre y post sináptica (si ambas neuronas se activan se fortalece la conexión y se debilita en caso contrario). Aquí el factor de corrección es multiplicativo entre la actividad pre y post sináptica. •Memory Based learning: la red almacena data ya procesada en memoria. Un nuevo patrón es procesado según su cercanía (en sentido euclideo) a un patrón en memoria. Introducción a las Redes Neuronales Artificiales
  • 42. Los pesos sinápticos Error correction learning or delta rule Se utiliza bajo un paradigma de entrenamiento supervisado. La respuesta de la red neuronal se compara con la respuesta deseada y el error cometido se utiliza para modificar los pesos sinápticos Neuron k x1 wk 1 Yk =ϕk (∑wkj xj ) x2 wk 2 ∑ Μ Μ wkm xm α = Constante de aprendizaje wkj (η +1) = wkj (η) +α ek (η) x j (η) ek = dk −Yk = Error cometido Δwkj Introducción a las Redes Neuronales Artificiales
  • 43. Los pesos sinápticos Hebbian learning or activity product rule Es el postulado de entrenamiento más antiguo y se basa en consideraciones desarrolladas por Hebb, D.O (1949) en su libro The organization of behavior: A neuropsychological theory El postulado de Hebb establece básicamente que: Cuando dos neuronas conectadas (sinápsis) se activan simultáneamente, la relación entre estas se fortalece. En caso contrario, la relación se debilita o es eliminada. La formulación matemática apropiada es establecer entonces la correlación entre el estimulo de entrada y la respuesta a dicho estímulo y utilizar esta información para actualizar el valor de los pesos sinápticos xj wkj (η +1) = wkj (η) +α yk (η) x j (η) w kj Yk Δwkj Neuron k Introducción a las Redes Neuronales Artificiales
  • 44. Los pesos sinápticos Competitive Learning En este tipo de algoritmos se establece un mecanismo de competencia entre las neuronas y la respuesta de la red ante un determinado estímulo proviene exclusivamente de la neurona ganadora Wj (t +1) = Wj (t ) + η(t ) [ X (t ) −Wj (t ) ] Δ w kj X (t ) Es esta característica la que hace que este tipo de algoritmos sean apropiados para descubrir patrones en un conjunto de datos y que por lo tanto sean usados para clasificación Introducción a las Redes Neuronales Artificiales
  • 45. Los pesos sinápticos Memory based learning • En este tipo de entrenamiento las experiencias pasadas están almacenadas en la “memoria” de ejemplos que han sido clasificados correctamente. • En este tipo de entrenamiento un nuevo patrón de entrada es comparado con k patrones cercanos (concepto de vecindad) y luego es asignado la clasificación más frecuente en la vecindad. Las RBF utilizan este tipo de postulado en su entrenamiento, al igual que las redes SOM Distancias ||x-y|| • Euclidea : ||x-y|| x • Producto interno : xt*y y xTy Introducción a las Redes Neuronales Artificiales
  • 46. Arquitecturas Arquitecturas • Una capa, feedforward • Multicapa feedforward • Redes recurrentes Introducción a las Redes Neuronales Artificiales
  • 47. Problemas Qué tipos de problemas se pueden resolver? • Asociación de patrones: escritura. La red es presentada con muchos ejemplos de un patron hasta “guardar” el patron, luego al ser presentado una versión con ruido esta es capaz de reconocer el patrón. • Clasificación: una la red es entrenada con ejemplos de clasificación conocida. • Aproximación de funciones. Identificación, problemas inversos. • Control: se conoce una señal de referencia y el objetivo es ajustar los parámetros libres para seguir la salida deseada. • Filtro: son útiles en predicciones. Introducción a las Redes Neuronales Artificiales