O documento discute técnicas de otimização não-linear irrestrita aplicadas ao treinamento de redes neurais de múltiplas camadas, comparando algoritmos de primeira e segunda ordem como gradiente, Newton, Levenberg-Marquardt e gradiente conjugado. Inclui detalhes de implementação, exemplos e uma análise da velocidade de convergência dos diferentes métodos.