Estudo comparativo de redes neurais artificiais para previsão de séries temporais financeiras david Gabriel de Barros Franco


o perceptron de múltiplas camadas



Baixar 397.24 Kb.
Página4/7
Encontro01.11.2016
Tamanho397.24 Kb.
1   2   3   4   5   6   7

o perceptron de múltiplas camadas


Um Perceptron de múltiplas camadas (MLP), nada mais é que uma generalização do Perceptron de camada única [6]. Podemos descrevê-lo como uma rede constituída pela camada de entrada, uma ou mais camadas ocultas e uma camada de saída; rede essa que apresenta um alto grau de conectividade [4][6]. Seu treinamento se dá em três etapas: a alimentação para frente (feedforward) da rede com os padrões de entrada, o cálculo e retropropagação (backpropagation) do erro, e o ajuste dos pesos [5].

Para uma rede neural MLP como a representada na Figura 2, teríamos o algoritmo de treinamento como o mostrado na sequência [6][13].


Figura 2 – Rede Neural MLP

Fonte: o autor, 2014


Propagação forward:

  1. inicialize os pesos sinápticos e bias (da camada oculta), e pesos sinápticos e bias (da camada de saída) com valores aleatórios;

  2. execute o somatório para cada neurônio da camada oculta, onde são os dados de entrada da rede;

  3. calcule a função de transferência para cada neurônio da camada oculta, onde é, geralmente, uma função sigmoide;

  4. na camada de saída, execute o somatório para cada neurônio da camada de saída, caso haja mais de um;

  5. então calcule a função de transferência para cada neurônio da camada de saída, onde é, geralmente, uma função linear;

Propagação backward:



  1. calcule o erro da camada de saída usando a fórmula , onde é o valor esperado e é a derivada da função de transferência do neurônio de saída;

  2. ajuste os pesos sinápticos da rede na camada de saída de acordo com a regra delta generalizada:

onde é a taxa de aprendizagem e é a constante de momentum.



  1. calcule o erro da camada oculta fazendo , onde é a derivada da função de transferência do neurônio oculto;

  2. ajuste os pesos sinápticos da rede na camada oculta de acordo com a regra delta generalizada:


Após todos os exemplos de treinamento terem passado pela rede uma única vez teremos findado a 1ª iteração, então calcule o erro global , para o conjunto dos neurônios de saída da rede, onde .

As iterações devem prosseguir até que um valor suficientemente pequeno seja encontrado. Como nos explica Steiner [13]: “o processo de aprendizagem da rede neural pode ser visto como um problema de minimização com função objetivo no espaço de ”.




    1. Baixar 397.24 Kb.

      Compartilhe com seus amigos:
1   2   3   4   5   6   7




©bemvin.org 2020
enviar mensagem

    Página principal
Prefeitura municipal
santa catarina
Universidade federal
prefeitura municipal
pregão presencial
universidade federal
outras providências
processo seletivo
catarina prefeitura
minas gerais
secretaria municipal
CÂmara municipal
ensino fundamental
ensino médio
concurso público
catarina município
Dispõe sobre
reunião ordinária
Serviço público
câmara municipal
público federal
Processo seletivo
processo licitatório
educaçÃo universidade
seletivo simplificado
Secretaria municipal
sessão ordinária
ensino superior
Relatório técnico
Universidade estadual
Conselho municipal
técnico científico
direitos humanos
científico período
espírito santo
pregão eletrônico
Curriculum vitae
Sequência didática
Quarta feira
prefeito municipal
distrito federal
conselho municipal
língua portuguesa
nossa senhora
educaçÃo secretaria
segunda feira
Pregão presencial
recursos humanos
Terça feira
educaçÃO ciência
agricultura familiar