Estudo comparativo de redes neurais artificiais para previsão de séries temporais financeiras david Gabriel de Barros Franco


rede neural alimentada adiante focada atrasada no tempo



Baixar 397.24 Kb.
Página7/7
Encontro01.11.2016
Tamanho397.24 Kb.
1   2   3   4   5   6   7

rede neural alimentada adiante focada atrasada no tempo


A rede neural alimentada adiante focada atrasada no tempo (TLFN focada, focused time lagged feedforward neural network, ou ainda, FTDNN, focused time-delay neural network) permite o processamento de padrões de séries temporais, pois possui uma memória de linha de atraso derivada (que consiste de operadores de atraso unitário, caracterizados por , que operam sobre produzindo sua versão atrasada , e assim por diante) aliada ao MLP [6], como mostrado na Figura 5.
Figura 5 – Rede Neural TLFN focada

Fonte: o autor, 2014


O treinamento da rede TLFN focada se dá pelo algoritmo de retropropagação padrão, descrito anteriormente, com os dados de entrada correspondendo a e seus valores passados: .
  1. resultados


Para as simulações foram utilizados um total de 496 cotações de fechamento do pregão para cada uma das quatro ações, no período que se estende desde 27 de fevereiro de 2012 até 25 de fevereiro de 2014. Tais valores foram normalizados, de acordo com (5), para que tivessem média igual a zero e desvio padrão igual a 1. Tal medida visa melhorar o desempenho durante o treinamento da rede, como proposto por LeCun, apud Haykin [6].


(5)

onde é o valor a ser normalizado e e são, respectivamente, a média e o desvio padrão da série.

Para cada ação foi simulada uma RNA com uma única camada oculta, com o número de neurônios variando entre 1 e 30 (incrementos de 1). Também foram feitas 30 repetições com cada rede, mantendo-se todos os valores inalterados, com exceção do conjunto de pesos iniciais, gerados pelo algoritmo de Nguyen-Widrow [12], que possui um componente inicial aleatório [15]. A exceção foi a rede RBF, que não altera seu conjunto de pesos iniciais no MATLAB, por isso para ela fez-se apenas 1 experimento. Foi definido como 500 o número máximo de iterações para as redes MLP e TLFN focada, e 1000 iterações para a rede LRN; este conceito não se aplica à rede RBF, uma vez que seu treinamento se dá com base em um número máximo de neurônios. Outro limitador do treinamento das redes foi o número de checagens de validação (validation checks), que interrompe o treinamento quando a melhora no MSE se torna insignificante; esse valor foi definido como 100 para as redes MLP, TLFN focada e LRN (a rede RBF não fez uso desse limitador). Para a rede MLP foi usada uma janela de previsão variando entre 1 e 5, já para as redes LRN e TLFN focada foi utilizada uma memória de linha de atraso, com operadores de atraso unitário variando entre 1 e 5 (todos com incremento de 1). Por fim, para a rede RBF também foi usada uma janela de previsão variando entre 1 e 5, e spread variando entre 1 e 10 (também com incrementos de 1).

Para as redes MLP, TLFN focada e LRN foram utilizadas as funções tangente sigmoide para a camada oculta e linear para a camada de saída. Para a rede RBF foi utilizada a função radial padrão do MATLAB, .

Para o treinamento optou-se pelo método de Levenberg-Marquardt, descrito em THE MATHWORKS INC. [14]. Assim como os métodos quase-Newton, o algoritmo de Levenberg-Marquardt foi projetado para se aproximar, em velocidade, aos métodos de treinamento de segunda ordem sem ter que computar a matriz Hessiana.



Os melhores resultados obtidos por cada técnica são apresentados a seguir, nas Tabelas 2 e 3.
Tabela 2 – Desempenho das redes neurais MLP e RBF

Ação

MLP

RBF

Neurônios

Janela

MSE

Tempo

Janela

MSE

Tempo

VALE5

10

4

0,0408

1,13e+03

3

0,0385

30,55

PETR4

5

3

0,0664

1,21e+03

4

0,0645

30,56

ITUB4

2

4

0,0776

1,15e+03

4

0,0741

30,53

BBDC4

4

4

0,0502

1,14e+03

1

0,0534

25,12

VALE3

17

3

0,0675

1,18e+03

5

0,0652

30,39

ABEV3

8

3

0,1123

1,13e+03

5

0,1063

30,32

PETR3

7

3

0,0407

1,16e+03

4

0,0402

30,23

ITSA4

8

5

0,0486

1,20e+03

5

0,0477

30,23

BBAS3

22

2

0,0678

1,15e+03

4

0,0647

30,05

BVMF3

4

2

0,0574

1,13e+03

2

0,0565

30,06

Fonte: o autor, 2014

Tabela 3 – Desempenho das redes neurais LRN e TLFN focada



Ação

LRN

TLFN focada

Neurônios

Janela

MSE

Tempo

Neurônios

Janela

MSE

Tempo

VALE5

5

1

3,51e-11

6,73e+04

28

4

0,0394

1,19e+03

PETR4

17

2

3,13e-11

6,32e+04

30

5

0,0683

1,20e+03

ITUB4

15

2

1,85e-11

6,53e+04

19

1

0,0778

1,12e+03

BBDC4

11

3

9,50e-11

6,09e+04

15

4

0,0528

1,23e+03

VALE3

20

3

3,76e-12

6,49e+04

8

4

0,0676

1,28e+03

ABEV3

16

1

1,61e-11

6,04e+04

13

5

0,1111

1,26e+03

PETR3

23

2

3,43e-11

6,23e+04

3

4

0,0400

1,270+03

ITSA4

12

3

3,12e-11

6,94e+04

19

5

0,0494

1,40e+03

BBAS3

7

2

5,85e-11

6,01e+04

3

5

0,0667

1,28e+03

BVMF3

19

1

2,47e-11

6,27e+04

9

2

0,0544

1,37e+03

Fonte: o autor, 2014
Com base nos valores do erro quadrático médio, a melhor técnica de previsão foi a rede de camada recorrente LRN. Ela obteve valores de MSE na ordem de 10-11, enquanto as outras técnicas ficaram na ordem de 10-1 e 10-2. Isso corrobora o exposto por Braga, Carvalho e Ludermir [4] e Haykin [6], quando dizem que a estrutura da rede deve ser adequada à finalidade de predição dinâmica, seja por possuir operadores de atraso unitário ou recorrências. A rede RBF obteve resultados semelhante à rede MLP e TLFN focada, porém com um tempo expressivamente menor (cerca de 50 vezes menor).

Outra questão a se observar é a quantidade ótima de neurônios na camada oculta, que variou de ação para ação. Tal fato impossibilita a predição do número ótimo de neurônios na camada oculta por outro meio que não seja a experimentação.


  1. conclusões


Por utilizarem camadas ocultas com funções não lineares, as redes mostradas neste trabalho estão aptas a fazerem previsões de razoável acuidade mesmo em momentos de volatilidade no mercado, como se pode ver pelos resultados apresentados. Pode-se até mesmo dizer que momentos de maior variabilidade são mais fáceis de serem apreendidos por essas redes do que momentos de preços constantes. Isto permite sua utilização em um grande número de problemas econômicos, visto que devido ao grande número de agentes envolvidos em tais cenários, seu comportamento se torna extremamente não-linear, o que compromete os métodos clássicos de previsão.

É importante ressaltar a eficácia de recorrências na predição temporal comparativamente às outras técnicas (janelas de tempo e operadores de atraso unitário), ou seja, a estrutura da rede neural deve ser compatível com o processamento temporal para se obter um melhor resultado, como mostraram os resultados da rede LRN, em comparação com as outras redes.

O fato de janelas temporais maiores permitirem uma melhor predição pode indicar uma mais forte interdependência entre séries consecutiva de cotações, o que contradiz a ideia de eficiência do mercado de capitais, pelo menos para curtos espaços de tempo.

A restrição mais importante a se ressaltar quanto ao método das RNAs é o fato de não se poder definir de antemão o número ótimo de neurônios na camada oculta, pois aqui não vale a ideia de que quanto maior melhor. Apenas por meio de um experimento combinatório se pode dizer qual a quantidade ótima de neurônios para a camada oculta, dentro dos limites pré-estabelecidos pelo experimentador.


  1. Referências


  1. ASSAF NETO, Alexandre. Mercado financeiro. 9. ed. São Paulo: Atlas, 2009. 318p.

  2. BM&FBOVESPA. Índice Bovespa – Ibovespa. São Paulo, 2014. Disponível em: . Acesso em: 25 jan. 2014.

  3. BM&FBOVESPA. Metodologia do Índice Bovespa. São Paulo, 2014. Disponível em: . Acesso em 25 jan. 2014.

  4. BRAGA, Antônio de P.; CARVALHO, André P. de L. F.; LUDERMIR, Teresa B. Redes neurais artificiais: teoria e aplicações. 2. ed. Rio de Janeiro: LTC, 2011. 226p.

  5. FAUSETT, Laurene V. Fundamentals of neural networks: architectures, algorithms, and applications. 1. ed. USA: Prentice Hall, 1994. 461p.

  6. HAYKIN, Simon. Redes neurais: princípios e prática. 2. ed. Porto Alegre: Bookman, 2000. 903p.

  7. HAYKIN, Simon. Neural Networks and Learning Machines. 3. ed. New Jersey: Prentice Hall, 2009. 906p.

  8. KIERNAN, John A. Neuroanatomia humana de Barr. 7. ed. Barueri: Manole, 2003. 521p.

  9. KÖCHE, José Carlos. Fundamentos de metodologia científica. 29. ed. Petrópolis: Vozes, 2011. 182p.

  10. LAKATOS, Eva Maria; MARCONI, Marina de A. Metodologia científica. 6. ed. São Paulo: Atlas, 2011. 314p.

  11. PINHEIRO, Juliano L. Mercado de capitais: fundamentos e técnicas. 5. ed. São Paulo: Atlas, 2009. 500p.

  12. SKUTOVÁ, Jolana. Weights Initialization Methods for MLP Neural Networks. Ostrava, 2008. Disponível em: . Acesso em: 11 fev. 2014.

  13. STEINER, Maria T. A. Redes neurais artificiais. 2012. 42 slides. Apresentação em Power Point.

  14. THE MATHWORKS INC. Levenberg-Marquardt Backpropagation. Natick, 2014. Disponível em: . Acesso em: 04 jan. 2014.

  15. THE MATHWORKS INC. Neural network toolbox user’s guide. Natick, 2013. Disponível em: . Acesso em: 02 jan. 2014.

  16. WORLD FEDERATION OF EXCHANGES. Domestic Market Capitalization. Paris, 2014. Disponível em: . Acesso em: 07 jan. 2014.



Baixar 397.24 Kb.

Compartilhe com seus amigos:
1   2   3   4   5   6   7




©bemvin.org 2020
enviar mensagem

    Página principal
Prefeitura municipal
santa catarina
Universidade federal
prefeitura municipal
pregão presencial
universidade federal
outras providências
processo seletivo
catarina prefeitura
minas gerais
secretaria municipal
CÂmara municipal
ensino fundamental
ensino médio
concurso público
catarina município
Dispõe sobre
reunião ordinária
Serviço público
câmara municipal
público federal
Processo seletivo
processo licitatório
educaçÃo universidade
seletivo simplificado
Secretaria municipal
sessão ordinária
ensino superior
Relatório técnico
Universidade estadual
Conselho municipal
técnico científico
direitos humanos
científico período
espírito santo
pregão eletrônico
Curriculum vitae
Sequência didática
Quarta feira
prefeito municipal
distrito federal
conselho municipal
língua portuguesa
nossa senhora
educaçÃo secretaria
segunda feira
Pregão presencial
recursos humanos
Terça feira
educaçÃO ciência
agricultura familiar