Uma RNA consiste em um modelo computacional que simula o comportamento do neurônio biológico, aprendendo a partir da alteração de seu estado interno a partir de inputs provenientes do ambiente externo. Nas palavras de Haykin [6]:
uma rede neural é um processador maciçamente paralelamente distribuído constituído de unidades de processamento simples, que têm a propensão natural para armazenar conhecimento experimental e torná-lo disponível para o uso.
O neurônio biológico é uma célula especializada em enviar e receber sinais e se divide basicamente em três seções: corpo celular, dendritos e axônio. O corpo celular guarda o núcleo, os dendritos recebem sinais provenientes de outros neurônios e o axônio envia sinais para outros neurônios [8].
O primeiro modelo de um neurônio artificial foi proposto por Warren McCulloch e Walter Pitts, em 1943 no trabalho intitulado A Logical Calculus of the Ideas Immanent in Nervous Activity. E o primeiro estudo sobre o aprendizado de redes neurais foi proposto por Donald Hebb, em 1949, que ficou conhecido como a regra de Hebb. Posteriormente foi proposta por Widrow e Hoff uma nova regra de aprendizado, a regra delta, que ainda é utilizada [4].
O Perceptron, em sua forma simples, apareceria em 1958, proposto por Frank Rosenblatt. Em 1986 seria aplicado o algoritmo backpropagation (algoritmo por retropropagação do erro) no contexto das redes neurais por Rumelhart e colaboradores [4].
Basicamente um neurônio artificial pode ser representado como na Figura 1.
Figura 1 - Modelo de neurônio artificial
Fonte: HAYKIN, 2009
Segundo Haykin [6] podem-se identificar três elementos básicos na estrutura de um neurônio artificial:
as sinapses que recebem os sinais de entrada;
o somatório para somar os sinais de entrada com seus respectivos pesos sinápticos;
a função de ativação, que restringe a amplitude da saída do neurônio.
Haykin (2000) descreve matematicamente o neurônio artificial da Figura 1 por (2) e (3):
(2)
(3)
onde , , ... , são os sinais de entrada; , , ... , são os pesos sinápticos; é o campo local induzido; é o bias; é a função de ativação; e é o sinal de saída, todos relacionados ao neurônio .
A função de ativação , que restringe a saída do neurônio pode, basicamente, ser do tipo limiar, linear ou sigmoide [6].
Neurônios biológicos ou artificiais, isoladamente, possuem baixa capacidade computacional, mas conectados em uma rede são capazes de resolver problemas de grande complexidade. Basicamente, podem apresentar uma única camada ou possuir camadas ocultas, e serem alimentadas para frente (feedforward) ou serem recorrentes de uma camada ou com camada oculta, quando o sinal de saída volta para a entrada da rede [4][7].
Em uma RNA, o aprendizado ocorre à medida que os pesos sinápticos são ajustados com base em alguma regra pré-estabelecida, como a regra delta (ou regra de Widrow-Hoff). Nas palavras de Braga, Carvalho e Ludermir [4]:
aprendizado é o processo pelo qual os parâmetros livres de uma rede são ajustados por meio de uma forma continuada de estímulo pelo ambiente externo, sendo o tipo específico de aprendizado definido pela maneira particular como ocorrem os ajustes dos parâmetros livres.
Compartilhe com seus amigos: |