Uma introdução às Redes Neurais

Histórico das Redes Neurais Artificiais

As primeiras informações mencionadas sobre a neurocomputação datam de 1943, em artigos de McCulloch e Pitts, em que sugeriam a construção de uma máquina baseada ou inspirada no cérebro humano. Muitos outros artigos e livros surgiram desde então, porém, por um longo período de tempo, pouco resultado foi obtido. Até que em 1949 Donald Hebb escreveu um livro intitulado “The Organization of Behavior” (A Organização do Comportamento) que perseguia a ideia de que o condicionamento psicológico clássico está presente em qualquer parte dos animais pelo fato de que esta é uma propriedade de neurônios individuais. Suas ideias não eram completamente novas, mas Hebb foi o primeiro a propor uma lei de aprendizagem especifica para as sinapses dos neurônios. Este primeiro e corajoso passo serviu de inspiração para que muitos outros pesquisadores perseguissem a mesma ideia. E embora muito tenha sido estudado e publicado nos anos que seguiram (1940-1950), estes serviram mais como base para desenvolvimento posterior que para o próprio desenvolvimento.

Também proveniente deste período de tempo foi a construção do primeiro neurocomputador, denominado Snark, por Mavin Minsky, em 1951. O Snark operava com sucesso a partir de um ponto de partida técnico, ajustando seus pesos automaticamente, entretanto, ele nunca executou qualquer função de processamento de informação interessante, mas serviu de inspiração para as ideias de estruturas que o sucederam. Em 1956 no “Darthmouth College” nasceram os dois paradigmas da Inteligência Artificial, a simbólica e o conexionista. A Inteligência Artificial Simbólica tenta simular o comportamento inteligente humano desconsiderando os mecanismos responsáveis por tal. Já a Inteligência Artificial Conexionista acredita que construindo-se um sistema que simule a estrutura do cérebro, este sistema apresentará inteligência, ou seja, será capaz de aprender, assimilar, errar e aprender com seus erros.

O primeiro neurocomputador a obter sucesso (Mark I Perceptron) surgiu em 1957 e 1958, criado por Frank Rosenblatt, Charles Wightman e outros. Devido a profundidade de seus estudos, suas contribuições técnicas e de sua maneira moderna de pensar, muitos o veem como o fundador da neurocomputação na forma em que a temos hoje. Seu interesse inicial para a criação do Perceptron era o reconhecimento de padrões.

Após Rosenblatt, Bernard Widrow, com a ajuda de alguns estudantes, desenvolveram um novo tipo de elemento de processamento de redes neurais chamado de Adaline, equipado com uma poderosa lei de aprendizado, que diferente do Perceptron ainda permanece em uso. Widrow também fundou a primeira companhia de hardware de neurocomputadores e componentes.

Infelizmente, os anos seguintes foram marcados por um entusiasmo exagerado de muitos pesquisadores, que passaram a publicar mais e mais artigos e livros que faziam uma previsão pouco confiável para a época, sobre máquinas tão poderosas quanto o cérebro humano que surgiriam em um curto espaço de tempo. Isto tirou quase toda a credibilidade dos estudos desta área e causou grandes aborrecimentos aos técnicos de outras áreas.

Um período de pesquisa silenciosa seguiu-se durante 1967 a 1982, quando poucas pesquisas foram publicadas devido aos fatos ocorridos anteriormente. Entretanto, aqueles que pesquisavam nesta época, e todos os que se seguiram no decorrer de treze anos conseguiram novamente estabelecer um campo concreto para o renascimento da área.

Nos anos 80, muitos dos pesquisadores foram bastante corajosos e passaram a publicar diversas propostas para a exploração de desenvolvimento de redes neurais bem como suas aplicações. Porém talvez o fato mais importante deste período tenha ocorrido quando Ira Skurnick, um administrador de programas da DARPA (Defense Advanced Research Projects Agency) decidiu ouvir os argumentos da neurocomputação e seus projetistas, e divergindo dos caminhos tradicionais dos conhecimentos convencionais, fundou em 1983 pesquisas em neurocomputação. Este ato não só abriu as portas para a neurocomputação, como também deu à DARPA o status de uma das líderes mundiais em se tratando de “moda” tecnológica.

Outra “potência” que emergiu neste período foi John Hopfield, renomado físico de reputação mundial, se interessou pela neurocomputação, e escreveu artigos que percorreram o mundo todo persuadindo centenas de cientistas, matemáticos, e tecnólogos altamente qualificados a se unirem esta nova área emergente.

Apesar de um terço dos pesquisadores da área terem aderido à mesma pela influência de Hopfield, foi em 1986 que este campo de pesquisa “explodiu” com a publicação do livro “Parallel Distributed Processing” (Processamento Distribuído Paralelo) editado por David Rumelhart e James McClelland.

Em 1987 ocorreu em São Francisco a primeira conferência de redes neurais em tempos modernos, a IEEE International Conference on Neural Networks, e também foi formada a International Neural Networks Society (INNS). A partir destes acontecimentos decorreram a fundação do INNS journal em 1989, seguido do Neural Computation e do IEEE Transactions on Neural Networks em 1990.

Desde 1987, muitas universidades anunciaram a formação de institutos de pesquisa e programas de educação em neurocomputação.

Alguns dos fatos mencionados são listados abaixo:

  • neurofisiologista McCulloch e matemático Walter Pitts (1943), cujo trabalho fazia uma analogia entre células vivas e o processo eletrônico, simulando o comportamento do neurônio natural, onde o neurônio possuía apenas uma saída, que era uma função de entrada (threshold) da soma do valor de suas diversas entradas;

fig02-Neurônio artificial projetado por McCulloch

  • O psicólogo Donald Hebb (1949), demostrou que a capacidade da aprendizagem em redes neurais vem da alteração da eficiência sináptica, isto é, a conexão somente é reforçada se tanto as células pré-sinápticas quanto as pós-sinápticas estiverem excitadas;
  • Rosemblatt (1958) mostrou em seu livro (Principles of Neurodynamics) o modelo dos “Perceptrons“. Nele, os neurônios eram organizados em camada de entrada e saída, onde os pesos das conexões eram adaptados a fim de se atingir a eficiência sináptica;

fig03-Rede de perceptrons proposta por Rosemblatt

  • Em 1960 surgiu a rede ADALINE(ADAptative LInear Network) e o MADALINE(Many ADALINE) perceptron, proposto por Widrow e Hoff. O ADALINE/MADALINE utilizou saídas analógicas em uma arquitetura de três camadas.

fig04-Redes ADALINE e MADALINE

Muitos históricos desconsideram a existência de pesquisa nessa área nos anos 60 e 70 e apontam uma retomada das pesquisas com a publicação dos trabalhos do físico e biólogo Hopfield (1982) relatando a utilização de redes simétricas para otimização, através de um algoritmo de aprendizagem que estabilizava uma rede binária simétrica com realimentação.

Rumelhart, Hinton e Williams introduziram o poderoso método Backpropagation.

fig05-Estrutura do método Backpropagation

Cooper, Cowan, Fukushima, von der Malsburg e muitos outros foram alguns dos muitos pesquisadores dos anos 60 e 70, cujos estudos não devem ser menosprezados.

Fatos Históricos em ordem cronológica:

– 1943: McCULLOUGH e PITTS estabeleceram as bases da neurocomputação, com modelos matemáticos.

– 1949: HEBB traduziu matematicamente a sinapse dos neurônios biológicos.

– 1951: MINSKI constrói o Snark, primeiro neurocomputador com capacidade de aprendizado, ou seja, ajustava automaticamente os pesos entre as sinapses. Não executou nenhuma função útil.

– 1957: ROSENBLATT concebeu o “perceptron”, que era uma rede neural de duas camadas, usado no reconhecimento de caracteres.

– 1962: WIDROW desenvolveu um processador para redes neurais e fundou a primeira empresa de circuitos neurais digitais, a Memistor Corporation.

– 1967: Fim das verbas destinadas à pesquisa de redes neurais.

– 1974: WERBOS lançou bases para o algoritmo de retro-propagação (backpropagation).

Voltar para o índice.


Deixe um comentário, mas lembre-se que ele precisa ser aprovado para aparecer.