Neurobiólogos alemães estudam como se pode melhorar a visão de dispositivos robóticos. Como ainda não dispõem de cérebros positrônicos de platinirídio, ainda está cedo para termos um senhor Data, mas podemos ter pequenos robôs voadores, capazes de se deslocarem pelo ar tranquilamente. O problema é na questão do campo visual. para tanto, o estudo se direcionou para uma das melhores ferramentas visuais existente no mundo natural. Não o olho humano, notadamente uma gambiarra evolutiva com um tosco ponto cego divinamente planejado por um desenhista míope. O órgão escolhido foi o olho de um himenóptero m particular: abelhas.
O dr. Wolfgang Stürzl e seus colegas na Universidade de Bielefeld, na Alemanha, queriam capturar uma imagem do mundo com o maior campo de captura possível em um sistema de câmeras, como numa grande-angular, de modo a aplicar este sistema em aeronaves robôs. Com um campo de 280 graus de visão, robôs conseguirão ver com mais detalhes o mundo ao seu redor. A pesquisa foi publicada no periódico Bioinspiration & Biomimetics (em PDF).
Como em tudo que voa, qualquer sistema pesado em demasia fará com que a aeronave não tenha estabilidade durante o voo, ou sequer saia do chão. A equipe de Stürzl fez uso um sistema de imagem chamado catadióptrico. Alguns telescópios empregam este sistema, que consiste na combinação de refração e a reflexão, no misto de espelhos e lentes. A refração ocorre quando a luz passa por um componente de vidro colocado na extremidade do tubo do telescópio. A reflexão é feita com os espelhos primário e secundário. Isso lhe soa familiar? Deveria, pois foi idealizado por um certo inglês chamado Isaac Newton, embora o telescópio refletor de Newton usava um único espelho côncavo que refletia a luz captada até um prisma que o refletia até os olhos do operador. Em 1932, Bernhard Schmidt aperfeiçoou este telescópio, para ser melhorado por Dmitri Dmitrievich Maksutov.
Na pesquisa da equipe do dr. Sturzl, um espelho em forma de cúpula, com uma lente em seu centro, foi colocado 20 milímetros na frente chip sensor de imagem do dispositivo de carga acoplada da câmera (o chamado charge-coupled device ou CCD), com sua superfície convexa virada para a câmera. A lente foca a luz na frente da câmera para o CCD para criar uma imagem com um campo de 110 graus de visão. Ao mesmo tempo, a face do espelho convexo capta um reflexo do mundo atrás da câmera e se concentra essa luz para o CCD, alargando o campo de visão de 280 graus.
Um computador trabalha com todos estes dados obtidos e cria uma imagem composta de forma que parece ter sido capturada por uma lente olho-de-peixe. O pequeno computador a bordo do avião robótico deve ser capaz de realizar este trabalho rápido o suficiente para correr a 25 frames por segundo (fps), isto é, como se tirasse 25 fotos a cada segundo, de forma a obtermos uma imagem contínua, dando-nos sensação de movimento.
Finalmente, para representar 280 graus de informação como uma imagem 2D, a imagem composta passa através de um sistema que imita as milhares de facetas hexagonais dos olhos de uma abelha. Seria como se fossem milhares de olhinhos que captam imagens, que são enviadas até o cérebro de nossa amiga com ferrão na bunda. Apesar que isso reduz a resolução da imagem, fica muito mais fácil para quem está controlando a nave-robô interpretar a imagem obtida como se tivesse sido obtida por uma lente do tipo grande-angular, que não é um primor de imagem – pelo menos, de um ponto de vista (sim, trocadalho do carilho) que estamos acostumados com nossos próprio olhos. Mas com um ângulo de visão maior, já que o “piloto” não estará dentro da nave e não poderá olhar pros lados. Isso ajudará as naves a voarem melhor, de forma a encontrar sobreviventes perdidos em algum lugar onde Judas perdeu as cuecas, ou (o que é mais provável) poder jogar uma bomba na cabeça de alguém
