Cientistas pesquisam máquinas para tomada de decisões éticas

Não é de hoje que filósofos, pensadores e pedantes metidos a intelectuais se preocupam com a definição de Ética. Alguns alegam que ela aparece nas sociedades animais, mas é bem certo que esses filósofos nunca presenciaram a Natureza; pois, se o fizessem, veriam que a Natureza não tem nada de ética ou moral, pois tudo isso são conceitos humanos, de humanos para humanos, variando de sociedade para sociedade; mesmo porque, são conceitos particulares. Poderíamos, portanto, empregar conceitos de Ética e Moral para simples máquinas? Bem, é o que cientistas de Portugal e da Indonésia pesquisam, de modo a descrever uma abordagem para a tomada de decisões automáticas, mas com senso de moralidade. É o que a pesquisa, baseada em lógica computacional, descreve na última edição do International Journal of Reasoning-based Intelligent Systems.

Mais uma vez, a Ficção Científica saiu na frente. De um lado, Isaac Asimov descrevendo um futuro onde cada vez mais as pessoas dependeriam das decisões tomadas por gigantescos computadores baseados em cérebros positrônicos; os quais ajudam a Humanidade e a protegendo dela mesma. Do outro, temos Arthur Clarke e seu famoso computador com TPM: HAL 9000 (esse HAL não tem nada a ver com IBM, segundo o próprio tio Clarke, e eu sugiro uma leitura desta entrevista, onde ele fala deste mito entre muitos assuntos interessantes).

Na Ficção Contemporânea temos o Sr. Data de Jornada nas Estrelas – A Nova Geração (prefiro a clássica), no lado das “máquinas boazinhas”, e o Skynet, o super-centro de inteligência artificial que quer mandar todos os humanos pro saco, nos filmes do Exterminador do Futuro. Aliás, é impressionante como em cada blog ou postagem sobre robôs, tecnologia computacional ou coisas do gênero, apareça um famigerado mencionando o Skynet. São os nossos mitos pós-modernos.

Luís Moniz Pereira, da Universidade Nova de Lisboa, em Portugal e Saptawijaya Ari (não, não sei como se pronuncia a primeira parte do nome) da Universitas Indonésia, estão interessados em aliar a inteligência artificial à aplicação da lógica computacional. Eles voltaram-se para um sistema conhecido como “lógica prospectiva” para ajudá-los a iniciar um processo de programação de moralidade. Isso, em termos mais simples, significa que – em princípio – poderia-se modelar um dilema moral para, em seguida, determinar os resultados lógicos das decisões possíveis. A abordagem poderá anunciar o surgimento de uma máquina ética. Só é uma pena que não poderiam fazer isso diretamente nos humanos também. Mas quem disse que a Natureza tinha que ser essas duas coisas: Lógica e Ética?

O desenvolvimento da chamada “máquina ética” nos permitirá desenvolver máquinas totalmente autônomas, que poderão ser programadas para fazer julgamentos com base num fundamento moral humano, apesar de eu ser meio cético quanto a isso. “Dotar os agentes com a capacidade de calcular decisões morais é um requisito indispensável”, dizem os pesquisadores, para em seguida arrematarem: “Isto é particularmente verdadeiro quando os agentes estão operando em domínios onde os dilemas morais ocorrem, por exemplo, nos campos de cuidados de saúde ou médico.”

Como no caso dos contos do livro “Eu, Robô” (não percam tempo vendo o filme, é um lixo!), onde as decisões globais para sustento e controle da Economia é totalmente automatizado, cabendo às Máquinas o cálculo e determinação da escolha da atuação mais otimizada e com resultados plenamente satisfatórios.

Segundo os pesquisadores, a possível máquina ética também pode ajudar os psicólogos e cientistas cognitivos a encontrar uma nova forma de compreender o raciocínio e moral nas pessoas e, talvez, extrair os princípios morais em situações complexas que ajudam as pessoas a decidir o que é certo e o que é errado. Tal entendimento pode então ajudar no desenvolvimento de sistemas inteligentes de tutoria para ensinar moralidade as crianças.

A equipe desenvolveu o seu programa para ajudar a resolver o chamado “problema elétrico”, o qual faz uso de um experimento mental criado pela filósofa britânica Philippa Foot na década de 1960.

Pense comigo a seguinte situação. Você tem um bonde desgovernado (isso não tem nada a ver com o que aconteceu no bairro de Santa Tereza, no Rio de Janeiro). 5 pessoas estão amarradas no trilho, depois de uma bifurcação. Você fica no papel do controlador e, através de um botão, pode desviar o bonde antes que ele atinja as pessoas. O problema é que no outro trilho tem uma pessoa amarrada. Você aperta o botão para desviar das 5 pessoas, mesmo que mate aquela outra pessoa? Ou a outra pessoa vale mais que as 5? Afinal, o que determina o valor ético?

Nós lidamos com situações que pedem decisões todos os dias. Algumas profissões precisam decidir rápido o que fazer, sob pena de muitas pessoas morrerem. Mas o que é a Ética e como determinar o que se deve fazer, mediante juízos de valor? Ao meu ver, são decisões complicadas, onde sempre “perdemos”; embora que, conceitos lógicos afirmariam que as necessidades de muitos sobrepujam as necessidades de poucos; no entanto, muitas vezes as necessidades de poucos podem ser mais importantes que as de um imenso número de pessoas.

No experimento mental de Philippa, houve perdas e ganhos. Não há resposta certa. E enquanto nós não aprendermos como funciona nossa própria Ética, como entender que esses conceitos são suscetíveis a uma imensa gama de interpretações e condições num nível de infinitas possibilidades, será muito difícil projetar e construir sistemas de Inteligência Artificial que simule nosso próprio sistema de tomada de decisões particulares, se bem que, de repente, possam ser até melhores…

Dave, eu tenho medo!

9 comentários em “Cientistas pesquisam máquinas para tomada de decisões éticas

  1. Bom post. Esqueceu de citar o Robocop, exemplo de moralidade cibernética, mas pra mim ele sempre sentou na chave hexagonal.

  2. Por que não ensinamos religião aos robôs?
    Um robô religioso no bonde desgovernado oraria para um deus decidir por ele e aceitaria qualquer uma como a escolha certa?
    Ou tentaria encontrar falhas justificáveis nos 6 indivíduos, tipo “3 dos 5 são ateus, 1 espírita e 1 ocultista, 2 deles homossexuais. O ‘1’ é muçulmano, possivelmente terrorista, mas respeita a deus!”?

    Tá, critiquem minha estereotipagem. :neutral:

  3. LEMBRE- SE DE MATRIX, O QUE VCS VEEM NÃO É REAL!!!! KKKKKKKKK!!! ,,,,,,, EO ANDRÉ SUPOSTAMENTE ESTA QUEBRANDO O CIRCULO DE MATRIX, ELE É O ESCOLHIDO!!!!! KKKKKKKKKK!!!!!!!! PREPAREM-SE PARA A REBELIÃO DAS MÁQUINAS………

  4. “extrair os princípios morais em situações complexas que ajudam as pessoas a decidir o que é certo e o que é errado”

    Uma entidade não física que nos ensina o que é certo e errado.
    Não adianta. Parece que o assunto moral e ética sempre vai envolver a criação de divindades :D

Deixe um comentário, mas lembre-se que ele precisa ser aprovado para aparecer.

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair /  Alterar )

Foto do Google

Você está comentando utilizando sua conta Google. Sair /  Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair /  Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair /  Alterar )

Conectando a %s