29/06/2016 09:25 - Estado de Minas
Decidir se um carro sem motorista deve estar programado para salvar a vida de pedestres ou para proteger seus passageiros a qualquer custo é um dilema difícil que pode atrasar a chegada desses veículos autônomos, revela uma pesquisa publicada recentemente na revista científica americana Science.
Esse tipo de automóveis, que vêm sendo testados há anos - principalmente o modelo criado pelo Google -, não estão isentos de complexos dilemas morais.
Segundo os responsáveis por esses testes, a adoção generalizada de veículos autônomos poderia eliminar até 90% dos acidentes de trânsito provocados por erros humanos.
"Encontrar a maneira de construir máquinas eticamente autônomas é um dos maiores desafios em matéria de inteligência artificial hoje", afirma o estudo.
A pesquisa se baseia nos resultados de seis enquetes realizadas pela internet entre junho e novembro de 2015 com 1.928 pessoas nos Estados Unidos.
Essas sondagens revelam, por um lado, que o público é, em geral, a favor dos veículos autônomos que reduzam os números de mortos e feridos em situações de perigo extremo.
Isso significa, por exemplo, que o programa informático que conduz o veículo optaria por bater em um muro ou em uma árvore, sacrificando os passageiros, para evitar atingir um grupo de pedestres.
Assim, 76% das pessoas interrogadas acha que tal cenário é moralmente mais apropriado para esse tipo de automóveis em uma série de circunstâncias excepcionais.
Ao mesmo tempo, essas enquetes revelaram a falta de vontade dos entrevistados na hora de comprar veículos autônomos programados para salvar os pedestres em detrimento dos passageiros.
À pergunta sobre se era moralmente aceitável viajar com a família em um carro cujo programa informático prevê sacrificar os ocupantes do veículo para salvar a vida de um grupo de pedestres, as respostas afirmativas diminuíram um terço.
A maioria dos entrevistados se declararam abertamente hostis à ideia de uma norma legal sobre carros sem motorista que obrigue a programá-los para preservar a segurança dos pedestres em detrimento dos passageiros.
Esclarecer os valores morais
Só um terço das pessoas consultadas disseram que provavelmente comprariam um veículo desse tipo, contra uma ampla maioria que prefere a opção de um veículo autônomo que possa ser programado de acordo com sua vontade.
"A maioria das pessoas quer viver em um mundo em que os automóveis minimizem ao máximo os mortos e feridos", afirmou Iyad Rahwan, professor-adjunto do Massachusetts Institut of Technology (MIT), um dos coautores do estudo.
"Mas ao mesmo tempo todo mundo quer que seu próprio automóvel o proteja a qualquer custo", acrescenta, ressaltando que, como consequência disso, surge um "dilema social" no qual acabamos criando um entorno menos seguro para todos, atuando cada um de acordo com seu próprio interesse.
"É um desafio sobre o qual os fabricantes de automóveis e as autoridades deveriam refletir", escreveram os pesquisadores, entre eles Jean-Francois Bonnefon, da School of Economics em Toulouse.
"O problema é mais filosófico do que técnico. Antes de que possamos programar nossos valores morais nas máquinas, devemos nos esforçar para esclarecê-los e torná-los coerentes com o que poderia ser a hora da verdade para a filosofia moral do século XXI", escreveu Joshua Greene, psicólogo da Universidade de Harvard, em Massachusetts, em um editorial que acompanha o estudo na Science.
Azim Shariff, professor de psicologia da Universidade de Oregon e um dos coautores do trabalho, insiste nos potenciais benefícios dos automóveis de condução autônoma.
"Os automóveis atuais não são práticos, além de que são caros, estão fora do alcance das pessoas de idade avançada e dos deficientes, e também nos obrigam a reservar amplos espaços urbanos para estacionamentos", disse durante uma conferência telefônica.
"Só nos Estados Unidos os acidentes de trânsito provocaram cerca de 40.000 mortos e 4,5 milhões de feridos graves em 2015 (...), custando cerca de um bilhão de dólares", destacou o pesquisador.
Nenhum comentário:
Postar um comentário