19/03/2021

Motoristas vão programar carros autônomos para proteger igualmente a si mesmos e aos outros?

Redação do Diário da Saúde

Ética dos carros autônomos

Tem havido uma preocupação sobre como os carros sem motorista deverão decidir no caso de acidentes, já que seus softwares precisarão ter sua própria moral embutida, para decidir, por exemplo, se atropelam um pedestre ou desviam para bater em um muro.

Uma das questões-chave nesse debate é como cada carro pode ser programado por seu dono: se para privilegiar sua própria segurança ou a segurança de todos.

Psicólogos descobriram agora que esse problema pode ser largamente contornado com um bom debate público sobre a situação.

Ocorreu que, quando voluntários em um experimento sobre veículos autônomos foram informados de que seus colegas eram mais propensos a sacrificar sua própria segurança para programar o veículo para bater em um muro, em vez de bater em pedestres que estavam em risco, a porcentagem de indivíduos dispostos a sacrificar sua própria segurança aumentou em aproximadamente dois terços.

Os psicólogos têm pressuposto que, em decisões de vida ou morte de alto risco, as pessoas pensam de maneira diferente do que normalmente pensam. Os pesquisadores afirmam que não há absolutos morais para a tomada de decisão humana. Em outras palavras, o processo de decisão humana "é mais sutil", afirma o professor Jonathan Gratch, da Universidade Sudeste da Califórnia.

Risco para si versus risco para os outros

Os pesquisadores conduziram quatro experimentos de simulação para tentar entender como as pessoas podem processar e agir sobre os dilemas morais que enfrentariam como um operador a bordo de um carro sem motorista.

Os três primeiros experimentos enfocaram o comportamento humano diante de riscos para si mesmo e para os outros em caso de cenário negativo, em que o veículo teria que ser programado para bater no muro ou atingir cinco pedestres.

Como esperado, os participantes usaram a gravidade da lesão para si próprios e o risco para os outros como guias para a tomada de decisões: Quanto maior o risco para os pedestres, mais provável era que as pessoas sacrificassem a si mesmas. Além disso, o nível de risco para os pedestres não precisava ser tão alto quanto para o operador do veículo autônomo para que ele sacrificasse seu próprio bem-estar.

No quarto experimento, os pesquisadores adicionaram uma dimensão social, dizendo aos participantes o que os colegas deles optaram por fazer na mesma situação. Em uma simulação, o conhecimento de que os colegas optaram por arriscar sua própria saúde mudou as respostas dos participantes, passando de 30% que estavam dispostos a arriscar sua saúde para 50%. Mas o efeito ocorreu em ambos os sentidos, ou seja, eles limitaram seu próprio risco ao ouvir que seus colegas haviam feito o mesmo.

"Tecnicamente, há duas forças em ação. Quando as pessoas percebem que seus colegas não se importam, isso as puxa para o egoísmo. Quando elas percebem que seus colegas se importam, isso as puxa para cima," confirma Gratch.

Programação dos carros sem motorista

Os autores sugerem que é importante que os fabricantes de automóveis tenham consciência de como os humanos realmente tomam decisões em situações de vida ou morte.

Além disso, eles sugerem que a transparência em como as máquinas são programadas, bem como a liberação dos controles para os motoristas humanos, para que eles possam alterar as configurações anteriores a essas situações de vida ou morte, são importantes para o público.

Eles também sugerem que é importante que os legisladores estejam cientes de como os veículos podem ser programados.

Por último, dada a suscetibilidade humana de se conformar às normas sociais, os autores acreditam que campanhas de esclarecimento, relacionadas à forma como as pessoas programam seus veículos autônomos para o auto-sacrifício, podem influenciar futuros proprietários a alterar as configurações de seus veículos para serem mais orientados a proteger os outros de lesões e compartilhar os riscos e sacrifícios.

Checagem com artigo científico:

Artigo: Risk of Injury in Moral Dilemmas With Autonomous Vehicles
Autores: Celso M. de Melo, Stacy Marsella, Jonathan Gratch
Publicação: Frontiers in Robotics and AI
DOI: 10.3389/frobt.2020.572529
Siga o Diário da Saúde no Google News

Ver mais notícias sobre os temas:

Ética

Sentimentos

Relacionamentos

Ver todos os temas >>   

A informação disponível neste site é estritamente jornalística, não substituindo o parecer médico profissional. Sempre consulte o seu médico sobre qualquer assunto relativo à sua saúde e aos seus tratamentos e medicamentos.
Copyright 2006-2024 www.diariodasaude.com.br. Todos os direitos reservados para os respectivos detentores das marcas. Reprodução proibida.