
A IA e a honestidade
O que leva as pessoas a se comportarem mal e desobedecer às regras e às leis?
Pesquisas extensivas em ciência comportamental indicam que as pessoas são mais propensas a agir de forma desonesta quando conseguem se distanciar das consequências: É mais fácil burlar ou quebrar as regras quando ninguém está olhando, ou simplesmente se apoia outra pessoa que realiza o ato.
Como estamos vivendo uma era em que a inteligência artificial ocupa um espaço cada vez maior em nossos afazeres, os cientistas queriam saber se a IA também pode servir de escudo moral para que as pessoas cometam infrações.
De fato, a pesquisa internacional, coordenada pelo Instituto Max Planck de Desenvolvimento Humano (Alemanha), mostrou que os freios morais enfraquecem ainda mais quando as pessoas delegam tarefas à IA - mais do que quando a delegação é feita a outras pessoas.
Escondendo-se atrás da IA
Em 13 experimentos com mais de 8.000 participantes, os pesquisadores exploraram os riscos éticos da delegação de tarefas a máquinas e programas de computador, tanto da perspectiva de quem dá as instruções quanto de quem as implementa.
Os resultados mostraram que, quando as pessoas podiam formatar suas instruções à IA, elas se mostraram significativamente mais propensas a trapacear quando podiam transferir o comportamento para os agentes de IA, em vez de agir por conta própria, especialmente ao usar interfaces que exigiam a definição de objetivos de alto nível, em vez de instruções explícitas para agir de forma desonesta.
Com essa possibilidade de se esconder por trás da programação, a desonestidade atingiu níveis surpreendentemente altos, com apenas uma pequena minoria (12-16%) permanecendo honesta, em comparação com a grande maioria (95%) sendo honesta ao realizar a tarefa por conta própria. Mesmo com o uso menos preocupante da delegação de tarefas à IA - instruções explícitas na forma de regras - apenas cerca de 75% das pessoas se comportaram honestamente, marcando um declínio notável na desonestidade em relação aos relatos dos próprios participantes.
"O uso da IA cria uma distância moral conveniente entre as pessoas e suas ações, podendo induzi-las a solicitar comportamentos que elas não necessariamente praticariam por conta própria, nem solicitariam a outros seres humanos," disse a professora Zoe Rahwan, coordenadora do estudo.
Já está acontecendo no mundo real
Já têm sido detectados vários exemplos reais de comportamento antiético com o uso da IA, muitos dos quais surgiram depois que os pesquisadores passaram a documentá-los, em 2022.
Um algoritmo de precificação usado por um aplicativo de transporte por aplicativo incentivava os motoristas a se deslocarem, não porque os passageiros precisassem de uma corrida, mas para criar artificialmente uma escassez e acionar preços dinâmicos. Em outro caso, a ferramenta de IA de uma plataforma de aluguel foi comercializada como maximizadora de lucros e acabou se envolvendo em uma suposta fixação ilegal de preços. Na Alemanha, postos de gasolina foram investigados por usar algoritmos de precificação que pareciam ajustar os preços em sincronia com os concorrentes próximos, mas o resultado era o aumento dos preços da gasolina para os clientes.
Embora esses casos mostrem que as máquinas podem agir de forma antiética, o lado humano da equação - se e como as pessoas usam a IA para se eximir da responsabilidade moral - traz agora um novo elemento para o debate.
| Ver mais notícias sobre os temas: | |||
Ética | Comportamento | Emoções | |
| Ver todos os temas >> | |||
A informação disponível neste site é estritamente jornalística, não substituindo o parecer médico profissional. Sempre consulte o seu médico sobre qualquer assunto relativo à sua saúde e aos seus tratamentos e medicamentos.
Copyright 2006-2026 www.diariodasaude.com.br. Todos os direitos reservados para os respectivos detentores das marcas. Reprodução proibida.