30/10/2019

Confiamos em agentes virtuais para muitas coisas - mas não durante conflitos

Redação do Diário da Saúde
Confiamos em agentes virtuais para muitas coisas - mas não durante conflitos
Os membros da equipe mostraram-se menos propensos a se envolver com um agente virtual quando os conflitos emergiram.
[Imagem: Ellie/Courtesia ICT]

Conselheiro virtual para conflito real

Podemos ouvir com atenção fatos de vários assistentes digitais, como Siri ou Alexa, ou mesmo instruções do Google Maps ou Waze, mas será que permitiríamos que um agente virtual ativado por inteligência artificial nos ajudasse a mediar um conflito que surgisse entre os membros da equipe no trabalho?

Parece que ainda não.

Pesquisadores das universidades Sudeste da Califórnia e Denver (EUA) criaram uma simulação na qual uma equipe de três pessoas era apoiada por um agente virtual na tela para executar uma tarefa. Com o detalhe de que a missão foi projetada para garantir falhas e provocar conflitos.

O experimento foi projetado para considerar os agentes virtuais como potenciais mediadores dos conflitos e melhorar a colaboração da equipe.

Enquanto pesquisas anteriores mostraram que interações humanas individuais com um terapeuta virtual rendem mais confissões sinceras, neste caso os membros da equipe mostraram-se menos propensos a se envolver com o agente virtual quando os conflitos emergiram.

Os participantes foram amigáveis com o ser robótico enquanto as coisas iam bem - ninguém atacou fisicamente o avatar, como já se viu seres humanos atacando robôs em postagens de mídia social virais -, mas se mostraram menos envolvidos e menos propensos a ouvir as informações do agente virtual depois que falhas e conflitos surgiram entre os membros da equipe.

Com confiar na inteligência artificial

O experimento mostrou que as equipes reagem socialmente ao agente virtual durante o planejamento da missão a que foram designadas - acenando, sorrindo e reconhecendo as informações do agente virtual por meio de agradecimentos.

Mas, conforme o exercício progredia, mais o envolvimento deles com o avatar diminuiu. Os participantes não culparam totalmente o agente virtual pelos problemas, mas não lhe deram ouvidos quando os conflitos emergiram.

A professora Gale Lucas afirma que não vai desistir e que pretende bolar novos experimentos para ver se os agentes virtuais poderiam ser aplicados "para nos ajudar a tomar melhores decisões" e descobrir "o que é necessário para que confiemos nos agentes virtuais".

Checagem com artigo científico:

Artigo: Conflict Mediation in Human-Machine Teaming: Using a Virtual Agent to Support Mission Planning and Debriefing
Autores: Kerstin S. Haring, Jessica Tobias, Justin Waligora, Elizabeth Phillips, Nathan L. Tenhundfeld, Gale Lucas, Jonathan Gratch, Ewart J. de Visser, Chad C. Tossell
Publicação: Proceedings of th 28th IEEE International Conference on Robot & Human Interactive Communication
Siga o Diário da Saúde no Google News

Ver mais notícias sobre os temas:

Relacionamentos

Trabalho e Emprego

Ética

Ver todos os temas >>   

A informação disponível neste site é estritamente jornalística, não substituindo o parecer médico profissional. Sempre consulte o seu médico sobre qualquer assunto relativo à sua saúde e aos seus tratamentos e medicamentos.
Copyright 2006-2024 www.diariodasaude.com.br. Todos os direitos reservados para os respectivos detentores das marcas. Reprodução proibida.