13/12/2019

A inteligência artificial na contratação de funcionários é justa?

Redação do Diário da Saúde

Emprego e algoritmos

Como a contratação de novos funcionários leva um tempo significativo - mais de um mês, em média - muitas empresas e organizações estão terceirizando pelo menos parte de sua busca por novos funcionários para empresas de tecnologia externas, que examinam os candidatos com algoritmos especiais de inteligência artificial conhecidos como aprendizado de máquina.

A ideia por trás disso é que, se os seres humanos têm tanta dificuldade em encontrar o melhor candidato para suas empresas, talvez uma máquina possa fazê-lo melhor e com mais eficiência.

Mas será que esses algoritmos de contratação são justos ou, no mínimo, jogam limpo com os candidatos e com a própria preferência do futuro empregador?

A resposta incômoda a essas questões é que esses algoritmos de inteligência artificial são tão opacos que é impossível saber se eles são justos, honestos, equitativos ou qualquer coisa que o valha.

Inteligência artificial para contratação

Manish Raghavan e seus colegas da Universidade de Cornell (EUA) tentaram responder várias questões sobre os algoritmos de contratação de pessoal e as empresas de tecnologia que os desenvolvem e os utilizam: Quão imparcial é o processo de triagem automatizado? Como são construídos os algoritmos? E por quem, para que fim e com que dados?

Eles descobriram que as empresas tendem a favorecer a obscuridade em detrimento da transparência nesse campo emergente, onde a falta de consenso sobre pontos fundamentais - definições formais de "preconceito" e "justiça", por exemplo - permite que as empresas de tecnologia definam e tratem do preconceito nos programas de inteligência artificial em seus próprios termos.

"Eu acredito que estamos começando a ver um reconhecimento crescente entre os criadores de ferramentas algorítmicas de tomada de decisão de que eles precisam estar particularmente cientes de como suas ferramentas afetam as pessoas," disse Raghavan. "Muitos dos fornecedores que encontramos em nosso trabalho reconhecem esse impacto e estão tomando medidas para lidar com preconceitos e discriminação. No entanto, há uma notável falta de consenso ou direção sobre exatamente como isso deve ser feito".

Ética na inteligência artificial

Poucos fornecedores de software oferecem informações concretas sobre como eles validam suas avaliações dos candidatos ou divulgam detalhes sobre como tentam evitar o viés embutido em programas que só tomam decisões porque foram alimentados por dados passados - logo, e este é apenas o menor dos riscos, qualquer viés nas contratações passadas estará naturalmente embutido nas contratações futuras.

"Um monte de fornecedores não mencionam esforços para combater o viés, o que é particularmente preocupante, porque eles não estão pensando nisso ou não estão sendo transparentes sobre suas práticas," disse Raghavan. Ainda que essas empresas de tecnologia usem termos como "preconceito" e "justiça", o uso desses termos é vago. Um fornecedor pode alegar que seu algoritmo de avaliação é "justo" sem revelar como a empresa define justiça, por exemplo.

A equipe espera que seu trabalho incentive a transparência e a conversa sobre o que significa agir de maneira ética neste domínio de avaliações pré-emprego por meio do aprendizado de máquina.

 

Fonte: Diário da Saúde - www.diariodasaude.com.br

URL:  

A informação disponível neste site é estritamente jornalística, não substituindo o parecer médico profissional. Sempre consulte o seu médico sobre qualquer assunto relativo à sua saúde e aos seus tratamentos e medicamentos.
Copyright 2006-2023 www.diariodasaude.com.br. Cópia para uso pessoal. Reprodução proibida.