Assinar
De 7 a 15 de março de 2025 I Austin - EUA
SXSW

Inteligência artificial nos recursos humanos: você se candidataria?

Com grande parte das companhias já aplicando a tecnologia em seus processos seletivos, vieses e melhor uso das ferramentas guiam as conversas no SXSW


15 de março de 2023 - 13h02

Inteligência artificial no RH

Jess Elmquist, chief human resources officer & chief evangelist da Phenom (Crédito: Giovana Oréfice)

No despontamento do ChatGPT, muito se falou sobre como suas inúmeras habilidades poderiam auxiliar o dia a dia do ser humano. Uma das conversas foi sobre como a inteligência artificial poderia elaborar um currículo com altas chances de sucesso do ponto de vista de companhias, bem como cartas de recomendação e de apresentação para a participação de processos seletivos.

Do outro lado, a inteligência artificial também já faz sua aparição. Levantamentos indicam que, nos Estados Unidos, uma em cada quatro companhias já usam alguma forma de IA em seus processos de recrutamento e seleção. Boa parte da trilha “Future of Work” se dedicou a debater os princípios éticos da mescla entre ser humano e tecnologia – assim como tantas outras trilhas do festival – e a tentar responder uma pergunta: os robôs funcionam e fazem decisões justas?

O próprio nome de um painel, de certa forma, desvendava o enigma. “AI Don’t Make Hiring Decisions, People Do” foi apresentado por Jess Elmquist, chief human resources officer & chief evangelist na Phenom. Em seu discurso, ele salientou que a tecnologia veio como forma de auxílio, e não substituição, uma vez que acelera processos humanos.

“A qualidade dos talentos está caindo drasticamente, com base na especialização necessária que nossos empregadores precisam. Portanto, estamos vendo um impacto significativo onde há mais demanda para filtrar talentos e encontrar as pessoas que têm as habilidades ou o potencial por meio da educação e do aprendizado contínuo para realmente atender às nossas necessidades”, justificou Emquist.

O especialista em RH alertou que a aplicação da IA em processos de atração de talentos tem risco variado de acordo com o segmento em que está sendo aplicada. Além disso, ele delineou pontos fundamentais que melhoram o processo em integração com soluções do tipo: transparência, estruturas colaborativas, insights significativos, decisões baseadas em dados e experiência simplificada. Ou seja, é preciso que equipes de RH desenvolvam a confiança e habilidade de desafiar os resultados da IA, bem como acioná-la com ceticismo e possibilidade de auditar sistemas.

A explicação de Emqusit vai ao encontro d0s insights do painel “Is AI the New HR? Protecting Civil Rights at Work”. Hilke Schellmann, jornalista investigativa e professora na New York University, declarou que é preciso que haja uma indagação de como as ferramentas são consolidadas nesses espaços. Ela citou uma situação em que, para a inteligência artificial, a presença de palavras como “Thomas” e “church” (igreja), conferiam mais chances de sucesso aos candidatos. Ainda, a tecnologia está sendo aplicada para fazer entrevistas por voz, análise de expressões faciais e avaliação de nível de idiomas, por exemplo.

“Se queremos que esses produtos realmente melhorem e sejam responsabilizados, a única solução é que haja muito mais visibilidade sobre como eles funcionam. E isso é tanto para as pessoas que estão passando pela experiência quanto para cientistas de dados para poder ter um olhar por fora e saber de reivindicações que essas empresas estão fazendo”, disse Alexandra Reeve Givens, CEO e presidente do Center for Democracy & Technology.

Ferramentas enviesadas

Existe também o problema de viés, uma vez que as ferramentas estão sendo construídas sobre decisões subjetivas. Assim, ressalta-se que questões não só de gênero e raça são afetadas, mas de pessoas com deficiências, imigrantes, e outras que divergem do padrão; questão da qual tanto vem sendo necessário fugir.

Contudo, Manish Raghavan, do Massachusetts Institute of Technology (MIT), pontuou que a participação da IA vem de muito antes da seleção do candidato. Quando uma vaga aparece no seu feed do LinkedIn ou até mesmo é sugerida (ou não) diretamente a um potencial candidato, isso é uma ação da tecnologia que ainda não sabemos muito bem como acontece. Por isso, para ele, é difícil captar discriminações nesta altura, uma vez que tal seleção não acontecia antes do uso em escala das plataformas digitais.

“Acho que há um equívoco quando falamos de IA, de que existe alguma inteligência fundamental acontecendo. E eu quero dissuadir você dessa noção. Realmente, o que está acontecendo com essas ferramentas, é que elas são sistemas sofisticados de correspondência de padrões”, lembrou o professor do MIT.

Uma das soluções propostas pelo chief human resources officer & chief evangelist na Phenom é que um passo a passo seja seguido. Primeiro, é necessário identificar o grupo que foi desfavorecido. Na sequência, as decisões do algoritmo devem ser examinadas para que as causas sejam identificadas e, assim, o problema seja resolvido em uma instância técnica. Ele sugere que diversos grupos sejam envolvidos nos processos, não só o de RH, mas os de diversidade e inclusão, por exemplo. Contudo, para que isso aconteça, aumenta a demanda de que a sociedade civil se manifeste e questione o porquê da aplicação de determinadas soluções, até mesmo exija testes alternativos para determinadas etapas.

De fato, já existem órgãos, e o próprio governo, atentos sobre o que vem acontecendo. Contudo, é preciso mais investigação acerca do tema.

Publicidade

Compartilhe