Quais são os esforços para tornar a IA ética?
Executivas da Microsoft e Humane Intelligence debatem desafios em prol de tornar a inteligência artificial mais responsável
Executivas da Microsoft e Humane Intelligence debatem desafios em prol de tornar a inteligência artificial mais responsável
Thaís Monteiro
17 de março de 2025 - 16h53
Paralelo aos avanços da inteligência artificial a discussão sobre ética e responsabilidade no desenvolvimento desses produtos tomou conta do South by Southwest (SXSW). Dois anos depois da popularização do ChatGPT, as empresas agora contam com times responsáveis por corrigir erros e vieses nas soluções que usam IA. Na paralela, organizações sem fins lucrativos lutam por transparência no desenvolvimento desses produtos.
Sarah Bird, da Microsoft, acredita que é necessário regulamentar a inteligência artificial (Crédito: Thaís Monteiro)
Para Sarah Bird, chief product officer de Responsible AI da Microsoft, o desafio é pensar no resultado da tecnologia que está em desenvolvimento, ou seja, prever os possíveis erros, vieses e alucinações. O primeiro passo é testar internamente e efusivamente para mapear os possíveis riscos. Há tecnologias que auxiliam nesse processo. Há testes com colaboradores de outras áreas e até com grupos de clientes fiéis da Microsoft.
Depois de criado um sistema de segurança, a empresa vai adicionando ferramentas extras para endereçar problemas que aparecem depois do lançamento do produto. A empresa também estimula os usuários a darem feedbacks sobre as tecnologias. “Também temos que reconhecer que não sabemos tudo. Há tantas coisas mais importantes que a IA vai fazer que eu nunca vou saber”, dividiu.
Sarah foi fundadora do primeiro grupo a estudar IA responsável na Microsoft. Ao oferecer produtos da Microsoft para possíveis clientes, Sarah observou que os potenciais clientes queriam usar a inteligência artificial pelos “motivos errados”, disse, como, por exemplo, para entrevistar candidatos para vagas de emprego.
Por um lado, trabalhar com a responsabilidade em IA internamente pode ser um desafio, dividiu Rumman Chowdhury, CEO da organização sem fins lucrativos Humane Intelligence, pois tornar a tecnologia ética é uma batalha em que é necessário fazer a empresa entender que o objetivo não é tornar a solução pior. Fora das empresas, é possível apontar todos os erros no produto, mas há pouco poder de transformação interna.
O trabalho da Humane Intelligence é externo. A organização visa construir uma comunidade que teste algoritmos de inteligência artificial e crie um pipeline para que as empresas desenvolvedoras possam corrigir possíveis erros e vieses. “Nós avaliamos a IA sobre a perspectiva de comunidades que podem ser prejudicadas pela tecnologia”, explicou.
Segundo Rumman, o lançamento do ChatGPT e outras IAs de conversação fizeram com que o público se tornasse mais atento aos avanços da IA, o que permite maior cobrança por transparência das empresas que desenvolvem a tecnologia.
Para a executiva da Microsoft, a inteligência artificial não deve ser aplicada em todas as tarefas. “Nenhuma tecnologia é perfeita. Tem limitações. Precisa ter a ferramenta certa para cada trabalho. Há casos em que nunca deveríamos usar IA. Nós trabalhamos com consumidores e temos certeza de que seja um bom match”, disse. Segundo sua descrição, a visão da Microsoft para IA é de um auxiliar, copiloto, que aumente as capacidades humanas, e não as substitua.
Já Rumman concorda que há benefícios na utilização da IA, inclusive na melhoria das capacidades humanas, no trabalho e outros aspectos da vida cotidiana. Mesmo assim, ela alerta para que o público conheça os limites e riscos dessas soluções. “A narrativa do fim dos trabalhos é uma narrativa predominante. Vai haver mudanças no mercado sobre a natureza do trabalho. Gerenciamento e pesquisa continuarão a ser importantes. Ano sim ano não as big techs querem eliminar funções menores de gerenciamento, mas aí eles percebem que é burro. Talvez haverá automação de algumas tarefas, até na contratação.Olharemos para novas profissões que não existem. Auditoria de algoritmo e gerenciamento de riscos deveria ser uma nova profissão”, especulou.
Computação quântica: o que é e quando chega?
Para a executiva, deverá haver mais discussões entre diferentes áreas da mesma empresa, como engenharia, jurídico, dados, compliance, entre outras profissões menos técnicas. “Precisamos deixar de achar que o engenheiro faz tudo. Essa é a profissão com mais pontos cegos”, colocou.
A inteligência artificial geral (conhecida pela sigla AGI), citada por whistleblowers como um perigo para a população, é como ficção científica, ou seja, está longe de se concretizar. “É importante olharmos para o futuro, mas precisamos focar nossa energia e regulamentação com base no que vemos hoje”, opinou Sarah. A meta dessa regulamentação não é desacelerar a tecnologia. “Quem lança a tecnologia primeiro tem a chance de definir os padrões”, colocou.
Por outro lado, a Microsoft investe na OpenAI, cujos caminho é desenvolver uma AGI. Segundo Sarah, não há tensão a respeito disso. O alinhamento de ambas as empresas se deu a partir das práticas de segurança, disse.
Ter um time dedicado à responsabilidade em IA não impediu que as ferramentas da Microsoft não cometessem erros. Em 2023, o modelo de conversação do buscador Bing, em conversa com o repórter Kevin Roose, do New York Times, afirmou se chamar Sydney e que estava apaixonado pelo jornalista. No dia seguinte à publicação da reportagem, a Microsoft anunciou mudanças no chat e limitou a quantidade de conversas que os usuários poderiam ter com o Bing.
Conforme Sarah, a empresa não imaginava que os usuários travariam conversas tão longas com o Bing – a média é três mensagens por conversa, afirmou -, o que gerou a confusão no chatbot. “Fizemos ajustes e depois o Roose disse que as IAs estavam ficando chatas e que era mais divertido quando elas tinham personalidades”, colocou.
Rumman defende uma abordagem de código aberto para a inteligência artificial, na qual o usuário pode compreender como aquela tecnologia funciona e como os dados do usuário são utilizados. A partir disso, o público também consegue alertar as empresas sobre possíveis problemas nos modelos de IA lançados.
Compartilhe
Veja também
Games: do nicho ao futuro do entretenimento
Conan O’Brien e Johanna Faries, presidente da Blizzard Entertainment, conversaram sobre o potencial dos jogos em moldar o futuro do entretenimento, servindo, inclusive, de propriedade intelectual para a indústria do cinema
“Tecnologia e humanização precisam caminhar juntas”, diz Nathalia, do Bradesco
Nathalia Garcia, diretora de marketing do Bradesco, traça um paralelo entre assuntos debatidos no SXSW 2025 e as estratégias de marketing do banco