Isaque Criscuolo
2 de setembro de 2016 - 8h00
Algoritmos estão presentes em diversos momentos da vida moderna. Seja quando fazemos uma pesquisa no Google, procuramos uma rota pelo Waze, pedimos um Uber ou até mesmo quando clicamos nas sugestões de músicas oferecidas pelo Spotify. São essenciais em todas essas ferramentas para entregar um serviço ou conteúdos por meios de plataformas sociais. Como uma receita, algoritmos são uma sequência de instruções para executar uma tarefa. Não exatamente um programa de computador, mas diretrizes para realizar algo que pode ir do mais simples ao mais complexo. Dessa forma que o Facebook, por exemplo, define quais conteúdos vão aparecer no feed do usuário, entre uma enorme quantidade de publicações disponíveis na plataforma. Essa “receita” utiliza diversos critérios para definir quais posts seriam mais importantes do que outros para terem melhor destaque.
O objetivo de algoritmos em plataformas sociais é melhorar a experiência do usuário, cujo valor é o tempo que gasta dentro destas plataformas. Desde 2003, o Facebook alterou o algoritmo do seu principal produto, o News Feed, 23 vezes. A mais recente, em junho deste ano, passou a priorizar a postagem de amigos e familiares. “Dessa forma, as pessoas podem ver o que mais gostam primeiro e não perdem postagens importantes dos amigos. Se não existe ranqueamento, as pessoas não interagem e deixam a plataforma insatisfeitas”, declarou Adam Mosseri, vice-presidente do News Feed, em postagem oficial que divulgava a mudança. Aquela decisão foi o mais recente capítulo de uma longa discussão sobre até que ponto os algoritmos podem mudar a forma como as pessoas percebem o mundo.
Há muita informação sendo produzida: marcas publicam suas promoções e mensagens institucionais, veículos publicam notícias e seus amigos e familiares compartilham conteúdos diversos. Mas, em meio a isso tudo, como ter certeza que o usuário recebe, necessariamente, os conteúdos que mais lhe interessam? Como saber se a curadoria realizada por algoritmos faz algum sentido, tem bom senso e, no fim das contas, é minimamente justa? Para tentar responder a algumas dessas questões, Meio & Mensagem procurou professores e pesquisadores dedicados a temas como jornalismo digital e plataformas sociais. Do ponto de vista acadêmico, o assunto é complexo principalmente por não discutir de modo mais aberto as possibilidades disponíveis ao usuário para aumentar seu controle sobre o conteúdo que deseja receber.
Mediação tendenciosa
Ainda com o Facebook como exemplo, sua rede possui 1,7 bilhões de usuários ativos por mês. Segundo pesquisa publicada neste ano pela Harvard University, a plataforma possui mais de 50 milhões de páginas de veículos e publishers. Entre todo o material publicado por tais páginas, assim como por marcas, instituições, pequenos comércios, amigos e familiares, há em média 1.500 posts esperando por um usuário a cada vez que ele visita o Facebook. Desses, somente 300 são selecionados e publicados no News Feed, sendo que a taxa de clique no conteúdo colocado na posição dez ou abaixo é de menos de 10%. Mas não há tecnologia ou ser humano que garanta que o texto da vida do usuário esteja entre as nove primeiras posições.
Daniela Bertocchi
Numa realidade em que as pessoas consomem cada vez mais notícias por meio de feeds, o Facebook se tornou o jornal mais popular do mundo. Se há pouco tempo a televisão, o rádio e as revistas, com linhas editoriais definidas, ofereciam conteúdo, hoje são as plataformas sociais que, por meio de seus algoritmos, determinam o que consumimos ou chega até nós. Daniela Bertocchi, pesquisadora da USP cujo doutorado dissertou sobre modelos narrativos para jornalismo digital, questiona a proposta de consumo de conteúdo oferecida por algoritmos. “Essa é a experiência que o Facebook quer que você tenha para sustentar o modelo de negócio dele. Isso não quer dizer que é a o que o mundo precisa ou o necessário para resolver nossos problemas.”
“Essa é a experiência que o Facebook quer que você tenha para sustentar o modelo de negócio dele. Isso não quer dizer que é a o que o mundo precisa ou o necessário para resolver nossos problemas.”, diz Daniela Bertocchi.
A missão de todo veículo é levar conteúdo ao público. Não necessariamente apenas informações que esse público busca, mas aquelas que dizem respeito ao que acontece na sociedade e ajudam a construir uma visão ampla do mundo em que vivemos. Sobre o desafio de publishers, Daniela diz que não é possível cumprir uma missão jornalística se as pessoas consomem informação em um contexto mediado por algoritmos. “Você não consegue emplacar as suas notícias nesse algoritmo, então existe um problema real para veículos de comunicação que precisam comunicar fatos, eventos e perspectivas, explicar assuntos que são difíceis de entender e precisam dar profundidade, mas não conseguem atingir as pessoas porque elas estão naquele confinamento”, diz.
Quando determinados assuntos não chegam a alguns usuários por meio de plataformas sociais, ou estes usuários recebem apenas aquilo em que estão interessados, nasce o que especialistas chamam de “bolhas ideológicas” ou “confinamento ideológico”. “As bolhas melhoram a ação da publicidade, pois essas informações sobre cada um de nós vão formando um perfil que é operado por algoritmos. Isso pode ser útil e agilizar situações ligadas ao mercado, mas não podem enquadrar todas as possibilidades humanas no terreno da cultura, da ética e da política”, afirma Sergio Amadeu, sociólogo, pesquisador de cibercultura e professor da UFABC.
Para o mercado de comunicação, já é natural que as plataformas usem tecnologias de segmentação para entregar conteúdo relevante, capaz de engajar a audiência, ampliar a permanência das pessoas na plataforma e, consequentemente, atrair mais anunciantes. Por outro lado, há preocupação com a falta de transparência em muitos pontos — como métricas, fraudes e, claro, algoritmos. Isso transfere grande poder às mídias sociais que desequilibra a dinâmica da indústria midiática.
Neutralidade e ambiguidade
Plataformas sociais ou de conteúdo digital baseadas em log in ou assinatura oferecem um produto cujo resultado é processado por algoritmos, em maior ou menor escala. Ao assinar ou aderir, o usuário concorda com os termos, filtra suas preferências e dá acesso a parte de seus dados. Ao permanecer na plataforma, utilizar suas ferramentas e lhe conferir audiência, acaba por aprovar o que ela faz. Pode amá-la ou detestá-la, mas a aprova silenciosamente, manifestando-se publicamente ou não.
Essa permuta tem diferentes finalidades. Divulgação de publicidade em troca de distribuição de conteúdo, no caso específico do Facebook. Para Moreno Osório, professor de jornalismo da PUC-RS e idealizador da newsletter Farol Jornalismo, são características do jornalismo, mesmo que seu discurso público seja de somente proporcionar experiências para usuários. “Embora eu não duvide do desejo e do trabalho dessas plataformas em criar usabilidade e comunicação que melhore a vida das pessoas, elas não podem se eximir de suas responsabilidades”, diz. Para Moreno, oferecer um determinado conteúdo em detrimento de outros pode ter efeitos indesejáveis ao usuário. Dessa forma, a neutralidade defendida pelas plataformas é questionada.
“Hoje temos uma relação desequilibrada entre plataforma e usuário e o jogo de forças entre plataformas e veículos ainda não está definido”, diz Beth Saad
Procurado, o Facebook não quis se manifestar oficialmente sobre o assunto. Mas no comunicado da plataforma sobre as mudanças de junho, Adam Mosseri destacou que a plataforma só quer distribuir conteúdo significativo. “Nós aprendemos através do tempo que o usuário valoriza histórias que consideram informativas”, escreveu. “Alguma coisa que uma pessoa considera informativa ou interessante pode ser diferente do que outra acha — seja um post sobre um evento em andamento, um texto sobre sua celebridade favorita, uma reportagem do noticiário local ou uma receita. Estamos sempre trabalhando para entender melhor o que é interessante e informativo para você pessoalmente, de forma que essas histórias tenham maior destaque no seu feed”.
Zeynep Tufekci, professora assistente da School of Information and Library Science da Universidade da Carolina do Norte, analisou, em texto publicado no New York Times: “O primeiro passo à frente para o Facebook, e qualquer um que usa algoritmos para tomar decisões subjetivas, é deixar de lado a pretensão de que são neutros. Nem mesmo o Google, cujo algoritmo de ranqueamento pode decidir o destino de empresas ou políticos ao mudar resultados de busca, define seu algoritmo como ‘programas de computador que procuram por pistas para te dar exatamente o que quer’. Mas isso não diz respeito apenas ao que queremos. O que nos é mostrado é definido por esses algoritmos, que por sua vez são determinados pelo que essas empresas querem de nós e não há nada neutro nisso.”
“Você tem plataformas que se posicionam quase como algo lúdico e não assumem o compromisso de ajudar as pessoas a se informarem, a tomarem melhores decisões na vida. Ficam em cima do muro e perdem a chance de falar com milhões de pessoas e de fazer a sociedade melhorar e evoluir”, diz Daniela.
Beth Saad
Para Beth Saad, professora titular da ECA-USP e pesquisadora das áreas de comunicação e jornalismo digital, a construção, alteração e até mesmo a “ideologização” do algoritmo tem por base uma concepção de seu proprietário, seja ele empresa ou indivíduo. “A partir disso, a alteração de algoritmos e eventuais tendenciamentos ideológicos, editoriais, políticos é algo esperado, pois seu proprietário mexe na construção algorítmica de forma a este produzir e/ou alavancar os resultados e benefícios nele contidos”, complementa Beth Saad. Daniela Bertocchi concorda, apontando que algoritmos desenvolvidos por uma empresa privada servem ao seu modelo de negócio e não existe nenhum problema nisso. Ela pondera, porém, que ao expor pessoas ao produto desse algoritmo sem oferecer diversidade de conteúdo, “perde-se a chance de falar com milhões de pessoas, de informá-las, de motivá-las e empoderá-las.”
“É fundamental que a sociedade saiba que os algoritmos não são neutros e que eles trazem uma série de determinações impostas pelos seus programadores. Por isso, algoritmos deveriam ser abertos, ou seja, seus usuários deveriam ter acesso às rotinas encadeadas que compõem seu código. Algoritmos serão cada vez mais os verdadeiros legisladores de nosso cotidiano. Uma sociedade democrática exige algoritmos abertos”, diz Sérgio Amadeu, que é também um dos maiores entusiastas do debate sobre software livre no Brasil.
Regras inacessíveis
Plataformas sociais têm reforçado sua comunicação para dar mais poder aos usuários em relação ao feed de notícias, permitindo que possam personalizar sua experiência. Elas costumam se defender dizendo que bolhas ideológicas são criadas pelos próprios usuários, mas Beth Saad afirma que os dois lados têm responsabilidades no jogo, principalmente levando em consideração que a média de usuários dessas plataformas não é especialista em gerenciar timelines. “É preciso conhecer um pouco as regras publicadas de cada algoritmo em uso, mexer um pouco na configuração do perfil de usuário, e utilizar de estratagemas em determinados posts. A questão é que a grande maioria do público não tem e não faz ideia dessa possibilidade. Com isso, é possível que a combinação entre a sentença matemática de um algoritmo e o modo de uso da plataforma produza algum tipo de bolha — seja esta ideológica, informativa ou social. Não importa o tipo de bolha”, afirma a professora da ECA. “Hoje temos uma relação desequilibrada entre plataforma e usuário e o jogo de forças entre plataformas e veículos ainda não está definido”, diz.
“Bolhas são consequência do uso dessas tecnologias. Antes de condenar, precisamos ter um olhar crítico. Usuários avançados, pesquisadores ou a própria plataforma: temos a responsabilidade de levar esse olhar aos usuários básicos”, enfatiza Moreno Osório.
Moreno Osório
O lado positivo das bolhas, de acordo com Daniela, é quando o usuário ganha profundidade em determinado tema e entra em contato com mais pessoas de interesses similares. Entretanto, este mesmo usuário corre o risco de ficar alheio a informações relevantes para a sociedade de forma geral, e não só de seu grupo de interesse. O ideal, segundo ela, seria que plataformas sociais assumissem uma postura mais clara e transparente, acrescentando também esses valores às suas tecnologias. “O algoritmo que precisamos hoje é o que pode abrir uma brecha para questões relevantes que ultrapassam a promoção de um espaço para as pessoas conversarem. Falta um compromisso com o social, com a sociedade e com a evolução geral do coletivo”, relata.
“Se não dá para ignorar as grandes plataformas, que elas vejam nos publishers e nos produtores de conteúdo indivíduos e instituições que não estão ali somente para usar o produto, mas para construí-lo através da crítica”, afirma Moreno Osório. “Algoritmos já estão inseridos na vida digitalizada, agora temos que entender como conviver com eles”, diz Beth Saad.