Assinar

Dados sintéticos, alucinações e Direito à Realidade

Buscar

Dados sintéticos, alucinações e Direito à Realidade

Buscar
Publicidade
Opinião

Dados sintéticos, alucinações e Direito à Realidade

O deepfake é apenas a ponta do iceberg de um dos efeitos colaterais da IA


5 de março de 2025 - 6h00

Scarlett Johansson tem sido uma voz ativa contra o uso indevido da inteligência artificial (IA). No início de fevereiro, a atriz se manifestou sobre o assunto após um vídeo manipulado com sua imagem ter viralizado nas redes sociais. A produção digital gerada por IA, criada sem sua autorização, retrata uma versão fictícia dela e de outras estrelas de ascendência judaica, incluindo David Schwimmer, Woody Allen, Jerry Seinfield, Paul Simon e Art Garfunkel, que aparecem vestindo uma camiseta branca mostrando a Estrela de Davi em uma mão fazendo uma saudação com o dedo médio em riste, acima da palavra “Kanye”.

O vídeo, produzido por meio da tecnologia deepfake, surgiu como uma reação ao rapper Kanye West, que dias antes fez uma série de postagens antissemitas na plataforma X e vendeu camisetas com suásticas em seu site, que chegou a ser divulgado, durante o Super Bowl. Recebi o referido vídeo em alguns grupos de WhatsApp dos quais participo. E confesso que me chamou a atenção pela sua aparente veracidade. Após a rápida viralização da produção, Johansson disse que, embora não tivesse tolerância com “discurso de ódio”, estava preocupada com a ameaça que a IA nos traz de “corrermos o risco de perder o controle da realidade”.

Poucos dias antes dessa declaração, assisti a uma palestra do presidente da Fundação Itaú, Eduardo Saron sobre IA, na qual ele declarou que o “Direito à Realidade” precisa ser um tema para debate e mobilização de todos – governos, instituições multilaterais, academia, empresas e sociedade civil – e deve ser abordado como um novo campo dos direitos humanos, para garantir que não sejamos condenados a viver em uma caverna de ilusões e falsidades, como no mito de Platão.

O incidente envolvendo o vídeo falso em protesto a Kanye West desencadeou um debate global sobre a urgência da regulamentação da IA. Johansson afirmou que a falta de leis rígidas que regem a tecnologia nos Estados Unidos representa um perigo para a privacidade e a autenticidade das informações.

O deepfake é apenas a ponta do iceberg de um dos efeitos colaterais da IA. A expansão acelerada dessa tecnologia trouxe à tona a importância de dados de qualidade para o treinamento e desenvolvimento de modelos. No entanto, a coleta e o uso de dados reais frequentemente esbarram em desafios como a escassez de informações, restrições regulatórias e preocupações com a privacidade.

Para suprir essas e outras necessidades, entram em cena os dados sintéticos, aqueles gerados por algoritmos e que “imitam” dados do mundo real, replicando suas propriedades estatísticas e características. Eles vão desde ações supostamente ingênuas, como imagens de roupas usadas por influenciadoras de moda em suas redes sociais, à criação de discursos políticos falsos, passando por produção de vídeos enganosos e distribuição de imagens manipuladas para prejudicar a reputação de indivíduos.

De acordo com a Gartner, os dados sintéticos representarão a maior parte dos acervos utilizados por modelos de IA (mais de 70%) até 2030 e continuarão crescendo. Até 2031, o mercado global de dados sintéticos atingirá US$ 3,5 bilhões (cerca de R$ 17,5 bilhões).

Claro que há benefícios da mídia sintética. E eles não são poucos, abrangendo áreas como expressão criativa (design gráfico), arte (criação e restauração de obras), publicidade (visualização de produtos e anúncios personalizados), entretenimento (filmes, games) e saúde (dados sintéticos para pesquisa, treinamento e planejamento de cirurgias). No entanto, os riscos também são muitos, especialmente a manipulação enganosa.

Em recente artigo na Época Negócios, a especialista em IA, Dora Kaufman, chama a atenção também para outro efeito preocupante dos dados sintéticos: o fenômeno chamado “loop de feedback”. Quando modelos de IA generativa são treinados com dados sintéticos, a qualidade dos resultados é comprometida. Por exemplo, um modelo de IA tem dificuldade em reproduzir corretamente as mãos humanas, gerando distorções. Se essas imagens forem usadas para treinar outro modelo de IA generativa (GenAI), essas distorções são ampliadas, criando um “efeito telefone sem fio”, até que os resultados se tornem praticamente irreconhecíveis, caracterizando um colapso do modelo.

Sem contar as alucinações da IA, muito mais comuns nos primeiros modelos de GenAI, mas que ainda ocorrem com muito mais complexidade devido à dificuldade em apurar a autenticidade de informações contidas nas bases coletadas, fazendo com que se possam criar respostas que não têm nenhuma conexão com a realidade, mas que parecem coerentes e convincentes, porque a ferramenta foi muito bem treinada não apenas em outros pontos da gramática, mas também em sintaxe.

Aqui o mesmo cenário. Embora sejam inegáveis os ganhos de produtividade e eficiência decorrentes do uso dessas tecnologias, o fenômeno das alucinações apresenta um risco associado à propagação de informações falsas e de desinformação, elevando a exigência de senso crítico nos usuários. Como o modelo é capaz de gerar textos muito convincentes, confiar nessas informações e transmiti-las como se fossem verdadeiras pode causar danos individuais e coletivos.

Inspirada pela palestra citada no começo deste texto, assisti recentemente ao filme Matrix com meus filhos. Foi a primeira vez que revi o clássico das irmãs Wachowski desde seu lançamento, em 1999. E foi fascinante ver sua força ao explorar profundamente a questão da realidade 26 anos depois. O personagem principal, Neo, descobre que o mundo em que vive é uma simulação gerada por máquinas inteligentes que controlam a humanidade. Neo é confrontado com a escolha de continuar vivendo na ilusão ou enfrentar a realidade.

Na “matrix” de 2025, com seu contexto muito mais complexo e ambíguo, se faz urgente a criacão e o desenvolvimento de garantias, ferramentas e interações éticas para distinguir a realidade das simulações e simulacros, expressão que ganhou fama a partir do filósofo francês Jean Baudrillard e seu icônico livro, lançado no início dos anos 1980, Simulacros e Simulação. Nessa obra, Baudrillard explora como a sociedade contemporânea substitui o real pela simulação, ou simulacro. A primeira ordem seria uma cópia da realidade, enquanto a segunda é a cópia de algo que nunca existiu, criando assim a hiper-realidade.

Em tempos de pós-realidade, esse tema nunca foi tão real.

Publicidade

Compartilhe

Veja também