Valeria Contado
21 de março de 2023 - 14h59
Giselle Beiguelman, artista digital e professora da FAU-USP, autora do livro “Políticas da imagem” e a moderadora Dora Kauffman, pesquisadora dos impactos éticos e sociais da IA, debatem os impactos do comportamento racial no treinamento de tecnologias de inteligência artificial (Crédito: Eduardo Lopes/ Imagem Paulista)
“Os dados são massivamente masculinos”. Essa frase foi dita pela artista digital e professora da FAU-USP, autora do livro “Políticas da imagem”, Giselle Beiguelman, no palco do Women To Watch Summit nesta terça-feira, 21, durante o painel “Cyber-vigilância, privacidade e reprodução de preconceitos”, moderado por Dora Kaufman, pesquisadora dos impactos éticos/sociais da IA.
A profissional utiliza esse paralelo para explicar a problemática das inteligências artificiais, explicando sobre como falta diversidade afeta a programação das formas de vigilância e até mesmo chats de Inteligência Artificial (IA).
A professora explica que questionamentos levantados a respeito da segurança e de vigilância a respeito do preconceito racial gerado por essa tecnologia, ou mesmo uma inteligência que não capta características femininas, são consequência do treinamento do dataset, que fazem com que comportamentos racistas, machistas e até mesmo ageístas sejam reproduzidos por esses sistemas.
Essa ambivalência aponta problemas de viés raciais que são, ainda, resultado do sistema de raízes colonialistas, que muitas culturas tentam se libertar das consequências dessas ações.
Para Giselle, as artes e as ciências sociais serão as responsáveis pela reprogramação do sistema de dados e inteligência artificial. “Esse paradigma de normalidade é exacerbado pelas inteligências artificias. Ela racializa a vigilância, mais do que já é, e foca em corpos que são excluídos racialmente. Esse aspecto maximiza alguns problemas, por isso, é do âmbito das ciências sociais e das artes que essa reprogramação pode ser feita”, diz.