Assinar

Mark Coeckelbergh: “É preciso educar as pessoas sobre IA”

Buscar

Mark Coeckelbergh: “É preciso educar as pessoas sobre IA”

Buscar
Publicidade
Mídia

Mark Coeckelbergh: “É preciso educar as pessoas sobre IA”

Cientista político e filósofo belga, Mark Coeckelbergh defende ampliação do conhecimento sobre riscos éticos da inteligência artificial


23 de outubro de 2024 - 6h00

O mundo vive a explosão da bolha da inteligência artificial. Antes reservada a contextos de trabalho específicos e automações cotidiadas, desde a ascenção do ChatGPT, da OpenAI, em 2022, o noticiário diário é ocupado com novos lançamentos e aprimoramentos de soluções focadas em IA generativa e outros modelos.

Mark Coeckelbergh

Filósofo e cientista político, Mark Coeckelbergh prevê que a inteligência artifical terá impactos na democracia (Crédito: Arthur Nobre)

Para previnir usos má-intencionados, seja na propagação de discriminação algorítimica, acesso a dados sem restrições ou na criação de deep fakes, países desenvolvem regulamentações. Ainda em 2023, a União Europeia lançou o The AI Act e os Estados Unidos propuseram uma ordem executiva para orientar o mercado com boas práticas. O Brasil discute uma proposta baseada em riscos, como a européia.

Sociólogo, cientista político e filósofo belga, Mark Coeckelbergh argumenta que as apostas das big techs em IA é apenas mais uma forma de receber investimentos. “Não se deve pensar que o objetivo deles é apenas desenvolver tecnologia. Claro, eles dizem isso, mas é, obviamente, para ganhar dinheiro”, diz.

Autor de livros, como “Ética na inteligência artificial”, disponível em português, e “Por que a IA prejudica a democracia e o que fazer a respeito” (em tradução livre),  o filósofo defende a educação e participação cívica como forma de promover a ética e equilíbrio em relação à tecnologia.

Meio & Mensagem – Você menciona a possibilidade de que os sistemas de IA podem não ser tão inteligentes quanto imaginamos, ainda assim lhes damos um poder significativo. Essa é uma perspectiva que ainda não é amplamente discutida. Ao discutir IA, profissionais geralmente falam sobre como ela avançará nos próximos anos e se tornará mais inteligente. Você poderia elaborar sobre o risco da “não-inteligência”?

Coeckelbergh – De certa forma, temos uma IA não inteligente. Temos uma IA que consegue encontrar padrões, prever texto e fazer autocorreção. Pode ser útil se soubermos suas limitações, mas as pessoas não conhecem essas limitações. Por isso, em meu livro sobre democracia, ressalto a necessidade de conscientizar as pessoas sobre essas limitações. Podemos dizer que temos uma IA “burra” e que precisamos de pessoas inteligentes para utilizá-la. Precisamos educar as pessoas, e isso não se trata apenas de aspectos técnicos, mas também de ética, política, de como as coisas funcionam, e também mostrar às pessoas que elas podem fazer algo, que não é algo que está sendo decidido acima de nossas cabeças, que podemos influenciar esse processo. Não se trata apenas de grandes empresas de tecnologia ou de poder. Nós, como cidadãos, podemos recuperar espaço, espaço democrático, para decidir sobre o que realmente precisamos.

M&M – Sistemas educacionais deveriam se concentrar em orientar o público sobre IA?

Coeckelbergh – Com certeza. E não apenas sobre os aspectos técnicos, mas também sobre todos esses problemas éticos. Isso deveria fazer parte de uma educação que torne as pessoas mais conscientes, de modo geral, sobre o lugar da tecnologia em suas vidas. Temos que fazer a antiga pergunta sobre o que é uma vida boa novamente, que já era feita sobre gregos e romanos, mas agora à luz da tecnologia. Que lugar quero dar à tecnologia em minha vida para não ser escravo do meu telefone ou usar essas ferramentas ditas inteligentes de maneira acrítica? E o que isso faz comigo? Essas são as perguntas que devemos fazer. Então, primeiramente, que tipo de vida quero levar com a tecnologia? Não sou contra a tecnologia. Mas onde estamos? E como sociedade, a mesma pergunta: o que é bom para a sociedade? Como a IA pode ajudar a alcançar um bem comum?

M&M – Há uma previsão de que a IA impactará a maneira como o público consome informações, o que pode prejudicar os veículos de notícias, que já foram afetados pelas mídias sociais, pelo fenômeno das fake news e outros fatores. O que você prevê para o futuro do jornalismo e da desinformação nesse contexto?

Coeckelbergh – Em primeiro lugar, como muitas profissões, os jornalistas também são transformados em uma espécie de robôs ou máquinas, devido a todas as restrições e à pressão da gestão do lado econômico. Em vez de substituir os jornalistas, precisamos, novamente, dessa combinação com a inteligência humana. IA pode ser útil, talvez, para obter rapidamente uma visão geral de uma determinada discussão. É bom, por exemplo, usar o ChatGPT se você não sabe nada sobre ética e quer saber mais. Mas, claro, isso nunca pode ser o fim. Pode ser o começo de uma investigação e de um processo de escrita, de descobrir o que está acontecendo. Novamente, a IA precisa ter um lugar na sociedade, mas não para substituir as pessoas. Precisamos absolutamente dessas mentes críticas para ajudar a educar as pessoas. Em nossa abordagem mais individualista, que é dominante hoje, não ousamos mais dizer que precisamos de cidadania e que devemos educar as pessoas. Achamos que devemos deixar tudo nas mãos dos indivíduos. Mas se você faz isso, acaba com o que temos hoje, uma sociedade problemática que agora está quebrada, e precisamos curá-la. Precisamos fazer algo a respeito. Precisamos criar mais capacidades de pensamento crítico. Os jornalistas, entre outros, podem desempenhar um papel muito importante nisso. Não devem ser apenas máquinas de checagem de fatos ou produzir conteúdo rapidamente para obter dinheiro com publicidade..Podem desempenhar um papel maior na democracia. Novamente, isso nos leva de volta à educação, porque essas pessoas não surgem do nada. Temos que criar mentes críticas.

M&M – Ter uma marca d’água para conteúdo gerado por IA é uma solução eficiente para mitigar os riscos de desinformação?

Coeckelbergh – O problema é que você acaba entrando em uma corrida armamentista, porque as pessoas que querem criar desinformação farão uma tecnologia melhor que contorne isso. Então é difícil manter. Mas, claro, precisamos disso. Também precisamos de soluções não-técnicas para alguns problemas.

M&M – O SXSW deste ano abordou a epidemia de solidão em face do aumento da IA. Qual a sua opinião sobre o assunto?

Coeckelbergh – Sim, isso também tem a ver com limitações e com o que a tecnologia nos oferece para facilitar as coisas. De certa forma, isso é parcialmente enganoso, porque é apresentado como “agora você tem algo com quem conversar”. E as pessoas vulneráveis realmente se apegam a essa tecnologia. Mas elas não estão conversando com seres humanos de verdade, e isso pode ser até diretamente problemático. Por exemplo, no país de onde venho, a Bélgica, houve suicídios relacionados ao uso de um programa semelhante ao ChatGPT. Se alguém já tem problemas psicológicos e, de repente, essa tecnologia piora a situação, isso pode ter consequências sérias. Mas a solidão também é um problema que permeia a sociedade moderna, e não é apenas sobre certas pessoas vulneráveis, mas sobre todos nós, de certa forma. Por um lado, a tecnologia não deveria enganar as pessoas, fazendo-as pensar que estão interagindo com uma pessoa real. Precisamos ser transparentes: é apenas uma máquina, e atualmente está configurada como se fosse uma pessoa. Para os técnicos, é um grande sucesso se eles conseguirem simular, se puderem enganar, de certa forma. Também comparam a tecnologia a shows de mágica. Você tem sucesso se puder imitar, certo? Mas isso é algo sobre o qual precisamos ser transparentes. Eles precisam ser transparentes sobre suas tecnologias. Elas não podem fornecer companheirismo, amizade e amor verdadeiros. Por outro lado, este é um exemplo desse problema social complexo. Não é apenas um problema de indivíduos, porque muitos problemas psicológicos são sempre apresentados como se fossem um problema individual, e você tem que ir à terapia e fazer algo a respeito. Na verdade, as coisas estão conectadas à nossa sociedade, à sociedade moderna, onde há menos espaço para certas coisas, onde é mais difícil para as pessoas terem uma experiência de comunidade, boas relações sociais e menos apoio em suas vidas. Precisamos trabalhar nisso também, mas isso, claro, é muito mais difícil, e há diferentes visões políticas sobre como fazer isso. Mas está tudo bem, precisamos ao menos falar sobre isso. Para mim, a tecnologia também é uma boa desculpa, se você quiser, um bom ponto de partida para discutir questões difíceis na sociedade.

M&M – Como podemos equilibrar inovação e progresso com responsabilidade social e moral?

Coeckelbergh – Você precisa de algumas garantias éticas mínimas e regulamentação. Se há alguma certeza sobre as regras, não acho que isso necessariamente impeça a inovação. Pelo contrário, porque quando as pessoas conhecem as regulamentações, cumprem-nas e então podem trabalhar. Precisamos não apenas dessa abordagem negativa de regulamentação, mas de uma abordagem mais construtiva. Como governo, também é possível dar incentivos para ajudar as empresas, especialmente as pequenas e médias, a serem mais éticas. Essa é uma abordagem mais positiva, em vez de apenas ser o “policial”. Como podemos estimular e apoiar pessoas e organizações que querem fazer a coisa certa? Precisamos que pessoas que trabalhem em negócios e tecnologia estejam cientes das consequências éticas. Isso começa com a educação.

Publicidade

Compartilhe

Veja também

  • 5 tendências de mídia para 2025, segundo relatório The Year of Impact

    5 tendências de mídia para 2025, segundo relatório The Year of Impact

    Levantamento realizado pela Dentsu define cenário de mídia de 2025 como a “Era Algorítmica da Mídia”

  • RBS dá continuidade ao movimento Pra cima, Rio Grande

    RBS dá continuidade ao movimento Pra cima, Rio Grande

    Grupo realiza evento em São Paulo para celebrar a retomada do Rio Grande do Sul e abordar o futuro e os planos da empresa