Não vemos IA como ela é, mas como nós somos
Quando os humanos falam sobre o tema, aprendemos mais sobre os humanos do que sobre IA
Quando os humanos falam sobre o tema, aprendemos mais sobre os humanos do que sobre IA
A conversa sobre o futuro da inteligência artificial está em toda parte, e não poderia ser diferente. Vamos então falar um pouco sobre ela? Sobre a conversa, não sobre a IA.
Essa discussão está revelando coisas interessantíssimas sobre o potencial dessa tecnologia. Mais inesperadas, talvez, são as coisas que está nos mostrando sobre as nossas próprias capacidades e limitações.
Esse assunto nos faz, por exemplo, cair na tentação de nos lançar a adivinhar o futuro. Nassim Taleb, no seu excelente Iludidos Pelo Acaso, mostrou como uma das superpotências dos humanos – o reconhecimento de padrões – se torna uma armadilha quando tentamos prever o que vai acontecer em sistemas complexos como o mercado financeiro ou o avanço tecnológico.
O fato é que só existem dois tipos de futuristas: os que não sabem, e os que não sabem que não sabem. O trabalho humano, portanto, não deveria ser tentar adivinhar o que vai acontecer, e sim agir diante da impossibilidade de fazê-lo. O futuro não é algo que está pronto, esperando para ser descoberto, e sim um desfecho imprevisível a partir de uma distribuição de probabilidades que podemos apenas tentar projetar.
Lidar com essa complexidade, não precisava nem dizer, é um desafio enorme. Passamos todas as nossas horas acordadas buscando conforto cognitivo. Respostas que se parecem com algo que já ouvimos antes nos ajudam a navegar o mundo sem perder sono demais. A psicologia comportamental mostrou como, para nós, familiaridade não é facilmente distinguível da verdade.
E mesmo a verdade, que em tese é o que todos queremos saber, parece cada vez mais fugidia em nossos tempos. A recente Teoria Argumentativa do pensamento sugere que a racionalidade humana evoluiu para prevalecer em debates, não para encontrar a verdade. Isso explicaria muita coisa.
Se a nossa gana por persuadir o outro e o nosso apetite por simplicidade tendem a reger a conversa, a discussão sobre IA não é diferente de muitas outras no sentido de que se entrincheira nos seus extremos: ou IA será sempre apenas um potencializador da inteligência e imaginação humanas, ou é só uma questão de tempo para ela nos suplantar em tudo o que fazemos.
Se aceitarmos que 1. Não dá para prever o futuro e 2. O resultado final provavelmente envolve muito mais nuance e complexidade do que isso, sabemos que esses cenários são apenas dois dentre muitos outros possíveis.
Ainda assim, as ideias e vieses que estão pautando essas visões mais simplistas podem nos revelar aspectos de como todos nós estamos pensando sobre IA, já que elas acabam atuando como balizas invisíveis que organizam e influenciam todo o espectro de opiniões.
Faz sentido, então, suspender nossa opinião pessoal por um instante e examinar com abertura esses dois pólos. F. Scott Fitzgerald disse que o verdadeiro teste de inteligência é ser capaz de manter duas ideias opostas na mente ao mesmo tempo sem perder a capacidade de funcionar. Vamos ver como nos saímos.
O primeiro campo, que acredita que a IA nunca irá nos superar nas nossas capacidades mais importantes, é inundado de ideais humanistas e antropocêntricos. Interessante observar como esses valores, que historicamente iluminaram o mundo com a lente da racionalidade, podem pautar visões mais dogmáticas em um novo contexto.
Esse campo observa corretamente que, hoje, os LLMs são ferramentas que se propõem a complementar – e não substituir – as nossas habilidades, eliminando no caminho tarefas repetitivas e burocráticas. Acredita que a IA generativa, por sua própria natureza, é incapaz de fazer o tipo de escolhas que são a base do trabalho estratégico e criativo. Ela estaria jogando dardos no escuro e sempre precisaria de nós para definir o alvo. Sob essa ótica, potencialmente teríamos ainda mais tempo (e uma poderosa ajuda) para essas atividades eminentemente humanas.
Essa visão acalentadora, que é conservadora na sua essência, é muito provavelmente influenciada pelo já citado viés de familiaridade, já que se parece bastante com o que a humanidade viveu até hoje. Ela também provavelmente negligencia os chamados unknown unknowns – as coisas sobre as quais nem sabemos que deveríamos estar pensando. No caso da IA, em tantos sentidos inédito para nós, estamos lidando com um sem-número de pontos cegos.
É, portanto, razoável ao menos especular que, em algum momento, a tecnologia possa ser capaz de produzir, por conta própria, artefatos que nos emocionem e que pareçam, para todos os efeitos, feitos por humanos – somos, afinal, seres reconhecedores de padrões. Em alguns contextos, então, uma máquina que soa humana pode já ser o suficiente. Conheço, inclusive, várias pessoas assim.
Ainda que esse cenário se materialize, isso não deveria invalidar a busca humana por suas próprias aspirações criativas. Essa resistência aos avanços da IA parece ser, em certa medida, um reflexo da ética utilitarista que permeia o nosso tempo, no qual uma tarefa só tem valor na medida em que cumpre um objetivo econômico imediato. A linguista Emily M. Bender lembra que não pedimos para estudantes escreverem redações porque o mundo precisa de mais redações de estudantes, mas para fortalecer o seu pensamento crítico. Em um mundo em que a IA avança, isso será cada vez mais importante.
Ao desafiar as inconsistências do pensamento do primeiro campo, fatalmente esbarramos nas ideias do segundo – aquele que projeta um mundo em que a IA inevitavelmente chega ao seu estado final (a chamada AGI – Artificial General Intelligence) e alcança ou ultrapassa as capacidades cognitivas humanas em um extenso leque de atividades.
Esse campo bebe de muitas das ideias que o vale do silício exportou para o mundo. Ele se baseia em uma extrapolação aparentemente lógica das tendências que conseguimos observar até hoje, turbinadas pelo pensamento exponencial.
Já falamos sobre as limitações de tentar extrapolar padrões para o futuro. Mas se lembrarmos que a IA está na sua primeira infância e a humanidade tem uma quantidade indeterminada de tempo pela frente, algo parecido com esse desfecho começa a soar bastante possível, mesmo que demore a chegar. Ainda assim, nós – pessoas, empresas e instituições – temos que tomar decisões que estão ancoradas no nosso tempo.
Vale, então, observar uma máxima do mercado financeiro: estar certo antes da hora é o mesmo que estar errado. As pessoas e empresas que quebraram na bolha pontocom porque apostaram que a internet transformaria o mundo estavam certas, mas na hora errada. Por isso, cometeram erros.
Nesses círculos, discute-se extensivamente sobre empresas que demoram para se adaptar a novas realidades e pouco sobre aquelas que se lançam precipitadamente ao futuro e se desancoram do presente.
Fica ainda mais difícil manter os pés no chão quando estamos em um momento de euforia com o novo – e não tem nada de novo em se deixar levar pelo efeito de manada. Em 1721, Sir Isaac Newton já tinha publicado um dos livros mais influentes da história da ciência, lançando os princípios que fundaram a física moderna, quando perdeu uma fortuna em uma bolha especulativa com as ações da South Sea Company. Pois é, nem mesmo alguém inteligente o suficiente para descobrir a lei da gravidade consegue evitar algumas quedas.
Esse campo do debate, que coloca todas as suas fichas na IA, curiosamente agrega otimistas e pessimistas com a tecnologia. Os otimistas abraçam o novo sem tantas ressalvas, acreditando que criamos as ferramentas e elas nos recriam. De acordo com essa lógica, seremos capazes de lidar bem com essas transformações, ganharemos tempo livre graças aos enormes ganhos em produtividade e eventualmente vamos evoluir em muitas áreas. Experiências recentes com outras tecnologias nos recomendariam ter algum ceticismo em relação a tudo isso.
Já os pessimistas – ou podemos chamá-los de fatalistas – veem no seu avanço um desenrolar inevitável, que pode colocar em risco centenas de milhões de empregos e, no limite, a nossa própria existência. É uma visão carregada do viés de aversão à perda (mais um pilar importante da psicologia comportamental). Ele significa que nossa resposta emocional (negativa) a potenciais perdas é muito mais forte do que a resposta (positiva) a ganhos equivalentes.
O medo é, e sempre foi, uma das emoções mais capazes de turvar a nossa racionalidade. O que não significa que prudência e gerenciamento de risco não sejam altamente desejáveis nesse caso. Se essa preocupação (somada a preocupações com desinformação, vieses da tecnologia, entre tantas outras) nos empurrar a criar logo uma regulamentação proativa e inteligente, que nos ajude a tirar o melhor da ferramenta, um brinde ao medo.
O tema da regulamentação seja, talvez, um bom lugar para encerrarmos essa reflexão. Ele é, afinal, um bem-vindo ponto de convergência entre não só os extremos, mas todos que têm discutido o assunto.
Como vimos, onde quer que estejamos no espectro dessa discussão, mais do que opiniões diferentes sobre uma tecnologia, estamos lidando com visões de mundo diferentes, que são recheadas de vieses e crenças.
A nossa capacidade de conciliar essas diferenças para resolver os problemas de escala global que enfrentamos atualmente tem se mostrado limitada, para dizer o mínimo.
Estamos diante de uma ferramenta que se propõe a colaborar com a inteligência humana. Poderíamos, então, aproveitar esse momento único na história e evoluir na parte que nos cabe.
Compartilhe
Veja também
2033: o futuro é agora – construindo pontes entre gerações
O receio do desconhecido e a falta de confiança em nossas capacidades podem limitar o nosso potencial e a atualização constante é essencial para superar essas barreiras
IA agêntica é nova promessa de inovação em 2025
Diferente das IAs tradicionais, que necessitam de supervisão humana constante, esse perfil de tecnologia é projetado para operar de forma independente, realizando tarefas complexas