Inferência de IA e o equilíbrio entre eficiência e sustentabilidade
Inovações como DeepSeek e chips otimizados pressionam indústria por escalada de aplicações de soluções com uso racional de recursos
Inovações como DeepSeek e chips otimizados pressionam indústria por escalada de aplicações de soluções com uso racional de recursos
Fernando Murad
3 de março de 2025 - 6h15
Avanço da inferência de IA e escalada do uso da tecnologia traz à tona a questão da sustebabildiade das operações (crédito: IA-esg-cred-Gorodenkoff-shutterstock)
Durante a revolução industrial, analisando o incremento do uso de carvão nas fábricas, o economista britânico William Stanley Jevons (1835 a 1882) cunhou a teoria batizada de Paradoxo de Jevons. Segundo o conceito, à medida que as melhorias tecnológicas aumentam a eficiência com a qual um recurso é usado, o consumo total desse recurso pode aumentar em vez de diminuir.
Aplicado mais de 150 anos depois, no cenário do avanço da IA, o paradoxo sugere que apesar de inovações como o DeepSeek e de chips otimizados tornarem a inferência de IA mais eficiente — a inferência de IA é a capacidade de um modelo de IA de fazer previsões precisas com base em novos dados — as empresas implementarão modelos da tecnologia de forma mais ampla, o que aumentará a demanda por poder de computação e, consequentemente, por recursos, como energia.
O cenário, de acordo com Cristiano Nobrega, CDO da Totvs, faz lembrar a disseminação dos smartphones, com processadores mais eficientes e redes mais rápidas, o que exponenciou a adoção dos aparelhos e o consumo de dados. Os modelos de IA generativa (GenIA), explica o executivo, estão evoluindo e, por si só, trazem uma perspectiva bastante alentadora em relação a uma maior eficiência que pressuponha menor consumo de capacidade computacional.
Os avanços apresentados pelo DeepSeek são um exemplo. Seu modelo de processamento de linguagem natural pode ser treinado com 98% menos GPUs (sigla inglesa para unidade de processamento gráfico), mesclando arquitetura mais eficiente, técnicas de otimização para treinamento, apresentando a abordagem MoE (Mixture of Experts), na qual o modelo aciona somente algumas partes para cada pergunta, ao invés de usar o modelo inteiro sempre.
“À medida que os modelos se tornam mais eficientes, a computação na borda (edge computing) pode trazer um impacto favorável na eficiência computacional, dado que muitos casos de uso podem ter seu processamento descentralizado para devices distribuídos, como smartphones, PCs e IoT (internet das coisas), por exemplo, com processadores mais eficientes. Estamos falando de modelos rodando localmente em dispositivos e não mais necessariamente de forma centralizada na nuvem, economizando potencialmente um tráfego de dados importante, que hoje vai quase que obrigatoriamente para a nuvem”.
A evolução dos chips vem na esteira dessa evolução, prossegue Nobrega, com NPUs (sigla inglesa para unidade de processamento neural), mais cost eficiente para inferências e presente em smartphones, especializados em processar modelos de redes neurais, e os TPUs (unidades de processamento de tensor, na sigla em inglês), criados pelo Google, mais potentes e performáticos para tarefas específicas.
“Em outras palavras, estamos saindo de uma era de ‘força-bruta’ no uso obrigatório de GPUs para processar IA, para uma era de otimização, em que modelos reduzem o consumo energético por inferência, reduzem, mas não eliminam, a dependência exclusiva de GPUs e barateiam a execução em escala, pois CPUs são mais abundantes e baratas”, analisa.
Segundo Fabio Caversan, vice-presidente global de inovação do Grupo Stefanini, existe uma demanda represada por empresas que resistem à adoção, evitando usar os modelos disponíveis na nuvem, ainda que em ambientes privados. “Instalações privadas se revelam custosas com resultados inferiores. A redução de custos e a melhoria dos modelos vão, inevitavelmente, viabilizar esses projetos, aumentando muito a demanda. O principal desafio é certamente a aplicação desses recursos em projetos que tragam valor e resultado, visto que provavelmente ainda serão valiosos”, destaca Caversan.
A redução dos custos computacionais e a otimização desses modelos significam uma escalada em novas aplicações e mercados, indica Marcelo Ramos, CEO da Axway América Latina, o que gerará desafios em três frentes: a eficiência energética, o uso responsável dos recursos computacionais e governança de IA.
“Trabalhamos com estratégias que podem mitigar os impactos ambientais usando tecnologias com modelos mais enxutos e especializados, processamento descentralizado e cloud híbrida. Além disso, é essencial que as empresas adotem soluções de orquestração inteligente para otimizar a carga de trabalho nos data centers e reduzir o consumo de energia sem comprometer a inovação. Outro ponto a destacar, fundamental para mitigar o uso excessivo, é a promoção de uma cultura de sustentabilidade, não somente dentro das empresas, mas em toda a sociedade, priorizando o uso responsável dos recursos em suas aplicações de IA”, afirma.
A evolução, no entanto, não é incompatível com a sustentabilidade. A tecnologia tem papel fundamental na criação de soluções mais eficientes e sustentáveis, defende David Aiub, diretor sênior de tecnologia EMEA da CI&T. “Acreditamos que o futuro da IA não precisa ser uma escolha entre inovação e sustentabilidade. O equilíbrio entre desempenho, eficiência energética e acessibilidade será essencial para garantir que a IA continue evoluindo sem comprometer o planeta. Empresas que incorporam esses pilares desde a concepção de seus produtos e serviços estarão mais bem posicionadas para liderar essa transformação de forma sustentável”, define.
O desafio da indústria, ressalta o executivo, está justamente em equilibrar essa expansão com práticas que otimizem o consumo de recursos. “Nesse sentido, já vemos alguns avanços importantes. Entre eles, estão o desenvolvimento de modelos menos intensivos em energia, como os small language models (SLMs), os chips especializados de baixo consumo e a transição para data centers movidos a fontes renováveis”, pontua.
“A exponencialização da curva de adoção é um caminho sem volta, e investimentos robustos em energia verde eficiente, como eólica, solar onshore ou mesmo a hídrica — ou ainda a fissão nuclear, altamente eficiente, embora socialmente questionada pelos riscos associados aos resíduos — e em datacenters neutros em carbono são imperativos para equilibrarmos o impacto num futuro não muito distante”, projeta Nobrega, da Totvs.
Compartilhe
Veja também
Os desafios das teles diante de 35 bilhões de devices conectados
Expansão da infraestrutura, redes abertas, consumo de energia e monetização são alguns dos temas que operadoras e fornecedores precisam lidar
Conexão e transformação digital impulsionarão o PIB global em US$ 11 trilhões
Novo relatório da GSMA Intelligence aponta que a conectividade e as redes 5G devem impulsionar ganhos de indústrias como manufatura, serviços financeiros, automotiva e aviação