Assinar
De 3 a 6 de março de 2025 I Barcelona – ESP
MWC

Inferência de IA e o equilíbrio entre eficiência e sustentabilidade

Inovações como DeepSeek e chips otimizados pressionam indústria por escalada de aplicações de soluções com uso racional de recursos


3 de março de 2025 - 6h15

Inferência de IA e sustentabilidade

Avanço da inferência de IA e escalada do uso da tecnologia traz à tona a questão da sustebabildiade das operações (crédito: IA-esg-cred-Gorodenkoff-shutterstock)

Durante a revolução industrial, analisando o incremento do uso de carvão nas fábricas, o economista britânico William Stanley Jevons (1835 a 1882) cunhou a teoria batizada de Paradoxo de Jevons. Segundo o conceito, à medida que as melhorias tecnológicas aumentam a eficiência com a qual um recurso é usado, o consumo total desse recurso pode aumentar em vez de diminuir.

Aplicado mais de 150 anos depois, no cenário do avanço da IA, o paradoxo sugere que apesar de inovações como o DeepSeek e de chips otimizados tornarem a inferência de IA mais eficiente — a inferência de IA é a capacidade de um modelo de IA de fazer previsões precisas com base em novos dados — as empresas implementarão modelos da tecnologia de forma mais ampla, o que aumentará a demanda por poder de computação e, consequentemente, por recursos, como energia.

O cenário, de acordo com Cristiano Nobrega, CDO da Totvs, faz lembrar a disseminação dos smartphones, com processadores mais eficientes e redes mais rápidas, o que exponenciou a adoção dos aparelhos e o consumo de dados. Os modelos de IA generativa (GenIA), explica o executivo, estão evoluindo e, por si só, trazem uma perspectiva bastante alentadora em relação a uma maior eficiência que pressuponha menor consumo de capacidade computacional.

Os avanços apresentados pelo DeepSeek são um exemplo. Seu modelo de processamento de linguagem natural pode ser treinado com 98% menos GPUs (sigla inglesa para unidade de processamento gráfico), mesclando arquitetura mais eficiente, técnicas de otimização para treinamento, apresentando a abordagem MoE (Mixture of Experts), na qual o modelo aciona somente algumas partes para cada pergunta, ao invés de usar o modelo inteiro sempre.

Eficiência dos modelos de IA

“À medida que os modelos se tornam mais eficientes, a computação na borda (edge computing) pode trazer um impacto favorável na eficiência computacional, dado que muitos casos de uso podem ter seu processamento descentralizado para devices distribuídos, como smartphones, PCs e IoT (internet das coisas), por exemplo, com processadores mais eficientes. Estamos falando de modelos rodando localmente em dispositivos e não mais necessariamente de forma centralizada na nuvem, economizando potencialmente um tráfego de dados importante, que hoje vai quase que obrigatoriamente para a nuvem”.

A evolução dos chips vem na esteira dessa evolução, prossegue Nobrega, com NPUs (sigla inglesa para unidade de processamento neural), mais cost eficiente para inferências e presente em smartphones, especializados em processar modelos de redes neurais, e os TPUs (unidades de processamento de tensor, na sigla em inglês), criados pelo Google, mais potentes e performáticos para tarefas específicas.
“Em outras palavras, estamos saindo de uma era de ‘força-bruta’ no uso obrigatório de GPUs para processar IA, para uma era de otimização, em que modelos reduzem o consumo energético por inferência, reduzem, mas não eliminam, a dependência exclusiva de GPUs e barateiam a execução em escala, pois CPUs são mais abundantes e baratas”, analisa.

Segundo Fabio Caversan, vice-presidente global de inovação do Grupo Stefanini, existe uma demanda represada por empresas que resistem à adoção, evitando usar os modelos disponíveis na nuvem, ainda que em ambientes privados. “Instalações privadas se revelam custosas com resultados inferiores. A redução de custos e a melhoria dos modelos vão, inevitavelmente, viabilizar esses projetos, aumentando muito a demanda. O principal desafio é certamente a aplicação desses recursos em projetos que tragam valor e resultado, visto que provavelmente ainda serão valiosos”, destaca Caversan.

Escalada de uso e aplicações

A redução dos custos computacionais e a otimização desses modelos significam uma escalada em novas aplicações e mercados, indica Marcelo Ramos, CEO da Axway América Latina, o que gerará desafios em três frentes: a eficiência energética, o uso responsável dos recursos computacionais e governança de IA.

“Trabalhamos com estratégias que podem mitigar os impactos ambientais usando tecnologias com modelos mais enxutos e especializados, processamento descentralizado e cloud híbrida. Além disso, é essencial que as empresas adotem soluções de orquestração inteligente para otimizar a carga de trabalho nos data centers e reduzir o consumo de energia sem comprometer a inovação. Outro ponto a destacar, fundamental para mitigar o uso excessivo, é a promoção de uma cultura de sustentabilidade, não somente dentro das empresas, mas em toda a sociedade, priorizando o uso responsável dos recursos em suas aplicações de IA”, afirma.

A evolução, no entanto, não é incompatível com a sustentabilidade. A tecnologia tem papel fundamental na criação de soluções mais eficientes e sustentáveis, defende David Aiub, diretor sênior de tecnologia EMEA da CI&T. “Acreditamos que o futuro da IA não precisa ser uma escolha entre inovação e sustentabilidade. O equilíbrio entre desempenho, eficiência energética e acessibilidade será essencial para garantir que a IA continue evoluindo sem comprometer o planeta. Empresas que incorporam esses pilares desde a concepção de seus produtos e serviços estarão mais bem posicionadas para liderar essa transformação de forma sustentável”, define.

O desafio da indústria, ressalta o executivo, está justamente em equilibrar essa expansão com práticas que otimizem o consumo de recursos. “Nesse sentido, já vemos alguns avanços importantes. Entre eles, estão o desenvolvimento de modelos menos intensivos em energia, como os small language models (SLMs), os chips especializados de baixo consumo e a transição para data centers movidos a fontes renováveis”, pontua.

“A exponencialização da curva de adoção é um caminho sem volta, e investimentos robustos em energia verde eficiente, como eólica, solar onshore ou mesmo a hídrica — ou ainda a fissão nuclear, altamente eficiente, embora socialmente questionada pelos riscos associados aos resíduos — e em datacenters neutros em carbono são imperativos para equilibrarmos o impacto num futuro não muito distante”, projeta Nobrega, da Totvs.

Publicidade

Compartilhe