Assinar
De 3 a 6 de março de 2025 I Barcelona – ESP
MWC

Governo ou empresas: quem define as regras de uso da IA?

Proximidade como governo pode facilitar processos relacionados ao uso responsável da IA, mas empresas também devem criar próprias regras


4 de março de 2025 - 14h33

A criação de regras e definição de diretrizes adequadas para o uso de inteligência artificial (IA) têm sido um elemento-chave no pensamento político global nos últimos anos. Exemplo recente talvez mais proeminente, a regulamentação desse tipo de tecnologia adotada pela União Europeia (UE), a primeira em grande escala no mundo, inspirou, inclusive, o projeto de lei brasileiro 2.338/2023, que dispõe sobre o uso da IA no País.

Painel sobre governança da IA

Executivos debatem no painel quem são os atores para a construção de uma IA responsável (crédito: Caio Fulgêncio)

Apesar do pioneirismo, é recorrente nos paineis do Mobile World Congress (MWC) deste ano conversas a respeito do quanto um ambiente regulamentado pode brecar o poder de inovação dos países. Nesse sentido, a especialista em tecnologia Claudia Nemat, membro do conselho administrativo da Deutsche Telekom, apontou que evitar esse tipo de problema envolve pontos importantes.

Entre as ações práticas necessárias, de acordo com a executiva, estão a necessidade de mais capital privado e público, associados a menos exigências burocráticas; fomento de um ecossistema vibrante de inovação, com mais fusões entre países e empresas; e atração de talentos. Além disso, acrescentou que, no caso da Europa, é preciso maior aproximação das empresas de tecnologia com o governo, nos moldes do que ocorre nos Estados Unidos.

Richard Benjamins, CEO e fundador da RAIGHT.ai, defendeu que pensar em ética no âmbito da IA precisa sair da perspectiva de “evitar impactos negativos” e ir para “a responsabilidade de gerar impacto positivo”. Para ele, o dilema “ou você é responsável ou você inova” não é real, porque, na verdade, ao andarem juntas, as duas coisas podem trazer benefícios.

“Na verdade, se você adotar uma abordagem responsável desde o início, o desenvolvimento pode ser muito mais barato e rápido mitigar riscos do que lançar algo rapidamente no mercado e só depois perceber os problemas. Quando isso acontece, há um enorme impacto na reputação, exigindo trabalho, pedidos de desculpas e correções”, pontuou.

Nas telecomunicações, Francisco Montalvo Abiol, chief data officer (CDO) da Telefonica Tid, defendeu que, nessa polêmica, a indústria tem desenvolvido a tecnologia antecipando o que uma futura regulamentação pode exigir. É aqui que, na opinião dele, pode ocorrer a limitação da inovação, uma vez que esse atual impulso da IA é recente.

Por isso, conforme Abiol, o momento pede calma e ousadia também para cometer erros. “Errar faz parte do processo, porque é tentando que conseguimos avançar. Para isso, é preciso falhar. Claro, precisamos ser cuidadosos para não falhar demais e não criar grandes problemas de segurança ou privacidade”, disse.

Nia Castelly, cofundadora e chefe jurídica da Checks, empreendimento especializado em IA e privacidade dentro do Google, reconhece que, apesar dos Estados Unidos estarem mais lentos no aspecto legislativo, as empresas precisão assumir a responsabilidade de “decidir construir e implantar tecnologia”.

“No fim das contas, é do interesse das empresas fazer a coisa certa para seus usuários e consumidores. Nos EUA, por exemplo, pode haver incertezas sobre quais serão os requisitos futuros. No entanto, já temos leis que cobrem muitas dessas áreas, como a privacidade. Tudo isso pode ajudar empresas a decidirem como criar seus próprios frameworks e diretrizes de governança”.

Publicidade

Compartilhe