Governo ou empresas: quem define as regras de uso da IA?
Proximidade como governo pode facilitar processos relacionados ao uso responsável da IA, mas empresas também devem criar próprias regras
Proximidade como governo pode facilitar processos relacionados ao uso responsável da IA, mas empresas também devem criar próprias regras
Caio Fulgêncio
4 de março de 2025 - 14h33
A criação de regras e definição de diretrizes adequadas para o uso de inteligência artificial (IA) têm sido um elemento-chave no pensamento político global nos últimos anos. Exemplo recente talvez mais proeminente, a regulamentação desse tipo de tecnologia adotada pela União Europeia (UE), a primeira em grande escala no mundo, inspirou, inclusive, o projeto de lei brasileiro 2.338/2023, que dispõe sobre o uso da IA no País.
Executivos debatem no painel quem são os atores para a construção de uma IA responsável (crédito: Caio Fulgêncio)
Apesar do pioneirismo, é recorrente nos paineis do Mobile World Congress (MWC) deste ano conversas a respeito do quanto um ambiente regulamentado pode brecar o poder de inovação dos países. Nesse sentido, a especialista em tecnologia Claudia Nemat, membro do conselho administrativo da Deutsche Telekom, apontou que evitar esse tipo de problema envolve pontos importantes.
Entre as ações práticas necessárias, de acordo com a executiva, estão a necessidade de mais capital privado e público, associados a menos exigências burocráticas; fomento de um ecossistema vibrante de inovação, com mais fusões entre países e empresas; e atração de talentos. Além disso, acrescentou que, no caso da Europa, é preciso maior aproximação das empresas de tecnologia com o governo, nos moldes do que ocorre nos Estados Unidos.
Richard Benjamins, CEO e fundador da RAIGHT.ai, defendeu que pensar em ética no âmbito da IA precisa sair da perspectiva de “evitar impactos negativos” e ir para “a responsabilidade de gerar impacto positivo”. Para ele, o dilema “ou você é responsável ou você inova” não é real, porque, na verdade, ao andarem juntas, as duas coisas podem trazer benefícios.
“Na verdade, se você adotar uma abordagem responsável desde o início, o desenvolvimento pode ser muito mais barato e rápido mitigar riscos do que lançar algo rapidamente no mercado e só depois perceber os problemas. Quando isso acontece, há um enorme impacto na reputação, exigindo trabalho, pedidos de desculpas e correções”, pontuou.
Nas telecomunicações, Francisco Montalvo Abiol, chief data officer (CDO) da Telefonica Tid, defendeu que, nessa polêmica, a indústria tem desenvolvido a tecnologia antecipando o que uma futura regulamentação pode exigir. É aqui que, na opinião dele, pode ocorrer a limitação da inovação, uma vez que esse atual impulso da IA é recente.
Por isso, conforme Abiol, o momento pede calma e ousadia também para cometer erros. “Errar faz parte do processo, porque é tentando que conseguimos avançar. Para isso, é preciso falhar. Claro, precisamos ser cuidadosos para não falhar demais e não criar grandes problemas de segurança ou privacidade”, disse.
Nia Castelly, cofundadora e chefe jurídica da Checks, empreendimento especializado em IA e privacidade dentro do Google, reconhece que, apesar dos Estados Unidos estarem mais lentos no aspecto legislativo, as empresas precisão assumir a responsabilidade de “decidir construir e implantar tecnologia”.
“No fim das contas, é do interesse das empresas fazer a coisa certa para seus usuários e consumidores. Nos EUA, por exemplo, pode haver incertezas sobre quais serão os requisitos futuros. No entanto, já temos leis que cobrem muitas dessas áreas, como a privacidade. Tudo isso pode ajudar empresas a decidirem como criar seus próprios frameworks e diretrizes de governança”.
Compartilhe
Veja também
Projeto Equals quer atingir igualdade de gênero no digital até 2035
Iniciativa pretende que cem milhões de mulheres e garotas ingressem na economia digital na próxima década
O impacto do governo Trump nas políticas globais de IA
Avanço da IA combinado com desregulação pode afetar anos de avanços em direitos humanos