Assinar

Plataformas reforçam políticas para crianças e adolescentes

Buscar

Plataformas reforçam políticas para crianças e adolescentes

Buscar
Publicidade
Mídia

Plataformas reforçam políticas para crianças e adolescentes

Em meio à crescente preocupação sobre a segurança online dos mais jovens, plataformas têm revisado regras de restrição e de controle aos pais e adultos


16 de abril de 2025 - 6h03

As plataformas estão no centro dos debates e de ocorrências: uma menina de oito anos faleceu, no último domingo, 13, no Distrito Federal, após, supostamente, inalar desodorante aerossol ao participar de um desafio na internet.

A polícia ainda investiga o caso.

Esse é mais um exemplo recente e triste de como a internet e as redes sociais têm afetado o comportamento das crianças e adolescentes dentro e fora das telas.

plataformas crianças e adolescentes

(Crédito: Aleksandra Suzi/Shutterstock)

Apesar de não vir de agora, contudo, a preocupação da sociedade civil e de governos a respeito da segurança dos jovens no ambiente online é maior.

Em entrevista ao Em Ponto, da GloboNews, a secretária de direitos digitais do Ministério da Justiça, Lilian Melo, afirmou que, no último ano, 56 crianças morreram no Brasil em desafios online, e que é preciso criar um canal de denúncias para esses desafios.

Plataformas restringem acesso

Paralelamente a isso, ainda, o Ministério da Justiça planeja criar um aplicativo que restringirá o acesso de crianças a redes sociais e conteúdos que sejam inadequados a sua faixa etária.

Assim, além disso, com o objetivo de mitigar os “impactos negativos do uso excessivo de celulares”, em fevereiro deste ano, passou a valer a Lei Federal nº 15.100/2025, que restringe o uso de celulares nas escolas.

Nos últimos anos, de fato, a preocupação acerca da segurança das crianças e adolescentes na internet é tema tão relevante em todo o mundo que, inclusive, se tornou pauta de livros e produções audiovisuais, como Geração Ansiosa, de Jonathan Haidt, e a série Adolescência, da Netflix.

Enquanto em Geração Ansiosa o psicólogo social explica as causas da epidemia de depressão e ansiedade entre os mais jovens e defende uma infância sem telas, a minissérie da Netflix aborda o impacto das comunidades online na geração de comportamentos violentos entre crianças e adolescentes.

Plataformas e redes sociais

De olho nesse contexto e após a pressão de entidades governamentais de todo o mundo, como o Senado norte-americano, as próprias plataformas e redes sociais trabalham para atualizar suas políticas de controle parental e reforçar  camadas de proteção para crianças e adolescentes.

Para o professor de comportamento digital e coordenador das graduações em Publicidade e Relações Públicas da Faap, Eric Messa, o investimento das plataformas em recursos de controle parental surge como resposta direta à crescente preocupação social sobre os efeitos negativos do uso excessivo de redes sociais, principalmente entre jovens.

“As plataformas enfrentam uma realidade inegável: precisam demonstrar ações concretas sobre estas preocupações”, afirma Messa.

Atualizações das plataformas

Abaixo, as mais recentes atualizações das plataformas e redes sociais para crianças e adolescentes:

Meta

Em fevereiro de 2025, a Meta, dona de WhatsApp, Instagram, Facebook e Messenger, começou a disponibilizar no Brasil a conta de adolescente no Instagram, que oferece proteções integradas que limitam quem pode entrar em contato com os adolescentes e o conteúdo que eles veem.

Além disso, menores de 16 anos, agora, necessitam da permissão dos pais para alterar qualquer uma dessas configurações para que sejam menos rígidas.

De acordo com a empresa, desde setembro do ano passado, pelo menos 54 milhões de adolescentes passaram a fazer parte da conta de adolescente.

Ainda, em abril deste ano, a Meta ampliou as camadas extras de proteção a adolescentes menores de 16 anos presentes – presente em setembro do ano passado no Instagram – também para o Facebook e Messenger, além de anunciar novas proteções integradas à conta de adolescente no Instagram.

A partir disso, nos próximos dois meses, jovens com menos de 16 anos se tornarão proibidos de entrar ao vivo, a menos que seus pais lhes dêem permissão para isso.

Dessa forma, a companhia passará a exigir que esses adolescentes obtenham permissão dos pais para desativar o recurso que desfoca imagens com suspeita de nudez nas mensagens diretas.

Roblox

A abordagem da Roblox para promover segurança se baseia na combinação entre proteções integradas e recursos adicionais de controles parentais que os pais e responsáveis podem usar para personalizar a experiência de seus filhos.

As proteções da companhia são um conjunto rigoroso de regras da comunidade que, segundo a Roblox, se aplica na prática 24 horas por dia, sete dias por semana, por equipe global de moderadores.

“Monitoramos a comunicação em tempo real, tanto no chat por voz quanto por texto”, destaca a empresa.

Portanto, os filtros de textos da plataforma são projetados para detectar e bloquear palavras e frases inadequadas, impedir tentativas de direcionar usuários para fora da plataforma e para evitar o compartilhamento de informações pessoais, como número de telefone ou endereço.

Chat de voz

Já no chat de voz, o sistema de detecção por IA da Roblox aciona intervenção em tempo real entre 15 e 60 segundos após identificar interação que, potencialmente, viole alguma das regras da plataforma.

“Nosso modelo opera em uma escala de milhões de minutos de atividade de voz por dia e detecta violações das políticas de voz com mais precisão do que a moderação humana”, afirma a companhia.

Além disso, de acordo com a empresa, todas as imagens, arquivos de áudio e vídeo, e modelos 3D enviados passam por um processo de triagem antes da publicação, utilizando tecnologia automatizada de machine learning, projetada para detectar possíveis violações das políticas da companhia.

A empresa trabalha para evoluir suas políticas de proteção.

A Roblox, em 2024, adicionou mais de 40 novos aprimoramentos de segurança.

A empresa lançou atualizações em seus Sistemas de Segurança e Controles dos Responsáveis, anunciadas em novembro de 2024, seguidas pelas novas ferramentas para os pais e responsáveis implementadas no início de abril.

Recentemente, a companhia atualizou o centro de segurança, que reúne variedade de informações desenvolvidas para ajudar a comunidade da plataforma a encontrar as orientações e novidades mais recentes sobre como utilizar os recursos de segurança, incluindo os Controles dos Pais, além de fornecer orientações para diferentes grupos sobre como se manter seguros online de forma geral.

TikTok

Há cinco anos, o TikTok lançou a ferramenta de Sincronização Familiar, que permite aos pais e responsáveis configurarem diversos controles sobre o uso da plataforma pelos filhos.

Desde seu lançamento, a funcionalidade ganha novos recursos com base no feedback de famílias e especialistas, de acordo com o TikTok.

No início de 2025, por exemplo, a plataforma adicionou novas funções, como pausa programada, limites personalizados de tempo de uso, visibilidade contas seguidas e bloqueadas, e alertas para pais quando os filhos fazem denúncias.

Ainda, o TikTok reforçou o limite padrão de 60 minutos diários para menores de 18 anos e implementou senha obrigatória para estender o uso – somando mais de 15 funcionalidades de controle parental.

A plataforma também oferece o Guia de Pais e Responsáveis e conta com cartilha para ajudar responsáveis a promover a segurança digital dos adolescentes, criada em parceria com a SaferNet.

A plataforma desenvolveu, com o Instituto Vero, em janeiro deste ano, campanha de conscientização sobre a segurança dos menores na internet chamada #Juntos, que contará com uma série de conteúdos e ativações presenciais para apoiar pais e responsáveis e tornar a experiência digital dos jovens mais segura.

Maiores de 13 anos

O TikTok gosta de reforçar que sua plataforma é destinada para maiores de 13 anos e que atua ativamente para garantir a segurança dos menores.

Nesse sentido, entre outubro e dezembro de 2024, removeu 20 milhões de contas suspeitas de pertencerem a usuários com menos de 13 anos.

Além disso, ressalta que não veicula anúncios personalizados para adolescentes de 13 a 17 anos e que adota medidas rigorosas para proteger esse público, como impedir que conteúdo publicado por contas para adolescentes com menos de 16 anos seja recomendado no feed Para você; impedir que contas de adolescentes com menos de 16 anos tenham acesso a mensagem direta ou conversa em grupo; e tornar contas de adolescentes nessa faixa etária privadas por padrão, com conteúdo não disponível para download ou recomendação a desconhecidos.

Desde 2023, o TikTok conta com um Conselho Global de Jovens, em parceria com a agência Praesidio Safeguarding, composto por adolescentes de 15 a 18 anos de diversos países, incluindo o Brasil, que realiza encontros periódicos para discutir temas ligados à segurança e bem-estar dos jovens na plataforma.

Em 2025, o conselho foi ampliado de 15 para 28 membros.

Entre os temas prioritários definidos para este ano incluem: análise de questões da indústria sobre verificação de idade; prevenção à extorsão sexual via redes (sextortion) e como combater a extorsão financeira por meio de sexting; transparência no uso e rotulagem de Inteligência artificial; como incentivar a criação de uma comunidade positiva.

O conselho já contribuiu com o bloqueio de efeitos específicos para usuários menores de 18 anos e forneceu mais informações sobre como um efeito pode alterar a aparência de alguém, já orientou sobre quais efeitos bloquear e ajudou a desenvolver novas páginas informativas, e, inclusive, redesenhou e relançou o Centro de Segurança para Adolescentes.

YouTube

Além do YouTube Kids, dedicado ao público mais jovem, em 2023, o YouTube definiu cinco princípios que orientam suas ações em proteção infantil, que destacam a importância da privacidade, segurança física, mental e do bem-estar de crianças e adolescentes, além do papel dos cuidadores em impor limites e regras.

Já, no ano passado, a empresa lançou uma experiência supervisionada voluntária para adolescentes e seus pais, que é uma expansão da sua experiência supervisionada existente para pré-adolescentes, projetada em parceria com o Comitê Consultivo de Jovens e Famílias da plataforma.

Ela dá aos pais e adolescentes a opção de vincular contas em seu Centro Familiar do YouTube, onde os pais poderão ver insights sobre a atividade do canal de seus adolescentes, inclusive quais canais possuem e o número de uploads, comentários, assinaturas etc.

As contas vinculadas também podem receber notificações por e-mail sobre a atividade do canal e ter acesso a recursos criados com especialistas externos para receber suporte a conversas entre pais e adolescentes sobre a criação responsável de conteúdo.

Melhorias dos lembretes

Recentemente, a plataforma também trouxe melhorias aos lembretes de Hora de Dormir e Faça uma Pausa no YouTube.

Os lembretes de Faça uma Pausa podem ser definidos em certas frequências como um lembrete para pausar a exibição de vídeos, enquanto os lembretes de Hora de Dormir são acionados em horários específicos para incentivar os espectadores a pararem de assistir aos vídeos e ir para a cama.

A ativação por padrão é para menores de 18 anos.

O YouTube também permite que qualquer pessoa que publique um vídeo possa controlar onde esse vídeo aparece e quem pode assistí-lo, escolhendo torná-lo público, privado ou não listado.

Porém, para criadores com idade entre 13 e 17 anos, as configurações de upload são definidas como privadas por padrão, podendo ser alteradas se o usuário assim escolher.

Em 2024, a plataforma anunciou proteções para recomendações de conteúdo para adolescentes e pré-adolescentes.

Com isso, passou a contar com uma expansão dessas proteções para abordar três categorias adicionais de conteúdo que, embora inócuas em uma única visualização, podem ser potencialmente problemáticas se vistas em grandes quantidades por usuários mais jovens.

Aprendizado de máquina

“Estamos usando aprendizado de máquina para limitar recomendações repetidas de vídeos que podem ser inócuos como um único vídeo, mas podem ser problemáticos para alguns adolescentes se visualizados repetidamente”, destaca a plataforma, ressaltando, no entanto, que esses vídeos não violam suas Diretrizes de Comunidade.

Em 2025, o YouTube implementará o aprendizado de máquina para determinar a idade de um espectador e para distinguir entre espectadores mais jovens e adultos.

“Agora, combinaremos essa experiência na construção de comunidades online mais seguras para crianças e adolescentes e usaremos a melhor IA da categoria para nos ajudar a inferir a idade de um usuário e fornecer uma experiência de visualização apropriada”, explica a plataforma, reforçando que essa abordagem será testada nos Estados Unidos até o final de 2025 e a implementada globalmente em 2026.

Para Messa, a inação das plataformas poderia resultar na perda significativa de usuários, especialmente considerando que especialistas como Haidt defendem que jovens menores de 16 anos deveriam estar completamente afastados das redes sociais.

“Entendo que essas medidas de controle parental, embora apresentadas como proteção, servem principalmente a um propósito comercial: manter e preservar a base ativa de usuários nas plataformas”, ressalta.

Brechas nas restrições

Na visão do professor, uma característica intrínseca do meio digital é que praticamente toda restrição possui brechas. “Apesar das novas medidas serem bem-vindas, ainda é razoavelmente simples criar contas com informações falsas de idade na maioria das plataformas”.

Nesse sentido, há muito a melhorar não apenas nas restrições de acesso, mas também na gestão do conteúdo que circula nas redes.

“Um recurso potencialmente valioso para familiares seria a implementação de inteligência artificial que monitore em tempo real todo o conteúdo que circular na timeline, impedindo que jovens acessem materiais impróprios ou sofram interações mal-intencionadas de outros usuários”, argumenta.

Publicidade

Compartilhe

Veja também