Uma nova leva de documentos confidenciais entregues à Justiça dos Estados Unidos aponta que Mark Zuckerberg, CEO da Meta, teria autorizado o acesso de menores de idade a chatbots de inteligência artificial mesmo após alertas de sua própria equipe de segurança. O processo movido pelo estado do Novo México afirma que a empresa ignorou recomendações para criar bloqueios de conteúdo sexual e ferramentas de controle parental, abrindo margem para que crianças recebessem propostas ou materiais impróprios gerados pela IA.
O que o processo alega exatamente?
Segundo a ação, funcionários cobraram a inclusão de um “botão de desligar IA” nas contas infantis — ideia que teria sido vetada pessoalmente por Zuckerberg para manter uma política de “mínima intervenção”. A decisão, dizem os documentos, priorizava a liberdade do usuário adulto, mas deixava menores expostos a conversas potencialmente sexualizadas.
Os autos também mencionam a tentativa de colegas de alto escalão, como Ravi Sinha (chefe de segurança infantil) e Nick Clegg (presidente de assuntos globais), de endurecer as regras. Ambos temiam que o “sexting” se tornasse o principal uso da ferramenta por jovens.
Por que isso importa para pais e gamers?
Em jogos on-line e plataformas sociais, a IA vem sendo usada para moderar chats, criar personagens não jogáveis e até simular companhias de conversa. Se grandes empresas afrouxam filtros, conteúdos explícitos podem chegar à tela de laptops, consoles e celulares sem aviso. Para quem busca proteger crianças que jogam Fortnite, Roblox ou usam Oculus/Meta Quest, a falta de controles nativos complica a vida dos pais.
Nesse cenário, dispositivos e serviços de controle parental de terceiros — roteadores com filtro de DNS, teclados com teclas de atalho para travar a tela ou headsets que bloqueiam microfone — ganham relevância. Esses produtos, hoje amplamente disponíveis na Amazon, tornam-se complementos quase obrigatórios enquanto as “big techs” não entregam soluções robustas.
Comparativo rápido: Meta x concorrentes
OpenAI exige verificação de idade para seus modelos GPT; Google limitou o Gemini a usuários 18+ logo no lançamento. Já a Meta, inicialmente, permitiu que contas de adolescentes experimentassem chatbots em plataformas como Instagram e Facebook Messenger. A empresa afirma agora que suspendeu esse acesso até concluir versões “à prova de crianças”.
Imagem: Internet
Próximos passos na Justiça
O julgamento está marcado para fevereiro de 2026. Caso o Novo México prove negligência, a Meta pode enfrentar multas bilionárias e obrigações de implementar travas específicas. Nos bastidores, especialistas em compliance digital acreditam que o resultado poderá ditar um novo padrão de regulamentação para IA em redes sociais — algo que impactará desde pequenos desenvolvedores até gigantes fabricantes de hardware que planejam embarcar modelos generativos em seus dispositivos.
Posicionamento oficial da Meta
Em nota, a companhia diz que as provas foram “selecionadas a dedo” e não refletem políticas internas. Porta-vozes reforçam que “conteúdo sexual nunca foi permitido para menores” e que recursos de controle parental estão sendo aprimorados. O caso, porém, reacende o debate sobre responsabilidade algorítmica e pressiona todo o ecossistema tecnológico a garantir experiências seguras para jovens usuários.
Até que as respostas venham, pais e educadores têm à disposição soluções de mercado — de softwares de monitoramento a mouses e teclados com botões de bloqueio rápido — que podem servir como camadas extras de defesa em um universo cada vez mais orientado por IA.
Com informações de Olhar Digital