Se você fosse um menino de 13 anos sem supervisão na internet, provavelmente cresceria misógino
Meninos passam horas diárias em redes sociais, fóruns de games e grupos fechados — espaços onde a masculinidade costuma ser medida por bravatas, desafios e memes de mau gosto. Nesse ambiente, a linha que separa piada de ódio é tão tênue que, muitas vezes, eles mal percebem quando atravessam o limite. Sem adultos por perto para contextualizar o que veem, garotos de 13 ou 14 anos acabam misturando humor com insultos a mulheres, naturalizando a misoginia como parte do vocabulário cotidiano. O resultado? Adolescentes que chegam à vida adulta carregando crenças hostis a mulheres e meninas, convencidos de que “é só brincadeira” — mesmo quando a brincadeira incentiva violência.
A timeline que é entregue para meninos
(Assista ao clipe “Esse é o tipo de conteúdo que chega a um garoto de 16 anos no TikTok”)
Para entender a dinâmica, simulamos uma conta de garoto de 16 anos. Na etapa de interesses, marcamos apenas humor, lifestyle, vida fitness, esportes e motivação — categorias aparentemente neutras. Mesmo assim, em menos de dez minutos de rolagem no “For You”, começaram a pipocar vídeos que faziam piada com feminicídio e ridicularizavam mulheres. Sem seguir ninguém, o feed já misturava conselhos de luta, discursos sobre “virilidade” e clipes de “motivação” que exaltavam agressividade como solução para frustrações cotidianas. O caminho até o conteúdo misógino é curto — e não exige busca ativa: ele aparece como parte do pacote de entretenimento.
Por que isso acontece?
Os produtores de ódio constroem um funil. No topo, memes e trends de humor que zombam de “mulher moderna” ou ironizam pautas feministas; são leves o bastante para escapar de filtros e conquistar curtidas. Quanto mais o adolescente consome, mais o algoritmo entende que esse tema “funciona” — e oferece versões cada vez mais explícitas, como piadas sobre violência ou teorias de supremacia masculina. Em poucos cliques, o usuário desce a ladeira para criadores que defendem abertamente o controle sobre mulheres ou culpabilizam vítimas de agressão. O funil se autoalimenta: mais cliques, mais alcance, mais criadores tentando repetir a fórmula.
Por que o algoritmo entrega tanto?
Plataformas são desenhadas para maximizar tempo de tela. Vídeos polarizadores geram cadeia de comentários, duelos nos duos e compartilhamentos indignados — todos valem como “engajamento” para a inteligência artificial. Quando um clipe ofensivo dispara interações, o sistema deduz que é “relevante” e passa a mostr‑lo a outros perfis semelhantes, mesmo que esses usuários jamais tenham buscado o tema. Dessa forma, o algoritmo transforma o choque em combustível e cria um espiral de recomendação que aprofunda o contato do adolescente com a misoginia.
Por que atrai tanto?
Esses criadores falam a língua da insegurança masculina. Oferecem uma explicação simples para frustrações escolares, falta de aceitação ou rejeição amorosa: a culpa é das mulheres ou do feminismo. Ao mesmo tempo, prometem pertencimento imediato a uma comunidade que ri das mesmas piadas e compartilha o mesmo rancor. Com isso, convertem emoções difusas — vergonha, timidez, medo de fracassar — em um pacote de identidade que parece empoderar o garoto: basta adotar o discurso do grupo para “ser parte”. É um atalho tentador para quem ainda está formando autoestima.
Como podemos combater essa influência?
A tarefa não é só das mães — pais, tios, professores e outros homens de referência precisam entrar na conversa. Falar de masculinidade saudável logo no início da adolescência, antes que o funil algorítmico se feche, ajuda meninos a reconhecerem discursos de ódio. Escolas podem incluir debates sobre gênero e cidadania digital, enquanto o poder público discute regras de segurança on‑line e fiscalização de plataformas. É um trabalho coletivo que exige exemplos positivos de respeito às mulheres dentro e fora da internet.
Como monitorar o consumo de mídia dos jovens sem invadir a privacidade?
Ferramentas de controle parental servem como barreira inicial, mas diálogo constante é o maior antídoto. Perguntar o que os meninos assistem, comentar notícias sobre violência de gênero, discutir pornografia e inseguranças corporais normaliza conversas difíceis e mostra que adultos são aliados, não vigilantes. Estabelecer horários fora das telas, combinar que certos conteúdos serão vistos juntos e criar rituais familiares (ler, praticar esporte, cozinhar) oferecem contrapontos ao fluxo ininterrupto do feed. Supervisão equilibrada não significa espionagem: é construir confiança para que, quando o vídeo tóxico aparecer, o menino se sinta à vontade para perguntar — e ouvir que violência não é piada.