O YouTube censura rápido quem incomoda o poder.
O mesmo YouTube que removeu vídeos em minutos na pandemia lucra com vídeos que fabricam mortes de pessoas vivas.
Essa frase resume um paradoxo que precisa ser discutido sem medo: a maior plataforma de vídeos do mundo não aplica suas regras com base em princípios claros, mas segundo interesses econômicos, institucionais e políticos. Um exemplo recente e emblemático é o vídeo intitulado “LUTO: LETÍCIA SPILLER MORRE AOS 52 ANOS, VÍTIMA DE COMPLICAÇÕES CARDÍACAS”, recomendado pelo próprio YouTube apesar de a atriz estar viva.
Durante a pandemia de COVID-19, bastava discordar da narrativa oficial para que vídeos fossem excluídos quase instantaneamente. Hoje, vídeos que anunciam falsamente a morte de artistas vivos circulam livremente — e pior: são recomendados pelo próprio algoritmo.
O YouTube combate fake news ou apenas riscos ao sistema?
A resposta honesta é incômoda: o YouTube não combate a mentira em si, mas aquilo que representa risco ao poder institucional estabelecido.
Durante a pandemia, o que estava em jogo?
- Pressão direta de governos e organismos internacionais;
- Ameaça de regulação estatal pesada;
- Risco de perda de grandes anunciantes;
- Possibilidade de responsabilização jurídica.
Nesse contexto, a plataforma adotou uma linha dura inédita, removendo conteúdos em velocidade recorde.
O caso Letícia Spiller: quando a mentira vira recomendação
Vídeos com títulos como “LUTO: atriz famosa morre aos 52 anos” violam a ética, mas não ameaçam o sistema.
Para o YouTube, esse tipo de conteúdo:
- Não gera crise política;
- Não mobiliza autoridades;
- Não provoca reação institucional;
- Gera cliques, engajamento e tempo de tela.
Resultado? Permissão tácita e lucro indireto.
O algoritmo não é neutro — ele premia o sensacionalismo
O algoritmo do YouTube não avalia verdade ou mentira. Ele mede:
- Taxa de cliques;
- Retenção do público;
- Reações emocionais;
- Compartilhamentos.
Histórias falsas sobre mortes ativam medo, choque e curiosidade — exatamente o que o sistema recompensa.
Perguntas e respostas: o que poucos explicam
❓ Denunciar vídeos resolve?
Na maioria dos casos, não. Denúncias geram alertas, não remoção automática.
❓ O YouTube reduz alcance desses vídeos?
Às vezes. Mas quando o próprio sistema recomenda o conteúdo, fica claro que não houve qualquer punição algorítmica.
❓ Por que não há o mesmo rigor da pandemia?
Porque agora não existe pressão externa relevante. Sem risco institucional, a plataforma escolhe a inércia.
❓ Isso é censura seletiva?
Sim. A moderação do YouTube é reativa, assimétrica e oportunista.
Dois pesos, duas medidas
O padrão é claro:
- ❌ Rigor extremo quando o discurso ameaça consensos oficiais;
- ✅ Tolerância quando a mentira apenas explora indivíduos e gera lucro.
Não se trata de defesa de fake news, mas de exigir coerência e responsabilidade.
O problema maior: plataformas sem responsabilidade editorial
O YouTube quer o melhor dos dois mundos:
- Age como editor quando lhe convém;
- Se diz apenas plataforma quando é cobrado.
Essa ambiguidade sustenta um modelo onde:
A verdade é negociável, desde que o dano não alcance o topo do sistema.
Conclusão
O caso dos vídeos que fabricam mortes de pessoas vivas expõe uma verdade desconfortável: a moderação do YouTube não é moral, é estratégica.
Enquanto o custo de agir for maior que o custo de ignorar, a plataforma continuará permitindo que a mentira prospere — desde que ela seja lucrativa e politicamente inofensiva.
A pergunta final não é se o YouTube consegue moderar melhor.
É se ele realmente quer.
A pandemia revelou a censura; o presente escancara o negócio: mentir é permitido — desde que dê lucro e não incomode o topo.
Disclaimer: Este site apresenta notícias, opiniões e vídeos de diversas fontes. As opiniões expressas nos artigos são de responsabilidade exclusiva de seus autores e não refletem necessariamente as opiniões do site ou de seus editores. SAIBA MAIS CLICANDO AQUI.

