Versão em audio:

Em uma manhã de novembro de 2007, eu estava sentado no confortável sofá do hall de um destes hotéis de luxo da Barra da Tijuca, no Rio de Janeiro, esperando para entrevistar um dos sujeitos responsáveis por essa mídia chamada internet.

Rápida capitulação: a internet como conjunto de redes conectadas que formam uma única rede global foi criada por um norte-americano chamado Vint Cerf. A “internet” como a mídia onde a gente passa horas e horas do nosso dia (ou seja, a aplicação que roda sobre a junção das redes), conhecida como web, foi inventada por britânico chamado Tim Berners-Lee.

Naquele dia de 2007, eu estava esperando para falar com o Vint Cerf. Ele foi fundamental na história da internet por ter criado, junto a outro pesquisador chamado Robert Kahn, os protocolos TCP/IP que permitem que todas as redes e todos os equipamentos conectados a estas redes possam conversar entre si. Até a invenção do TCP/IP, as redes acadêmicas de trocas de dados eram como feudos que quase nunca falavam entre si. A interconexão entre todas permitiu que a internet, que ainda não existia, ganhasse a escala necessária para chegar a todo mundo.

Por isso, o nome do Vint Cerf já está nos livros de história. Ainda assim, o sujeito não tem um pingo de petulância. É gentil, elegante, didático, atencioso. Foi das entrevistas que eu guardei na memória, daquelas que daqui a 30 anos devo olhar para trás e sentir uma ponta de orgulho de ter conversado meia hora com um dos caras responsáveis por tudo isso. Mais ou menos como o fato de o sujeito que trouxe a internet no Brasil, o Demi Getschko, ter sido membro reserva da minha banca de mestrado. Sim, eu estou me exibindo por uma coisa que, provavelmente, pouquíssimas pessoas se importariam a ponto de se exibirem caso conseguissem. (Você não está vendo, mas estou jogando meu cabelo de um lado para o outro num sinal de que estou me sentindo.)

De volta ao Tecnocracia. Por incrível que pareça, essa história não é sobre o Vint Cerf. Eu e o diretor de comunicação da empresa para o qual o Cerf trabalhava na época, um buscador chamado Google, estávamos esperando no sofá quando eu fui enxerido e vi que o logo do Gmail do diretor de comunicação era diferente do logo do Gmail do resto da humanidade. Em vez do M normal, os ícones do Google estavam empilhados numa espécie de bacia. Perguntei para ele por que (sim, eu estava sendo enxerido, eu sei, mas, até aí, todo repórter é meio enxerido) e ele me explicou que o Google tinha (não sei se tem mais) o hábito de utilizar todos os produtos desenvolvidos pela empresa no dia a dia. Era a estratégia “dogfooding”: no Google, dizia o diretor, “a gente come a ração que a gente produz”. O Google não criou o “dogfooding” — é um termo que apareceu lá em 1988, criado por um engenheiro da Microsoft —, mas o buscador se orgulha da sua postura a ponto de escrever posts em blogs oficiais.

Esta história me voltou à cabeça há algumas semanas quando a Bloombergpublicou uma reportagem sobre as tentativas frustradas do Google em criar uma versão segura do YouTube para crianças. O YouTube Kids foi lançado em 2015 e prometia um filtro poderoso para garantir que crianças com menos de 13 anos só assistissem a vídeos seguros e educativos. O que a reportagem mostra é que o YouTube Kids é incapaz de decolar. Dados internos da empresa mostram que muitas crianças com menos de 13 anos mudam para a plataforma original e algumas análises já mostraram como o YouTube Kids está longe de ser seguro para crianças, com a proliferação de canais que despejam centenas de vídeos criados automaticamente que são diferentes iterações de inúmeros personagens, cenários e músicas. O canal publica cada combinação na esperança de que algum deles vai atrair uma audiência monstruosa. Pedagogia zero. Aí a gente chega à principal frase da reportagem: “Quatro pessoas que trabalham no Google admitiram privadamente que não deixam suas crianças assistirem ao YouTube sem supervisão e disseram que o sentimento era difundido dentro da companhia”.

Para para pensar um pouquinho nisso: nem os funcionários do Google confiam no YouTube. Ao que parece, a empresa que controla 90% das buscas do mundo não só não come a própria ração, como vai ao açougue comprar coxas de codorna enquanto o resto do mundo come a ração feita de carcaça de frango.

Tecnocracia e outros veículos que falam sobre os lados negativos da internet se concentram muito em três empresas: Facebook, Twitter e Amazon. Mas há um belo quinhão neste terreno que pertence ao YouTube. Dizer que a plataforma de vídeos comprada pelo Google é a maior do mundo não condiz com a realidade: ela é, praticamente, a única. O Facebook tentou peitá-la, mas não deu certo. O YouTube continua a crescer a passos largos e vem, na ombrada, roubando o espaço que foi durante décadas da TV. Na versão oficial, o YouTube dá espaço para novos criadores possam explorar suas fixações e seus talentos e encontrem automaticamente um público para transformá-los em carreira. Mais do que potencial “substituto” da TV, o YouTube substituiu bombeiro e astronauta como a profissão mais desejada pela molecada — quem não tem filho em idade escolar pode perguntar para primos, filhos de amigos e afins sobre o que eles querem ser quando crescer. Olhando para trás, eu não acho tão ruim ter querido ser ascensorista quando era mais novo.

Esse é o trecho floral do Tecnocracia. A realidade do discurso oficial é bem mais complicada do que milhões de adolescente olhando para uma câmera dizendo “FALA, GALERA” e ganhando milhões. Ao crescer monstruosamente, o YouTube começou a enfrentar problemas bastante complicados. Pior: muitas das ações tomadas pelo próprio YouTube tornaram os problemas ainda piores, principalmente dando guarida para discursos factualmente mentirosos, agressivos, ameaçadores ou simplesmente criminosos. A radicalização que estamos experimentando na vida real vem dali também. Tal qual o Twitter e o Facebook, o YouTube é uma plataforma cujos responsáveis estão tão descolados da realidade e dos males causados pelo seu uso que a impressão é a de que parecem não saber o que fazer. Ao contrário do Twitter e Facebook, porém, o YouTube não é restrito a um grupo específico (o Twitter nunca foi de massa e o Facebook continua perdendo relevância), continua crescendo como um cavalo e, pior de tudo, continua deixando sua comunidade ser contaminada com discursos extremistas. A gente consegue rastrear esse fenômeno pela experiência de um youtuber.

Não pode ameaçar e xingar — mas se quiser, pode

Foto de Carlos Maza.
Foto: New America/Flickr.

Carlos Maza é o responsável por uma das melhores séries da Vox, um veículo online criado nos Estados Unidos em 2014, o Strikethrough (não cravo que é a melhor por que a Vox tem também a Earworm, um dos conteúdos mais bem feitos do YouTube). O Earworm trata de um assunto pouco polêmico: música. O Strikethrough, o contrário: política. O canal se dedica, majoritariamente, a estudar e desmontar alguns dos artifícios usados por Donald Trump e pela mídia que o apoia, canais de TV como a Fox Newsou comunidades online de seus correligionários dentro de plataformas como Facebook e YouTube. (Há opinião fundamentada.) Os vídeos do Maza são bem pesquisados e introduzem sempre algum pesquisador(a), professor(a) ou acadêmico(a) que passou anos, a maioria em instituições de renome, estudando fenômenos na interseção entre mídia e política como o firehosing (dominada por Putin, seguida por Trump e o presidente do Brasil). Não é, em suma, um canal em que um sujeito se senta numa mesa e fica falando o que lhe vem à cabeça sem nenhum filtro por horas.

Foi exatamente esse perfil de comunicador que transformou Maza em um alvo. A partir de 2017, os vídeos de Maza chamaram a atenção de um youtuber de extrema direita cujo nome eu não vou reproduzir no Tecnocracia por seguir uma regra básica criada por um dos maiores brasileiros que já viveu: Millôr Fernandes. Escritor, tradutor, desenhista, ensaísta e criador do frescobol, Millôr ensinava: “não se aumenta a voz dos idiotas”. Quanto mais você cita idiotas e reproduz suas ideias, ainda que seja para malhá-las, mais palco você dá ao idiota. É uma pena que nenhum Twitter, aparentemente, ouviu falar do Millôr. Enfim.

Ao descobrir o Strikethrough, o youtuber de extrema direita resolveu responder ao vídeo fazendo comentários homofóbicos e xenófobos contra Maza, que é filho de cubanos e assumidamente gay. Os vídeos de resposta seguiam uma estrutura comum de rádio, se a rádio fosse hospedada na quinta série de um filme no universo de Porky’s: um sujeito no microfone principal enquanto outros, amigos do youtuber, dão risada ao fundo. Com a plataforma que o sujeito tinha na extrema direita, a história não terminou com os vídeos. Durante dois anos, sempre que Maza publicava um Strikethrough, dia depois, automaticamente, vinha um vídeo do youtuber rejeitando os argumentos em meio a piadas racistas e homofóbicas. O ódio transbordou do YouTube quando a comunidade ao redor do youtuber se sentiu encorajada a levantar informações pessoais sobre Maza. Seu número de celular caiu nas mãos do grupo e ele passou a receber centenas de mensagens por semana. O celular foi só mais um canal em que, diariamente, desconhecidos o ofendiam, xingavam e o ameaçavam de morte.

Durante esses dois anos, Maza ignorou os ataques e, ao contrário do seu antagonista, não citou seu nome em seu canal. Mas o assédio direcionado se acumulou. “Eu gasto muito tempo bloqueando fãs abusivos e esta merda prejudica minha saúde mental”, disse. Em abril deste ano, ele gravou um vídeo e publicou no Twitter cobrando uma posição do YouTube. Na falta de uma, Maza descobriu que o YouTube tem três políticas que ditam o que pode e o que não pode na plataforma: uma contra bullying, uma contra assédio e a terceira contra discurso de ódio. Todas proibiam expressamente conteúdo criado para humilhar alguém ou conteúdo que faz comentários pessoais e prejudiciais sobre outra pessoa. Os vídeos do youtuber extremista estavam tão carregados de discurso de ódio e humilhação que a decisão de tirar seu canal do ar parece óbvia. A esta altura, você já deve ter entendido que o YouTube não seguiu suas próprias regras.

Após o tweet de Maza e a polêmica online que se seguiu, o YouTube demorou a responder. Quando o fez, quase uma semana depois, foi de uma forma protocolar e confusa. Primeiro, respondeu ao tweet de Maza dizendo que o youtuber de extrema direita não havia infringido nenhuma das suas regras. O caldeirão da crise esquentou ainda mais nos dias seguintes. Pressionado, o YouTube se contradisse e, dias mais tarde, afirmou que não tiraria o canal do ar, mas o desmonetizaria.

O youtuber seria incapaz de ganhar dinheiro no YouTube, mas não fora.

Há um problema fundamental na forma como o YouTube lidou com o caso: grana é muito importante, mas não se fatura só com anúncios do próprio YouTube. Quando foi desmonetizado, o youtuber avisou sua comunidade dentro do YouTube que precisaria de dinheiro e direcionou uma multidão para seu próprio site, onde vendia camisetas e canecas com frases como “Maza is fag”. “Fag” é uma expressão em inglês derrogatória para denominar homossexuais. A intenção é explicitamente homofóbica e não estamos falando de um xingamento em dezenas de vídeos. Além das piadas homofóbicas em todos os vídeos, há produtos com o xingamento sendo vendidos. Em seu canal, o youtuber de extrema direita se gaba de que desde que Maza o acusou, em abril, nunca vendeu tantas camisetas e canecas. O programa ganhou um novo estúdio, mais moderno, pelo lucro das vendas após a projeção ganha no YouTube. É esse o sujeito que o YouTube poupou.

(Essa história toda do Maza está muito bem detalhada no episódio Louder de um podcast chamado Reply All. Se você quiser saber mais e inglês não for um problema, te aconselho a ouvir depois que terminar este Tecnocracia.)

Tudo aconteceu nas semanas anteriores à Parada LGBT de San Francisco, uma das maiores do mundo e da qual o Google participa orgulhosamente. Não só o Google: Facebook e Apple organizam grupos de centenas de funcionários para desfilarem juntos. Sem muita surpresa, a postura do YouTube enfureceu seus funcionários LGBT — e qualquer um com bom senso —, a ponto de 140 funcionários formarem um grupo chamado Ban Google From Pride (“Bana o Google da Parada”, em tradução livre) que pediu… bem, o banimento da da empresa da parada. O Google advertiu seus funcionários que quem protestasse na caravana oficial poderia ser demitido por ferir o código de conduta da empresa. Em mais um capítulo da crescente tensão entre a direção e os funcionários do Google (lembra da greve após Andy Rubin, o criador do Android, ganhar US$ 90 milhões para se desligar após assediar uma colega?), a revolta dos 140 funcionários rachou a participação do Google na parada.

Questionado pela cobertura da imprensa, o YouTube alegou que os vídeos do youtuber de extrema direita não eram passíveis de banimento já que “o ponto principal não era assediar ou ameaçar, mas responder”, como dito ao Washington Post. Em outras palavras: ainda que tenha conteúdo racista e homofóbico, a “intenção” do vídeo não é humilhar e suscitar ataques violentos contra Maza, já que as ameaças e os xingamentos estão acompanhados de análises políticas. Se os vídeos desengatilham ataques, aí é uma consequência pela qual o YouTube parece dizer que não pode ser responsabilizado. No fim do dia, enquanto a CEO, Susan Wojcicki, e a diretoria trocam tapinhas nas costas se congratulando de forma ilusória que o problema foi resolvido, a toxicidade do YouTube continua lá. É uma resposta inacreditável até para os padrões em queda livre do mercado de tecnologia.

A postura do YouTube frente ao caso manda dois sinais claros. O primeiro é encaixar conteúdo criado com a clara intenção de assediar ou ofender como “debate”. O segundo é, ao interpretar as próprias regras do jeito que quer, o site prova que nenhuma lei é muito séria, escrita na pedra. Quem está afim de driblar as restrições consegue facilmente – o exemplo prático do assédio contra Maza mostra que, se você tiver uma plataforma de amplo alcance e quiser transformar a vida de alguém num inferno, é só ensanduichar as ofensas em um ou outro comentário sobre política.

O YouTube nasceu como um grande faroeste em que todo mundo era bem-vindo. Quase toda plataforma nasce assim. Muitas pessoas que achavam que não tinham espaço no mundo encontraram, ali, um ambiente para se expressarem e se descobrirem. O próprio Maza é um exemplo disto. Essa história você já sabe: a plataforma cresce, atrai gente fora do perfil inicial, começam a surgir os primeiros problemas. É aí que o dono da plataforma toma medidas para, que nem o talo que você coloca para a plantinha crescer direito em direção ao sol, definir quais vão ser os critérios que guiarão essa comunidade.

Toda pessoa responsável por uma comunidade é também responsável por manter a sanidade, o ambiente convidativo daquela comunidade. Quem já mediou um grupo no Facebook ou no WhatsApp, um blog ou qualquer espaço digital onde desconhecidos se encontram para interagir já foi obrigado a enfrentar questões sobre o que pode e o que não pode. É mais uma arte que uma ciência: vire um déspota e mate a vontade que as pessoas têm se gastar seu tempo ali; libere tudo e veja a comunidade ser tomada pelos mais histéricos.

Por anos, o YouTube falou que defendia criadores, principalmente os que sofriam ataques e assédios dentro da plataforma. Com a história de Maza, a história caiu, pelo menos aos olhos do público. Internamente, o próprio YouTube já sabia da toxicidade há anos, mas seu objetivo era outro.

O efeito Gangnam Style

Em 2012, o YouTube mudou uma das suas principais métricas usadas para medir a evolução do site. Saíram os views, entraram os minutos assistidos.

Até então, o YouTube era ótimo para você entrar, ver o vídeo que viralizou e voltar a tocar sua vida em outros lugares. Com o objetivo de transformar o YouTube num negócio lucrativo, o Google decidiu que a melhor forma de pagar as crescentes despesas do site era — que surpresa — veicular anúncios.

Para vender campanhas a preços decentes, o YouTube não poderia mais ser um destino pontual. As pessoas teriam que ficar dentro do site o maior tempo possível. Aí ocorreram duas mudanças. A primeira é o algoritmo de recomendações. A cada vídeo assistido, o YouTube te indicaria um outro, parecido, para aumentar as chances de você continuar na plataforma. A segunda alteração foi no formato dos vídeos: o YouTube passou a dar mais destaque para vídeos mais longos. O objetivo traçado pelo site era que a humanidade gastasse um bilhão de horas (ou mais de 100 mil anos) por dia vendo vídeos.

“Toda escolha de design e engenharia que o YouTube fazia nesta época era para tentar fazer as pessoas assistirem vídeos mais longos”, segundo o Reply All. Deu certo. Hoje, estima-se que mais de 70% das visualizações no YouTube sejam geradas pelas recomendações. O engajamento subiu como um foguete e, quatro anos depois, o site comemorou ter alcançado o objetivo proposto em um post no blog oficial. Com o aumento nas horas assistidas, veio também o aumento da receita. Estima-se que, em 2018, a receita do YouTube ficou entre US$ 16 bilhões e US$ 25 bilhões. O dado não é oficial, já que o Google não quebra sua receita por fonte. Dado o crescimento publicitário, o mercado supõe que o serviço seja lucrativo.

O que o YouTube não contou no post engraçadinho de comemoração foram outras consequências mais sérias das mudanças promovidas por sua ambição. A predileção por vídeos mais longos foi uma porrada em quem fazia esquetes mais elaboradas e alçou ao estrelato um formato de vídeo semelhante aos programas de rádio, em que um sujeito fica sentado em frente a uma câmera, um microfone na altura da boca, falando o lhe vem à cabeça. Te lembra alguém? O algoritmo de recomendações também deu maior destaque a vídeos mais populares. Veja um vídeo amador sobre violão clássico, ele te recomenda um cover do Yamandu Costa, depois uma palestra sobre a diferença entre cedro e abeto ao fazer violões, depois um show ao vivo do Paco di Lucia, sempre subindo a escadinha de popularidade. Isso criou o que foi chamado internamente de “problema Gangnam Style”. Assim como todo rio corre para o mar, se você deixasse o YouTube aberto com as recomendações em autoplay, inevitavelmente todo vídeo desaguaria no Pacífico dos vídeos online (pelo menos na época), o clipe da música Gangnam Style, do cantor sul-coreano Psy.

Em 2015, para resolver o problema Gangnam, o YouTube mudou o algoritmo de recomendações: em vez de popularidade, o parâmetro mudou para vídeos sobre o assunto que você está vendo, mas com uma capacidade maior de “fisgar” sua atenção. Em muitos casos, essa capacidade de fisgar alguém tem relação com o sensacionalismo, o histrionismo. Em outras, a mentira pura. Se o vídeo que você está vendo questiona a eficácia de algum medicamento industrializado, o próximo vídeo deve explicar o movimento antivacina e o seguinte trará alguém explicando por que não vacinou seus filhos. O YouTube trocou seu problema de k-pop por um problema de radicalização, já que milhares de vídeos dos porões da sociedade, com teorias da conspiração, racismo, antissemitismo, homofobia, misoginia, eugenia e afins, começaram a ganhar audiência de uma hora para outra.

Pior que isso: ao descobrir vídeos que têm uma capacidade enorme de fisgar um espectador, o YouTube vai indicá-lo centenas de milhões de vezes, o que criará também um desequilíbrio na plataforma. Ao fazer uma busca por terraplanismo no YouTube, por exemplo, 35% dos vídeos envolverão teorias da conspiração. Dos 20 vídeos mais recomendados sobre o tema, 18 (ou assombrosos 90%) são teorias da conspiração pura, segundo o ex-funcionário Guillaume Chaslot, do qual falaremos adiante.

Não é que o YouTube simplesmente os colocou na vitrine: ele deu um espaço muito maior para vídeos claramente falsos do que para vídeos mais ponderados e científicos. O YouTube desengatilhou e anabolizou uma onda de desinformação só para atingir sua meta financeira. E sabia disso.

“Nos últimos anos, muitas pessoas dentro do YouTube e do Google levantaram preocupações sobre o volume de conteúdo falso, incendiário e tóxico que a maior plataforma de vídeos do mundo desenterrou e espalhou. Um dos funcionários queria identificar vídeos problemáticos, que infringiam as regras contra discurso de ódio, e parar de recomendá-los. Outro queria rastreá-los em uma planilha para criar um gráfico das suas popularidades. Um terceiro, receoso com a popularidade de youtubers da ‘alt-right’, criou uma apresentação interna mostrando quão populares eles eram. A cada tentativa, os funcionários recebiam a mesma resposta: ‘Don’t rock the boat’.” Sem movimentos bruscos.

Guillaume Chaslot foi um desses funcionários. Como um dos profissionais que trabalhou no algoritmo de recomendações, ele tentou mudar as coisas por dentro. Durante semanas, ele e um grupo criaram alternativas ao algoritmo, sempre pensando em como tirar a radicalização da equação. A resposta da sua gerência foi idêntica à da reportagem da Bloomberg: o objetivo não era aquele. A CEO “nunca colocou seus dedos na balança. Sua visão era: ‘Meu emprego é administrar a companhia, não lidar com isso’” segundo fontes anônimas dentro do YouTube ouvidas pela Bloomberg.

(Chaslot conta sua história em outro podcast que vale a pena ouvir se você quer se aprofundar no assunto, o Your Undivided Attention.)

Até que a meta de um bilhão de horas diárias não fosse atingida, o YouTube não faria nada. Só quando passou o número o serviço começou a se mexer para não recomendar vídeos de terraplanismo e antivacinas. A limpeza, porém, não foi completa. Até hoje é fácil ver nos rankings de popularidade canais claramente mentirosos. Um estudo feito com 3,5 milhões de vídeos publicados no YouTube Trending no segundo semestre de 2018 (full disclosure: quem fez o estudo foi a Novelo, meu estúdio de data analytics) mostrou que, dos cinco canais que mais ganharam projeção, dois são de teorias da conspiração e mentiras deslavadas, o Fatos Desconhecidos e o Você Sabia?. O YouTube continua dando alcance para esses conteúdos, ainda que sua política desaconselhe conteúdos sensacionalistas e mentirosos no Trending.

O estrago já estava feito: os anos em que deu palco criou comunidades ao redor dos youtubers. Tal qual o youtuber de extrema direita que assediou Carlos Maza, tirar o tráfego ou os anúncios, hoje, surte um efeito limitado. O monstro já está imensamente forte, a limpeza da plataforma virou um negócio extremamente difícil, para não dizer impossível, e, acima de tudo, as regras frouxas são um convite a quem quiser pisar fora da linha. De fora, a impressão que fica é que o YouTube pensou que, após bater a meta de um bilhão de horas por dia, eles conseguiriam resolver facilmente qualquer problema. Em vez de domar, o site foi, na verdade, engolido.

Quando chegou com os esfregões e o sapólio, a diretoria do YouTube viu que a sujeira era milhares de vezes maior que a esperada. Ao não fazer nada antes, o YouTube se viu na desconfortável posição de executar as regras quando seu salário depende de fazer vista grossa. Tal qual o adulto inseguro incapaz de frustrar qualquer um, o serviço tentou alguma alternativa que satisfizesse os dois lados do espectro político. Nisso, incorreu no erro da falsa simetria.

Mês passado, ao limpar canais de supremacistas brancos, o YouTube também bloqueou vídeos contra racismo na mesma linha de argumentação que fez Trump defender que que havia pessoas corretas nos dois lados de Charlotesville: os nazistas e quem brigava contra os nazistas. (Spoiler: só é correto nessa história quem está enfiando a porrada em nazista.) A internet nos deu uma armadilha travestida na “falácia do debate”, calcada na premissa de que toda ideia pode ser debatida, de que alguns fatos não são fatos, são só posições. “Vacinas curam doenças. Essa é a sua opinião.” E a imprensa caiu nisso em nome da equidade de espaço: ainda que 99% dos cientistas concordem no problema de aquecimento global, há de se ouvir aqueles poucos sem credenciais acadêmicas relevantes que negam o fato? Essa glamourização do debate online dá guarida para a negação da ciência, o racismo, o antissemitismo, a misoginia e afins. Abrir para discussão o formato da terra ou o aquecimento provocado pela emissão de gases da humanidade questiona minimamente premissas científicas. Algumas coisas não estão abertas para discussão.

Ao tentar se apresentar como uma plataforma neutra, o YouTube dá as condições para que o discurso intolerante floresça. No começo da internet comercial, quando as primeiras plataformas de discurso online começaram a aparecer (olhando para você, Blogger), popularizou-se a ideia ufanista de que, ao tirar todas as barreiras que impediam a livre expressão, criar-se-ia (alô, Temer, eu também sei usar mesóclise) um ambiente de discussão saudável online. Obviamente, 15 anos depois, dá para ver o quanto a premissa estava errada. Ainda assim, é baseado nesta premissa completamente utópica que o YouTube firma os pés ao bloquear canais de supremacistas brancos ao mesmo tempo em que bloqueia canais antirracistas ou que defende o agressor de Carlos Maza por seus vídeos não terem a “intenção” (muitas aspas) de perseguir.

São essas as empresas responsáveis por definir o debate online. O assunto é dificílimo, mas elas parecem se escorar em premissas datadas, já vencidas, de 15 anos atrás. Quem infringe as regras e faz escarcéu para não ser limado diz que as plataformas não estariam sendo neutras. Espremidas na parede para que não sejam acusadas de censoras de discursos radicais, elas caem na falácia da falsa equiparação e dão liberdade quase total, rasgando suas próprias políticas. Quando seu resultado trimestral depende exclusivamente de engajamento, polêmica, teoria da conspiração e mentiras funcionam como combustível para o crescimento.

A sanidade mental dos criadores fica em segundo plano. Comunidade online funciona como um grande colegial. Se o professor não define as regras cedo e as executa com firmeza, quem vai defini-las é quem fala mais alto. O YouTube não só não as definiu como trouxe, por questões financeiras, os alunos mais imbecis e limitados para fazê-lo. É nesse ambiente em que todo mundo está.

Revisão: SR.Black

Compartilhe esse conhecimento com seus amigos(as)…

Participe de nosso chat no Telegram