Covid-19: 9 táticas de influenciadores para espalhar notícias falsas sobre vacinas
Você já ouviu falar em Racoon?
Isso mesmo: R-A-C-O-O-N. Por mais que esse seja a palavra
em inglês para “guaxinim”, ela está sendo utilizada em vídeos no YouTube para divulgar
notícias falsas sobre as vacinas e a covid-19. Meu nome é André Biernath, sou repórter da BBC
News Brasil, em São Paulo, e no vídeo de hoje vou contar pra você as nove táticas
de influenciadores para espalhar desinformação sobre saúde no YouTube e em outras redes sociais.
Eu conversei com a jornalista Dayane Machado, que faz doutorado na Unicamp.
A pesquisa dela envolve ficar de olho nesses canais de desinformação para entender como
eles estão espalhando mentiras, boatos e teorias da conspiração durante a pandemia.
A Dayane me contou que acompanha 50 canais no YouTube e já analisou mais de 3 mil vídeos.
Ela reparou que a covid-19 foi um contexto perfeito para que muitos desses produtores
de conteúdo falso ampliassem seu público. Afinal, com as restrições, as pessoas ficaram com
mais tempo livre para mexer nas redes sociais. E, vamos combinar, todos nós estamos
ansiosos pra ouvir notícias boas. Daí esses canais aproveitam essa
expectativa para falar de curas milagrosas ou espalhar teorias da conspiração sobre a
origem do vírus ou o funcionamento das vacinas. Mas vamos direto a essas táticas usadas por eles.
A tática número um é usar o YouTube como um depósito de vídeos.
Recentemente, a plataforma adotou uma série de medidas mais restritivas para coibir a
divulgação de informações falsas por lá. Se você digitar covid-19 ou coronavírus
na busca do YouTube, pode reparar que os primeiros resultados sempre serão
conteúdos de órgãos oficiais, como a Organização Mundial da Saúde e o Ministério da Saúde, ou de
veículos da imprensa, como a BBC News Brasil. Os influenciadores “desinformadores” então
começaram a dizer aos seus seguidores que eles estavam sendo perseguidos.
Se as pessoas quisessem ouvir “a verdade”, com todas as aspas do mundo, elas deveriam entrar em
grupos privados no Telegram ou no Patreon. Esses ambientes não são regulados,
e lá rolam links de vídeos com desinformação que não aparecem nos mecanismos de busca do YouTube.
A segunda tática preferida desses canais é jogar a isca para celebridades, políticos e jornalistas.
Muitas vezes, uma teoria da conspiração está restrita a um pequeno número de seguidores. Mas
daí alguém famoso compartilha uma mensagem e o tema ganha uma repercussão gigantesca.
Foi o que aconteceu no primeiro semestre de 2020, quando começou a rolar uma história
bizarra de que a covid-19 era uma farsa e os hospitais estavam fechados ou sem pacientes.
Bastou o presidente Jair Bolsonaro falar isso numa live em junho de 2020
para que algumas pessoas tentassem invadir hospitais no Brasil para fazer filmagens.
Inclusive, as informações que chegam para nós, seria bom você fazer, do outro lado da linha,
tem um hospital de campanha, um hospital público... Arranja uma maneira de entrar
e filmar. Muita gente está fazendo isso. Mais gente tem que fazer para mostrar.
Terceira tática dos influenciadores: dizerem que são vítimas de censura.
Isso reforça essa postura de vítima e dá ainda mais gás às teorias conspiratórias.
Com as restrições recentes do YouTube, muitos canais passaram a dizer que são barrados por não
apoiarem a chamada versão mainstream da medicina. Mas essa é uma área muito perigosa:
um indivíduo que divulga para milhões de seguidores que uma vacina está matando,
sem ter provas nenhuma disso, está exercendo a liberdade de expressão ou cometendo um crime?
Muita gente pode ser influenciada a não se imunizar e seguir com risco altíssimo de pegar a
covid-19, sofrer complicações e até morrer. Vamos à quarta estratégia:
usar codinomes criativos e preconceituosos. Lembra do racoon que a gente comentou lá no
início do vídeo? Esse termo tem as mesmas letras da palavra “corona”, só que de forma embaralhada.
Outros criadores de conteúdo usam termos xenófobos, trocando o R pelo
L ou citando pratos típicos, para acusar a a China de ser culpada pela pandemia.
Eles utilizam esses termos estranhos porque pensam que, ao falar ou escrever “covid-19”
ou “coronavírus”, serão barrados logo de cara pelos mecanismos do YouTube.
O esforço de não falar diretamente o nome da doença ou do vírus não para por aí:
como eles acham que os vídeos são vigiados, muitos influenciadores preferem usar lousas, plaquinhas,
telas, emojis ou letreiros eletrônicos. Essa, aliás, é a quinta sacada deles.
Quando eles vão falar da covid, eles apontam para esses recursos gráficos
sem mencioná-los diretamente e em voz alta. Assim, sentem que estão mais protegidos e seus
vídeos poderão alcançar mais gente pelas redes. Essa coisa do alcance, aliás,
é muito importante para essa turma. Eles se preocupam tanto com isso que
criam canais secundários no YouTube, onde postam o mesmo vídeo com outro título,
outra descrição e outra imagem de apresentação. Essa é a sexta estratégia de desinformação.
Assim, eles podem comparar os números de visualizações e interações e observar se eles
estão sendo podados ou não pela plataforma. Se os influenciadores percebem diferenças
gritantes nas performances dos conteúdos em diferentes canais, isso só reforça aquela sensação
de serem perseguidos pelo sistema que eles já têm. Olha, eu confesso que achei a sétima tática dos
influenciadores a mais surpreendente de todas. É que alguns deles estão invadindo o mundo
dos gamers para camuflar os boatos e as teorias da conspiração sobre as vacinas.
Não sei se você curte videogames, mas o YouTube tem vários canais com milhões de seguidores
dedicados exclusivamente a esse tema. Geralmente, a pessoa transmite a
tela do computador enquanto joga, faz comentários e interage com o público.
Os desinformadores da covid-19 e das vacinas perceberam que esse ambiente
gamer é teoricamente menos vigiado pelo YouTube. Com isso, eles botam algum jogo pra rodar na
tela e, enquanto isso, fazem os comentários mais absurdos sobre
temas relacionados à saúde e à ciência. Ainda no mundo das transmissões, a oitava
sacada desses canais é ganhar pelo cansaço: eles fazem vídeos ao vivo que duram horas e mais horas.
Daí nenhum mecanismo de monitoramento consegue acompanhar por tanto tempo.
A questão é que, além de dizerem absurdos nas lives, esses criadores de conteúdos logo editam
os vídeos em trechos menores, que depois são utilizados e espalhados nas redes sociais e
nos grupos ocultos de aplicativos de mensagem. Pra fechar nossa lista, não dá pra se esquecer
dos seguidores especiais e patronos. É que o YouTube oferece uma série de
ferramentas, como a funcionalidade de membros e os botões de super like ou comentário destacado.
Se o seguidor quer ver sua pergunta em destaque numa live, ele pode pagar de 2
a 500 reais e boa parte desse dinheiro vai direto para os criadores do canal.
Assim, eles recebem incentivo financeiro para continuarem se dedicando à produção de conteúdos
falsos sobre as vacinas e a covid-19. Bom, para saber como o YouTube analisa
todas essas estratégias, eu procurei os representantes da plataforma aqui no Brasil.
Eles me responderam por meio de uma nota. No texto, eles destacam que fizeram
investimentos em políticas, recursos e produtos necessários para cumprir o compromisso de
proteger a comunidade contra conteúdo duvidoso. Em 2020, o site removeu 34,7 milhões de vídeos,
sendo que 32 milhões deles foram identificados por sistemas automatizados e 40% foram removidos antes
de receber uma única visualização. Mas a jornalista Dayane Machado,
que acompanha de perto esse assunto no seu doutorado, acredita que dá pra fazer mais.
Ela destaca que vários vídeos com conteúdos falsos foram denunciados
e mesmo assim continuam no ar, inclusive recebendo dinheiro por meio de publicidade.
A pesquisadora também acha que é necessário unir os mecanismos de inteligência artificial
e a moderação feita por seres humanos bem treinados para conseguir separar o que é
desinformação do que é liberdade de opinião. Eu fico por aqui! Espero que tenha
gostado do vídeo e da discussão. Um abraço, se cuida e até a próxima