Rui Car
21/02/2019 08h56

Youtube pode ter feito terraplanistas espalharem-se pelo globo

Eles estavam vendo estes vídeos quando o Youtube sugeriu vídeos sobre a Terra plana

Assistência Familiar Alto Vale
HypeScience

HypeScience

Delta Ativa

Não é de hoje que existe gente acreditando que a Terra é plana, mesmo que essa crença não tenha nenhum embasamento científico. Porém, recentemente, os terraplanistas se espalharam e cresceram, a ponto de ter conferências próprias por todos os cantos do globo e aparecerem na mídia com certa frequência – as pesquisas do Google por “terra plana” cresceram enormemente nos últimos cinco anos. Mas o que pode ter acontecido para que o número de terraplanistas tenha crescido ao redor de todo o planeta? De acordo com um novo estudo, o culpado estava debaixo dos nossos narizes o tempo todo: ele é o site de compartilhamento de vídeos mais famoso do mundo, o YouTube.

 

Essa ideia começou a surgir quando os pesquisadores participaram de duas das maiores conferências de terraplanistas nos dois últimos anos: no estado americano da Carolina do Norte, em 2017, e depois no Colorado, no ano passado. Entrevistas com 30 participantes destas conferências revelaram um padrão nas histórias que as pessoas contaram sobre como elas se convenceram de que a Terra não era uma grande pedra redonda girando através do espaço, mas um grande disco achatado.

 

Destes trinta entrevistados, vinte e nove disseram que não consideravam a Terra plana dois anos antes. Eles mudaram de ideia depois de assistir a vídeos promovendo teorias da conspiração no YouTube. “A única pessoa que não disse isso estava lá com sua filha e seu genro e eles haviam visto no YouTube e falaram para ele a respeito”, diz em matéria do jornal The Guardian Asheley Landrum, líder da pesquisa, feita na Universidade Tecnológica do Texas, nos EUA.

 

As entrevistas revelaram que a maioria das pessoas chegou a estes vídeos através de outros vídeos de outras teorias conspiratórias, como aquelas referentes ao ataque às torres gêmeas em 11 de setembro e o pouso na lua em 1969. Eles estavam vendo estes vídeos quando o Youtube sugeriu vídeos sobre a Terra plana.

 

Próximo vídeo

 

Em fevereiro de 2018, o próprio The Guardian fez uma matéria sobre o algoritmo do Youtube que sugere o próximo vídeo que devemos ver, com a intenção de manter as pessoas o máximo de tempo possível conectadas na plataforma.

 

A fonte da matéria é Guillaume Chaslot, um programador francês de 36 anos com doutorado em inteligência artificial que trabalhou como engenheiro na Google por três anos. Durante este período, ele esteve durante meses com uma equipe de engenheiros do YouTube trabalhando nesse sistema de recomendação. A experiência levou-o a concluir que as prioridades que o YouTube fornece aos seus algoritmos são perigosamente distorcidas.

 

“O YouTube é algo que parece a realidade, mas é distorcido para você passar mais tempo online. O algoritmo de recomendação não está otimizando o que é verdadeiro, equilibrado ou saudável para a democracia”, denuncia.

 

Chaslot explica que o algoritmo nunca permanece o mesmo. Ele está constantemente mudando o peso que atribui a diferentes sinais: os padrões de visualização de um usuário, por exemplo, ou o tempo que um vídeo é assistido antes de alguém clicar fora.

 

Os engenheiros com quem ele trabalhou foram responsáveis por experimentar continuamente novas fórmulas que aumentariam as receitas de publicidade aumentando a quantidade de tempo que as pessoas assistiam aos vídeos. “O tempo de exibição era a prioridade. Todo o resto era considerado uma distração”, contou Chaslot ao jornalista Paul Lewis.

 

Segundo o engenheiro, ele foi demitido após pedir por mudanças dentro da empresa, usando seu tempo pessoal para se juntar a engenheiros com ideias similares para propor mudanças que pudessem diversificar o conteúdo que as pessoas veem. Ele estava especialmente preocupado com as distorções que poderiam resultar de um foco simplista em mostrar vídeos que as pessoas consideram irresistíveis, criando bolhas de filtro, por exemplo, que apenas mostram às pessoas um conteúdo que reforça sua visão de mundo.

 

Chaslot disse que nenhuma de suas correções propostas foi aceita por seus gerentes. “Há muitas maneiras de o YouTube mudar seus algoritmos para suprimir notícias falsas e melhorar a qualidade e a diversidade dos vídeos que as pessoas veem. Tentei mudar o YouTube por dentro, mas não funcionou”, diz ele na matéria.

 

O YouTube garante que mudou o algoritmo desde que Chaslot deixou a empresa. Eles disseram a Lewis que em 2016 começaram a levar em conta a satisfação do usuário, por meio de pesquisas, por exemplo, ou de quantas “curtidas” um vídeo recebeu para “garantir que as pessoas estivessem satisfeitas com o que estavam vendo”. O YouTube acrescentou que outras mudanças foram implementadas em 2017 para melhorar o conteúdo das notícias em pesquisas e recomendações e desencorajar a promoção de vídeos com conteúdo “religioso ou supremacista”.

 

Chaslot acredita que essas mudanças são principalmente cosméticas e falharam em alterar fundamentalmente alguns vieses perturbadores que evoluíram no algoritmo. No verão de 2016, ele construiu um programa de computador para investigar. O software que a Chaslot escreveu foi projetado para fornecer a primeira abertura ao mundo do mecanismo de recomendação do YouTube. O programa simula o comportamento de um usuário que começa em um vídeo e depois segue a cadeia de vídeos recomendados, rastreando dados ao longo do caminho.

 

Ele encontra vídeos por meio de uma pesquisa por palavra, selecionando um vídeo “inicial” e gravando várias camadas de vídeos que o YouTube recomenda na coluna “próximo”. Ele faz isso sem histórico de visualização, garantindo que os vídeos detectados sejam recomendações genéricas do YouTube, em vez de vídeos personalizados para um usuário. E repete o processo milhares de vezes, acumulando camadas de dados sobre as recomendações do YouTube para criar uma imagem das preferências do algoritmo.

 

Chaslot usou o programa para explorar o viés do conteúdo promovido do YouTube durante as eleições francesas, britânicas e alemãs, além de vídeos a respeito do aquecimento global e dos tiroteios em massa nos EUA, e publicou suas descobertas em seu site, Algotransparency.org. Cada estudo encontra algo diferente, mas a pesquisa sugere que o YouTube sistematicamente amplifica vídeos que são divisivos, sensacionalistas e conspiratórios.

 

“Quando seu programa encontrou um vídeo semente pesquisando a consulta “quem é Michelle Obama?” e depois seguiu a cadeia de sugestões de “próximo vídeo”, por exemplo, a maioria dos vídeos recomendados dizia que ela “é um homem”. Mais de 80% dos vídeos recomendados pelo YouTube sobre o papa detectados por seu programa descreveram o líder católico como “maligno”, “satânico” ou “o anticristo”. Havia literalmente milhões de vídeos enviados ao YouTube para saciar o apetite do algoritmo por conteúdo que alegava que a Terra é plana. ‘No YouTube, a ficção está superando a realidade’, diz Chaslot”, descreve Lewis na matéria.

 

Envolvidos na mentira

Nas entrevistas feitas nas conferências de terraplanistas, as pessoas disseram que assistiram aos vídeos sugeridos pelo Youtube apenas para desmascará-los, mas logo se viram convencidos pelo material. Landrum diz ao The Guardian que um dos vídeos mais populares da Terra Plana, “200 provas que a Terra não é uma bola girando” parece ser eficaz porque oferece argumentos que apelam para vários tipos de mentalidades, desde literalistas bíblicos e teóricos da conspiração até a pessoas de inclinação mais científica. De um jeito ou de outro, os entrevistados se tornaram crentes e em pouco tempo perguntavam “onde está a curva?” E “por que o horizonte está sempre ao nível dos olhos?”

 

Landrum apresentou seus resultados na reunião anual da Associação Americana para o Avanço da Ciência, em Washington DC. Ela diz ao The Guardian que não achava que o YouTube estivesse fazendo algo francamente errado, mas que, se o site quisesse ajudar, poderia ajustar seu algoritmo para mostrar informações mais precisas.

 

“Há muita informação útil no YouTube, mas também muita desinformação. Os algoritmos deles facilitam a queda na toca do coelho, apresentando informações às pessoas que serão mais suscetíveis a elas. Acreditar que a Terra é plana em si não é necessariamente prejudicial, mas vem embalada com uma desconfiança nas instituições e na autoridade em geral. Queremos que as pessoas sejam consumidoras críticas das informações que recebem, mas há um equilíbrio a ser obtido”, defende.

Prevalecer sobre a desinformação.

Landrum acredita que cientistas e outras pessoas devem criar seus próprios vídeos no YouTube para combater a proliferação de vídeos de conspiração. “Não queremos que o YouTube esteja repleto de vídeos dizendo que todos esses são motivos para a Terra ser plana. Precisamos de outros vídeos dizendo por que esses motivos não são reais e temos várias maneiras de pesquisar isso por nós mesmos”.

 

Mas ela admite que alguns terraplanistas podem não ser influenciados pelas palavras de um cientista. Quando o astrofísico norte-americano Neil de Grasse Tyson explicou que pequenas seções de grandes superfícies curvas sempre parecem planas para as pequenas criaturas que rastejam sobre ela, sua mensagem foi vista por alguns terraplanistas como condescendente e desdenhosa, segundo ela.

 

“Sempre haverá uma pequena porcentagem de pessoas que rejeitarão qualquer coisa que os cientistas divulguem, mas talvez haja um grupo no meio a quem isso não acontecerá. A única ferramenta que temos para combater a desinformação é tentar prevalecer sobre ela com informações melhores”, sugere. [The GuardianEngadgetCnet]

Justen Celulares