pós-verdade

Como o Facebook pode piorar o jornalismo e deixar as pessoas na ignorância

By | Jornalismo | No Comments

Foto: Venkat Mangudi/Creative Commons

Na quinta passada, o Facebook anunciou mais uma mudança no seu algoritmo de relevância: os usuários passarão a ver mais o que seus amigos e familiares postarem, e menos o que vier das páginas que curtem. Parece uma bobagem, mas isso terá impactos significativos em muitos negócios e -pasmem!- em como a humanidade se informa. Você está pronto para isso?

Não é um exagero! Qualquer ação, por menor que seja, de algo que tem mais de 2 bilhões de usuários ativos, sendo que mais de 60% deles acessam o sistema todos os dias, tem um impacto social profundo. É como um elefante querendo coçar as costas em uma árvore: por mais que queira só se coçar, pobre árvore!


Vídeo relacionado:


No caso do anúncio da turma do Mark Zuckerberg, a justificativa oficial é “aproximar mais as pessoas”. Justo! E isso pode acontecer mesmo, mas, quanto disso é o real objetivo, quanto é só um discurso bonito, só eles sabem. Mas algumas transformações imediatas acontecerão.

A primeira coisa é que realmente a audiência das fan pages despencará. E isso será muito ruim para empresas que dependem muito do Facebook para seus negócios. Você pode até dizer que é a “hora da verdade” para esse pessoal, que até agora surfou na bonança criada pela rede. Pode ser! Mas isso demonstra o poder de “vida ou morte” desse “dono da bola”.

Restará às empresas duas alternativas. A primeira mais simples -e cara: pagar ao Facebook para “impulsionar” suas publicações. Isso é muito bom para o negócio da rede social, e bastante fácil no seu entendimento.

A segunda alternativa é tentar convencer as pessoas a elas mesmas distribuírem o conteúdo dessas empresas, por sua própria iniciativa. No mundo perfeito da justificativa oficial do Facebook, isso é bacana, pois, se a pessoa estiver fazendo isso, é porque tal conteúdo lhe é interessante.

E é aí que o elefante -ou a porca- pode torcer o rabo com força!

 

Jogo de interesses

Mesmo naquele mundo perfeito, é pouco provável ver pessoas compartilhando produtos. Com exceção dos apaixonados por marcas como Apple, convenhamos: não é normal, certo? Então, de cara, o varejo que vá preparando o seu espírito.

Entretanto a coisa muda bastante de figura quando pensamos em conteúdo editorial, em notícias, em entretenimento. No cenário idílico acima, os usuários compartilhariam conteúdos que fossem relevantes, provocando debates positivos. Até mesmo poderia ser uma ferramenta bacana para informar todos eficientemente.

Só que desgraçadamente isso não vai acontecer.

E o motivo é muito simples: quem disse que as pessoas querem criar debates em torno de temas que sejam realmente importantes? As pessoas querem falar sobre aquilo que lhes dê prazer imediato, e de preferência fácil, mesmo que seja a mais rotunda porcaria! E não estou fazendo aqui nenhum julgamento moral. Todos nós fazemos isso uma hora ou outra: faz parte da nossa natureza humana!

Para piorar, a recíproca é válida. Muitas informações que são realmente importantes para nosso desenvolvimento como indivíduo, cidadão, profissional vêm carregadas de um esforço para serem digeridas. Em muitos casos, elas são chatíssimas e exigem que abandonemos a nossa zona de conforto. Mas precisamos que alguém nos traga isso!

Essa é tradicionalmente a função da (boa) imprensa. Os jornais não nos mostram só coisas que gostamos: eles nos mostram também o que precisamos saber. Pois além de informar, eles precisam também formar o cidadão, mesmo que isso seja “chato” às vezes.

E aí chegamos à ironia dos fatos! Os veículos de comunicação hoje dependem pesadamente do próprio Facebook para gerar audiência para suas propriedades digitais. Na média, dá para falarmos em metade disso vindo dos algoritmos de Zuckerberg. Junte esse gosto pelo “conteúdo fácil” e os veículos sendo obrigados a implorar que os usuários compartilhem seu conteúdo, o que pode acontecer?

Um mundo cada vez mais dominado pelo jornalismo rasteiro, “fake news” e pessoas mantidas na ignorância.

 

Samba do crioulo doido

O Facebook pode ter criado uma forca, e os veículos podem estar alegremente colocando seu pescoço na corda. Não podemos deixar esse nó apertar, mesmo que isso seja chato!

Assim como Stanislaw Ponte Preta ironizou com seu samba a obrigatoriedade das escolas de samba só criarem enredos com fatos históricos (e a porcaria decorrente disso), os veículos não podem cair na tentação de investirem ainda mais nos caça-cliques para fazer o público lhes ajudar a garantir a audiência.

Mas nem tudo está perdido! Há uma solução, que depende de três atores principais.

O primeiro deles é o próprio Facebook. Ele tem o direito de alterar seus algoritmos como bem entender: afinal, é um produto que tem interesses comerciais. Mas, como já disse acima, ele tem uma paquidérmica função social, que não pode ser ignorada. Curiosamente, em seu já afamado desafio pessoal de início de ano, Zuckerberg publicou seu desejo de “consertar o Facebook” em 2018, inclusive para que seus recursos não sejam usados para disseminação de ódio e notícias falsas.

A mudança no algoritmo acima vai contra objetivo. Porém a empresa pode compensar essa mancada potencial com outras iniciativas que valorizem verdadeiramente conteúdo de qualidade, e não apenas “que provoquem conversas”, pois as conversas podem ser de baixo nível, em torno de coisas ruins. Precisam criar recursos que combatam o “fake news”. E, justiça seja feita, a empresa já vem trabalhando nisso, inclusive porque tem sido pesadamente criticada por sua omissão diante desse mar de lama em suas páginas.

O segundo ator é a própria mídia. A imprensa marrom sempre existiu e sempre existirá, mas ela jamais pode superar a imprensa séria, que informa e forma com precisão e responsabilidade. Nesse cenário, o papel da mídia é, portanto, resistir ao caminho mais fácil e sedutor do lado sombrio para ganhar uns cobres, e exaltar a ética e os pilares do bom jornalismo. Pois, se isso for oferecido em grande quantidade, aumenta a chance de as pessoas disseminarem mais bom que mau conteúdo.

Por fim, resta o mais importante de todos os atores: nós mesmos! Pois nós somos o vetor de tudo que se trafega nos meios digitais. Pela nossa humanidade, podemos ser o elo mais frágil, movidos pelas nossas paixões e porque é gostoso ficar em nossa zona de conforto. Mas também temos que resistir! Além disso, cabe a cada um de nós ajudar quem estiver a nossa volta a fazer o mesmo, convidando todos a tirar o senso crítico da gaveta, a não compartilhar nada antes de ler, a desconfiar (saudavelmente) sempre, a ouvir e criar um diálogo construtivo com aqueles que pensam diferentemente de nós, praticando a tolerância e a empatia.

Se esses três fizerem bem a sua parte, mudanças nos algoritmos das redes sociais terão impactos apenas pontuais, e elas, ao invés de se tornarem palco de ainda mais conteúdo rasteiro, poderão se consolidar como um espaço de compartilhamento de boa informação, construção de cidadania e debates construtivos.


Artigos relacionados:


Você está sendo manipulado… e pode estar achando isso engraçado!

By | Jornalismo | 5 Comments

Foto: Visual Hunt/Creative Commons

Desde o ano passado, os meios digitais estão sob fogo cruzado, acusados de disseminar uma avalanche de mentiras. A “desinformação”, como tem sido chamado esse fenômeno de plantar e promover notícias falsas, não é nova e nem nasceu no meio digital, mas as redes sociais transformaram essa malandragem em um negócio gigantesco, que movimenta milhões de dólares e pode ter consequências desastrosas. Graças à criatividade de quem planta esses boatos, tais “notícias” parecem tão críveis quanto as verdadeiras. Pior: por conta dos algoritmos das redes sociais, acreditamos piamente na bobageira e até gostamos dela, ajudando na sua pulverização.

Pronto: está criado um eficiente e perigosíssimo mecanismo de manipulação social, e somos engrenagens fundamentais dele. A questão é: como escapar dessa máquina de moer mentes?


Vídeo relacionado:


O auge da gritaria foi a suspeita de que o Facebook tenha auxiliado –por omissão– Donald Trump a se tornar presidente dos EUA. A rede de Mark Zuckerberg teria sido fundamental para a vitória do bilionário republicano  por ter disseminado material falso que o enaltecia, assim como conteúdos igualmente mentirosos que prejudicariam sua concorrente, a democrata Hillary Clinton (e o inverso também aconteceu, diga-se de passagem).

Digo “por omissão” porque o Facebook teria feito muito pouco (ou nada) para evitar que as linhas do tempo de seus usuários fossem inundadas com conteúdo falso que poderia influenciar suas decisões, abrindo espaço para os boateiros deitar e rolar para atingir seus objetivos. O próprio Zuckerberg disse, logo após a vitória de Trump, que “a ideia de que notícias falsas no Facebook influenciaram a eleição é maluca”.

Mas ele e a empresa tiveram que se retratar diante dos fatos. O site BuzzFeed publicou um levantamento, feito a partir de dados públicos do próprio Facebook, que demonstrou como, na reta final da campanha, notícias falsas relativas à eleição americana geraram mais curtidas, comentários e compartilhamentos dos usuários da rede que as notícias verdadeiras!

E, se você acha que isso acontece apenas nos EUA, está muito enganado. A operação brasileira do BuzzFeed usou a mesma metodologia para chegar à conclusão que de notícias falsas sobre a operação Lava-Jato geram mais engajamento que as verdadeiras. E atualmente, na França, o candidato favorito à presidência, Emmanuel Macron, gasta seu tempo se defendendo de boatos plantados na Internet. Nesse caso, há até a suspeita de envolvimento de hackers russos, que estariam favorecendo a líder da extrema-direita Marine Le Pen, que costuma elogiar o presidente russo, Vladimir Putin.

Nada disso é coincidência. E nem deveria ser surpresa.

 

Controlando mentes

É verdade que o Facebook não é um veículo de comunicação. Como tal, em tese, poderia dizer que não é obrigado a verificar o que seus usuários publicam na rede. Pode argumentar até que checar a veracidade disso é tecnicamente muito difícil, além de que poderia estar flertando com a censura, se começasse a fazer restrições ao que fosse publicado nele.

Todos são pontos válidos e, de certa forma, já foram usados. Mas um sistema que desempenha papel central na vida de 1,9 bilhão de pessoas em todo mundo não pode simplesmente “lavar as mãos” diante de suas responsabilidades como gigantesco formador de opinião sobre potencialmente qualquer assunto. Tudo por causa do algoritmo de relevância, que seleciona o que cada um de nós recebe em nossas linhas do tempo, com base no que vimos e interagimos, nos nossos amigos, no que eles fazem, e mais uma infinidade de variáveis, em uma caixa-preta que só a empresa consegue abrir.

Acha exagero? Pois um pesquisador do próprio Facebook já demonstrou cientificamente a influência do algoritmo de relevância no que as pessoas pensam. Adam Kramer realizou em 2012, uma pesquisa que demonstrou ser possível “transferir estados emocionais” a pessoas apenas manipulando o que veem online. No experimento, os feeds de notícias de 689.003 usuários (1 a cada 2.500 na época) foram manipulados pelo sistema por uma semana. Metade deles ficou sem receber posts negativos; a outra metade não viu nada positivo. Análises automatizadas confirmaram que usuários expostos a posts neutros ou positivos tendiam a fazer posts mais positivos, enquanto os expostos a posts neutros ou negativos tendiam a fazer posts mais negativos!

Em outras palavras, Kramer atuou decisivamente no humor de quase 700 mil pessoas apenas manipulando seus feeds de notícias. O paper foi publicado na prestigiosa “Proceedings of the National Academy of Sciences of USA”. Vale lembrar que o mesmo Kramer, em outra ocasião, já tinha aumentado o comparecimento dos americanos às urnas, também manipulando seus feeds. Isso em um país em que não é obrigatório votar.

Como fica a empresa diante disso?

 

Mea-culpa e plano de ação

Diante do óbvio, a turma de Mark Zuckerberg decidiu mostrar serviço. E não está sozinha. Facebook e Google resolveram se mexer e criar mecanismos para tentar combater as notícias falsas, como não entregar anúncios de seus sistemas comerciais a sites conhecidos por promover a desinformação. O Facebook também lançou, logo após a eleição de Trump, sete medidas para minimizar as notícias falsas em sua rede, e, mais recentemente, um projeto para trabalhar com veículos de comunicação para melhorar a qualidade do que trafega pela rede. No Brasil, acadêmicos, jornalistas e empresas de mídia também criaram um grupo para tratar do problema.

Todas essas iniciativas são muito bem-vindas, porém antevejo um eterno jogo de gato e rato. Veículos e plataformas trabalharão de um lado para combater a desinformação, enquanto os boateiros encontrarão maneiras novas e ainda mais criativas de enganar as pessoas com seu material “fake”. Algo muito parecido com o que vemos há uns 30 anos entre fabricantes de antivírus para computadores e os desenvolvedores dessas pragas digitais.

E quanto a nós? Podemos fazer alguma coisa para ajudar?

Claro que sim!

 

Não alimente os trols

Sabe aquela turma que compartilha posts no Facebook sem sequer ler o texto? Aquele pessoal que reage impulsiva e emocionalmente diante de uma foto ou de um título? Esses são o principal alvo dos boateiros, pois espalham tudo que combina com o que acreditam, sem se preocupar se é verdade ou não.

O problema é que os algoritmos de relevância garantem que sejamos impactados por aquilo que gostamos, concordamos, acreditamos, mesmo coisas que reforcem nossos piores preconceitos. E aí baixamos nossas defesas e entramos no jogo alegremente.

Isso já tem até nome: “pós-verdade”, termo escolhido como “palavra do ano” pela Universidade de Oxford, que a descreve como algo “que se relaciona ou denota circunstâncias nas quais fatos objetivos têm menos influência em moldar a opinião pública do que apelos à emoção e a crenças pessoais”.

Portanto, a regra número um para combater a desinformação é bastante simples: desconfie sempre! Além disso, algumas atitudes podem ajudar a verificar a confiabilidade de um conteúdo antes de o espalhar para seus amigos.

A primeira coisa é verificar a fonte da notícia. É verdade que ultimamente veículos tradicionais já não são mais uma garantia de seriedade e precisão no seu noticiário, mas eles ainda carregam alguma reputação que os coloca em um patamar superior ao de sites completamente desconhecidos, pelo menos a princípio. Verifique também se o site é mesmo legítimo, ou uma cópia safada de um veículo famoso.

Sites desconhecidos não são necessariamente ruins. Se estiver em dúvida, procure saber mais sobre sua reputação, por exemplo pesquisando no Google seu nome junto com a palavra “falso”.

Desconfie de sites com uma quantidade absurda de publicidade: eles podem criar notícias apelativas apenas para ganhar mais dinheiro. Da mesma forma, publicações com títulos com tudo escrito em LETRAS MAIÚSCULAS ou fotos exageradas normalmente estão associadas a material criado para pegar trouxas.

Nunca é demais dizer: confie sempre nos seus instintos. Se uma notícia provoca emoções muito intensas em você, sejam boas ou ruins, redobre os cuidados. Verifique se ela também aparece em outros veículos, especialmente aqueles com mais credibilidade. Veja também se traz links ou referências externas que ajudem a corroborar o que diz, além de citações de pessoas bem identificadas (nada de “um pesquisador de uma universidade americana de renome”).

E, por fim, um pedido óbvio: leiam a notícia antes de qualquer tipo de interação! Nunca, jamais se contentem com o post no Facebook! E, mesmo depois de clicar no link, leiam além do título e do primeiro parágrafo. Esse exercício pode ser muito “esclarecedor”.

Se o Facebook tem a sua parcela de culpa na eleição do Trump e eventuais outras mazelas da humanidade, nós, usuários, também temos. Não podemos mudar todo mundo, mas podemos, pelo menos fazer a nossa parte e mudar nós mesmos, criando um uso mais consciente, crítico e construtivo da rede. E, quem sabe, ajudar quem estiver no nosso círculo de amigos e contatos. O mundo agradecerá quem fizer isso.

E nós seremos menos manipulados.


Artigos relacionados: