redes sociais

Zumbis da série “Walking Dead”: as redes sociais podem nos transformar em uma versão digital dessas criaturas - Foto: reprodução

Ansiedade algorítmica cria zumbis que trabalham de graça para redes sociais

By | Tecnologia | No Comments

“Responda aos comentários dos fãs para ajudar a aumentar o engajamento com a sua conta”. Nessa semana, o Facebook me conclamou (de novo) a interagir ainda mais com outras pessoas, como se isso fosse fazer uma grande diferença na minha vida.

Como a principal rede do Mark Zuckerberg definitivamente não me entrega tal valor, dei de ombros. Mas muita gente não consegue praticar esse desapego, seja no Facebook ou em outras redes sociais. E isso vem provocando uma crescente onda de ansiosos por não darem conta de todas as “tarefas” sugeridas pelos algoritmos, como se fossem necessárias para se destacar em uma vida dividida constantemente entre as redes sociais e suas atividades presenciais.

Por que nos permitimos seduzir (ou controlar) por esses sistemas? Quando deixamos de agradar genuína e desinteressadamente pessoas verdadeiras para satisfazer as demandas insaciáveis das plataformas? Como elas conseguem nos dominar de maneira tão intensa e, ao mesmo tempo, subliminar?

A única rede que me traz benefícios reais é o LinkedIn. Meu mestrado se focou na construção de uma verdadeira reputação digital nele, mas, durante a pandemia, eu me debrucei sobre essas inquietações. Decidi então deixar de produzir para os algoritmos, como um escravizado digital, ou seja, como esses sistemas nos veem.

Já passou da hora de pararmos de nos submetermos aos caprichos desse capitalismo de vigilância e recuperarmos o controle de nossas vidas. No formato atual, as pessoas se afogam em sua ansiedade algorítmica, enquanto trabalham gratuitamente, sem perceber, para as redes sociais.


Veja esse artigo em vídeo:


Mantenho uma produção consistente e cuidadosa no LinkedIn, que me traz contatos qualificados e oportunidades de negócios interessantes. Mas reconheço que, quando parei de criar atendendo as neuroses dos algoritmos, minhas métricas sofreram.

Não escondo isso e, de certa forma, me orgulho desse movimento. Percebi que não precisava impactar, com minhas publicações, dezenas de milhares de pessoas cujos motivos e desejos só os algoritmos conheciam, e que não rendiam nada palpável. Muito melhor é chegar a menos pessoas, mas com as quais possa fazer trocas verdadeiras e produtivas. Outro ganho –tão ou mais importante que essas conexões– é encontrar prazer e leveza em falar com seres humanos, e não com sistemas.

Não é uma tarefa simples. As redes sociais descobriram como reforçar nossa busca por prazeres imediatos, aparentemente exigindo pouco de nós. Afinal, atire a primeira pedra quem nunca publicou algo em uma rede social na expectativa de receber muitas curtidas e, quem sabe, comentários que afagassem seu ego.

Curtidas não pagam contas! Mas relacionamentos qualificados podem ajudar nisso.

A raiz da ansiedade algorítmica está em sabermos que nossas vidas são controladas por esses sistemas, mas não termos conhecimento sobre como eles funcionam. Dependemos deles para conseguirmos trabalho, diversão e até amor, mas seu funcionamento é uma caixa preta que nunca se abre para nós.

Como consequência, estamos sempre tentando descobrir seus segredos para nos dar bem ou, no jargão das redes, “hackear o sistema”. Lemos artigos, fazemos cursos, acreditamos em gurus, mas o fato é que só quem desenvolve os algoritmos sabe da verdade, e esse é o “ouro do bandido”, um segredo tão bem guardado quanto a fórmula da Coca-Cola.

E assim nos viciamos nas microdoses de dopamina que nós mesmos produzimos quando um post tem uma visibilidade maior que nossa própria média (por menor que seja). A partir disso, buscamos sofregamente repetir aquele sucesso fugaz, tentando replicar uma receita que não temos.

 

O mal da falta de transparência

A inteligência artificial reacendeu os debates em torno da importância da transparência nas decisões dos algoritmos, para que entendamos seus motivos, assim como a explicabilidade e a rastreabilidade do que fazem com nossos dados.

Nisso reside um perverso jogo de poder. As redes sociais jamais nos darão essas informações, pois no obscurantismo está seu ganho. A ansiedade que essa nossa ignorância nos causa faz com que atuemos como zumbis teleguiados por seus sistemas. Se soubéssemos de toda a verdade, só publicaríamos o que “dá certo”, e as redes perderiam o controle que têm sobre nós. Isso seria ruim para seus negócios!

Não há a mínima reciprocidade entre os algoritmos e as pessoas: eles sabem tudo sobre nós, mas não sabemos verdadeiramente nada sobre eles. Temos só suposições e lampejos desconexos do seu funcionamento. Por isso, deixamos de representar, em nossas publicações, quem verdadeiramente somos ou o que desejamos. Ao invés disso, tentamos adivinhar e atender o que os outros querem de nós, esperando sua aceitação e aprovação, como se dependêssemos delas.

Essa é uma tarefa inglória e o caminho para a ansiedade e a depressão. Em casos extremos, vemos influenciadores digitais se suicidando, inclusive no Brasil, diante de sua incapacidade de ter o mínimo controle sobre os resultados de seu trabalho.

A opacidade dos algoritmos os torna mais cruéis quando mudam seus parâmetros continuamente, para que as pessoas não os dominem por muito tempo. Com isso, alguém que estivesse conseguindo ganhos de uma boa visibilidade, poderia subitamente ser descartado, sem explicação ou aviso prévio, gerando mais ansiedade.

As empresas se defendem afirmando que seus algoritmos existem para que as experiências em suas plataformas sejam úteis e divertidas, e não para que viciem os usuários. Dizem ainda que o que nos é empurrado depende de nossas interações na própria rede. Essa explicação, ainda que verdadeira, é tão rasa, que chega a ser hipócrita com quem consome e com quem produz conteúdo praticamente às cegas.

Vale lembrar que, apesar de estarmos falando aqui de algoritmos de redes sociais, eles estão presentes em toda parte, tomando decisões que podem influenciar profundamente nossas vidas. Dois exemplos emblemáticos são as plataformas de recrutamento, que podem definir se conseguiremos um emprego ou não, e os sistemas policiais, que podem decidir se somos criminosos, condenando-nos à cadeia.

Precisamos entender que os algoritmos devem trabalhar para nós, e não o contrário. Mas é inocência acreditar que temos algum controle nessa relação: em maior ou menor escala, somos dominados por esses sistemas, que exercem seu poder impunemente, mesmo quando causam grandes prejuízos aos usuários.

Por isso, o melhor a se fazer é mandar os algoritmos às favas e sermos nós mesmos, como acontecia nos primórdios das redes sociais. Mas você consegue fazer isso hoje?

 

Sam Altman, CEO da OpenAI, líder global no desenvolvimento da inteligência artificial, no Fórum Econômico Mundial – Foto: reprodução

Sociedade exige da IA uma transparência que ela mesmo não pratica

By | Tecnologia | No Comments

Muito além do aquecido debate sobre legislações que organizem o uso da inteligência artificial, começa a se formar um consenso sobre alguns valores em torno dessa tecnologia, como uso e desenvolvimento responsáveis, decisões rastreáveis e dois conceitos que se confundem e são pouco conhecidos: transparência e explicabilidade. Todos são essenciais para que os impactos da IA sejam positivos. Mas a sociedade está exigindo algo dessas plataformas que ela mesma não pratica.

Se fizermos uma autoanálise, perceberemos que conscientemente não somos transparentes em muitas coisas de nosso cotidiano, assim como tampouco são empresas e instituições. Como exemplo, uma das maiores falhas das redes sociais, que levou à insana polarização da sociedade e a problemas de saúde mental de seus usuários, é a completa falta de transparência das decisões de seus algoritmos.

Diante disso, alguns especialistas afirmam que exigir esse nível de responsabilidade e transparência das plataformas de IA é um exagero e até, de certa forma, hipocrisia.

Talvez… Mas o fato de cultivarmos esses maus hábitos não pode ser usado para desestimular a busca desses objetivos nessa tecnologia com potencial de ofuscar a transformação que as redes sociais fizeram, que, por sua vez, deixou pequena as mudanças promovidas pela mídia tradicional anteriormente.

Se não tomarmos as devidas precauções, a inteligência artificial pode causar graves consequências para a humanidade pelas ações de grupos que buscam o poder de forma inconsequente. Por isso, ela precisa ser organizada para florescer como uma tecnologia que ampliará nossas capacidades criativas e de produção.

Sem esses pilares éticos, sequer confiaremos no que a IA nos disser, e então tudo irá por água abaixo.


Veja esse artigo em vídeo:


No momento, as plataformas de inteligência artificial funcionam como caixas pretas: colocamos nossos dados e fazemos nossos pedidos de um lado, e nos deslumbramos com os resultados do outro, sem saber como aquela “mágica” foi feita. Apenas quem está dentro das big techs que produzem esses sistemas sabe como aquilo funciona, mas até eles se surpreendem com alguns resultados das suas criaturas, como quando desenvolvem sozinhas habilidades para as quais não foram programadas.

Quando se cria algo que promove profundas mudanças na sociedade, mas não se conhecem seu funcionamento e objetivos, isso pode colocar em risco a própria democracia, não porque exista algo maquiavélico na sua confecção, mas justamente por esse desconhecimento. Não é à toa que legislações para a inteligência artificial ao redor do mundo, com o brasileiro Projeto de Lei 2338/23 e a europeia Lei da Inteligência Artificial, tentem definir rastreabilidade, transparência e explicabilidade.

A rastreabilidade é a capacidade de identificar e acompanhar as ações de um sistema de IA, saber quais dados foram usados para treiná-lo e seus algoritmos, manter registros sobre como chegou a uma determinada decisão e qual foi seu impacto. Isso permite que suas escolhas sejam auditadas e que vieses sejam corrigidos.

Já a transparência se refere às pessoas poderem ser capazes de entender como o sistema de IA funciona, quais dados ele usa e como ele toma decisões. Isso visa garantir que ele seja usado de forma justa e ética, aumentando sua aceitação pública.

Por fim, a explicabilidade se traduz na capacidade de um ser humano compreender as razões complexas pelas quais um sistema de IA toma uma determinada decisão, que fatores contribuíram e como foram ponderados. Ela é importante para identificar erros, prever resultados e garantir a conformidade com padrões éticos e legais.

Se não é fácil entender, mais difícil ainda é entregar esses valores. Os algoritmos mais eficientes são justamente os mais complexos, e uma simples documentação pode não ser suficiente. Ainda assim, o desafio dessa conformidade permanece.

 

Temos que entender

Como exemplo da importância de se entender essas plataformas, podemos pensar na exigência do artigo 20 da Lei Geral de Proteção de Dados (LGPD), que determina que o cidadão pode “solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses”. Mas como ele fará isso se nem compreende como a decisão foi tomada? Da mesma forma, como a empresa revisará a decisão, se tampouco a compreende?

Considerando que a IA estará cada vez mais presente e determinante em nossas vidas, sua compreensão deve ser ensinada até nas escolas, desde a infância, de maneira crescente. Não quer dizer que todos precisem dominar plenamente seu funcionamento: apenas o suficiente para suas necessidades. Fazendo uma comparação com um carro, existe sobre ele os conhecimentos de um projetista, de um mecânico, de um motorista e de um passageiro. E todos usam o carro à sua maneira!

Ao contrário do que alguns dizem, a exigência de que plataformas de inteligência artificial sigam esses preceitos éticos não pode ser visto como ameaça ao seu desenvolvimento e inovação. Pelo contrário, são condições que devem integrar sua própria concepção. A população precisa disso para confiar na inteligência artificial, ou, passada essa fase inicial de deslumbramento, ela poderá deixar de ser considerada como a incrível ferramenta de produtividade que é.

Entendo que as dificuldades para isso sejam imensas. Sei também que nós mesmos não somos transparentes em nosso cotidiano, como já disse. Mas nada disso pode servir como desculpa para se esquivar dessa tarefa. Tampouco é hipocrisia exigir que os desenvolvedores se esmerem para cumprir essas determinações.

Não podemos incorrer no mesmo erro cometido com as redes sociais, que até hoje atuam de maneira inconsequente e sem responsabilidade pelos eventuais efeitos muito nocivos de suas ações. A inteligência artificial já está transformando a sociedade de maneira determinante.

Seríamos inocentes se acreditássemos que essas empresas se autorregularão: seus interesses sempre falarão mais alto nesse caso. Precisamos de regulamentações claras, não para coibir o progresso, mas para dar um norte de bons princípios, para que a inteligência artificial beneficie a todos, e não apenas grupos tecnocratas.

 

IA pode ser usada na eleição, mas seguindo regras para evitar fake news - Ilustração: Paulo Silvestre com Freepik/Creative Commons

Regras para IA nas eleições são positivas, mas criminosos não costumam seguir a lei

By | Tecnologia | No Comments

A tecnologia volta a ser protagonista na política, e não dá para ignorar isso em um mundo tão digital. Na terça, o Tribunal Superior Eleitoral (TSE) aprovou instruções para o pleito municipal desse ano. Os usos de redes sociais e inteligência artificial nas campanhas chamaram atenção. Mas apesar de positivas e bem-produzidas, elas não dizem como identificar e punir a totalidade de crimes eleitorais no ciberespaço, que só aumentam. Enquanto isso, a tecnologia continua favorecendo os criminosos.

Claro que a medida gerou uma polêmica instantânea! Desde 2018, as eleições brasileiras vêm crescentemente sendo decididas com forte influência do que se vê nas redes sociais, especialmente as fake news, que racharam a sociedade brasileira ao meio. Agora a inteligência artificial pode ampliar a insana polarização que elege candidatos com poucas propostas e muito ódio no discurso.

É importante que fique claro que as novas regras não impedem o uso de redes sociais ou de inteligência artificial. Seria insensato bloquear tecnologias que permeiam nossa vida e podem ajudar a melhorar a qualidade e a baratear as campanhas, o que é bem-vindo, especialmente para candidatos mais pobres. Mas não podemos ser inocentes e achar que os políticos farão apenas usos positivos de tanto poder em suas mãos.

Infelizmente a solução para essas más práticas do mundo digital não acontecerá apenas com regulamentos. Esse é também um dilema tecnológico e as plataformas digitais precisam se envolver com seriedade nesse esforço.


Veja esse artigo em vídeo:


A iniciativa do TSE não é isolada. A preocupação com o impacto político do meio digital atingiu um pico no mundo em 2024, ano com 83 eleições ao redor do globo, a maior concentração pelos próximos 24 anos. Isso inclui algumas das maiores democracias do mundo, como Índia, Estados Unidos e Brasil, o que fará com que cerca de metade dos eleitores do planeta depositem seus votos até dezembro.

As regras do TSE procuram ajudar o eleitor a se decidir com informações verdadeiras. Por isso, determinam que qualquer texto, áudio, imagem ou vídeo que tenha sido produzido ou manipulado por IA seja claramente identificado como tal. Além disso, proíbem que sejam criados sistemas que simulem conversas entre o eleitor e qualquer pessoa, inclusive o candidato. Vedam ainda as deep fakes, técnica que cria áudios e vídeos falsos que simulam uma pessoa dizendo ou fazendo algo que jamais aconteceu.

Além de não praticar nada disso, candidatos e partidos deverão denunciar fraudes à Justiça Eleitoral. As plataformas digitais, por sua vez, deverão agir por conta própria, sem receberem ordens judiciais, identificando e removendo conteúdos que claramente sejam falsos, antidemocráticos ou incitem ódio, racismo ou outros crimes. Se não fizerem isso, as empresas podem ser punidas. Candidatos que infringirem as regras podem ter a candidatura e o mandato cassados (no caso de já terem sido eleitos).

Outra inovação é equiparar as redes sociais aos meios de comunicação tradicionais, como jornal, rádio e TV, aplicando a elas as mesmas regras. Alguns especialistas temem que esse conjunto de medidas faça com que as plataformas digitais exagerem nas restrições, eliminando conteúdos a princípio legítimos, por temor a punições. E há ainda o interminável debate se elas seriam capazes de identificar todos os conteúdos problemáticos de maneira automática.

Os desenvolvedores estão se mexendo, especialmente por pressões semelhantes que sofrem nos Estados Unidos e na União Europeia. Em janeiro, 20 empresas de tecnologia assinaram um compromisso voluntário para ajudar a evitar que a IA atrapalhe nos pleitos. A OpenAI, criadora do ChatGPT, e o Google, dono do concorrente Gemini, anunciaram que estão ajustando suas plataformas para que não atendam a pedidos ligados a eleições. A Meta, dona do Facebook, do Instagram e do WhatsApp, disse que está refinando técnicas para identificar e rotular conteúdos criados ou modificados por inteligência artificial.

Tudo isso é necessário e espero que não se resuma apenas a “cortinas de fumaça” ou “leis para inglês ver”. Mas resta descobrir como fiscalizar as ações da parte ao mesmo tempo mais frágil e mais difícil de ser verificada: o usuário.

 

Ajudando o adversário a se enforcar

Por mais que os políticos e as big techs façam tudo que puderem para um bom uso desses recursos, o maior desafio recai sobre os cidadãos, seja um engajado correligionário (instruído ou não pelas campanhas), seja um inocente “tio do Zap”. Esses indivíduos podem produzir e distribuir grande quantidade de conteúdo incendiário e escapar da visão do TSE. Pior ainda: podem criar publicações ilegais como se fossem o adversário deliberadamente para que ele seja punido.

O tribunal não quer que se repita aqui o que foi visto na eleição presidencial argentina, em novembro. Lá as equipes dos candidatos que foram ao segundo turno, o peronista Sergio Massa e o ultraliberal Javier Milei, fizeram amplo uso da IA para denegrir a imagens dos adversários.

Em outro caso internacional, os moradores de New Hampshire (EUA) receberam ligações de um robô com a voz do presidente Joe Biden dizendo para que não votassem nas primárias do Estado, no mês passado. Por aqui, um áudio com a voz do prefeito de Manaus, David Almeida, circulou em dezembro com ofensas contra professores. Os dois casos eram falsos.

Esse é um “jogo de gato e rato”, pois a tecnologia evolui muito mais rapidamente que a legislação, e os criminosos se valem disso. Mas o gato tem que se mexer!

Aqueles que se beneficiam desses crimes são os que buscam confundir a população. Seu discurso tenta rotular essas regras como cerceamento da liberdade de expressão. Isso não é verdade, pois todos podem continuar dizendo o que quiserem. Apenas pagarão no caso de cometerem crimes que sempre foram claramente tipificados.

Há ainda o temor dessas medidas atrapalharem a inovação, o que também é questionável. Alguns setores fortemente regulados, como o farmacêutico e o automobilístico, estão entre os mais inovadores. Por outro lado, produtos reconhecidamente nocivos devem ser coibidos, como os da indústria do cigarro.

A inteligência artificial vem eliminando a fronteira entre conteúdos verdadeiros e falsos. Não se pode achar que os cidadãos (até especialistas) consigam identificar mentiras tão bem-criadas, mesmo impactando decisivamente seu futuro. E as big techs reconhecidamente fazem menos do que poderiam e deveriam para se evitar isso.

Ausência de regras não torna uma sociedade livre, mas anárquica. A verdadeira liberdade vem de termos acesso a informações confiáveis que nos ajudem a fazer as melhores escolhas para uma sociedade melhor e mais justa para todos.

Ao invés de atrapalhar, a tecnologia deve nos ajudar nessa tarefa. E ela pode fazer isso!

 

Na Conferência de Desenvolvedores de 2019, Mark Zuckerberg anunciava que “o futuro é privado” - Foto: Anthony Quintano/Creative Commons

Tudo que você postar pode ser usado contra você e a favor da IA

By | Tecnologia | No Comments

Não é novidade que tudo que publicamos nas redes sociais é usado para criarem perfis detalhados sobre nós para que seus anunciantes nos vendam todo tipo de quinquilharia. Também é conhecido que nossas informações são usadas para “aprimorar” essas plataformas. E que muitas delas fazem menos do que poderiam e deveriam para nos proteger contra desinformação e diferentes tipos de assédio, que podem prejudicar nossa saúde mental. Mas o que é novidade é que agora essas companhias também usam nossas informações pessoais para treinar seus nascentes serviços de inteligência artificial, abrindo uma nova potencial violação de privacidade.

Essas empresas transitam nas ambiguidades de seus termos de serviço e posicionamentos públicos. Por exemplo, no dia 31, os CEOs das redes sociais mais usadas por crianças e adolescentes foram interpelados no Comitê Judiciário do Senado americano, sobre suas ações para proteger os jovens. O mais questionado foi Mark Zuckerberg, CEO da Meta (dona do Facebook, Instagram e WhatsApp). Diante da pressão dos senadores, ele se levantou e se desculpou ao público nas galerias.

Ali estavam pais e mães de crianças que morreram por problemas derivados de abusos nas redes sociais. Menos de uma semana depois, o mesmo Zuckerberg disse, durante uma transmissão sobre os resultados financeiros anuais da Meta, que sua empresa está usando todas as publicações de seus usuários (inclusive de crianças) para treinar suas plataformas de IA.

O mercado adorou: suas ações dispararam 21% com o anúncio dos resultados! E essa infinidade de dados pessoais é mesmo uma mina de ouro! Mas e se eu, que sou o proprietário das minhas ideias (por mais que sejam públicas), quiser que a Meta não as use para treinar sua IA, poderei continuar usando seus produtos?

É inevitável pensar que, pelo jeito, não temos mais privacidade e até mesmo propriedade sobre nossas informações pessoais. E as empresas podem se apropriar delas para criar produtos e faturar bilhões de dólares.


Veja esse artigo em vídeo:


No momento mais dramático da audiência no dia 31, Zuckerberg se levantou e, de costas para os senadores e olhando para as pessoas presentes, muitas carregando fotos de seus filhos mortos, disse: “Sinto muito por tudo que passaram. Ninguém deveria passar pelas coisas que suas famílias sofreram.”

Mas também se defendeu, afirmando que investiu mais de US$ 20 bilhões e contratou “milhares de funcionários” para essa proteção. Ponderou ainda que a empresa precisa equilibrar o cuidado e “as boas experiências entre amigos, entes queridos, celebridades e interesses”. Em outras palavras, a proteção não pode “piorar” o produto, o que seria ruim para os negócios.

Seis dias depois, disse aos investidores: “No Facebook e no Instagram, existem centenas de bilhões de imagens compartilhadas publicamente e dezenas de bilhões de vídeos públicos, que estimamos ser maiores do que os dados do Common Crawl, e as pessoas também compartilham um grande número de postagens de texto públicas em comentários em nossos serviços.”

O Common Crawl é um gigantesco conjunto de dados resultante do contínuo rastreamento do que é público na Internet, podendo ser usado por quem quiser e para qualquer finalidade. Ele serve de base para o treinamento de várias plataformas de IA.

“Considerando os Termos de Uso e as regras da plataforma, seria possível a Meta usar nossos dados para treinar sua IA, embora seja bastante discutível”, explica Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). “É discutível porque muitas das informações nas redes sociais podem ser consideradas dados pessoais e, neste caso, eventualmente legislações específicas acabam incidindo, como a Lei Geral de Proteção de Dados (LGPD)”.

Nos Termos de Serviço do Facebook, a única referência à IA é: “usamos e desenvolvemos tecnologias avançadas (como inteligência artificial, sistemas de aprendizado de máquina e realidade aumentada) para que as pessoas possam usar nossos produtos com segurança, independentemente de capacidade física ou localização geográfica.”

O mesmo documento diz: “realizamos pesquisa para desenvolver, testar e melhorar nossos produtos. Isso inclui a análise dos dados que temos sobre os nossos usuários e o entendimento de como as pessoas usam nossos produtos.” Esse trecho poderia garantir o uso das nossas publicações para o desenvolvimento da IA da Meta.

Por outro lado, os Termos dizem que a remuneração da Meta se dá apenas por anúncios entregues a seus usuários pela análise de suas informações. Oras, a inteligência artificial não é anúncio, mas ela renderá bilhões de dólares à empresa. Assim o uso de nossos dados para treinar a IA geraria um conflito entre as cláusulas.

 

O rei está nu e perdeu a majestade

Sempre tivemos nossos dados coletados e manipulados. O nosso “sócio” mais tradicional é o governo, que sabe coisas inimagináveis sobre o cidadão! Basta ver o Imposto de Renda pré-preenchido! E isso é só a pontinha desse enorme iceberg.

Não vou defender qualquer governo, pois muitas dessas apropriações são no mínimo questionáveis. Mas há uma diferença essencial de qualquer big tech: ele foi eleito para melhorar a vida do cidadão. As empresas, por sua vez, visam apenas seu lucro.

Crespo explica que a principal violação nesse movimento da Meta é que ela usa dados pessoais de seus usuários para uma finalidade que não é aquela pela qual criaram suas contas e fazem suas publicações, e que eles nem sabem. Vale lembrar que, no fim de dezembro, o The New York Times processou a Microsoft e a OpenAI por se apropriarem de seus conteúdos para treinar seu ChatGPT, e um de seus argumentos foi essas empresas usarem esse conteúdo sem pagar por esse objetivo específico.

Esse mesmo raciocínio poderia se aplicar às postagens dos 3 bilhões de usuários do Facebook e dos 2 bilhões do Instagram. Além disso, a baixa qualidade de muitas publicações nessas plataformas pode incluir vieses e informações no mínimo questionáveis no treinamento dessa IA.

“Esse é o grande dilema da atualidade”, afirma Crespo. Empresas podem criar regras para quem quiser usar seus produtos, mas, depois de usar algo como o Google por duas décadas, alguém o abandonaria porque seus dados seriam usados para uma nova e questionável finalidade (entre tantas outras)? “A grande questão é se essas regras são moralmente aceitas e transparentes, ou se, de alguma forma, constituem abuso de direito”, explica Crespo.

No final, caímos novamente no infindável debate sobre a regulamentação das ações e responsabilidades dessas empresas. Essa novidade trazida por Zuckerberg é apenas o mais recente exemplo de que, se deixarmos para que elas se autorregulem, nós, seus usuários, continuaremos sendo os grandes prejudicados.

 

A cantora Taylor Swift, vítima de “deep nudes” que inundaram as redes sociais na semana passada – Foto: Paolo V/Creative Commons

Imagens geradas por IA podem agravar problemas de saúde mental

By | Tecnologia | No Comments

Na semana passada, as redes sociais foram inundadas com fotos de Taylor Swift nua. Não se tratava de algum vazamento de fotos íntimas da cantora, mas de imagens falsas criadas por inteligência artificial, uma técnica conhecida por “deep nude”. Apesar da compreensível revolta dos fãs pelo uso criminoso da sua imagem, o episódio não deve ter causado grandes transtornos para ela, que tem uma equipe multidisciplinar para ajudá-la a lidar com os problemas típicos da sua superexposição.

Infelizmente quase ninguém tem essa rede de proteção. Por isso, a explosão de imagens sintetizadas digitalmente vem provocando muitos danos à saúde mental de crianças, jovens e adultos, que não sabem como lidar com fotos e vídeos falsos de si mesmos ou de ideais inatingíveis de beleza ou sucesso.

Isso não é novo: surgiu na televisão, antes das mídias digitais. Mas elas potencializaram esse problema, que agora se agrava fortemente com recursos de inteligência artificial generativa usados inadequadamente.

Junte ao pacote a dificuldade que muitos têm de lidar com os efeitos nocivos da exposição que as redes sociais podem lhes conferir, ainda que de maneira fugaz. Não é algo pequeno, não é “frescura” ou uma bobagem. Família, amigos e as autoridades precisam aprender a lidar com esses quadros, oferecendo o apoio necessário para que o pior não aconteça.


Veja esse artigo em vídeo:


O youtuber PC Siqueira não teve esse apoio. Neste sábado (27), fez um mês que ele se suicidou em seu apartamento, na zona sul de São Paulo. Um dos primeiros influenciadores do país, quando o termo ainda nem era usado com essa acepção, ele surgiu no YouTube em 2010 e chegou a apresentar um programa na MTV Brasil.

PC Siqueira nunca escondeu que sofria de ansiedade e de depressão. Seu quadro se deteriorou à medida que sua audiência diminuiu com os anos. A situação piorou muito em junho de 2020, quando ele foi acusado de pedofilia. Sempre disse que estava sendo vítima de uma “armação” e, de fato, em fevereiro de 2021, a Polícia Civil concluiu que não havia qualquer indício de que ele tivesse cometido o crime. Ainda assim, nunca conseguiu se recuperar, chegando a essa ação extrema no fim de 2023.

Se PC Siqueira foi vítima de aspectos sórdidos da autoexposição, crescem os casos em que as vítimas são envolvidas de maneira totalmente involuntária. Foi o que aconteceu com um grupo de alunas do Ensino Fundamental II do colégio Santo Agostinho, um dos mais tradicionais do Rio de Janeiro, em outubro passado. Alguns de seus colegas usaram plataformas de criação de “deep nudes” para gerar imagens delas nuas, e as espalharam pelas redes sociais.

Para uma adolescente, isso é devastador! Subitamente elas se tornam o “assunto” da escola inteira, de amigos, de parentes e até nas redes sociais. As fotos passam a ser vistas como se elas as tivessem tirado de fato. Como enfrentar tanta pressão, ainda mais não tendo feito absolutamente nada de errado?

Outro fenômeno que não para de crescer com a IA são as “influenciadoras virtuais”. São imagens de mulheres “perfeitas” que atuam como influenciadoras digitais. Mas tanta beldade não existe: elas são sintetizadas por comandos que podem reforçar estereótipos e falta de diversidade. E isso cria padrões de beleza distorcidos e ainda mais inatingíveis, piorando as já conhecidas pressões por conformidade e empecilhos para aceitar o próprio corpo que afetam muitas mulheres, especialmente adolescentes.

O problema fica mais grave quando se observa que, por trás dessas criações, estão homens, o que reforça a visão masculina de como uma mulher deve ser. Tanto que muitas delas também possuem perfis em sites de imagens pornográficas, em que outros homens pagam para ver as avatares nuas, obviamente também sintetizadas.

 

Capturados pelos seguidores

Todas essas práticas podem impactar seriamente o equilíbrio emocional das pessoas. Apesar de já convivermos há duas décadas com as redes sociais, a verdade é que ainda não sabemos lidar adequadamente com a influência de seus algoritmos e a visibilidade que eventualmente recebemos graças a elas. A ascensão violenta da inteligência artificial generativa apenas está acelerando esses efeitos.

O artista americano Andy Warhol disse em 1968 que “no futuro, todos serão mundialmente famosos por 15 minutos”. Naturalmente ele não antecipava o fenômeno das redes sociais, mas foram elas que viabilizaram sua profecia. Porém, com raríssimas exceções, elas só oferecem mesmo “15 minutos de fama”: da mesma forma que podem alçar um anônimo ao estrelato instantâneo, podem devolvê-lo ao ostracismo com a mesma velocidade. E muita gente não suporta voltar ao lugar de onde veio.

Muitos querem ser famosos e as redes sociais parecem ser o caminho mais fácil para isso. Almejam dinheiro e outros benefícios da exposição, mas poucos estão realmente preparados para lidar com isso. Assim, enquanto poucos são capazes de “capturar sua audiência”, muitos são capturados por ela.

Em algum momento, todos nós ajustamos nossa personalidade para satisfazer expectativas alheias. Isso acontece com muita força na adolescência, no grupo de amigos. Mas com as redes sociais, agora potencializadas pela IA, muita gente se transforma em uma persona que não é, e eventualmente até em algo que lhe cause sofrimento, apenas para agradar seu público online: pessoas que nem conhecem e que, em muitos casos, têm um prazer mórbido de dar suas “curtidas” pelo nosso pior, desvalorizando o que temos de bom a oferecer em um mundo-cão.

Atire a primeira pedra quem nunca produziu uma foto pensando nas “curtidas” que ela geraria! O grande problema disso, para muitas pessoas, é que elas acabam se tornando reféns dessa persona. Para não perderem sua audiência, esquecem do que são e passam a viver uma caricatura de si mesmos, sem escapatória.

Como jornalista, aprendi desde cedo a não cair nessa arapuca. Claro que estou atento aos interesses de meu público, mas, para não entrar nesse “poço narcisista”, nunca esqueço quem sou ou sobre o que falo. Mas admito que essa é uma tarefa muito difícil em um mundo digital que vive de aparências distorcidas pela inteligência artificial.

Todos nós temos a obrigação de resistir aos padrões e pensamentos-únicos que nos são impostos pelas redes sociais e pela inteligência artificial. Isso vai desde não se encantar por influenciadoras virtuais até resistir ao apelo fácil do “copia-e-cola” dos textos desalmados do ChatGPT em nossos posts e trabalhos.

Talvez, se fizermos isso, tenhamos menos gente “gostando” de nós. Em compensação, além de paz de espírito e de uma saúde mental muito mais equilibrada, teremos as pessoas que gostam de nós pelo que genuinamente somos. Isso é essencial, até mesmo para fecharmos negócios sustentáveis e transparentes com o nosso público, e termos mais que os 15 minutos de fama de Andy Warhol.

 

Para Salvador Dalí, “você tem que criar a confusão sistematicamente; isso liberta a criatividade” - Foto: Allan Warren/Creative Commons

Não “terceirize” sua criatividade para as máquinas!

By | Tecnologia | No Comments

Quando o ChatGPT foi lançado, em 30 de novembro de 2022, muita gente disse que, com ele, as pessoas começariam a ficar “intelectualmente preguiçosas”, pois entregariam à inteligência artificial até tarefas que poderiam fazer sem dificuldade. De lá para cá, observamos mesmo muitos casos assim, inclusive com resultados desastrosos. Mas o que também tenho observado é algo mais grave, ainda que mais sutil: indivíduos “terceirizando” a sua criatividade para as máquinas.

Quando fazemos um desenho, tiramos uma foto, compomos uma música ou escrevemos um texto, que pode ser um singelo post para redes sociais, exercitamos habilidades e ativamos conexões neurológicas essenciais para o nosso desenvolvimento. Ao entregar essas atividades à máquina, essas pessoas não percebem o risco que correm por realizarem menos essas ações.

Há um outro aspecto que não pode ser ignorado: a nossa criatividade nos define como seres humanos e como indivíduos. Por isso, adolescentes exercitam intensamente sua criatividade para encontrar seu lugar no mundo e definir seus grupos sociais.

A inteligência artificial generativa é uma ferramenta fabulosa que está apenas dando seus passos iniciais. Por mais que melhore no futuro breve (e melhorará exponencialmente), suas produções resultam do que essas plataformas aprendem de uma base gigantesca que representa a média do que a humanidade sabe.

Ao entregarmos aos robôs não apenas nossas tarefas, mas também nossa criatividade, ameaçamos nossa identidade e a nossa humanidade. Esse é um ótimo exemplo de como usar muito mal uma boa tecnologia. E infelizmente as pessoas não estão percebendo isso.


Veja esse artigo em vídeo:


Assim como nossa carga genética, algo que nos diferencia dos outros indivíduos são nossas ideias. Apesar de fazermos isso naturalmente, ter uma ideia original é um processo complexo, que combina tudo que aprendemos em nossa vida com os estímulos que estivermos recebendo no momento. Além disso, ela é moldada por nossos valores, que são alinhados com os grupos sociais a que pertencemos. E nossa subjetividade ainda refina tudo isso.

Mesmo a mais fabulosa inteligência artificial possui apenas a primeira dessas etapas para suas produções, que é o que aprendeu de sua enorme base de informações coletadas das mais diferentes fontes. É por isso que a qualidade do que produz depende implicitamente da qualidade dessas fontes.

Alguns argumentam que a inteligência artificial também pode desenvolver valores a partir de sua programação, dos dados que consome e da própria interação com os usuários. De fato, um dos maiores problemas dessa tecnologia são os vieses que acaba desenvolvendo, o que piora suas entregas.

Com valores, a máquina se aproxima mais do processo criativo humano. Mas a inteligência artificial ainda não pode ser chamada de criativa, justamente pela etapa final, conduzida pela nossa subjetividade. Os padrões que aprendemos em nossa história de vida única nos permitem ir além de simples deduções lógicas no processo criativo. Para as máquinas, por outro lado, esses mesmos padrões tornam-se limitadores.

Gosto de pensar que o processo criativo é algo que nos conecta com algo sublime, alguns diriam com algo divino. Quando escrevo, por exemplo, um artigo como esse, combino grande quantidade de informações que coletei para essa tarefa com o que aprendi ao longo da minha vida. Mas a fagulha criativa que faz com que isso não seja uma composição burocrática e chata (assim espero) só acontece ao me abrir intensamente para minha sensibilidade.

Jamais entregaria isso a uma máquina, pois isso me define e me dá grande prazer!

 

Nós nos tornaremos máquinas?

Em seu livro “Tecnologia Versus Humanidade” (The Futures Agency, 2017), Gerd Leonhard questiona, anos antes do ChatGPT vir ao sol, como devemos abraçar a tecnologia sem nos tornarmos parte dela. Para o futurólogo alemão, precisamos definir quais valores morais devemos defender, antes que o ser humano altere o seu próprio significado pela interação com as máquinas.

Essas não são palavras vazias. Basta olhar nosso passado recente para ver como a nossa interação incrivelmente intensa com a tecnologia digital nos transformou nos últimos anos, a começar pela polarização irracional que fraturou a sociedade.

O mais terrível disso tudo é que as ideias que nos levaram a isso não são nossas, e sim de grupos que se beneficiam desse caos. Eles souberam manipular os algoritmos das redes sociais para disseminar suas visões, não de maneira óbvia e explícita, mas distribuindo elementos aparentemente não-relacionados (mas cuidadosamente escolhidos) para que as pessoas concluíssem coisas que interessavam a esses poderosos. E uma vez que essa conclusão acontece, fica muito difícil retirar essa ideia da cabeça do indivíduo, pois ele pensa que ela é genuinamente dele.

Se as redes sociais se prestam até hoje a distorcer o processo de nascimento de ideias, a inteligência artificial pode agravar esse quadro na etapa seguinte, que é a nutrição dessas mesmas ideias. Como uma plantinha, elas precisam ser regadas para que cresçam com força.

Em um artigo publicado na semana passada, a professora da PUC-SP Lucia Santaella, autoridade global em semiótica, argumenta que o nosso uso da inteligência artificial generativa criou um novo tipo de leitor, que ela batizou de “leitor iterativo”. Afinal, não lemos apenas palavras: lemos imagens, gráficos, cores, símbolos e a própria natureza.

Com a IA generativa, entramos em um processo cognitivo inédito pelas conversas com essas plataformas. Segundo Santaella, o processo iterativo avança por refinamentos sucessivos, e os chatbots respondem tanto pelo que sabem, quanto pelos estímulos que recebem. Dessa forma, quanto mais iterativo for o usuário sobre o que deseja, melhores serão as respostas.

Isso reforça a minha proposta original de que não podemos “terceirizar” nossa criatividade para a inteligência artificial. Até mesmo a qualidade do que ela nos entrega depende do nível de como nos relacionamos com ela.

Temos que nos apropriar das incríveis possibilidades da inteligência artificial, uma ferramenta que provavelmente potencializará pessoas e empresas que se destacarão nos próximos anos. Mas não podemos abandonar nossa criatividade nesse processo. Pelo contrário: aqueles que mais se beneficiarão das máquinas são justamente os que maximizarem a sua humanidade.

 

Taylor Swift e suas cópias, que podem ser geradas por IA para convencer as pessoas - Foto: Paulo Silvestre com Creative Commons

Pessoas se tornam vítimas de bandidos por acreditarem no que desejam

By | Tecnologia | No Comments

Usar famosos para vender qualquer coisa sempre foi um recurso poderoso do marketing. Mas agora as imagens e as vozes dessas pessoas estão sendo usadas sem sua permissão ou seu conhecimento para promover produtos que eles jamais endossariam e sem que ganhem nada com isso.

Esse conteúdo falso é criado por inteligência artificial e está cada vez mais convincente. Além de anunciar todo tipo de quinquilharia, esses “deep fakes”, como é conhecida essa técnica, podem ser usados para convencer as massas muito além da venda de produtos, envolvendo aspectos políticos e até para se destruir reputações.

O processo todo fica ainda mais eficiente porque as pessoas acreditam mais naquilo que desejam, seja em uma “pílula milagrosa de emagrecimento” ou nas ideias insanas de seu “político de estimação”. Portanto, os bandidos usam os algoritmos das redes sociais para direcionar o conteúdo falso para quem gostaria que aquilo fosse verdade.

Há um outro aspecto mais sério: cresce também o uso de deep fakes de pessoas anônimas para a aplicação de golpes em amigos e familiares. Afinal, é mais fácil acreditar em alguém conhecido. Esse recurso também é usado por desafetos, por exemplo criando e distribuindo imagens pornográficas falsas de suas vítimas.


Veja esse artigo em vídeo:


As redes sociais, que são os maiores vetores da desinformação, agora se deparam sob pressão com o desafio de identificar esse conteúdo falso criado por IA para prejudicar outras pessoas. Mas seus termos de uso e até alguns de seus recursos tornam essa tarefa mais complexa que as dificuldades inerentes da tecnologia.

Por exemplo, redes como TikTok e Instagram oferecem filtros com inteligência artificial para que seus usuários alterem (e supostamente “melhorem”) suas próprias imagens, uma distorção da realidade que especialistas afirmam criar problemas de autoestima, principalmente entre adolescentes. Além disso, muitas dessas plataformas permitem deep fakes em algumas situações, como paródias. Isso pode tornar esse controle ainda mais difícil, pois uma mentira, uma desinformação, um discurso de ódio pode se esconder subliminarmente nos limites do aceitável.

O deep fake surgiu em 2017, mas seu uso explodiu nesse ano graças ao barateamento das ferramentas e à melhora de seus resultados. Além disso, algumas dessas plataformas passaram a convincentemente simular a voz e o jeito de falar de celebridades. Também aprendem o estilo de qualquer pessoa, para “colocar na sua boca” qualquer coisa. Basta treiná-las com alguns minutos de áudio do indivíduo. O “pacote da enganação” se completa com ferramentas que geram imagens e vídeos falsos. Na prática, é possível simular qualquer pessoa falando e fazendo de tudo!

A complexidade do problema cresce ao transcender as simulações grosseiras e óbvias. Mesmo a pessoa mais ingênua pode não acreditar ao ver um vídeo de uma celebridade de grande reputação destilando insanidades. Por isso, o problema maior não reside em um “fake” dizendo um absurdo, mas ao falar algo que o “original” poderia ter dito, mas não disse. E nessa zona cinzenta atuam os criminosos.

Um exemplo pôde ser visto na terça passada (5), quando o apresentador esportivo Galvão Bueno, 73, precisou usar suas redes sociais para denunciar um vídeo com uma voz que parecia ser a sua insultando Ednaldo Rodrigues, presidente da Confederação Brasileira de Futebol (CBF). “Fizeram uma montagem com coisas que eu nunca disse e eu nunca diria”, disse Galvão em sua defesa.

Ele não disse mesmo aquilo, mas poucos estranhariam se tivesse dito! Duas semanas antes, após a derrota da seleção brasileira para a argentina nas eliminatórias da Copa do Mundo, o apresentador fez duras críticas ao mesmo presidente. Vale dizer que há uma guerra pela liderança da CBF, e Rodrigues acabou sendo destituído do cargo no dia 7, pela Justiça do Rio.

 

Ressuscitando os mortos

O deep fake de famosos já gerou um enorme debate no Brasil nesse ano. No dia 3 de julho, um comercial sobre os 70 anos da Volkswagen no país provocou polêmica ao colocar a cantora Elis Regina (morta em 1982) cantando ao lado da filha Maria Rita. Elis aparece no filme dirigindo um antigo modelo de Kombi, enquanto a filha aparece ao volante de uma ID.Buzz, furgão elétrico recém-lançado, chamado de “Nova Kombi”.

Muita gente questionou o uso da imagem de Elis. Mas vale dizer que, nesse caso, os produtores tiveram a autorização da família para o uso de sua imagem. Além disso, ninguém jamais propôs enganar o público para que achasse que Elis estivesse viva.

Outro exemplo aconteceu na recente eleição presidencial argentina. Durante a campanha, surgiram imagens e vídeos dos dois candidatos que foram ao segundo turno fazendo coisas condenáveis. Em um deles, o candidato derrotado, Sergio Massa, aparece cheirando cocaína. Por mais que tenha sido desmentido, ele “viralizou” nas redes e pode ter influenciado o voto de muita gente. Tanto que, no Brasil, o Tribunal Superior Eleitoral (TSE) já se prepara para combater a prática nas eleições municipais de 2024.

Na época do comercial da Volkswagen, conversei sobre o tema com Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propaganda e Marketing). Para ele, “ficará mais difícil, a olho nu, detectar o que é verdadeiro”, restando aos peritos identificar as falsificações. “O desafio, daqui para frente, é que será mais comum ver esse tipo de debate na Justiça”, acrescentou.

Essa é uma preocupação mundial. As fake news mais eficientes não escancaram uma informação falsa “completa”. Ao invés disso, o conceito que pretendem impor é apresentado aos poucos, em pequenos elementos aparentemente desconexos, mas criteriosamente entregues, para que a pessoa conclua “sozinha” o que os criminosos querem. Quando isso acontece, fica difícil convencê-la do contrário.

Não há clareza sobre como resolver esse problema. Os especialistas sugerem que exista algum tipo de regulamentação, mas ela precisa equilibrar a liberdade para se inovar e a garantia dos interesses da sociedade. Sem isso, podemos ver uma enorme ampliação da tragédia das fake news, construída por redes sociais que continuam não sendo responsabilizadas por disseminá-las.

Como determina a Constituição, todos podem dizer o que quiserem, mas respondem por isso. O desafio agora é que não se sabe mais se a pessoa disse o que parece ter dito de maneira cristalina diante de nossos olhos e ouvidos.

 

Um dos problemas derivados da queda na confiança na imprensa é a crescente agressão a jornalistas – Foto: reprodução

As razões para mordermos a mão que nos alimenta

By | Jornalismo | No Comments

Um dos sinais da falência de uma sociedade é quando as pessoas deixam de acreditar nas instituições democráticas. Quando não se confia em nada ou em ninguém, perde-se a capacidade essencial de se buscar o bem comum com o outro. Por isso, pesquisas recentes do prestigioso instituto Pew Research Center, que demonstram a baixa confiança da população na imprensa, me impactam, mas não me surpreendem. E isso é um sintoma que deveria preocupar todo mundo.

Segundo os levantamentos, apenas 38% dos americanos adultos se informam “o tempo todo ou quase o tempo todo”. Além disso, só 15% acreditam “muito” e 46% “um pouco” nos veículos jornalísticos nacionais. Em compensação, 14% buscam notícias no TikTok (32% entre os que têm de 18 a 29 anos), que ainda fica atrás do Instagram (16%), do YouTube (26%) e do Facebook (30%).

O mesmo instituto já havia indicado que o aumento de informações nas redes sociais é inversamente proporcional a sua qualidade, e que o público que as utiliza como principal fonte de informação é menos engajado, informado e capaz de demonstrar bom discernimento, se comparado a quem se informa pela imprensa.

Pelas minhas observações, arriscaria dizer que temos números semelhantes no Brasil.

Todos perdem muito com esse divórcio entre a imprensa e seu público, e cada um tem seu papel e razões. Mas isso precisa ser revertido! As bolhas de pensamento único, que nos maltratam diariamente, impedem que vivamos em uma sociedade com cidadãos mais conscientes e capazes de se desenvolver.


Veja esse artigo em vídeo:


Há mau jornalismo hoje, como sempre houve, porém, há mais bom jornalismo que mau na mídia profissional. Entretanto parte da população aprendeu a ver só o que a desagrada, generalizando como se toda a imprensa fosse pouco confiável.

Vale notar que, até o início do século, não se questionava a importância do jornalismo para o desenvolvimento pessoal. Uma boa informação era um diferencial que resultava em melhores empregos e outras oportunidades na vida. Ler jornais era sinônimo de pertencer à elite intelectual, mesmo que não fosse da elite econômica. E ser jornalista era uma das profissões mais desejadas pelos jovens.

A grande diferença é que, com a ascensão das redes sociais, os veículos de comunicação deixaram de ser os únicos capazes de trazer notícias. Todos nós nos tornamos mídia e somos capazes de produzir enormes quantidades de informação (o que é muito diferente de notícia). Diante disso, muitos grupos de poder descobriram uma nova maneira de dominar as massas, mas, para isso, precisavam usar o meio digital para desacreditar a imprensa, que teima em lhes fiscalizar.

O combate à mídia pelos poderosos não é algo novo: apenas ganhou escala com o meio digital. Joseph Goebbels, ministro da propaganda de Adolf Hitler, foi essencial para seu poder, ao criar uma máquina de silenciar a imprensa e vozes dissonantes. Décadas depois, o venezuelano Hugo Chávez contribuiu com o processo, criando a ideia de que, se a mídia fosse contra ele, seria “contra o povo”. E demonstrando que o combate à imprensa não segue ideologia, Donald Trump se notabilizou por ignorar solenemente a verdade e usar o meio digital para impor seus interesses como fatos.

O Brasil também deu suas contribuições. Lula, desde seu primeiro mandato, desqualifica a imprensa e tenta lhe impor seu “controle social”. Jair Bolsonaro, por sua vez, instituiu ataques explícitos a jornais e jornalistas, especialmente mulheres, incendiando a população contra a mídia.

Como resultado, as pessoas só querem ver conteúdos que afaguem seu ego e concordem com seus pensamentos. E essa é uma perigosa zona de conforto.

 

Desagradando seu público

Mas o jornalismo não é feito para agradar. Na verdade, se estiver desagradando alguém, deve estar fazendo um bom trabalho.

Todo governo gostaria de ter uma imprensa dócil. Mas, se fizer isso, não é jornalismo: é relações públicas. Ela deve informar e formar o cidadão e protegê-lo dos interesses de grupos políticos, econômicos ou ideológicos, fiscalizando o poder.

Como disse certa vez o grande cartunista e jornalista Millôr Fernandes, “imprensa é oposição, o resto é armazém de secos e molhados.”

Às vezes, o jornalismo deve desagradar até seu próprio público, para forçá-lo a sair daquela zona de conforto perversa. Mas quando tudo vira “pão e circo”, isso coloca os veículos em uma situação delicada: como fazer isso se as pessoas –cada vez mais intransigentes– já estão “com um pé para fora” do jornalismo?

Os veículos têm sua culpa, ao se desconectar dos anseios e da linguagem do público. A distribuição e até seu modelo de negócios também estão ultrapassados. Diante disso, não é de se estranhar que tão pouca gente confie no jornalismo e menos ainda esteja disposto a pagar por ele. Os veículos de comunicação e seu público não conseguem mais ler os sinais uns dos outros.

Permitam-me aqui uma analogia abusada: um animal de estimação amoroso pode morder quem o alimenta como forma extrema de comunicar seu descontentamento. Um dos principais motivos é o animal não entender os sinais do tutor. Nesse caso, fica difícil saber quem é o cachorro e quem é o tutor, pois público e imprensa dependem um do outro, e nenhum está conseguindo entender os sinais alheios.

Mas em tempos tão sombrios e confusos, ambos precisam reaprender isso. Como qualquer atividade humana, o jornalismo é imperfeito, e essa atual situação faz com que sua margem de erro esteja reduzidíssima. Ele precisa ouvir novamente as demandas e falar a linguagem do público.

As pessoas, por sua vez, precisam colaborar, reconhecendo que, sem jornalismo profissional, perderiam elementos essenciais no seu cotidiano. Não saberiam, por exemplo, dos escândalos do governo atual, do anterior e de qualquer outro, ou as diferentes perspectivas sobre a guerra na Ucrânia e o conflito entre Israel e o Hamas. Não teriam se vacinado contra a Covid-19 (e muitíssimo mais gente teria morrido), e não conheceriam as potencialidades da inteligência artificial ou os riscos das redes sociais. Não saberiam dos bastidores dos filmes importantes, e nem compreenderiam a crise da Seleção Brasileira. Tudo isso se fala nas redes sociais, mas é o jornalismo que descobre, noticia e explica.

Não há atalho: a imprensa precisa se reconectar com o seu público e vice-versa. É preciso reconquistar a confiança perdida! Isso não se faz com “caça-cliques”, mas com seriedade e transparência.

O jornalismo não pode se render à lógica perversa das redes sociais, que disseminam ódio, intransigência e o pensamento único. A confiança é uma via de mão dupla e benéfica para toda sociedade. Mas ela só existe quando todos estiverem dispostos a falar e ouvir civilizadamente, sem morder a mão um do outro.

 

Pais devem acompanhar atividades online dos filhos, mas plataformas têm responsabilidade no problema - Foto: Rawpixel/Creative Commons

Aumento da pedofilia online exige atenção no uso de redes sociais por crianças e adolescentes

By | Tecnologia | No Comments

Duas pesquisas divulgadas na quarta passada (25) demonstram uma explosão nos casos de pedofilia na Internet brasileira, ao mesmo tempo em que se observa um crescimento do uso da rede por crianças ainda na primeira infância. O problema gravíssimo dispara vários questionamentos sobre responsabilidades pelo seu crescimento e buscas por caminhos para a diminuição.

A primeira delas, da Safernet, organização que é referência no combate a crimes digitais no país, aponta que novos casos de imagens de abuso e de exploração sexual infantil chegaram a 54.840 entre 1 de janeiro e 30 de setembro desse ano, frente a 29.809 no mesmo período do ano passado: um crescimento de 84%.

Já a TIC Kids Brasil, levantamento feito pelo Cetic.br (Centro Regional de Estudos para Desenvolvimento da Sociedade da informação), ligado ao Comitê Gestor da Internet no Brasil, indica que as crianças estão ficando online cada vez mais cedo e por mais dispositivos. Dos brasileiros com até 6 anos de idade, 24% já haviam acessado a Internet nesse ano. Em 2015, primeiro ano da pesquisa, eram 11%.

No dia anterior, 41 Estados e o Governo Federal americano iniciaram processos contra a Meta, dona do Facebook e do Instagram, alegando que essas plataformas prejudicam crianças com recursos “viciantes”. As ações representam o esforço mais significativo daquelas autoridades para controlar seus impactos na saúde mental de jovens.

A coincidência de datas evidencia o tamanho do desafio para proteger crianças e adolescentes no meio digital. Assim como acontece com adultos, ele é uma fonte de valor inestimável para realização de atividades e para entretenimento. Porém os jovens são muito mais suscetíveis a abusos e ao desenvolvimento de dependência que os mais velhos, especialmente quando não recebem as devidas orientações.


Veja esse artigo em vídeo:


Um destaque da Safernet preocupa particularmente: cresce a quantidade de crianças e de adolescentes que produzem e enviam fotos e vídeos com conteúdo sexual de si mesmos, em troca da promessa de dinheiro ou de presentes pelos predadores digitais.

Isso está em linha com dados da Polícia Federal sobre crimes cibernéticos vitimando crianças e adolescentes: foram 627 nesse ano, contra 369 no ano passado (aumento de 69,9%). Ao todo, 291 pessoas foram presas, 46% a mais que no ano anterior. Esses dados foram divulgados no dia 16 de outubro, no lançamento do programa “De Boa na Rede”, do Ministério da Justiça e Segurança Pública, idealizado para orientar na criação de um ambiente digital seguro para crianças e adolescentes.

A TIC Kids Brasil aponta também que 95% dos brasileiros entre 9 e 17 anos estão online. Nas classes A e B, são 98%, mas o grupo que mais cresce é o das classes D e E, que passou de 56% em 2015 para 89% nesse ano. O celular é usado por 97% deles, mas aumenta o uso da TV (70%) e do videogame (22%). O único meio em queda é o computador, que era usado por 64% em 2015 e agora não passa de 38%.

A plataforma em que os jovens têm mais contas é o YouTube (88%), seguido pelo WhatsApp (78%), Instagram (66%), TikTok (63%) e Facebook (41%, o único em franco declínio). Mas, pelo uso, o líder é o Instagram (36%), seguido por YouTube (29%), TikTok (27%) e Facebook (2%).

A informação mais preocupante indica que 17% dos brasileiros entre 11 e 17 anos se sentiram incomodados com conteúdo sexual online: 14% meninos e 21% meninas. Do total, 16% receberam diretamente ou viram conteúdo sexual, 9% receberam pedidos de fotos ou vídeos sem roupa e 5% foram solicitados a falar sobre sexo.

A expressão “pornografia infantil” vem sendo substituída por “imagens de abusos contra crianças e adolescentes”. Nudez ou sexo com alguém com menos de 18 anos, por definição, não é consensual. Logo, não se trata de pornografia, que pressupõe a participação voluntária de pessoas maiores de 18 anos. A Safernet adverte que quem consome imagens de violência sexual infantil é cúmplice desse abuso.

 

Responsabilidades de cada um

Se o surgimento da Internet comercial na década de 1990 ampliou esse problema, a popularização das redes sociais o levou a um patamar altíssimo, com os mais jovens fazendo uso intenso e muitas vezes nocivo do meio digital.

Isso ganhou mais visibilidade no segundo semestre de 2021, quando a ex-gerente de integridade cívica da Meta Frances Haugen veio a público com milhares de documentos indicando que a empresa sabe desses problemas e que faz menos que poderia para combatê-los. O escândalo ficou conhecido como “Facebook Papers”.

Os processos da semana passada resultam de investigações surgidas dele. Em comunicado, a Meta disse que está “decepcionada com o fato de que, em vez de trabalhar de forma produtiva com empresas de todo o setor para criar padrões claros e adequados à idade dos muitos aplicativos que os adolescentes usam, os procuradores-gerais escolheram esse caminho”.

As empresas donas das redes sociais de fato criam mecanismos para mitigar o problema, como a possibilidade de pais e mães acompanharem o que seus filhos fazem nessas plataformas, limitadores de tempo de uso e identificação de atividades que podem estar associados a comportamentos de risco. Isso é bem-vindo, mas está longe de ser suficiente, podendo esconder a real intenção dessas companhias de fazerem pouco ou nada que ameace seus lucros ou o “vício” em seus produtos.

Recursos para alterar a própria imagem, em busca de um ideal de beleza inatingível, não são combatidos, sendo até incentivados por essas plataformas. Esses filtros são apenas um exemplo dos ganchos para atrair os mais jovens, de uma maneira intensa. Esse assunto, debatido recentemente nesse espaço, é reconhecidamente um gerador de problemas de saúde mental, especialmente entre meninas.

Ao oferecer essas ferramentas de controle parental, as empresas aparentemente querem repassar a responsabilidade de se evitar os problemas de crianças e adolescentes nas redes a seus pais e mães, livrando-se de seu papel nesse processo. Mas tal responsabilidade continua existindo e é imensa!

Pais e mães devem, claro, acompanhar de perto o que seus filhos fazem online. Isso deve ser feito com um olhar de acolhimento e orientação, nunca de repressão ou crítica. E não há espaço para indiferença: os predadores digitais estão à solta!

Mas as plataformas digitais também são profundamente responsáveis. A sua combalida ideia de que apenas criam recursos e as pessoas fazem maus usos deles, desculpa padrão dessas empresas até para não serem reguladas pelas autoridades, aparece aqui com força e perversidade. Até quando elas continuarão com essa liberdade anárquica?

 

O filósofo e sociólogo polonês Zygmunt Bauman, autor do conceito do “amor líquido” - Foto: M. Oliva Soto/Creative Commons

O meio digital cristalizou o “amor líquido” como uma constante em nossas vidas

By | Tecnologia | No Comments

Quando lançou seu best-seller “Amor Líquido” em 2004, o filósofo e sociólogo polonês Zygmunt Bauman (1925-2017) não podia imaginar como as redes sociais ajudariam a cristalizar esse conceito depois de poucos anos: afinal, essas plataformas ainda eram bebês e suas influências em nossas vidas eram nulas. Isso só reforça sua genialidade e o valor de seus ensinamentos.

Olhe a sua volta e observe a quantidade de relacionamentos criados e desfeitos com grande facilidade. É um sinal dos nossos tempos e as ferramentas digitais são essenciais nesse processo.

Para Bauman, a redução na qualidade das relações é compensada por uma quantidade enorme de parceiros. A relação social como uma responsabilidade mútua dá lugar ao que chamou de “conexão”. Para ele, o grande apelo desses sistemas é a facilidade de esquecer o outro, de se “desconectar”: troca-se, sem remorso, parceiros que deixam de ser “interessantes” por outros “melhores”.

Essa é praticamente a definição do uso dos “aplicativos de pegação”, que têm no Tinder seu maior expoente e que só foi lançado em 2012. Graças a eles, quem quiser pode ter vários parceiros sexuais em um mesmo dia. Os desavisados poderiam achar que isso é algo que só beneficia os mais jovens, mas tem muita gente mais experiente se entregando à “fluidez amorosa” com as facilidades que inundam nossos smartphones.

Mas há outros fatores que aproximam a vida digital do amor líquido em uma relação quase simbiótica. Se Tinder e afins oferecem um “cardápio de gente” mais lúdico que um totem do McDonald’s, as redes de vídeo curtos, sob liderança incontestável do TikTok, estão alterando nossa percepção do mundo, alterando a própria estrutura de nossas narrativas.

Ideias trabalhadas com introdução, desenvolvimento e conclusão dão lugar a microconteúdos sem começo, fim e até sem meio, encadeados pelo algoritmo em uma sequência infinita que retém nossa atenção. As pessoas estão se acostumando a permanecerem continuamente engajadas a vídeos tão estimulantes quanto rasos. O processo é tão eficiente, que provoca uma percepção alterada de que tudo no mundo deveria ser assim.

Mas a vida não é, muito menos relacionamentos, que exigem alguma dose de dedicação, resiliência e adaptabilidade ao outro. Como a linguagem está em nossa essência, esse movimento explica, ainda que parcialmente, a dificuldade de os adolescentes atuais namorarem.

Bauman dizia que, apenas quando nos damos conta de que nossa voz é ouvida e de que nossa presença é sentida, entendemos que somos únicos e dignos de amor. Precisamos do outro em um contato de qualidade para nos fazer perceber isso, mas, se estamos perdendo essa comunicação essencial, como sentiremos o outro? Para ele, “amar é contribuir para o mundo, cada contribuição sendo o traço vivo do eu que ama.” E continua: “no amor, o eu é, pedaço por pedaço, transplantado para o mundo.”

Temos que aproveitar tudo que o digital nos oferece, até mesmo esses aplicativos, que podem ser muito úteis se empregados conscientemente. Apenas não podemos nos perder nossa própria humanidade nesse processo.

 

Anúncios de “host clubs” em Tóquio, onde homens bonitos são pagos para entreter mulheres - Foto: Dick Thomas Johnson/Creative Commons

Como as redes sociais podem diminuir a quantidade de filhos

By | Tecnologia | No Comments

Os primeiros resultados do Censo 2022, divulgados na semana passada, indicam que os brasileiros estão tendo cada vez menos filhos. Causas para essa queda na taxa de fecundidade há muito conhecidos, como o custo de vida e a ascensão profissional das mulheres, ganham ainda mais relevância. Mas há um aspecto que o IBGE não mede e que pode estar contribuindo cada vez mais para esse quadro: as mudanças comportamentais promovidas pelas redes sociais.

Para essa análise, considero bebês nascidos em relacionamentos estáveis de qualquer tipo. Se os últimos diminuírem, teremos menos bebês. E aí entram as plataformas digitais.

Redes de vídeos curtos, especialmente o TikTok, estão alterando não apenas a maneira como consumimos conteúdo, mas também como trabalhamos, estudamos, compramos, nos divertimos e nos relacionamos. Não é um exagero: um bombardeio infinito com estímulos visuais apelativos e vazios está criando uma geração impaciente e avessa a compromissos, que espera que tudo siga esse padrão.

Mas relacionamentos, mesmo um simples namoro, exigem tempo, paciência, resiliência e dedicação. E no final ainda podem dar errado!

Há muitos anos, me disseram que “a paixão é uma armadilha da natureza para procriarmos”. Vendo os números do Censo, essa frase faz ainda mais sentido: se as pessoas não mais tiverem paciência nem para a paixão, teremos mesmo menos crianças no mundo.


Veja esse artigo em vídeo:


Nos últimos 12 anos, o crescimento médio anual da população brasileira foi de 0,52%, o primeiro abaixo de 1% desde que o levantamento começou a ser feito no país, em 1872. O número médio de filhos por mulher, que era de 6,28 em 1960 e 1,90 em 2010, agora gira em torno de 1,75.

Naturalmente esse quadro de diminuição no crescimento populacional não se observa apenas no Brasil. A situação é dramática no Japão, onde nasceram 770 mil pessoas no ano passado, frente a 1,5 milhão de mortes. O governo japonês estima que a população caia dos atuais 125 milhões para 87 milhões em 2070, com a metade sendo idosos. Por lá, 27% das mulheres até 50 anos nunca tiveram filhos, país onde esse índice é mais alto.

Nenhuma economia resiste a padrões como esses. Por isso, o governo japonês está incentivando fortemente que famílias tenham mais filhos, dando dinheiro para quem fizer isso, mais educação (para que as pessoas tenham melhores salários) e promovendo igualdade entre os gêneros no ambiente de trabalho.

Mas a “geração TikTok” resiste, valorizando sua “solteirice”. O mercado e as plataformas digitais oferecem o apoio que precisam. Em Tóquio, por exemplo, já há mais de 3.000 “host clubs”, ambientes em que homens bonitos são pagos para oferecer uma conversa agradável e tratar bem mulheres que querem escapar das “complicações” de um relacionamento ou só fugir da rotina, sem compromissos.

O sexo não é o objetivo desse tipo de estabelecimento (apesar de que pode acontecer), mas, para isso, há aplicativos como o Tinder. Graças a eles, cresce a quantidade de pessoas que chegam a ter vários parceiros sexuais em um único dia.

Todos esses recursos podem até suprir necessidades sexuais e de companhia das pessoas, mas recaímos no problema original: nada disso gera bebês.

 

“Facilidades” do mundo moderno

As plataformas digitais nos oferecem facilidades que seriam verdadeiros superpoderes até bem pouco tempo atrás. Fazemos muito mais e (na maioria das vezes) melhor do que nós mesmos fazíamos há 20 anos. Basta pensar que o primeiro iPhone só veio ao mundo em 2007!

Somos seres gregários, e a linguagem é a nossa ferramenta mais fabulosa de construção. Agora esses microconteúdos subvertem a estrutura narrativa que aprendemos ainda na escola, de que a construção de uma ideia precisa de uma introdução, de um desenvolvimento e de uma conclusão. As redes sociais já desprezavam a primeira e a última, mas agora nem o “miolo” se salva.

Como a linguagem está em nossa essência, esse movimento impacta tudo que fazemos, inclusive os relacionamentos. Isso explica, ainda que parcialmente, a dificuldade de os adolescentes atuais namorarem.

É inevitável pensar no “Amor Líquido”, de Zygmunt Bauman (editora Zahar, 2004). Para o filósofo e sociólogo polonês, a redução na qualidade das relações é compensada por uma quantidade enorme de parceiros. A relação social como uma responsabilidade mútua dá lugar ao que chamou de “conexão”. Para ele, o grande apelo desses sistemas é a facilidade de esquecer o outro, de se “desconectar”: troca-se, sem remorso, parceiros que deixam de ser “interessantes” por outros “melhores”.

Mas, para Bauman, apenas quando nos damos conta de que nossa voz é ouvida e de que nossa presença é sentida, entendemos que somos únicos e dignos de amor. Precisamos do outro em um contato de qualidade para nos fazer perceber isso, mas, se estamos perdendo essa comunicação essencial, nunca sentiremos o outro.

As redes sociais sabem disso e, ainda assim, debaixo de um verniz de bom-mocismo cada vez mais gasto, continuam empurrando recursos para nos manter “engajados” (ou “viciados?) em suas plataformas. Se existisse alguma dúvida disso, os “Facebook Papers”, escândalo em que Frances Haugen expôs milhares de documentos internos da empresa em 2021, deveria ter acabado com ela. A ex-gerente de integridade cívica do Facebook mostrou que o a empresa tinha consciência dos males que causava até à saúde mental dos usuários, mas não fazia nada que atrapalhasse seus negócios.

É simplesmente impossível viver sem os recursos digitais hoje. Isso não quer dizer que podemos abrir mão de nosso livre-arbítrio e de nossas capacidades cognitivas de interagir com o mundo em toda a sua profundidade e complexidade. As redes sociais achatam o que nos rodeia, deixando tudo meio igual e desinteressante. E isso definitivamente não nos favorece.

Citando Bauman, “amar é contribuir para o mundo, cada contribuição sendo o traço vivo do eu que ama.” E continua: “no amor, o eu é, pedaço por pedaço, transplantado para o mundo.”

Precisamos recuperar as rédeas de nossas vidas, até mesmo para –quem diria?– nos relacionarmos e termos filhos.

 

Navio com refugiados é resgatado no Mediterrâneo - Foto: Wikimedia / Creative Commons

Qual vida vale mais: a de um bilionário ou a de um refugiado?

By | Jornalismo | No Comments

Você sabe qual a diferença entre um submarino e um submersível? Ou que a pressão no fundo do mar, onde jazem os destroços do Titanic, é 400 vezes maior que a da superfície? E que isso provocou a implosão do Titan, matando cinco ricaços que estavam nele no dia 18?

Se você acompanhou o noticiário por qualquer meio na semana passada, provavelmente pelo menos ouviu falar sobre isso tudo. A cobertura do acidente inundou todos os veículos de comunicação.

Mas você sabe que, poucos dias antes, o naufrágio de um barco hiperlotado de refugiados matou centenas de pessoas nas costas da Grécia, criando aquela que talvez seja a maior tragédia do Mediterrâneo?

Não se sinta mal se souber do primeiro e não do segundo caso. O espaço dado pela mídia para a tragédia do pesqueiro foi muitíssimo menor que o dedicado ao acidente do submersível. O mesmo aconteceu no mundo-cão das redes sociais.

Esse não é um problema só da imprensa, apesar de ela ser essencial para a melhora desse quadro. Porém nós, o público, temos um papel fundamental em algo que impacta a nossa vida, mesmo estando do outro lado do mundo.


Veja esse artigo em vídeo:


O valor de uma vida humana é imensurável, qualquer vida. Por isso, os dois acidentes são tragédias a serem muito lamentadas. Mas não se pode ignorar que, se os cinco ocupantes do Titan morreram, do pesqueiro que saiu do Egito em direção à Líbia com estimadas 750 almas, apenas pouco mais de cem foram resgatadas com vida e outra centena de corpos foram encontrados. Um número incerto de outras vítimas fatais, talvez 500, se perdeu no mar. Vale dizer que, segundo dados da Organização Internacional para as Migrações, quase 27 mil migrantes desapareceram no Mediterrâneo desde 2014!

A desigualdade não se dá apenas no espaço dedicado às duas tragédias na imprensa e nas redes sociais. Talvez ainda mais absurdo tenha sido o empenho nos resgates. Investigações apontam que as autoridades gregas foram lentas em reagir no caso do pesqueiro, o que aumentou dramaticamente a taxa de mortos. Enquanto isso, as guardas-costeiras dos Estados Unidos e do Canadá, além de várias embarcações particulares, tentaram resgatar o Titan, um esforço que custou milhões de dólares e que será pago, pelo menos em parte, pelos contribuintes desses países.

Tudo recai sobre porque nos interessamos tanto por tragédias como a do Titan e ignoramos a do pesqueiro.

As redes sociais sempre destacarão, para cada um de seus bilhões de usuários, aquilo que chama mais a sua atenção, mesmo que seja algo horrível. A frieza de seus algoritmos não tem nenhum compromisso com o bem-estar social ou mesmo com a verdade: ele exibirá mais aquilo em que há mais chance de clicarmos. Daí surgem as infames “bolhas”, que racharam a sociedade ao meio nos últimos anos, reforçando as crenças de cada um, mesmo as piores.

Vale dizer que até hoje, mais de uma semana depois do acidente, continuo vendo postagens sobre o Titan nas redes. Mas eu não vi nenhum usuário dedicar algumas linhas aos refugiados. As poucas publicações nessas plataformas foram feitas justamente por veículos de comunicação.

Resta saber então por que esses mesmos veículos seguiram essa desigualdade.

 

A banalização da “morte sem rosto”

Existem algumas regras para que uma notícia chame a atenção do público e assim ganhe destaque na imprensa. Uma dela é o ineditismo, e, convenhamos, não é sempre que um submersível com bilionários querendo passear no Titanic implode. O próprio Titanic estar envolvido também desperta muito a curiosidade. E há ainda sentimentos “menos nobres”, como achar graça de ricaços que pagam uma fortuna para visitar os destroços do naufrágio mais famoso da história (ocorrido em 1912), em uma embarcação com falhas críticas de projeto. Algumas pessoas talvez até quisessem ter tentado aquilo!

No caso dos refugiados, o naufrágio não tinha nenhum desses elementos. O público os despreza poque sente que eles acontecem “a toda hora”, matando pessoas sem nome, rosto, origem, destino ou motivação. Mas não é nada disso! Essas pessoas deixam para trás seu país para salvar a própria vida, fugindo de guerras, terrorismo, perseguições religiosas e outras atrocidades que a humanidade produz.

Isso é tão verdadeiro que, de vez em quando, a tragédia ganha um rosto, chocando o mundo todo. Foi o caso dos ucranianos, que saíam da própria Europa, fugindo da invasão russa. Ou da foto de uma criança refugiada que apareceu morta com sua camiseta vermelha e short azul, na costa da Turquia em 2015. A foto do seu rosto sendo encoberto pela onda na areia provocou uma comoção global pela crise dos refugiados… que infelizmente foi logo esquecida depois.

Esse desprezo não acontece só com quem está do outro lado do mundo. Acontece diariamente na nossa cidade, na nossa rua. Às vezes, tratamos de ignorar a morte até de alguém em nosso condomínio. Afinal, “não é ninguém próximo”.

Até que acontece conosco!

A imprensa “entrou no automático” nesse tipo de decisão editorial há muito tempo. Não chega a ter frieza criminosa dos algoritmos das redes sociais, mas acaba colaborando com a desumanização da sociedade.

Sei que não é possível noticiar todas as mazelas do mundo, mas é preciso mais consciência quando se destaca a morte de cinco bilionários enquanto se varre para o rodapé a maior tragédia marinha do Mediterrâneo.

A imprensa tem o papel de informar, mas também de formar a população. E, salvo em algumas exceções, vem falhando nesse segundo, entregando o público à manipulação dos abutres das redes sociais. Esses chegam ao absurdo de não apenas desprezar a dor alheia, como promover isso!

A vida não tem que ser assim. Não deve ser assim! Quem quer que sejamos, não podemos achar que o problema nunca chegará a nós por não nos envolvermos.

Não dá para se blindar. Os bilionários do Titan acharam que dava. E implodiram.

 

Joan, protagonista do primeiro episódio da sexta temporada de “Black Mirror”, surta por causa de um mau uso da IA - Foto: divulgação

“Black Mirror” explica ludicamente os riscos da inteligência artificial

By | Tecnologia | No Comments

Em uma sociedade polarizada pelo poder descontrolado dos algoritmos das redes sociais, cresce o debate se a inteligência artificial vai exterminar ou salvar a humanidade. Como costuma acontecer com esses extremismos, a verdade provavelmente fica em algum lugar no meio do caminho. Agora a sexta temporada da série “Black Mirror”, que estreou na Netflix na última quinta (15), surge com uma explicação lúdica de como essa tecnologia pode ser incrível ou devastadora, dependendo apenas de como será usada.

A icônica série, criada em 2011 pelo britânico Charlie Brooker, é conhecida pelas suas perturbadoras críticas ao mau uso de tecnologias. Sem correr risco de “dar spoiler”, o primeiro episódio da nova temporada (“A Joan É Péssima”) concentra-se na inteligência artificial generativa, mas guarda espaço para apontar outros abusos do mundo digital pela sociedade. Sobra até para a própria Netflix, a vilã do episódio!

Como fica claro na história, o poder da inteligência artificial cresce de maneira que chega a ser assustador, alimentando as teorias pessimistas ao redor dela. Se até especialistas se pegam questionando como essas plataformas estão “aprendendo”, para uma pessoa comum isso é praticamente incompreensível, algo ainda no campo da ficção científica.

Mas é real e está a nossa volta, começando pelos nossos smartphones.


Veja esse artigo em vídeo:


Como acontece em tantos episódios de “Black Mirror”, algo dá muito errado. E a culpa não é do digital, mas de como ele é usado por seres humanos movidos por sentimentos ou interesses condenáveis. A lição é que, quanto mais poderosa for a tecnologia, mais incríveis serão os benefícios que ele pode trazer, mas também maiores os riscos associados à sua desvirtuação.

É nesse ponto que estamos com a inteligência artificial. Mas ela não estraga a vida da protagonista do episódio sozinha: tem a “ajuda” de celulares (que estão captando continuamente o que dizemos e fazemos), dos algoritmos das plataformas de streaming (que nos dizem o que assistir), da “ditadura das curtidas”, do sucesso de discursos de ódio e até de instalarmos aplicativos sem lermos seus termos de uso.

A indústria de tecnologia costumava ser regida pela “Lei de Moore”, uma referência a Gordon Moore, um dos fundadores da Intel. Em um artigo em 1965, ele previu que a quantidade de circuitos em chips dobraria a cada 18 meses, pelo mesmo custo. Em 1975, reviu sua previsão para 12 meses. Hoje, o poder da inteligência artificial –que é software, mas depende de um processamento gigantesco– dobra a cada três meses.

O “problema” é que nossa capacidade humana não cresce no mesmo ritmo. E quando não conseguimos acompanhar uma evolução, ela pode nos atropelar. Essa é a gênese de muitos desses problemas, pois tanto poder à disposição pode fazer com que as pessoas deixem cuidados de lado e até passem por cima de limites morais.

É como diz o ditado: “quem nunca comeu melado, quando come, se lambuza!”

 

Faça a coisa certa

Na quarta, participei do AI Forum 2023, promovido pela IBM e pela MIT Sloan Review Brasil. As palestras demonstraram o caminho desse avanço da inteligência artificial e de como ela está se tornando uma ferramenta essencial para empresas de qualquer setor.

De fato, com tantos recursos incríveis que novas plataformas movidas pela IA oferecem aos negócios, fica cada vez mais difícil para uma empresa se manter relevante no mercado sem usar essa tecnologia. É como procurar emprego hoje sem saber usar a Internet ou um smartphone. Por mais experiente e qualificado em outras áreas que se seja, não haveria chance de ser contratado, porque esses pontos fortes seriam facilmente suplantados por outros candidatos que dominassem esses recursos.

Um estudo recém-divulgado pela IBM mostra que, se em 2016 58% dos executivos das empresas estavam familiarizados com a IA tradicional, agora em 2023 83% deles conhecem a IA generativa. Além disso, cerca de dois terços se sentem pressionados a acelerar os investimentos na área, que devem quadruplicar em até três anos.

A mesma pesquisa aponta que o principal fator que atravanca essas decisões é a falta de confiança na tecnologia, especialmente em aspectos de cibersegurança, privacidade e precisão. Outros problemas levantados foram a dificuldade de as decisões tomadas pela IA generativa serem facilmente explicadas, a falta de garantia de segurança e ética, a possibilidade de a tecnologia propagar preconceitos existentes e a falta de confiança nas respostas fornecidas pela IA generativa.

Conversei no evento com Marcela Vairo, diretora de Automação, Dados e IA da IBM (a íntegra da entrevista pode ser vista no vídeo abaixo). Para ela, três premissas devem ser consideradas para que a inteligência artificial nos ajude efetivamente, resolvendo essas preocupações.

A primeira delas é que as aplicações movidas por IA devem ser construídas para tornar as pessoas mais inteligentes e produtivas, e não para substituí-las. Deve existir também um grande cuidado e respeito com os dados dos clientes, que pertencem apenas a eles e não podem ser compartilhados em outra plataforma ou com outros clientes. E por fim, as aplicações devem ser transparentes, para que as pessoas entendam por que elas estão tomando uma determinada decisão e de onde ela veio, o que também ajuda a combater os possíveis vieses que a IA desenvolva.

O que precisamos entender é que essa corrida tecnológica está acontecendo! Não sejamos inocentes em achar que ela será interrompida pelo medo do desconhecido. Os responsáveis por esse desenvolvimento devem incluir travas para que seus sistemas não saiam do controle, garantindo essas premissas.

O que nos leva de volta a “Black Mirror”: tampouco podemos ser inocentes em achar que todos os executivos da indústria serão éticos e preocupados em fazer a coisa certa. É por isso que a inteligência artificial precisa ser regulamentada urgentemente, para pelo menos termos a tranquilidade de continuar usufruindo de seus benefícios incríveis sem o risco de sermos dominados pela máquina.

E no final, sempre temos que ter uma tomada para puxar e desligar a coisa toda se ela sair completamente dos trilhos.


Íntegra de entrevista com Marcela Vairo (IBM):

Neo luta contra o Agente Smith em “Matrix Revolutions” (2003): mundo digital criado para iludir a humanidade - Foto: divulgação

Se deixarmos, a inteligência artificial escolherá o próximo presidente

By | Tecnologia | No Comments

Nas eleições de 2018, eu disse que o presidente eleito naquele ano seria o que usasse melhor as redes sociais, e isso aconteceu. Em 2022, antecipei a guerra das fake news, que iludiram o eleitorado. Para o pleito de 2026, receio que a tecnologia digital ocupe um espaço ainda maior em nossas decisões, dessa vez pelo uso irresponsável da inteligência artificial.

Não estou dizendo que a IA escolherá por sua conta qual é o melhor candidato. A despeito de um medo difuso de que máquinas inteligentes nos exterminem, isso não deve acontecer porque, pelo menos no seu estágio atual, elas não têm iniciativa ou vontade própria: fazem apenas o que lhes pedimos. Os processos não são iniciados por elas. Temos que cuidar para que isso continue dessa forma.

Ainda assim, a inteligência artificial generativa, que ganhou as ruas no ano passado e que tem no ChatGPT sua maior estrela, atingiu um feito memorável: dominou a linguagem, não apenas para nos entender, mas também para produzir textos, fotos, vídeos, músicas muito convincentes.

Tudo que fazemos passa pela linguagem! Não só para nos comunicar, mas nossa cultura e até nosso desenvolvimento como espécie depende dela. Se agora máquinas com capacidades super-humanas também dominam esse recurso, podemos ser obrigados a enfrentar pessoas inescrupulosas que as usem para atingir seus objetivos, a exemplo do que foi feito com as redes sociais e com as fake news.


Veja esse artigo em vídeo:


A inteligência artificial não sai das manchetes há seis meses. Mesmo com tanta informação, as pessoas ainda não sabem exatamente como funciona e o que pode ser feito com ela. E isso é um risco, pois se tornam presas daquele que entendem.

É aí que mora o perigo para as eleições (e muito mais), com o uso dessa tecnologia para iludir e convencer. “No Brasil, as próximas eleições presidenciais serão daqui a três anos, e a tecnologia estará ainda mais avançada”, afirma Diogo Cortiz, professor da PUC-SP e especialista em IA. “A gente vai partir para um discurso não só textual, mas também com vídeo, som, fotografias ultrarrealistas, que farão ser muito difícil separar o real do que é sintético”, explica.

Não nos iludamos: vai acontecer! Esse é o capítulo atual do jogo em que estamos há uma década, em que a tecnologia digital é usada como ferramenta de convencimento. E, como sempre, ela não é ruim intrinsicamente, mas, se não houver nenhuma forma de controle, pessoas, empresas, partidos políticos podem abusar desses recursos para atingir seus fins, até de maneira criminosa.

Entretanto, não somos vítimas indefesas. Da mesma que esses indivíduos não deveriam fazer esses usos indecentes da tecnologia para nos manipular, cabe a cada um de nós usá-la conscientemente. Por mais que pareça mágica ao responder a nossos anseios de maneira tão convincente, ela erra, e muito! Por isso, não podemos pautar decisões importantes no que a IA nos entrega sem verificar essas informações.

O ser humano sempre teve medo de ficar preso em um mundo de ilusões. O filósofo e matemático grego Platão (428 a.C. – 348 a.C.) antecipou isso em seu “Mito da Caverna”. Nos dias atuais, o assunto permeia a ficção, como na série de filmes “Matrix”, curiosamente um mundo falso criado por máquinas para iludir a humanidade.

 

Intimidade com a máquina

Há um outro aspecto que precisamos considerar. Assim como a IA primitiva das redes sociais identifica nossos gostos, desejos e medos para nos apresentar pessoas e conteúdos que nos mantenham em nossa zona de conforto, as plataformas atuais também podem coletar e usar essa informação para se tornarem ainda mais realistas.

Hoje vivemos no chamado “capitalismo de vigilância”, em que nossa atenção e nosso tempo são capturados pelas redes sociais, que os comercializa como forma eficientíssima de vender desde quinquilharias a políticos.

Com a inteligência artificial, a atenção pode ser substituída nessa função pela intimidade. “Eu vejo vários níveis de consequência disso: sociais, cognitivos e psicológicos”, afirma Cortiz, que tem nesse assunto um dos pontos centrais de suas pesquisas atuais. “Se a pessoa começar a projetar um valor muito grande para essa relação com a máquina e desvalorizar a relação com o humano, a gente tem um problema, porque essa intimidade é de uma via só: o laço não existe.”

“O cérebro funciona quimicamente, buscando o menor consumo com o maior benefício”, explica Victoria Martínez, gerente de negócios e data science da empresa de tecnologia Red Hat para a América Latina. Para ela, uma das coisas que nos define como humanos é nossa capacidade de pensar coisas distintas, e não podemos perder isso pela comodidade da IA. E alerta do perigo implícito de crianças e adolescentes usarem essa tecnologia na escola, entregando trabalhos sem saber como foram feitos. “É muito importante aprender o processo, pois, para automatizarmos algo, precisamos entender o que estamos fazendo”, acrescenta.

A qualidade do que a inteligência artificial nos entrega cresce de maneira exponencial. É difícil assimilarmos isso. Assim pode chegar um momento em que não saberemos se o que nos é apresentado é verdade ou mentira, e, no segundo caso, se isso aconteceu por uma falha dos algoritmos ou porque eles foram usados maliciosamente.

Isso explica, pelo menos em parte, tantos temores em torno do tema. Chegamos a ver em março mais de mil de pesquisadores, especialistas e até executivos de empresas do setor pedindo que essas pesquisas sejam desaceleradas.

É por isso que precisamos ampliar o debate em torno da regulação dessa tecnologia. Não como um cabresto que impedirá seu avanço, mas como mecanismos para, pelo menos, tentar garantir responsabilidade e transparência de quem desenvolve essas plataformas e direitos e segurança para quem as usa.

Isso deve ser feito logo, e não apenas depois que o caos se instale, como aconteceu com as redes sociais. Agora, no meio do turbilhão, vemos como está sendo difícil regulamentá-las, graças aos interesses dos que se beneficiam dessa situação.

“Por enquanto, nós temos o controle”, afirma Martínez. “Então espero que a democracia não seja dominada por uma máquina.”

É verdade, mas temos que nos mexer. E que isso seja feito pelas nossas aspirações, e não porque algo deu muito errado!

 

Mark Zuckerberg, CEO da Meta: redes sociais entraram na briga contra o “PL das Fake News” - Foto: Anthony Quintano / Creative Commons

O poder das redes antissociais

By | Tecnologia | No Comments

No começo, as redes sociais eram espaços divertidos, para encontrarmos antigos amigos e conhecer gente nova. Eram os bons tempos do Orkut, do MySpace e do Friendster. O próprio Facebook surgiu em 2004 como um simples diretório de alunos da Universidade de Harvard. Mas isso mudou na última década, e essas redes têm ficado cada vez menos sociais.

No lugar dos conteúdos inocentes de amigos e de familiares, as páginas dessas plataformas foram tomadas de publicidade, publicações de influenciadores e conteúdo de interesse das próprias empresas. Os feeds, que prendem nossa atenção, se transformaram em ferramentas de convencimento fabulosas, que nos induzem desde comprar todo tipo de quinquilharia até em quem votar. O espaço social deu lugar à máquina publicitária mais eficiente já criada.

A redução no aspecto social teve um custo para usuários e para as próprias redes.

Há semanas, o Brasil vem debatendo o Projeto de Lei 2.630/20, apelidado de “PL das Fake News”, que busca regulamentar essas plataformas. E agora elas entraram de sola na briga, combatendo explicitamente a proposta em suas páginas.

Não é de se espantar: são elas as mais impactadas pelo projeto, e não os usuários, os negócios, as igrejas ou mesmo os políticos. As redes, cada vez mais poderosas e menos sociais, não podem mais se eximir de suas responsabilidades, e precisarão fazer muito mais que atualmente para a manutenção saudável da sociedade.


Veja esse artigo em vídeo:


Nada disso chega a ser novo, mas a magnitude do espaço que ocupa em nossas vidas tornou-se alarmante. Como disse o professor da Universidade de Yale Edward Tufte, no documentário “O Dilema das Redes” (Netflix, 2020), “existem apenas duas indústrias que chamam seus clientes de usuários: a de drogas e a de software”.

Algumas pessoas questionam o aumento desse poder em detrimento dos aspectos sociais. Isso vem provocando sangrias de usuários desencantados. Por isso, essas empresas também são prejudicadas, pois os usuários acabam migrando para plataformas menores e nichadas, onde o aspecto social ainda é relevante. Com isso, o sonho megalomaníaco de moguls como Mark Zuckerberg e Elon Musk de ter uma plataforma onde todos fariam de tudo, fica cada vez mais distante.

“Não é do interesse das redes sociais mudarem o formato de como operam e muito menos abrirem as caixas pretas com algoritmos”, explica Magaly Prado, pesquisadora do Instituto de Estudos Avançados da Universidade de São Paulo. “É notório verificar o espalhamento desenfreado de assuntos polêmicos e, principalmente, quando sacodem emoções.”

Isso explica atitudes como as vistas nos últimos dias, como quando o Google colocou um link para defender sua posição contrária à regulamentação na sua página de entrada, ou quando o Telegram enviou uma mensagem para todos seus usuários no Brasil, com o mesmo fim. Para fazer valer seu ponto de vista, não economizaram em afirmações falsas ou distorcidas. No caso do último, ainda carregou em frases de efeito e falsas, como dizer que “a democracia está sob ataque no Brasil”, que “a lei matará a Internet moderna” ou que “concede poderes de censura ao governo”.

Essas iniciativas provocaram reações no mundo político, jurídico e empresarial. A própria Meta, dona do Facebook, Instagram e WhatsApp, correu para dizer que não concordava com as afirmações do Telegram.

 

Abuso de poder?

Muitos argumentaram que essas atitudes das plataformas digitais poderiam ser consideradas “abuso de poder econômico”, pela enorme penetração que essas empresas têm na sociedade e pelo poder de convencimento de seus algoritmos. Apesar disso, juridicamente não se pode sustentar isso.

“O abuso de poder econômico pode ser resumido como a situação em que uma entidade dominante em um setor empresarial viola as regras da concorrência livre, impedindo que seus concorrentes, sejam eles diretos ou indiretos, conduzam seus negócios”, explica Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propaganda e Marketing). Para ele, as iniciativas do Google e do Telegram não se enquadram nisso. “Diferente seria se houvesse uma manipulação algorítmica que privilegiasse conteúdo alinhado com seu posicionamento, em detrimento de posições contrárias”, contrapõe.

De toda forma, esses episódios podem ser educativos. Eles ilustram muito bem o poder que as plataformas digitais desenvolveram, a ponto de se contrapor a governos eleitos e de jogar parte da população contra eles.

Ninguém ganha nada com isso!

“As redes perdem ao entulhar o feed dos internautas com mensagens falsas de interesses escusos, fugindo da ideia da Internet em unir as pessoas em uma esfera de sociabilidade e troca de saberes”, afirma Prado. De certa forma, leis como o “PL das Fake News” ao redor do mundo, como da União Europeia, China e Austrália, são reações aos descuidos com os aspectos sociais pelas plataformas, com a explosão das fake news, do discurso de ódio e de outros crimes nesses ambientes. Se essas empresas tivessem levado mais a sério esses cuidados, assim como os aspectos nocivos de seus algoritmos na saúde mental dos usuários, a sociedade não chegaria a essa cisão e talvez nada disso fosse necessário.

Talvez todos possamos aprender algo com a forma como as redes sociais cresceram. A liberdade nos permite criar coisas incríveis, mas ela não nos permite tudo! A liberdade de um termina quando começa a do outro, e o meio digital não se sobrepõe às leis de um país.

Não é um exagero dizer que as redes sociais são um invento que modificou nossas vidas profundamente, abrindo grandes oportunidades de comunicação e exposição. Mas se perderam pelo caminho. Ficaram demasiadamente poderosas, e isso subiu à cabeça de alguns de seus criadores.

Tristemente as grandes plataformas estão se tornando redes antissociais, onde o dinheiro supera os interesses daqueles que viabilizam o negócio: seus usuários. Por mais que não paguem por seus serviços (quem faz isso são os anunciantes), esse e qualquer negócio só prosperam se forem verdadeiramente benéficos a todos os envolvidos. Se a balança se desequilibra, como se vê agora, os clientes sempre encontrarão quem se preocupe de verdade com eles.