redes sociais

IA pode ser usada na eleição, mas seguindo regras para evitar fake news - Ilustração: Paulo Silvestre com Freepik/Creative Commons

Regras para IA nas eleições são positivas, mas criminosos não costumam seguir a lei

By | Tecnologia | No Comments

A tecnologia volta a ser protagonista na política, e não dá para ignorar isso em um mundo tão digital. Na terça, o Tribunal Superior Eleitoral (TSE) aprovou instruções para o pleito municipal desse ano. Os usos de redes sociais e inteligência artificial nas campanhas chamaram atenção. Mas apesar de positivas e bem-produzidas, elas não dizem como identificar e punir a totalidade de crimes eleitorais no ciberespaço, que só aumentam. Enquanto isso, a tecnologia continua favorecendo os criminosos.

Claro que a medida gerou uma polêmica instantânea! Desde 2018, as eleições brasileiras vêm crescentemente sendo decididas com forte influência do que se vê nas redes sociais, especialmente as fake news, que racharam a sociedade brasileira ao meio. Agora a inteligência artificial pode ampliar a insana polarização que elege candidatos com poucas propostas e muito ódio no discurso.

É importante que fique claro que as novas regras não impedem o uso de redes sociais ou de inteligência artificial. Seria insensato bloquear tecnologias que permeiam nossa vida e podem ajudar a melhorar a qualidade e a baratear as campanhas, o que é bem-vindo, especialmente para candidatos mais pobres. Mas não podemos ser inocentes e achar que os políticos farão apenas usos positivos de tanto poder em suas mãos.

Infelizmente a solução para essas más práticas do mundo digital não acontecerá apenas com regulamentos. Esse é também um dilema tecnológico e as plataformas digitais precisam se envolver com seriedade nesse esforço.


Veja esse artigo em vídeo:


A iniciativa do TSE não é isolada. A preocupação com o impacto político do meio digital atingiu um pico no mundo em 2024, ano com 83 eleições ao redor do globo, a maior concentração pelos próximos 24 anos. Isso inclui algumas das maiores democracias do mundo, como Índia, Estados Unidos e Brasil, o que fará com que cerca de metade dos eleitores do planeta depositem seus votos até dezembro.

As regras do TSE procuram ajudar o eleitor a se decidir com informações verdadeiras. Por isso, determinam que qualquer texto, áudio, imagem ou vídeo que tenha sido produzido ou manipulado por IA seja claramente identificado como tal. Além disso, proíbem que sejam criados sistemas que simulem conversas entre o eleitor e qualquer pessoa, inclusive o candidato. Vedam ainda as deep fakes, técnica que cria áudios e vídeos falsos que simulam uma pessoa dizendo ou fazendo algo que jamais aconteceu.

Além de não praticar nada disso, candidatos e partidos deverão denunciar fraudes à Justiça Eleitoral. As plataformas digitais, por sua vez, deverão agir por conta própria, sem receberem ordens judiciais, identificando e removendo conteúdos que claramente sejam falsos, antidemocráticos ou incitem ódio, racismo ou outros crimes. Se não fizerem isso, as empresas podem ser punidas. Candidatos que infringirem as regras podem ter a candidatura e o mandato cassados (no caso de já terem sido eleitos).

Outra inovação é equiparar as redes sociais aos meios de comunicação tradicionais, como jornal, rádio e TV, aplicando a elas as mesmas regras. Alguns especialistas temem que esse conjunto de medidas faça com que as plataformas digitais exagerem nas restrições, eliminando conteúdos a princípio legítimos, por temor a punições. E há ainda o interminável debate se elas seriam capazes de identificar todos os conteúdos problemáticos de maneira automática.

Os desenvolvedores estão se mexendo, especialmente por pressões semelhantes que sofrem nos Estados Unidos e na União Europeia. Em janeiro, 20 empresas de tecnologia assinaram um compromisso voluntário para ajudar a evitar que a IA atrapalhe nos pleitos. A OpenAI, criadora do ChatGPT, e o Google, dono do concorrente Gemini, anunciaram que estão ajustando suas plataformas para que não atendam a pedidos ligados a eleições. A Meta, dona do Facebook, do Instagram e do WhatsApp, disse que está refinando técnicas para identificar e rotular conteúdos criados ou modificados por inteligência artificial.

Tudo isso é necessário e espero que não se resuma apenas a “cortinas de fumaça” ou “leis para inglês ver”. Mas resta descobrir como fiscalizar as ações da parte ao mesmo tempo mais frágil e mais difícil de ser verificada: o usuário.

 

Ajudando o adversário a se enforcar

Por mais que os políticos e as big techs façam tudo que puderem para um bom uso desses recursos, o maior desafio recai sobre os cidadãos, seja um engajado correligionário (instruído ou não pelas campanhas), seja um inocente “tio do Zap”. Esses indivíduos podem produzir e distribuir grande quantidade de conteúdo incendiário e escapar da visão do TSE. Pior ainda: podem criar publicações ilegais como se fossem o adversário deliberadamente para que ele seja punido.

O tribunal não quer que se repita aqui o que foi visto na eleição presidencial argentina, em novembro. Lá as equipes dos candidatos que foram ao segundo turno, o peronista Sergio Massa e o ultraliberal Javier Milei, fizeram amplo uso da IA para denegrir a imagens dos adversários.

Em outro caso internacional, os moradores de New Hampshire (EUA) receberam ligações de um robô com a voz do presidente Joe Biden dizendo para que não votassem nas primárias do Estado, no mês passado. Por aqui, um áudio com a voz do prefeito de Manaus, David Almeida, circulou em dezembro com ofensas contra professores. Os dois casos eram falsos.

Esse é um “jogo de gato e rato”, pois a tecnologia evolui muito mais rapidamente que a legislação, e os criminosos se valem disso. Mas o gato tem que se mexer!

Aqueles que se beneficiam desses crimes são os que buscam confundir a população. Seu discurso tenta rotular essas regras como cerceamento da liberdade de expressão. Isso não é verdade, pois todos podem continuar dizendo o que quiserem. Apenas pagarão no caso de cometerem crimes que sempre foram claramente tipificados.

Há ainda o temor dessas medidas atrapalharem a inovação, o que também é questionável. Alguns setores fortemente regulados, como o farmacêutico e o automobilístico, estão entre os mais inovadores. Por outro lado, produtos reconhecidamente nocivos devem ser coibidos, como os da indústria do cigarro.

A inteligência artificial vem eliminando a fronteira entre conteúdos verdadeiros e falsos. Não se pode achar que os cidadãos (até especialistas) consigam identificar mentiras tão bem-criadas, mesmo impactando decisivamente seu futuro. E as big techs reconhecidamente fazem menos do que poderiam e deveriam para se evitar isso.

Ausência de regras não torna uma sociedade livre, mas anárquica. A verdadeira liberdade vem de termos acesso a informações confiáveis que nos ajudem a fazer as melhores escolhas para uma sociedade melhor e mais justa para todos.

Ao invés de atrapalhar, a tecnologia deve nos ajudar nessa tarefa. E ela pode fazer isso!

 

Na Conferência de Desenvolvedores de 2019, Mark Zuckerberg anunciava que “o futuro é privado” - Foto: Anthony Quintano/Creative Commons

Tudo que você postar pode ser usado contra você e a favor da IA

By | Tecnologia | No Comments

Não é novidade que tudo que publicamos nas redes sociais é usado para criarem perfis detalhados sobre nós para que seus anunciantes nos vendam todo tipo de quinquilharia. Também é conhecido que nossas informações são usadas para “aprimorar” essas plataformas. E que muitas delas fazem menos do que poderiam e deveriam para nos proteger contra desinformação e diferentes tipos de assédio, que podem prejudicar nossa saúde mental. Mas o que é novidade é que agora essas companhias também usam nossas informações pessoais para treinar seus nascentes serviços de inteligência artificial, abrindo uma nova potencial violação de privacidade.

Essas empresas transitam nas ambiguidades de seus termos de serviço e posicionamentos públicos. Por exemplo, no dia 31, os CEOs das redes sociais mais usadas por crianças e adolescentes foram interpelados no Comitê Judiciário do Senado americano, sobre suas ações para proteger os jovens. O mais questionado foi Mark Zuckerberg, CEO da Meta (dona do Facebook, Instagram e WhatsApp). Diante da pressão dos senadores, ele se levantou e se desculpou ao público nas galerias.

Ali estavam pais e mães de crianças que morreram por problemas derivados de abusos nas redes sociais. Menos de uma semana depois, o mesmo Zuckerberg disse, durante uma transmissão sobre os resultados financeiros anuais da Meta, que sua empresa está usando todas as publicações de seus usuários (inclusive de crianças) para treinar suas plataformas de IA.

O mercado adorou: suas ações dispararam 21% com o anúncio dos resultados! E essa infinidade de dados pessoais é mesmo uma mina de ouro! Mas e se eu, que sou o proprietário das minhas ideias (por mais que sejam públicas), quiser que a Meta não as use para treinar sua IA, poderei continuar usando seus produtos?

É inevitável pensar que, pelo jeito, não temos mais privacidade e até mesmo propriedade sobre nossas informações pessoais. E as empresas podem se apropriar delas para criar produtos e faturar bilhões de dólares.


Veja esse artigo em vídeo:


No momento mais dramático da audiência no dia 31, Zuckerberg se levantou e, de costas para os senadores e olhando para as pessoas presentes, muitas carregando fotos de seus filhos mortos, disse: “Sinto muito por tudo que passaram. Ninguém deveria passar pelas coisas que suas famílias sofreram.”

Mas também se defendeu, afirmando que investiu mais de US$ 20 bilhões e contratou “milhares de funcionários” para essa proteção. Ponderou ainda que a empresa precisa equilibrar o cuidado e “as boas experiências entre amigos, entes queridos, celebridades e interesses”. Em outras palavras, a proteção não pode “piorar” o produto, o que seria ruim para os negócios.

Seis dias depois, disse aos investidores: “No Facebook e no Instagram, existem centenas de bilhões de imagens compartilhadas publicamente e dezenas de bilhões de vídeos públicos, que estimamos ser maiores do que os dados do Common Crawl, e as pessoas também compartilham um grande número de postagens de texto públicas em comentários em nossos serviços.”

O Common Crawl é um gigantesco conjunto de dados resultante do contínuo rastreamento do que é público na Internet, podendo ser usado por quem quiser e para qualquer finalidade. Ele serve de base para o treinamento de várias plataformas de IA.

“Considerando os Termos de Uso e as regras da plataforma, seria possível a Meta usar nossos dados para treinar sua IA, embora seja bastante discutível”, explica Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). “É discutível porque muitas das informações nas redes sociais podem ser consideradas dados pessoais e, neste caso, eventualmente legislações específicas acabam incidindo, como a Lei Geral de Proteção de Dados (LGPD)”.

Nos Termos de Serviço do Facebook, a única referência à IA é: “usamos e desenvolvemos tecnologias avançadas (como inteligência artificial, sistemas de aprendizado de máquina e realidade aumentada) para que as pessoas possam usar nossos produtos com segurança, independentemente de capacidade física ou localização geográfica.”

O mesmo documento diz: “realizamos pesquisa para desenvolver, testar e melhorar nossos produtos. Isso inclui a análise dos dados que temos sobre os nossos usuários e o entendimento de como as pessoas usam nossos produtos.” Esse trecho poderia garantir o uso das nossas publicações para o desenvolvimento da IA da Meta.

Por outro lado, os Termos dizem que a remuneração da Meta se dá apenas por anúncios entregues a seus usuários pela análise de suas informações. Oras, a inteligência artificial não é anúncio, mas ela renderá bilhões de dólares à empresa. Assim o uso de nossos dados para treinar a IA geraria um conflito entre as cláusulas.

 

O rei está nu e perdeu a majestade

Sempre tivemos nossos dados coletados e manipulados. O nosso “sócio” mais tradicional é o governo, que sabe coisas inimagináveis sobre o cidadão! Basta ver o Imposto de Renda pré-preenchido! E isso é só a pontinha desse enorme iceberg.

Não vou defender qualquer governo, pois muitas dessas apropriações são no mínimo questionáveis. Mas há uma diferença essencial de qualquer big tech: ele foi eleito para melhorar a vida do cidadão. As empresas, por sua vez, visam apenas seu lucro.

Crespo explica que a principal violação nesse movimento da Meta é que ela usa dados pessoais de seus usuários para uma finalidade que não é aquela pela qual criaram suas contas e fazem suas publicações, e que eles nem sabem. Vale lembrar que, no fim de dezembro, o The New York Times processou a Microsoft e a OpenAI por se apropriarem de seus conteúdos para treinar seu ChatGPT, e um de seus argumentos foi essas empresas usarem esse conteúdo sem pagar por esse objetivo específico.

Esse mesmo raciocínio poderia se aplicar às postagens dos 3 bilhões de usuários do Facebook e dos 2 bilhões do Instagram. Além disso, a baixa qualidade de muitas publicações nessas plataformas pode incluir vieses e informações no mínimo questionáveis no treinamento dessa IA.

“Esse é o grande dilema da atualidade”, afirma Crespo. Empresas podem criar regras para quem quiser usar seus produtos, mas, depois de usar algo como o Google por duas décadas, alguém o abandonaria porque seus dados seriam usados para uma nova e questionável finalidade (entre tantas outras)? “A grande questão é se essas regras são moralmente aceitas e transparentes, ou se, de alguma forma, constituem abuso de direito”, explica Crespo.

No final, caímos novamente no infindável debate sobre a regulamentação das ações e responsabilidades dessas empresas. Essa novidade trazida por Zuckerberg é apenas o mais recente exemplo de que, se deixarmos para que elas se autorregulem, nós, seus usuários, continuaremos sendo os grandes prejudicados.

 

A cantora Taylor Swift, vítima de “deep nudes” que inundaram as redes sociais na semana passada – Foto: Paolo V/Creative Commons

Imagens geradas por IA podem agravar problemas de saúde mental

By | Tecnologia | No Comments

Na semana passada, as redes sociais foram inundadas com fotos de Taylor Swift nua. Não se tratava de algum vazamento de fotos íntimas da cantora, mas de imagens falsas criadas por inteligência artificial, uma técnica conhecida por “deep nude”. Apesar da compreensível revolta dos fãs pelo uso criminoso da sua imagem, o episódio não deve ter causado grandes transtornos para ela, que tem uma equipe multidisciplinar para ajudá-la a lidar com os problemas típicos da sua superexposição.

Infelizmente quase ninguém tem essa rede de proteção. Por isso, a explosão de imagens sintetizadas digitalmente vem provocando muitos danos à saúde mental de crianças, jovens e adultos, que não sabem como lidar com fotos e vídeos falsos de si mesmos ou de ideais inatingíveis de beleza ou sucesso.

Isso não é novo: surgiu na televisão, antes das mídias digitais. Mas elas potencializaram esse problema, que agora se agrava fortemente com recursos de inteligência artificial generativa usados inadequadamente.

Junte ao pacote a dificuldade que muitos têm de lidar com os efeitos nocivos da exposição que as redes sociais podem lhes conferir, ainda que de maneira fugaz. Não é algo pequeno, não é “frescura” ou uma bobagem. Família, amigos e as autoridades precisam aprender a lidar com esses quadros, oferecendo o apoio necessário para que o pior não aconteça.


Veja esse artigo em vídeo:


O youtuber PC Siqueira não teve esse apoio. Neste sábado (27), fez um mês que ele se suicidou em seu apartamento, na zona sul de São Paulo. Um dos primeiros influenciadores do país, quando o termo ainda nem era usado com essa acepção, ele surgiu no YouTube em 2010 e chegou a apresentar um programa na MTV Brasil.

PC Siqueira nunca escondeu que sofria de ansiedade e de depressão. Seu quadro se deteriorou à medida que sua audiência diminuiu com os anos. A situação piorou muito em junho de 2020, quando ele foi acusado de pedofilia. Sempre disse que estava sendo vítima de uma “armação” e, de fato, em fevereiro de 2021, a Polícia Civil concluiu que não havia qualquer indício de que ele tivesse cometido o crime. Ainda assim, nunca conseguiu se recuperar, chegando a essa ação extrema no fim de 2023.

Se PC Siqueira foi vítima de aspectos sórdidos da autoexposição, crescem os casos em que as vítimas são envolvidas de maneira totalmente involuntária. Foi o que aconteceu com um grupo de alunas do Ensino Fundamental II do colégio Santo Agostinho, um dos mais tradicionais do Rio de Janeiro, em outubro passado. Alguns de seus colegas usaram plataformas de criação de “deep nudes” para gerar imagens delas nuas, e as espalharam pelas redes sociais.

Para uma adolescente, isso é devastador! Subitamente elas se tornam o “assunto” da escola inteira, de amigos, de parentes e até nas redes sociais. As fotos passam a ser vistas como se elas as tivessem tirado de fato. Como enfrentar tanta pressão, ainda mais não tendo feito absolutamente nada de errado?

Outro fenômeno que não para de crescer com a IA são as “influenciadoras virtuais”. São imagens de mulheres “perfeitas” que atuam como influenciadoras digitais. Mas tanta beldade não existe: elas são sintetizadas por comandos que podem reforçar estereótipos e falta de diversidade. E isso cria padrões de beleza distorcidos e ainda mais inatingíveis, piorando as já conhecidas pressões por conformidade e empecilhos para aceitar o próprio corpo que afetam muitas mulheres, especialmente adolescentes.

O problema fica mais grave quando se observa que, por trás dessas criações, estão homens, o que reforça a visão masculina de como uma mulher deve ser. Tanto que muitas delas também possuem perfis em sites de imagens pornográficas, em que outros homens pagam para ver as avatares nuas, obviamente também sintetizadas.

 

Capturados pelos seguidores

Todas essas práticas podem impactar seriamente o equilíbrio emocional das pessoas. Apesar de já convivermos há duas décadas com as redes sociais, a verdade é que ainda não sabemos lidar adequadamente com a influência de seus algoritmos e a visibilidade que eventualmente recebemos graças a elas. A ascensão violenta da inteligência artificial generativa apenas está acelerando esses efeitos.

O artista americano Andy Warhol disse em 1968 que “no futuro, todos serão mundialmente famosos por 15 minutos”. Naturalmente ele não antecipava o fenômeno das redes sociais, mas foram elas que viabilizaram sua profecia. Porém, com raríssimas exceções, elas só oferecem mesmo “15 minutos de fama”: da mesma forma que podem alçar um anônimo ao estrelato instantâneo, podem devolvê-lo ao ostracismo com a mesma velocidade. E muita gente não suporta voltar ao lugar de onde veio.

Muitos querem ser famosos e as redes sociais parecem ser o caminho mais fácil para isso. Almejam dinheiro e outros benefícios da exposição, mas poucos estão realmente preparados para lidar com isso. Assim, enquanto poucos são capazes de “capturar sua audiência”, muitos são capturados por ela.

Em algum momento, todos nós ajustamos nossa personalidade para satisfazer expectativas alheias. Isso acontece com muita força na adolescência, no grupo de amigos. Mas com as redes sociais, agora potencializadas pela IA, muita gente se transforma em uma persona que não é, e eventualmente até em algo que lhe cause sofrimento, apenas para agradar seu público online: pessoas que nem conhecem e que, em muitos casos, têm um prazer mórbido de dar suas “curtidas” pelo nosso pior, desvalorizando o que temos de bom a oferecer em um mundo-cão.

Atire a primeira pedra quem nunca produziu uma foto pensando nas “curtidas” que ela geraria! O grande problema disso, para muitas pessoas, é que elas acabam se tornando reféns dessa persona. Para não perderem sua audiência, esquecem do que são e passam a viver uma caricatura de si mesmos, sem escapatória.

Como jornalista, aprendi desde cedo a não cair nessa arapuca. Claro que estou atento aos interesses de meu público, mas, para não entrar nesse “poço narcisista”, nunca esqueço quem sou ou sobre o que falo. Mas admito que essa é uma tarefa muito difícil em um mundo digital que vive de aparências distorcidas pela inteligência artificial.

Todos nós temos a obrigação de resistir aos padrões e pensamentos-únicos que nos são impostos pelas redes sociais e pela inteligência artificial. Isso vai desde não se encantar por influenciadoras virtuais até resistir ao apelo fácil do “copia-e-cola” dos textos desalmados do ChatGPT em nossos posts e trabalhos.

Talvez, se fizermos isso, tenhamos menos gente “gostando” de nós. Em compensação, além de paz de espírito e de uma saúde mental muito mais equilibrada, teremos as pessoas que gostam de nós pelo que genuinamente somos. Isso é essencial, até mesmo para fecharmos negócios sustentáveis e transparentes com o nosso público, e termos mais que os 15 minutos de fama de Andy Warhol.

 

Para Salvador Dalí, “você tem que criar a confusão sistematicamente; isso liberta a criatividade” - Foto: Allan Warren/Creative Commons

Não “terceirize” sua criatividade para as máquinas!

By | Tecnologia | No Comments

Quando o ChatGPT foi lançado, em 30 de novembro de 2022, muita gente disse que, com ele, as pessoas começariam a ficar “intelectualmente preguiçosas”, pois entregariam à inteligência artificial até tarefas que poderiam fazer sem dificuldade. De lá para cá, observamos mesmo muitos casos assim, inclusive com resultados desastrosos. Mas o que também tenho observado é algo mais grave, ainda que mais sutil: indivíduos “terceirizando” a sua criatividade para as máquinas.

Quando fazemos um desenho, tiramos uma foto, compomos uma música ou escrevemos um texto, que pode ser um singelo post para redes sociais, exercitamos habilidades e ativamos conexões neurológicas essenciais para o nosso desenvolvimento. Ao entregar essas atividades à máquina, essas pessoas não percebem o risco que correm por realizarem menos essas ações.

Há um outro aspecto que não pode ser ignorado: a nossa criatividade nos define como seres humanos e como indivíduos. Por isso, adolescentes exercitam intensamente sua criatividade para encontrar seu lugar no mundo e definir seus grupos sociais.

A inteligência artificial generativa é uma ferramenta fabulosa que está apenas dando seus passos iniciais. Por mais que melhore no futuro breve (e melhorará exponencialmente), suas produções resultam do que essas plataformas aprendem de uma base gigantesca que representa a média do que a humanidade sabe.

Ao entregarmos aos robôs não apenas nossas tarefas, mas também nossa criatividade, ameaçamos nossa identidade e a nossa humanidade. Esse é um ótimo exemplo de como usar muito mal uma boa tecnologia. E infelizmente as pessoas não estão percebendo isso.


Veja esse artigo em vídeo:


Assim como nossa carga genética, algo que nos diferencia dos outros indivíduos são nossas ideias. Apesar de fazermos isso naturalmente, ter uma ideia original é um processo complexo, que combina tudo que aprendemos em nossa vida com os estímulos que estivermos recebendo no momento. Além disso, ela é moldada por nossos valores, que são alinhados com os grupos sociais a que pertencemos. E nossa subjetividade ainda refina tudo isso.

Mesmo a mais fabulosa inteligência artificial possui apenas a primeira dessas etapas para suas produções, que é o que aprendeu de sua enorme base de informações coletadas das mais diferentes fontes. É por isso que a qualidade do que produz depende implicitamente da qualidade dessas fontes.

Alguns argumentam que a inteligência artificial também pode desenvolver valores a partir de sua programação, dos dados que consome e da própria interação com os usuários. De fato, um dos maiores problemas dessa tecnologia são os vieses que acaba desenvolvendo, o que piora suas entregas.

Com valores, a máquina se aproxima mais do processo criativo humano. Mas a inteligência artificial ainda não pode ser chamada de criativa, justamente pela etapa final, conduzida pela nossa subjetividade. Os padrões que aprendemos em nossa história de vida única nos permitem ir além de simples deduções lógicas no processo criativo. Para as máquinas, por outro lado, esses mesmos padrões tornam-se limitadores.

Gosto de pensar que o processo criativo é algo que nos conecta com algo sublime, alguns diriam com algo divino. Quando escrevo, por exemplo, um artigo como esse, combino grande quantidade de informações que coletei para essa tarefa com o que aprendi ao longo da minha vida. Mas a fagulha criativa que faz com que isso não seja uma composição burocrática e chata (assim espero) só acontece ao me abrir intensamente para minha sensibilidade.

Jamais entregaria isso a uma máquina, pois isso me define e me dá grande prazer!

 

Nós nos tornaremos máquinas?

Em seu livro “Tecnologia Versus Humanidade” (The Futures Agency, 2017), Gerd Leonhard questiona, anos antes do ChatGPT vir ao sol, como devemos abraçar a tecnologia sem nos tornarmos parte dela. Para o futurólogo alemão, precisamos definir quais valores morais devemos defender, antes que o ser humano altere o seu próprio significado pela interação com as máquinas.

Essas não são palavras vazias. Basta olhar nosso passado recente para ver como a nossa interação incrivelmente intensa com a tecnologia digital nos transformou nos últimos anos, a começar pela polarização irracional que fraturou a sociedade.

O mais terrível disso tudo é que as ideias que nos levaram a isso não são nossas, e sim de grupos que se beneficiam desse caos. Eles souberam manipular os algoritmos das redes sociais para disseminar suas visões, não de maneira óbvia e explícita, mas distribuindo elementos aparentemente não-relacionados (mas cuidadosamente escolhidos) para que as pessoas concluíssem coisas que interessavam a esses poderosos. E uma vez que essa conclusão acontece, fica muito difícil retirar essa ideia da cabeça do indivíduo, pois ele pensa que ela é genuinamente dele.

Se as redes sociais se prestam até hoje a distorcer o processo de nascimento de ideias, a inteligência artificial pode agravar esse quadro na etapa seguinte, que é a nutrição dessas mesmas ideias. Como uma plantinha, elas precisam ser regadas para que cresçam com força.

Em um artigo publicado na semana passada, a professora da PUC-SP Lucia Santaella, autoridade global em semiótica, argumenta que o nosso uso da inteligência artificial generativa criou um novo tipo de leitor, que ela batizou de “leitor iterativo”. Afinal, não lemos apenas palavras: lemos imagens, gráficos, cores, símbolos e a própria natureza.

Com a IA generativa, entramos em um processo cognitivo inédito pelas conversas com essas plataformas. Segundo Santaella, o processo iterativo avança por refinamentos sucessivos, e os chatbots respondem tanto pelo que sabem, quanto pelos estímulos que recebem. Dessa forma, quanto mais iterativo for o usuário sobre o que deseja, melhores serão as respostas.

Isso reforça a minha proposta original de que não podemos “terceirizar” nossa criatividade para a inteligência artificial. Até mesmo a qualidade do que ela nos entrega depende do nível de como nos relacionamos com ela.

Temos que nos apropriar das incríveis possibilidades da inteligência artificial, uma ferramenta que provavelmente potencializará pessoas e empresas que se destacarão nos próximos anos. Mas não podemos abandonar nossa criatividade nesse processo. Pelo contrário: aqueles que mais se beneficiarão das máquinas são justamente os que maximizarem a sua humanidade.

 

Taylor Swift e suas cópias, que podem ser geradas por IA para convencer as pessoas - Foto: Paulo Silvestre com Creative Commons

Pessoas se tornam vítimas de bandidos por acreditarem no que desejam

By | Tecnologia | No Comments

Usar famosos para vender qualquer coisa sempre foi um recurso poderoso do marketing. Mas agora as imagens e as vozes dessas pessoas estão sendo usadas sem sua permissão ou seu conhecimento para promover produtos que eles jamais endossariam e sem que ganhem nada com isso.

Esse conteúdo falso é criado por inteligência artificial e está cada vez mais convincente. Além de anunciar todo tipo de quinquilharia, esses “deep fakes”, como é conhecida essa técnica, podem ser usados para convencer as massas muito além da venda de produtos, envolvendo aspectos políticos e até para se destruir reputações.

O processo todo fica ainda mais eficiente porque as pessoas acreditam mais naquilo que desejam, seja em uma “pílula milagrosa de emagrecimento” ou nas ideias insanas de seu “político de estimação”. Portanto, os bandidos usam os algoritmos das redes sociais para direcionar o conteúdo falso para quem gostaria que aquilo fosse verdade.

Há um outro aspecto mais sério: cresce também o uso de deep fakes de pessoas anônimas para a aplicação de golpes em amigos e familiares. Afinal, é mais fácil acreditar em alguém conhecido. Esse recurso também é usado por desafetos, por exemplo criando e distribuindo imagens pornográficas falsas de suas vítimas.


Veja esse artigo em vídeo:


As redes sociais, que são os maiores vetores da desinformação, agora se deparam sob pressão com o desafio de identificar esse conteúdo falso criado por IA para prejudicar outras pessoas. Mas seus termos de uso e até alguns de seus recursos tornam essa tarefa mais complexa que as dificuldades inerentes da tecnologia.

Por exemplo, redes como TikTok e Instagram oferecem filtros com inteligência artificial para que seus usuários alterem (e supostamente “melhorem”) suas próprias imagens, uma distorção da realidade que especialistas afirmam criar problemas de autoestima, principalmente entre adolescentes. Além disso, muitas dessas plataformas permitem deep fakes em algumas situações, como paródias. Isso pode tornar esse controle ainda mais difícil, pois uma mentira, uma desinformação, um discurso de ódio pode se esconder subliminarmente nos limites do aceitável.

O deep fake surgiu em 2017, mas seu uso explodiu nesse ano graças ao barateamento das ferramentas e à melhora de seus resultados. Além disso, algumas dessas plataformas passaram a convincentemente simular a voz e o jeito de falar de celebridades. Também aprendem o estilo de qualquer pessoa, para “colocar na sua boca” qualquer coisa. Basta treiná-las com alguns minutos de áudio do indivíduo. O “pacote da enganação” se completa com ferramentas que geram imagens e vídeos falsos. Na prática, é possível simular qualquer pessoa falando e fazendo de tudo!

A complexidade do problema cresce ao transcender as simulações grosseiras e óbvias. Mesmo a pessoa mais ingênua pode não acreditar ao ver um vídeo de uma celebridade de grande reputação destilando insanidades. Por isso, o problema maior não reside em um “fake” dizendo um absurdo, mas ao falar algo que o “original” poderia ter dito, mas não disse. E nessa zona cinzenta atuam os criminosos.

Um exemplo pôde ser visto na terça passada (5), quando o apresentador esportivo Galvão Bueno, 73, precisou usar suas redes sociais para denunciar um vídeo com uma voz que parecia ser a sua insultando Ednaldo Rodrigues, presidente da Confederação Brasileira de Futebol (CBF). “Fizeram uma montagem com coisas que eu nunca disse e eu nunca diria”, disse Galvão em sua defesa.

Ele não disse mesmo aquilo, mas poucos estranhariam se tivesse dito! Duas semanas antes, após a derrota da seleção brasileira para a argentina nas eliminatórias da Copa do Mundo, o apresentador fez duras críticas ao mesmo presidente. Vale dizer que há uma guerra pela liderança da CBF, e Rodrigues acabou sendo destituído do cargo no dia 7, pela Justiça do Rio.

 

Ressuscitando os mortos

O deep fake de famosos já gerou um enorme debate no Brasil nesse ano. No dia 3 de julho, um comercial sobre os 70 anos da Volkswagen no país provocou polêmica ao colocar a cantora Elis Regina (morta em 1982) cantando ao lado da filha Maria Rita. Elis aparece no filme dirigindo um antigo modelo de Kombi, enquanto a filha aparece ao volante de uma ID.Buzz, furgão elétrico recém-lançado, chamado de “Nova Kombi”.

Muita gente questionou o uso da imagem de Elis. Mas vale dizer que, nesse caso, os produtores tiveram a autorização da família para o uso de sua imagem. Além disso, ninguém jamais propôs enganar o público para que achasse que Elis estivesse viva.

Outro exemplo aconteceu na recente eleição presidencial argentina. Durante a campanha, surgiram imagens e vídeos dos dois candidatos que foram ao segundo turno fazendo coisas condenáveis. Em um deles, o candidato derrotado, Sergio Massa, aparece cheirando cocaína. Por mais que tenha sido desmentido, ele “viralizou” nas redes e pode ter influenciado o voto de muita gente. Tanto que, no Brasil, o Tribunal Superior Eleitoral (TSE) já se prepara para combater a prática nas eleições municipais de 2024.

Na época do comercial da Volkswagen, conversei sobre o tema com Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propaganda e Marketing). Para ele, “ficará mais difícil, a olho nu, detectar o que é verdadeiro”, restando aos peritos identificar as falsificações. “O desafio, daqui para frente, é que será mais comum ver esse tipo de debate na Justiça”, acrescentou.

Essa é uma preocupação mundial. As fake news mais eficientes não escancaram uma informação falsa “completa”. Ao invés disso, o conceito que pretendem impor é apresentado aos poucos, em pequenos elementos aparentemente desconexos, mas criteriosamente entregues, para que a pessoa conclua “sozinha” o que os criminosos querem. Quando isso acontece, fica difícil convencê-la do contrário.

Não há clareza sobre como resolver esse problema. Os especialistas sugerem que exista algum tipo de regulamentação, mas ela precisa equilibrar a liberdade para se inovar e a garantia dos interesses da sociedade. Sem isso, podemos ver uma enorme ampliação da tragédia das fake news, construída por redes sociais que continuam não sendo responsabilizadas por disseminá-las.

Como determina a Constituição, todos podem dizer o que quiserem, mas respondem por isso. O desafio agora é que não se sabe mais se a pessoa disse o que parece ter dito de maneira cristalina diante de nossos olhos e ouvidos.

 

Um dos problemas derivados da queda na confiança na imprensa é a crescente agressão a jornalistas – Foto: reprodução

As razões para mordermos a mão que nos alimenta

By | Jornalismo | No Comments

Um dos sinais da falência de uma sociedade é quando as pessoas deixam de acreditar nas instituições democráticas. Quando não se confia em nada ou em ninguém, perde-se a capacidade essencial de se buscar o bem comum com o outro. Por isso, pesquisas recentes do prestigioso instituto Pew Research Center, que demonstram a baixa confiança da população na imprensa, me impactam, mas não me surpreendem. E isso é um sintoma que deveria preocupar todo mundo.

Segundo os levantamentos, apenas 38% dos americanos adultos se informam “o tempo todo ou quase o tempo todo”. Além disso, só 15% acreditam “muito” e 46% “um pouco” nos veículos jornalísticos nacionais. Em compensação, 14% buscam notícias no TikTok (32% entre os que têm de 18 a 29 anos), que ainda fica atrás do Instagram (16%), do YouTube (26%) e do Facebook (30%).

O mesmo instituto já havia indicado que o aumento de informações nas redes sociais é inversamente proporcional a sua qualidade, e que o público que as utiliza como principal fonte de informação é menos engajado, informado e capaz de demonstrar bom discernimento, se comparado a quem se informa pela imprensa.

Pelas minhas observações, arriscaria dizer que temos números semelhantes no Brasil.

Todos perdem muito com esse divórcio entre a imprensa e seu público, e cada um tem seu papel e razões. Mas isso precisa ser revertido! As bolhas de pensamento único, que nos maltratam diariamente, impedem que vivamos em uma sociedade com cidadãos mais conscientes e capazes de se desenvolver.


Veja esse artigo em vídeo:


Há mau jornalismo hoje, como sempre houve, porém, há mais bom jornalismo que mau na mídia profissional. Entretanto parte da população aprendeu a ver só o que a desagrada, generalizando como se toda a imprensa fosse pouco confiável.

Vale notar que, até o início do século, não se questionava a importância do jornalismo para o desenvolvimento pessoal. Uma boa informação era um diferencial que resultava em melhores empregos e outras oportunidades na vida. Ler jornais era sinônimo de pertencer à elite intelectual, mesmo que não fosse da elite econômica. E ser jornalista era uma das profissões mais desejadas pelos jovens.

A grande diferença é que, com a ascensão das redes sociais, os veículos de comunicação deixaram de ser os únicos capazes de trazer notícias. Todos nós nos tornamos mídia e somos capazes de produzir enormes quantidades de informação (o que é muito diferente de notícia). Diante disso, muitos grupos de poder descobriram uma nova maneira de dominar as massas, mas, para isso, precisavam usar o meio digital para desacreditar a imprensa, que teima em lhes fiscalizar.

O combate à mídia pelos poderosos não é algo novo: apenas ganhou escala com o meio digital. Joseph Goebbels, ministro da propaganda de Adolf Hitler, foi essencial para seu poder, ao criar uma máquina de silenciar a imprensa e vozes dissonantes. Décadas depois, o venezuelano Hugo Chávez contribuiu com o processo, criando a ideia de que, se a mídia fosse contra ele, seria “contra o povo”. E demonstrando que o combate à imprensa não segue ideologia, Donald Trump se notabilizou por ignorar solenemente a verdade e usar o meio digital para impor seus interesses como fatos.

O Brasil também deu suas contribuições. Lula, desde seu primeiro mandato, desqualifica a imprensa e tenta lhe impor seu “controle social”. Jair Bolsonaro, por sua vez, instituiu ataques explícitos a jornais e jornalistas, especialmente mulheres, incendiando a população contra a mídia.

Como resultado, as pessoas só querem ver conteúdos que afaguem seu ego e concordem com seus pensamentos. E essa é uma perigosa zona de conforto.

 

Desagradando seu público

Mas o jornalismo não é feito para agradar. Na verdade, se estiver desagradando alguém, deve estar fazendo um bom trabalho.

Todo governo gostaria de ter uma imprensa dócil. Mas, se fizer isso, não é jornalismo: é relações públicas. Ela deve informar e formar o cidadão e protegê-lo dos interesses de grupos políticos, econômicos ou ideológicos, fiscalizando o poder.

Como disse certa vez o grande cartunista e jornalista Millôr Fernandes, “imprensa é oposição, o resto é armazém de secos e molhados.”

Às vezes, o jornalismo deve desagradar até seu próprio público, para forçá-lo a sair daquela zona de conforto perversa. Mas quando tudo vira “pão e circo”, isso coloca os veículos em uma situação delicada: como fazer isso se as pessoas –cada vez mais intransigentes– já estão “com um pé para fora” do jornalismo?

Os veículos têm sua culpa, ao se desconectar dos anseios e da linguagem do público. A distribuição e até seu modelo de negócios também estão ultrapassados. Diante disso, não é de se estranhar que tão pouca gente confie no jornalismo e menos ainda esteja disposto a pagar por ele. Os veículos de comunicação e seu público não conseguem mais ler os sinais uns dos outros.

Permitam-me aqui uma analogia abusada: um animal de estimação amoroso pode morder quem o alimenta como forma extrema de comunicar seu descontentamento. Um dos principais motivos é o animal não entender os sinais do tutor. Nesse caso, fica difícil saber quem é o cachorro e quem é o tutor, pois público e imprensa dependem um do outro, e nenhum está conseguindo entender os sinais alheios.

Mas em tempos tão sombrios e confusos, ambos precisam reaprender isso. Como qualquer atividade humana, o jornalismo é imperfeito, e essa atual situação faz com que sua margem de erro esteja reduzidíssima. Ele precisa ouvir novamente as demandas e falar a linguagem do público.

As pessoas, por sua vez, precisam colaborar, reconhecendo que, sem jornalismo profissional, perderiam elementos essenciais no seu cotidiano. Não saberiam, por exemplo, dos escândalos do governo atual, do anterior e de qualquer outro, ou as diferentes perspectivas sobre a guerra na Ucrânia e o conflito entre Israel e o Hamas. Não teriam se vacinado contra a Covid-19 (e muitíssimo mais gente teria morrido), e não conheceriam as potencialidades da inteligência artificial ou os riscos das redes sociais. Não saberiam dos bastidores dos filmes importantes, e nem compreenderiam a crise da Seleção Brasileira. Tudo isso se fala nas redes sociais, mas é o jornalismo que descobre, noticia e explica.

Não há atalho: a imprensa precisa se reconectar com o seu público e vice-versa. É preciso reconquistar a confiança perdida! Isso não se faz com “caça-cliques”, mas com seriedade e transparência.

O jornalismo não pode se render à lógica perversa das redes sociais, que disseminam ódio, intransigência e o pensamento único. A confiança é uma via de mão dupla e benéfica para toda sociedade. Mas ela só existe quando todos estiverem dispostos a falar e ouvir civilizadamente, sem morder a mão um do outro.

 

Pais devem acompanhar atividades online dos filhos, mas plataformas têm responsabilidade no problema - Foto: Rawpixel/Creative Commons

Aumento da pedofilia online exige atenção no uso de redes sociais por crianças e adolescentes

By | Tecnologia | No Comments

Duas pesquisas divulgadas na quarta passada (25) demonstram uma explosão nos casos de pedofilia na Internet brasileira, ao mesmo tempo em que se observa um crescimento do uso da rede por crianças ainda na primeira infância. O problema gravíssimo dispara vários questionamentos sobre responsabilidades pelo seu crescimento e buscas por caminhos para a diminuição.

A primeira delas, da Safernet, organização que é referência no combate a crimes digitais no país, aponta que novos casos de imagens de abuso e de exploração sexual infantil chegaram a 54.840 entre 1 de janeiro e 30 de setembro desse ano, frente a 29.809 no mesmo período do ano passado: um crescimento de 84%.

Já a TIC Kids Brasil, levantamento feito pelo Cetic.br (Centro Regional de Estudos para Desenvolvimento da Sociedade da informação), ligado ao Comitê Gestor da Internet no Brasil, indica que as crianças estão ficando online cada vez mais cedo e por mais dispositivos. Dos brasileiros com até 6 anos de idade, 24% já haviam acessado a Internet nesse ano. Em 2015, primeiro ano da pesquisa, eram 11%.

No dia anterior, 41 Estados e o Governo Federal americano iniciaram processos contra a Meta, dona do Facebook e do Instagram, alegando que essas plataformas prejudicam crianças com recursos “viciantes”. As ações representam o esforço mais significativo daquelas autoridades para controlar seus impactos na saúde mental de jovens.

A coincidência de datas evidencia o tamanho do desafio para proteger crianças e adolescentes no meio digital. Assim como acontece com adultos, ele é uma fonte de valor inestimável para realização de atividades e para entretenimento. Porém os jovens são muito mais suscetíveis a abusos e ao desenvolvimento de dependência que os mais velhos, especialmente quando não recebem as devidas orientações.


Veja esse artigo em vídeo:


Um destaque da Safernet preocupa particularmente: cresce a quantidade de crianças e de adolescentes que produzem e enviam fotos e vídeos com conteúdo sexual de si mesmos, em troca da promessa de dinheiro ou de presentes pelos predadores digitais.

Isso está em linha com dados da Polícia Federal sobre crimes cibernéticos vitimando crianças e adolescentes: foram 627 nesse ano, contra 369 no ano passado (aumento de 69,9%). Ao todo, 291 pessoas foram presas, 46% a mais que no ano anterior. Esses dados foram divulgados no dia 16 de outubro, no lançamento do programa “De Boa na Rede”, do Ministério da Justiça e Segurança Pública, idealizado para orientar na criação de um ambiente digital seguro para crianças e adolescentes.

A TIC Kids Brasil aponta também que 95% dos brasileiros entre 9 e 17 anos estão online. Nas classes A e B, são 98%, mas o grupo que mais cresce é o das classes D e E, que passou de 56% em 2015 para 89% nesse ano. O celular é usado por 97% deles, mas aumenta o uso da TV (70%) e do videogame (22%). O único meio em queda é o computador, que era usado por 64% em 2015 e agora não passa de 38%.

A plataforma em que os jovens têm mais contas é o YouTube (88%), seguido pelo WhatsApp (78%), Instagram (66%), TikTok (63%) e Facebook (41%, o único em franco declínio). Mas, pelo uso, o líder é o Instagram (36%), seguido por YouTube (29%), TikTok (27%) e Facebook (2%).

A informação mais preocupante indica que 17% dos brasileiros entre 11 e 17 anos se sentiram incomodados com conteúdo sexual online: 14% meninos e 21% meninas. Do total, 16% receberam diretamente ou viram conteúdo sexual, 9% receberam pedidos de fotos ou vídeos sem roupa e 5% foram solicitados a falar sobre sexo.

A expressão “pornografia infantil” vem sendo substituída por “imagens de abusos contra crianças e adolescentes”. Nudez ou sexo com alguém com menos de 18 anos, por definição, não é consensual. Logo, não se trata de pornografia, que pressupõe a participação voluntária de pessoas maiores de 18 anos. A Safernet adverte que quem consome imagens de violência sexual infantil é cúmplice desse abuso.

 

Responsabilidades de cada um

Se o surgimento da Internet comercial na década de 1990 ampliou esse problema, a popularização das redes sociais o levou a um patamar altíssimo, com os mais jovens fazendo uso intenso e muitas vezes nocivo do meio digital.

Isso ganhou mais visibilidade no segundo semestre de 2021, quando a ex-gerente de integridade cívica da Meta Frances Haugen veio a público com milhares de documentos indicando que a empresa sabe desses problemas e que faz menos que poderia para combatê-los. O escândalo ficou conhecido como “Facebook Papers”.

Os processos da semana passada resultam de investigações surgidas dele. Em comunicado, a Meta disse que está “decepcionada com o fato de que, em vez de trabalhar de forma produtiva com empresas de todo o setor para criar padrões claros e adequados à idade dos muitos aplicativos que os adolescentes usam, os procuradores-gerais escolheram esse caminho”.

As empresas donas das redes sociais de fato criam mecanismos para mitigar o problema, como a possibilidade de pais e mães acompanharem o que seus filhos fazem nessas plataformas, limitadores de tempo de uso e identificação de atividades que podem estar associados a comportamentos de risco. Isso é bem-vindo, mas está longe de ser suficiente, podendo esconder a real intenção dessas companhias de fazerem pouco ou nada que ameace seus lucros ou o “vício” em seus produtos.

Recursos para alterar a própria imagem, em busca de um ideal de beleza inatingível, não são combatidos, sendo até incentivados por essas plataformas. Esses filtros são apenas um exemplo dos ganchos para atrair os mais jovens, de uma maneira intensa. Esse assunto, debatido recentemente nesse espaço, é reconhecidamente um gerador de problemas de saúde mental, especialmente entre meninas.

Ao oferecer essas ferramentas de controle parental, as empresas aparentemente querem repassar a responsabilidade de se evitar os problemas de crianças e adolescentes nas redes a seus pais e mães, livrando-se de seu papel nesse processo. Mas tal responsabilidade continua existindo e é imensa!

Pais e mães devem, claro, acompanhar de perto o que seus filhos fazem online. Isso deve ser feito com um olhar de acolhimento e orientação, nunca de repressão ou crítica. E não há espaço para indiferença: os predadores digitais estão à solta!

Mas as plataformas digitais também são profundamente responsáveis. A sua combalida ideia de que apenas criam recursos e as pessoas fazem maus usos deles, desculpa padrão dessas empresas até para não serem reguladas pelas autoridades, aparece aqui com força e perversidade. Até quando elas continuarão com essa liberdade anárquica?

 

O filósofo e sociólogo polonês Zygmunt Bauman, autor do conceito do “amor líquido” - Foto: M. Oliva Soto/Creative Commons

O meio digital cristalizou o “amor líquido” como uma constante em nossas vidas

By | Tecnologia | No Comments

Quando lançou seu best-seller “Amor Líquido” em 2004, o filósofo e sociólogo polonês Zygmunt Bauman (1925-2017) não podia imaginar como as redes sociais ajudariam a cristalizar esse conceito depois de poucos anos: afinal, essas plataformas ainda eram bebês e suas influências em nossas vidas eram nulas. Isso só reforça sua genialidade e o valor de seus ensinamentos.

Olhe a sua volta e observe a quantidade de relacionamentos criados e desfeitos com grande facilidade. É um sinal dos nossos tempos e as ferramentas digitais são essenciais nesse processo.

Para Bauman, a redução na qualidade das relações é compensada por uma quantidade enorme de parceiros. A relação social como uma responsabilidade mútua dá lugar ao que chamou de “conexão”. Para ele, o grande apelo desses sistemas é a facilidade de esquecer o outro, de se “desconectar”: troca-se, sem remorso, parceiros que deixam de ser “interessantes” por outros “melhores”.

Essa é praticamente a definição do uso dos “aplicativos de pegação”, que têm no Tinder seu maior expoente e que só foi lançado em 2012. Graças a eles, quem quiser pode ter vários parceiros sexuais em um mesmo dia. Os desavisados poderiam achar que isso é algo que só beneficia os mais jovens, mas tem muita gente mais experiente se entregando à “fluidez amorosa” com as facilidades que inundam nossos smartphones.

Mas há outros fatores que aproximam a vida digital do amor líquido em uma relação quase simbiótica. Se Tinder e afins oferecem um “cardápio de gente” mais lúdico que um totem do McDonald’s, as redes de vídeo curtos, sob liderança incontestável do TikTok, estão alterando nossa percepção do mundo, alterando a própria estrutura de nossas narrativas.

Ideias trabalhadas com introdução, desenvolvimento e conclusão dão lugar a microconteúdos sem começo, fim e até sem meio, encadeados pelo algoritmo em uma sequência infinita que retém nossa atenção. As pessoas estão se acostumando a permanecerem continuamente engajadas a vídeos tão estimulantes quanto rasos. O processo é tão eficiente, que provoca uma percepção alterada de que tudo no mundo deveria ser assim.

Mas a vida não é, muito menos relacionamentos, que exigem alguma dose de dedicação, resiliência e adaptabilidade ao outro. Como a linguagem está em nossa essência, esse movimento explica, ainda que parcialmente, a dificuldade de os adolescentes atuais namorarem.

Bauman dizia que, apenas quando nos damos conta de que nossa voz é ouvida e de que nossa presença é sentida, entendemos que somos únicos e dignos de amor. Precisamos do outro em um contato de qualidade para nos fazer perceber isso, mas, se estamos perdendo essa comunicação essencial, como sentiremos o outro? Para ele, “amar é contribuir para o mundo, cada contribuição sendo o traço vivo do eu que ama.” E continua: “no amor, o eu é, pedaço por pedaço, transplantado para o mundo.”

Temos que aproveitar tudo que o digital nos oferece, até mesmo esses aplicativos, que podem ser muito úteis se empregados conscientemente. Apenas não podemos nos perder nossa própria humanidade nesse processo.

 

Anúncios de “host clubs” em Tóquio, onde homens bonitos são pagos para entreter mulheres - Foto: Dick Thomas Johnson/Creative Commons

Como as redes sociais podem diminuir a quantidade de filhos

By | Tecnologia | No Comments

Os primeiros resultados do Censo 2022, divulgados na semana passada, indicam que os brasileiros estão tendo cada vez menos filhos. Causas para essa queda na taxa de fecundidade há muito conhecidos, como o custo de vida e a ascensão profissional das mulheres, ganham ainda mais relevância. Mas há um aspecto que o IBGE não mede e que pode estar contribuindo cada vez mais para esse quadro: as mudanças comportamentais promovidas pelas redes sociais.

Para essa análise, considero bebês nascidos em relacionamentos estáveis de qualquer tipo. Se os últimos diminuírem, teremos menos bebês. E aí entram as plataformas digitais.

Redes de vídeos curtos, especialmente o TikTok, estão alterando não apenas a maneira como consumimos conteúdo, mas também como trabalhamos, estudamos, compramos, nos divertimos e nos relacionamos. Não é um exagero: um bombardeio infinito com estímulos visuais apelativos e vazios está criando uma geração impaciente e avessa a compromissos, que espera que tudo siga esse padrão.

Mas relacionamentos, mesmo um simples namoro, exigem tempo, paciência, resiliência e dedicação. E no final ainda podem dar errado!

Há muitos anos, me disseram que “a paixão é uma armadilha da natureza para procriarmos”. Vendo os números do Censo, essa frase faz ainda mais sentido: se as pessoas não mais tiverem paciência nem para a paixão, teremos mesmo menos crianças no mundo.


Veja esse artigo em vídeo:


Nos últimos 12 anos, o crescimento médio anual da população brasileira foi de 0,52%, o primeiro abaixo de 1% desde que o levantamento começou a ser feito no país, em 1872. O número médio de filhos por mulher, que era de 6,28 em 1960 e 1,90 em 2010, agora gira em torno de 1,75.

Naturalmente esse quadro de diminuição no crescimento populacional não se observa apenas no Brasil. A situação é dramática no Japão, onde nasceram 770 mil pessoas no ano passado, frente a 1,5 milhão de mortes. O governo japonês estima que a população caia dos atuais 125 milhões para 87 milhões em 2070, com a metade sendo idosos. Por lá, 27% das mulheres até 50 anos nunca tiveram filhos, país onde esse índice é mais alto.

Nenhuma economia resiste a padrões como esses. Por isso, o governo japonês está incentivando fortemente que famílias tenham mais filhos, dando dinheiro para quem fizer isso, mais educação (para que as pessoas tenham melhores salários) e promovendo igualdade entre os gêneros no ambiente de trabalho.

Mas a “geração TikTok” resiste, valorizando sua “solteirice”. O mercado e as plataformas digitais oferecem o apoio que precisam. Em Tóquio, por exemplo, já há mais de 3.000 “host clubs”, ambientes em que homens bonitos são pagos para oferecer uma conversa agradável e tratar bem mulheres que querem escapar das “complicações” de um relacionamento ou só fugir da rotina, sem compromissos.

O sexo não é o objetivo desse tipo de estabelecimento (apesar de que pode acontecer), mas, para isso, há aplicativos como o Tinder. Graças a eles, cresce a quantidade de pessoas que chegam a ter vários parceiros sexuais em um único dia.

Todos esses recursos podem até suprir necessidades sexuais e de companhia das pessoas, mas recaímos no problema original: nada disso gera bebês.

 

“Facilidades” do mundo moderno

As plataformas digitais nos oferecem facilidades que seriam verdadeiros superpoderes até bem pouco tempo atrás. Fazemos muito mais e (na maioria das vezes) melhor do que nós mesmos fazíamos há 20 anos. Basta pensar que o primeiro iPhone só veio ao mundo em 2007!

Somos seres gregários, e a linguagem é a nossa ferramenta mais fabulosa de construção. Agora esses microconteúdos subvertem a estrutura narrativa que aprendemos ainda na escola, de que a construção de uma ideia precisa de uma introdução, de um desenvolvimento e de uma conclusão. As redes sociais já desprezavam a primeira e a última, mas agora nem o “miolo” se salva.

Como a linguagem está em nossa essência, esse movimento impacta tudo que fazemos, inclusive os relacionamentos. Isso explica, ainda que parcialmente, a dificuldade de os adolescentes atuais namorarem.

É inevitável pensar no “Amor Líquido”, de Zygmunt Bauman (editora Zahar, 2004). Para o filósofo e sociólogo polonês, a redução na qualidade das relações é compensada por uma quantidade enorme de parceiros. A relação social como uma responsabilidade mútua dá lugar ao que chamou de “conexão”. Para ele, o grande apelo desses sistemas é a facilidade de esquecer o outro, de se “desconectar”: troca-se, sem remorso, parceiros que deixam de ser “interessantes” por outros “melhores”.

Mas, para Bauman, apenas quando nos damos conta de que nossa voz é ouvida e de que nossa presença é sentida, entendemos que somos únicos e dignos de amor. Precisamos do outro em um contato de qualidade para nos fazer perceber isso, mas, se estamos perdendo essa comunicação essencial, nunca sentiremos o outro.

As redes sociais sabem disso e, ainda assim, debaixo de um verniz de bom-mocismo cada vez mais gasto, continuam empurrando recursos para nos manter “engajados” (ou “viciados?) em suas plataformas. Se existisse alguma dúvida disso, os “Facebook Papers”, escândalo em que Frances Haugen expôs milhares de documentos internos da empresa em 2021, deveria ter acabado com ela. A ex-gerente de integridade cívica do Facebook mostrou que o a empresa tinha consciência dos males que causava até à saúde mental dos usuários, mas não fazia nada que atrapalhasse seus negócios.

É simplesmente impossível viver sem os recursos digitais hoje. Isso não quer dizer que podemos abrir mão de nosso livre-arbítrio e de nossas capacidades cognitivas de interagir com o mundo em toda a sua profundidade e complexidade. As redes sociais achatam o que nos rodeia, deixando tudo meio igual e desinteressante. E isso definitivamente não nos favorece.

Citando Bauman, “amar é contribuir para o mundo, cada contribuição sendo o traço vivo do eu que ama.” E continua: “no amor, o eu é, pedaço por pedaço, transplantado para o mundo.”

Precisamos recuperar as rédeas de nossas vidas, até mesmo para –quem diria?– nos relacionarmos e termos filhos.

 

Navio com refugiados é resgatado no Mediterrâneo - Foto: Wikimedia / Creative Commons

Qual vida vale mais: a de um bilionário ou a de um refugiado?

By | Jornalismo | No Comments

Você sabe qual a diferença entre um submarino e um submersível? Ou que a pressão no fundo do mar, onde jazem os destroços do Titanic, é 400 vezes maior que a da superfície? E que isso provocou a implosão do Titan, matando cinco ricaços que estavam nele no dia 18?

Se você acompanhou o noticiário por qualquer meio na semana passada, provavelmente pelo menos ouviu falar sobre isso tudo. A cobertura do acidente inundou todos os veículos de comunicação.

Mas você sabe que, poucos dias antes, o naufrágio de um barco hiperlotado de refugiados matou centenas de pessoas nas costas da Grécia, criando aquela que talvez seja a maior tragédia do Mediterrâneo?

Não se sinta mal se souber do primeiro e não do segundo caso. O espaço dado pela mídia para a tragédia do pesqueiro foi muitíssimo menor que o dedicado ao acidente do submersível. O mesmo aconteceu no mundo-cão das redes sociais.

Esse não é um problema só da imprensa, apesar de ela ser essencial para a melhora desse quadro. Porém nós, o público, temos um papel fundamental em algo que impacta a nossa vida, mesmo estando do outro lado do mundo.


Veja esse artigo em vídeo:


O valor de uma vida humana é imensurável, qualquer vida. Por isso, os dois acidentes são tragédias a serem muito lamentadas. Mas não se pode ignorar que, se os cinco ocupantes do Titan morreram, do pesqueiro que saiu do Egito em direção à Líbia com estimadas 750 almas, apenas pouco mais de cem foram resgatadas com vida e outra centena de corpos foram encontrados. Um número incerto de outras vítimas fatais, talvez 500, se perdeu no mar. Vale dizer que, segundo dados da Organização Internacional para as Migrações, quase 27 mil migrantes desapareceram no Mediterrâneo desde 2014!

A desigualdade não se dá apenas no espaço dedicado às duas tragédias na imprensa e nas redes sociais. Talvez ainda mais absurdo tenha sido o empenho nos resgates. Investigações apontam que as autoridades gregas foram lentas em reagir no caso do pesqueiro, o que aumentou dramaticamente a taxa de mortos. Enquanto isso, as guardas-costeiras dos Estados Unidos e do Canadá, além de várias embarcações particulares, tentaram resgatar o Titan, um esforço que custou milhões de dólares e que será pago, pelo menos em parte, pelos contribuintes desses países.

Tudo recai sobre porque nos interessamos tanto por tragédias como a do Titan e ignoramos a do pesqueiro.

As redes sociais sempre destacarão, para cada um de seus bilhões de usuários, aquilo que chama mais a sua atenção, mesmo que seja algo horrível. A frieza de seus algoritmos não tem nenhum compromisso com o bem-estar social ou mesmo com a verdade: ele exibirá mais aquilo em que há mais chance de clicarmos. Daí surgem as infames “bolhas”, que racharam a sociedade ao meio nos últimos anos, reforçando as crenças de cada um, mesmo as piores.

Vale dizer que até hoje, mais de uma semana depois do acidente, continuo vendo postagens sobre o Titan nas redes. Mas eu não vi nenhum usuário dedicar algumas linhas aos refugiados. As poucas publicações nessas plataformas foram feitas justamente por veículos de comunicação.

Resta saber então por que esses mesmos veículos seguiram essa desigualdade.

 

A banalização da “morte sem rosto”

Existem algumas regras para que uma notícia chame a atenção do público e assim ganhe destaque na imprensa. Uma dela é o ineditismo, e, convenhamos, não é sempre que um submersível com bilionários querendo passear no Titanic implode. O próprio Titanic estar envolvido também desperta muito a curiosidade. E há ainda sentimentos “menos nobres”, como achar graça de ricaços que pagam uma fortuna para visitar os destroços do naufrágio mais famoso da história (ocorrido em 1912), em uma embarcação com falhas críticas de projeto. Algumas pessoas talvez até quisessem ter tentado aquilo!

No caso dos refugiados, o naufrágio não tinha nenhum desses elementos. O público os despreza poque sente que eles acontecem “a toda hora”, matando pessoas sem nome, rosto, origem, destino ou motivação. Mas não é nada disso! Essas pessoas deixam para trás seu país para salvar a própria vida, fugindo de guerras, terrorismo, perseguições religiosas e outras atrocidades que a humanidade produz.

Isso é tão verdadeiro que, de vez em quando, a tragédia ganha um rosto, chocando o mundo todo. Foi o caso dos ucranianos, que saíam da própria Europa, fugindo da invasão russa. Ou da foto de uma criança refugiada que apareceu morta com sua camiseta vermelha e short azul, na costa da Turquia em 2015. A foto do seu rosto sendo encoberto pela onda na areia provocou uma comoção global pela crise dos refugiados… que infelizmente foi logo esquecida depois.

Esse desprezo não acontece só com quem está do outro lado do mundo. Acontece diariamente na nossa cidade, na nossa rua. Às vezes, tratamos de ignorar a morte até de alguém em nosso condomínio. Afinal, “não é ninguém próximo”.

Até que acontece conosco!

A imprensa “entrou no automático” nesse tipo de decisão editorial há muito tempo. Não chega a ter frieza criminosa dos algoritmos das redes sociais, mas acaba colaborando com a desumanização da sociedade.

Sei que não é possível noticiar todas as mazelas do mundo, mas é preciso mais consciência quando se destaca a morte de cinco bilionários enquanto se varre para o rodapé a maior tragédia marinha do Mediterrâneo.

A imprensa tem o papel de informar, mas também de formar a população. E, salvo em algumas exceções, vem falhando nesse segundo, entregando o público à manipulação dos abutres das redes sociais. Esses chegam ao absurdo de não apenas desprezar a dor alheia, como promover isso!

A vida não tem que ser assim. Não deve ser assim! Quem quer que sejamos, não podemos achar que o problema nunca chegará a nós por não nos envolvermos.

Não dá para se blindar. Os bilionários do Titan acharam que dava. E implodiram.

 

Joan, protagonista do primeiro episódio da sexta temporada de “Black Mirror”, surta por causa de um mau uso da IA - Foto: divulgação

“Black Mirror” explica ludicamente os riscos da inteligência artificial

By | Tecnologia | No Comments

Em uma sociedade polarizada pelo poder descontrolado dos algoritmos das redes sociais, cresce o debate se a inteligência artificial vai exterminar ou salvar a humanidade. Como costuma acontecer com esses extremismos, a verdade provavelmente fica em algum lugar no meio do caminho. Agora a sexta temporada da série “Black Mirror”, que estreou na Netflix na última quinta (15), surge com uma explicação lúdica de como essa tecnologia pode ser incrível ou devastadora, dependendo apenas de como será usada.

A icônica série, criada em 2011 pelo britânico Charlie Brooker, é conhecida pelas suas perturbadoras críticas ao mau uso de tecnologias. Sem correr risco de “dar spoiler”, o primeiro episódio da nova temporada (“A Joan É Péssima”) concentra-se na inteligência artificial generativa, mas guarda espaço para apontar outros abusos do mundo digital pela sociedade. Sobra até para a própria Netflix, a vilã do episódio!

Como fica claro na história, o poder da inteligência artificial cresce de maneira que chega a ser assustador, alimentando as teorias pessimistas ao redor dela. Se até especialistas se pegam questionando como essas plataformas estão “aprendendo”, para uma pessoa comum isso é praticamente incompreensível, algo ainda no campo da ficção científica.

Mas é real e está a nossa volta, começando pelos nossos smartphones.


Veja esse artigo em vídeo:


Como acontece em tantos episódios de “Black Mirror”, algo dá muito errado. E a culpa não é do digital, mas de como ele é usado por seres humanos movidos por sentimentos ou interesses condenáveis. A lição é que, quanto mais poderosa for a tecnologia, mais incríveis serão os benefícios que ele pode trazer, mas também maiores os riscos associados à sua desvirtuação.

É nesse ponto que estamos com a inteligência artificial. Mas ela não estraga a vida da protagonista do episódio sozinha: tem a “ajuda” de celulares (que estão captando continuamente o que dizemos e fazemos), dos algoritmos das plataformas de streaming (que nos dizem o que assistir), da “ditadura das curtidas”, do sucesso de discursos de ódio e até de instalarmos aplicativos sem lermos seus termos de uso.

A indústria de tecnologia costumava ser regida pela “Lei de Moore”, uma referência a Gordon Moore, um dos fundadores da Intel. Em um artigo em 1965, ele previu que a quantidade de circuitos em chips dobraria a cada 18 meses, pelo mesmo custo. Em 1975, reviu sua previsão para 12 meses. Hoje, o poder da inteligência artificial –que é software, mas depende de um processamento gigantesco– dobra a cada três meses.

O “problema” é que nossa capacidade humana não cresce no mesmo ritmo. E quando não conseguimos acompanhar uma evolução, ela pode nos atropelar. Essa é a gênese de muitos desses problemas, pois tanto poder à disposição pode fazer com que as pessoas deixem cuidados de lado e até passem por cima de limites morais.

É como diz o ditado: “quem nunca comeu melado, quando come, se lambuza!”

 

Faça a coisa certa

Na quarta, participei do AI Forum 2023, promovido pela IBM e pela MIT Sloan Review Brasil. As palestras demonstraram o caminho desse avanço da inteligência artificial e de como ela está se tornando uma ferramenta essencial para empresas de qualquer setor.

De fato, com tantos recursos incríveis que novas plataformas movidas pela IA oferecem aos negócios, fica cada vez mais difícil para uma empresa se manter relevante no mercado sem usar essa tecnologia. É como procurar emprego hoje sem saber usar a Internet ou um smartphone. Por mais experiente e qualificado em outras áreas que se seja, não haveria chance de ser contratado, porque esses pontos fortes seriam facilmente suplantados por outros candidatos que dominassem esses recursos.

Um estudo recém-divulgado pela IBM mostra que, se em 2016 58% dos executivos das empresas estavam familiarizados com a IA tradicional, agora em 2023 83% deles conhecem a IA generativa. Além disso, cerca de dois terços se sentem pressionados a acelerar os investimentos na área, que devem quadruplicar em até três anos.

A mesma pesquisa aponta que o principal fator que atravanca essas decisões é a falta de confiança na tecnologia, especialmente em aspectos de cibersegurança, privacidade e precisão. Outros problemas levantados foram a dificuldade de as decisões tomadas pela IA generativa serem facilmente explicadas, a falta de garantia de segurança e ética, a possibilidade de a tecnologia propagar preconceitos existentes e a falta de confiança nas respostas fornecidas pela IA generativa.

Conversei no evento com Marcela Vairo, diretora de Automação, Dados e IA da IBM (a íntegra da entrevista pode ser vista no vídeo abaixo). Para ela, três premissas devem ser consideradas para que a inteligência artificial nos ajude efetivamente, resolvendo essas preocupações.

A primeira delas é que as aplicações movidas por IA devem ser construídas para tornar as pessoas mais inteligentes e produtivas, e não para substituí-las. Deve existir também um grande cuidado e respeito com os dados dos clientes, que pertencem apenas a eles e não podem ser compartilhados em outra plataforma ou com outros clientes. E por fim, as aplicações devem ser transparentes, para que as pessoas entendam por que elas estão tomando uma determinada decisão e de onde ela veio, o que também ajuda a combater os possíveis vieses que a IA desenvolva.

O que precisamos entender é que essa corrida tecnológica está acontecendo! Não sejamos inocentes em achar que ela será interrompida pelo medo do desconhecido. Os responsáveis por esse desenvolvimento devem incluir travas para que seus sistemas não saiam do controle, garantindo essas premissas.

O que nos leva de volta a “Black Mirror”: tampouco podemos ser inocentes em achar que todos os executivos da indústria serão éticos e preocupados em fazer a coisa certa. É por isso que a inteligência artificial precisa ser regulamentada urgentemente, para pelo menos termos a tranquilidade de continuar usufruindo de seus benefícios incríveis sem o risco de sermos dominados pela máquina.

E no final, sempre temos que ter uma tomada para puxar e desligar a coisa toda se ela sair completamente dos trilhos.


Íntegra de entrevista com Marcela Vairo (IBM):

Neo luta contra o Agente Smith em “Matrix Revolutions” (2003): mundo digital criado para iludir a humanidade - Foto: divulgação

Se deixarmos, a inteligência artificial escolherá o próximo presidente

By | Tecnologia | No Comments

Nas eleições de 2018, eu disse que o presidente eleito naquele ano seria o que usasse melhor as redes sociais, e isso aconteceu. Em 2022, antecipei a guerra das fake news, que iludiram o eleitorado. Para o pleito de 2026, receio que a tecnologia digital ocupe um espaço ainda maior em nossas decisões, dessa vez pelo uso irresponsável da inteligência artificial.

Não estou dizendo que a IA escolherá por sua conta qual é o melhor candidato. A despeito de um medo difuso de que máquinas inteligentes nos exterminem, isso não deve acontecer porque, pelo menos no seu estágio atual, elas não têm iniciativa ou vontade própria: fazem apenas o que lhes pedimos. Os processos não são iniciados por elas. Temos que cuidar para que isso continue dessa forma.

Ainda assim, a inteligência artificial generativa, que ganhou as ruas no ano passado e que tem no ChatGPT sua maior estrela, atingiu um feito memorável: dominou a linguagem, não apenas para nos entender, mas também para produzir textos, fotos, vídeos, músicas muito convincentes.

Tudo que fazemos passa pela linguagem! Não só para nos comunicar, mas nossa cultura e até nosso desenvolvimento como espécie depende dela. Se agora máquinas com capacidades super-humanas também dominam esse recurso, podemos ser obrigados a enfrentar pessoas inescrupulosas que as usem para atingir seus objetivos, a exemplo do que foi feito com as redes sociais e com as fake news.


Veja esse artigo em vídeo:


A inteligência artificial não sai das manchetes há seis meses. Mesmo com tanta informação, as pessoas ainda não sabem exatamente como funciona e o que pode ser feito com ela. E isso é um risco, pois se tornam presas daquele que entendem.

É aí que mora o perigo para as eleições (e muito mais), com o uso dessa tecnologia para iludir e convencer. “No Brasil, as próximas eleições presidenciais serão daqui a três anos, e a tecnologia estará ainda mais avançada”, afirma Diogo Cortiz, professor da PUC-SP e especialista em IA. “A gente vai partir para um discurso não só textual, mas também com vídeo, som, fotografias ultrarrealistas, que farão ser muito difícil separar o real do que é sintético”, explica.

Não nos iludamos: vai acontecer! Esse é o capítulo atual do jogo em que estamos há uma década, em que a tecnologia digital é usada como ferramenta de convencimento. E, como sempre, ela não é ruim intrinsicamente, mas, se não houver nenhuma forma de controle, pessoas, empresas, partidos políticos podem abusar desses recursos para atingir seus fins, até de maneira criminosa.

Entretanto, não somos vítimas indefesas. Da mesma que esses indivíduos não deveriam fazer esses usos indecentes da tecnologia para nos manipular, cabe a cada um de nós usá-la conscientemente. Por mais que pareça mágica ao responder a nossos anseios de maneira tão convincente, ela erra, e muito! Por isso, não podemos pautar decisões importantes no que a IA nos entrega sem verificar essas informações.

O ser humano sempre teve medo de ficar preso em um mundo de ilusões. O filósofo e matemático grego Platão (428 a.C. – 348 a.C.) antecipou isso em seu “Mito da Caverna”. Nos dias atuais, o assunto permeia a ficção, como na série de filmes “Matrix”, curiosamente um mundo falso criado por máquinas para iludir a humanidade.

 

Intimidade com a máquina

Há um outro aspecto que precisamos considerar. Assim como a IA primitiva das redes sociais identifica nossos gostos, desejos e medos para nos apresentar pessoas e conteúdos que nos mantenham em nossa zona de conforto, as plataformas atuais também podem coletar e usar essa informação para se tornarem ainda mais realistas.

Hoje vivemos no chamado “capitalismo de vigilância”, em que nossa atenção e nosso tempo são capturados pelas redes sociais, que os comercializa como forma eficientíssima de vender desde quinquilharias a políticos.

Com a inteligência artificial, a atenção pode ser substituída nessa função pela intimidade. “Eu vejo vários níveis de consequência disso: sociais, cognitivos e psicológicos”, afirma Cortiz, que tem nesse assunto um dos pontos centrais de suas pesquisas atuais. “Se a pessoa começar a projetar um valor muito grande para essa relação com a máquina e desvalorizar a relação com o humano, a gente tem um problema, porque essa intimidade é de uma via só: o laço não existe.”

“O cérebro funciona quimicamente, buscando o menor consumo com o maior benefício”, explica Victoria Martínez, gerente de negócios e data science da empresa de tecnologia Red Hat para a América Latina. Para ela, uma das coisas que nos define como humanos é nossa capacidade de pensar coisas distintas, e não podemos perder isso pela comodidade da IA. E alerta do perigo implícito de crianças e adolescentes usarem essa tecnologia na escola, entregando trabalhos sem saber como foram feitos. “É muito importante aprender o processo, pois, para automatizarmos algo, precisamos entender o que estamos fazendo”, acrescenta.

A qualidade do que a inteligência artificial nos entrega cresce de maneira exponencial. É difícil assimilarmos isso. Assim pode chegar um momento em que não saberemos se o que nos é apresentado é verdade ou mentira, e, no segundo caso, se isso aconteceu por uma falha dos algoritmos ou porque eles foram usados maliciosamente.

Isso explica, pelo menos em parte, tantos temores em torno do tema. Chegamos a ver em março mais de mil de pesquisadores, especialistas e até executivos de empresas do setor pedindo que essas pesquisas sejam desaceleradas.

É por isso que precisamos ampliar o debate em torno da regulação dessa tecnologia. Não como um cabresto que impedirá seu avanço, mas como mecanismos para, pelo menos, tentar garantir responsabilidade e transparência de quem desenvolve essas plataformas e direitos e segurança para quem as usa.

Isso deve ser feito logo, e não apenas depois que o caos se instale, como aconteceu com as redes sociais. Agora, no meio do turbilhão, vemos como está sendo difícil regulamentá-las, graças aos interesses dos que se beneficiam dessa situação.

“Por enquanto, nós temos o controle”, afirma Martínez. “Então espero que a democracia não seja dominada por uma máquina.”

É verdade, mas temos que nos mexer. E que isso seja feito pelas nossas aspirações, e não porque algo deu muito errado!

 

Mark Zuckerberg, CEO da Meta: redes sociais entraram na briga contra o “PL das Fake News” - Foto: Anthony Quintano / Creative Commons

O poder das redes antissociais

By | Tecnologia | No Comments

No começo, as redes sociais eram espaços divertidos, para encontrarmos antigos amigos e conhecer gente nova. Eram os bons tempos do Orkut, do MySpace e do Friendster. O próprio Facebook surgiu em 2004 como um simples diretório de alunos da Universidade de Harvard. Mas isso mudou na última década, e essas redes têm ficado cada vez menos sociais.

No lugar dos conteúdos inocentes de amigos e de familiares, as páginas dessas plataformas foram tomadas de publicidade, publicações de influenciadores e conteúdo de interesse das próprias empresas. Os feeds, que prendem nossa atenção, se transformaram em ferramentas de convencimento fabulosas, que nos induzem desde comprar todo tipo de quinquilharia até em quem votar. O espaço social deu lugar à máquina publicitária mais eficiente já criada.

A redução no aspecto social teve um custo para usuários e para as próprias redes.

Há semanas, o Brasil vem debatendo o Projeto de Lei 2.630/20, apelidado de “PL das Fake News”, que busca regulamentar essas plataformas. E agora elas entraram de sola na briga, combatendo explicitamente a proposta em suas páginas.

Não é de se espantar: são elas as mais impactadas pelo projeto, e não os usuários, os negócios, as igrejas ou mesmo os políticos. As redes, cada vez mais poderosas e menos sociais, não podem mais se eximir de suas responsabilidades, e precisarão fazer muito mais que atualmente para a manutenção saudável da sociedade.


Veja esse artigo em vídeo:


Nada disso chega a ser novo, mas a magnitude do espaço que ocupa em nossas vidas tornou-se alarmante. Como disse o professor da Universidade de Yale Edward Tufte, no documentário “O Dilema das Redes” (Netflix, 2020), “existem apenas duas indústrias que chamam seus clientes de usuários: a de drogas e a de software”.

Algumas pessoas questionam o aumento desse poder em detrimento dos aspectos sociais. Isso vem provocando sangrias de usuários desencantados. Por isso, essas empresas também são prejudicadas, pois os usuários acabam migrando para plataformas menores e nichadas, onde o aspecto social ainda é relevante. Com isso, o sonho megalomaníaco de moguls como Mark Zuckerberg e Elon Musk de ter uma plataforma onde todos fariam de tudo, fica cada vez mais distante.

“Não é do interesse das redes sociais mudarem o formato de como operam e muito menos abrirem as caixas pretas com algoritmos”, explica Magaly Prado, pesquisadora do Instituto de Estudos Avançados da Universidade de São Paulo. “É notório verificar o espalhamento desenfreado de assuntos polêmicos e, principalmente, quando sacodem emoções.”

Isso explica atitudes como as vistas nos últimos dias, como quando o Google colocou um link para defender sua posição contrária à regulamentação na sua página de entrada, ou quando o Telegram enviou uma mensagem para todos seus usuários no Brasil, com o mesmo fim. Para fazer valer seu ponto de vista, não economizaram em afirmações falsas ou distorcidas. No caso do último, ainda carregou em frases de efeito e falsas, como dizer que “a democracia está sob ataque no Brasil”, que “a lei matará a Internet moderna” ou que “concede poderes de censura ao governo”.

Essas iniciativas provocaram reações no mundo político, jurídico e empresarial. A própria Meta, dona do Facebook, Instagram e WhatsApp, correu para dizer que não concordava com as afirmações do Telegram.

 

Abuso de poder?

Muitos argumentaram que essas atitudes das plataformas digitais poderiam ser consideradas “abuso de poder econômico”, pela enorme penetração que essas empresas têm na sociedade e pelo poder de convencimento de seus algoritmos. Apesar disso, juridicamente não se pode sustentar isso.

“O abuso de poder econômico pode ser resumido como a situação em que uma entidade dominante em um setor empresarial viola as regras da concorrência livre, impedindo que seus concorrentes, sejam eles diretos ou indiretos, conduzam seus negócios”, explica Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propaganda e Marketing). Para ele, as iniciativas do Google e do Telegram não se enquadram nisso. “Diferente seria se houvesse uma manipulação algorítmica que privilegiasse conteúdo alinhado com seu posicionamento, em detrimento de posições contrárias”, contrapõe.

De toda forma, esses episódios podem ser educativos. Eles ilustram muito bem o poder que as plataformas digitais desenvolveram, a ponto de se contrapor a governos eleitos e de jogar parte da população contra eles.

Ninguém ganha nada com isso!

“As redes perdem ao entulhar o feed dos internautas com mensagens falsas de interesses escusos, fugindo da ideia da Internet em unir as pessoas em uma esfera de sociabilidade e troca de saberes”, afirma Prado. De certa forma, leis como o “PL das Fake News” ao redor do mundo, como da União Europeia, China e Austrália, são reações aos descuidos com os aspectos sociais pelas plataformas, com a explosão das fake news, do discurso de ódio e de outros crimes nesses ambientes. Se essas empresas tivessem levado mais a sério esses cuidados, assim como os aspectos nocivos de seus algoritmos na saúde mental dos usuários, a sociedade não chegaria a essa cisão e talvez nada disso fosse necessário.

Talvez todos possamos aprender algo com a forma como as redes sociais cresceram. A liberdade nos permite criar coisas incríveis, mas ela não nos permite tudo! A liberdade de um termina quando começa a do outro, e o meio digital não se sobrepõe às leis de um país.

Não é um exagero dizer que as redes sociais são um invento que modificou nossas vidas profundamente, abrindo grandes oportunidades de comunicação e exposição. Mas se perderam pelo caminho. Ficaram demasiadamente poderosas, e isso subiu à cabeça de alguns de seus criadores.

Tristemente as grandes plataformas estão se tornando redes antissociais, onde o dinheiro supera os interesses daqueles que viabilizam o negócio: seus usuários. Por mais que não paguem por seus serviços (quem faz isso são os anunciantes), esse e qualquer negócio só prosperam se forem verdadeiramente benéficos a todos os envolvidos. Se a balança se desequilibra, como se vê agora, os clientes sempre encontrarão quem se preocupe de verdade com eles.

 

Ian Wilmut, biólogo do Instituto Roslin (Escócia), e a ovelha Dolly, primeiro clone bem-sucedido de um mamífero - Foto: divulgação

Corrida pela inteligência artificial não pode driblar leis ou ética

By | Tecnologia | No Comments

Diante do acalorado debate em torno do “PL das Fake News”, muita gente nem percebeu que outro projeto de lei, possivelmente tão importante quanto, foi apresentado no dia 3 pelo senador Rodrigo Pacheco (PSD-MG): o PL 2338/23, que propõe a regulação da inteligência artificial. Resta saber se uma lei conseguirá conter abusos dessa corrida tecnológica ou sucumbirá à pressão das empresas, como tem acontecido no combate às fake news.

Talvez um caminho melhor seria submeter o desenvolvimento da IA aos limites da ética, mas, para isso, os envolvidos precisariam guiar-se por ela. Nesse sentido, outro acontecimento da semana passada foi emblemático: a saída do Google de Geoffrey Hinton, conhecido como o “padrinho da IA”. Ele disse que fez isso para poder falar criticamente sobre os caminhos que essa tecnologia está tomando e a disputa sem limites que Google, Microsoft e outras companhias estão travando, o que poderia, segundo ele, criar algo realmente perigoso.

Em entrevista ao The New York Times, o pioneiro da IA chegou a dizer que se arrepende de ter contribuído para esse avanço. “Quando você vê algo que é tecnicamente atraente, você vai em frente e faz”, justificando seu papel nessas pesquisas. Hoje ele percebe que essa visão pode ser um tanto inconsequente.

Mas quantos cientistas e principalmente homens de negócios da “big techs” também têm essa consciência?


Veja esse artigo em vídeo:


Isso me lembrou do início da minha carreira, como repórter de ciência, quando o mundo foi sacudido, em fevereiro de 1997, pelo anúncio da ovelha Dolly, o primeiro mamífero clonado com sucesso. Apesar de sua origem incomum, ela viveu uma vida normal por seis anos, tendo até dado à luz seis filhotes. Depois dela, outros mamíferos foram clonados, como porcos, veados, cavalos, touros e até macacos.

Não demorou para que fosse levantada a questão se seria possível clonar seres humanos. Ela rendeu até a novela global “O Clone”, de Glória Perez, em 2001. Em 2007, Ian Wilmut, biólogo do Instituto Roslin (Escócia) que liderou a equipe que criou Dolly, chegou a dizer que a técnica usada com ela talvez nunca fosse eficiente para uso em humanos.

Muitas teorias da conspiração sugerem que clones humanos chegaram a ser criados, mas nunca revelados. Isso estaria em linha com a ideia de Hinton da execução pelo prazer do desafio técnico.

Ainda que tenha se materializado, a pesquisa de clones humanos não foi para frente. E o que impediu não foi qualquer legislação: foi a ética! A sociedade simplesmente não aceitava aquilo.

“A ética da inteligência artificial tem que funcionar mais ou menos como a da biologia, tem que ter uma trava”, afirma Lucia Santaella, professora-titular da PUC-SP. “Se não os filmes de ficção científica vão acabar se realizando.”

 

A verdade irrelevante

Outro ponto destacado por Hinton que me chamou a atenção é sua preocupação com que a inteligência artificial passe a produzir conteúdos tão críveis, que as pessoas não sejam mais capazes de distinguir entre o que é real e o que é falso.

Ela é legítima! Já em 2016, o Dicionário Oxford escolheu “pós-verdade” como sua “palavra do ano”. Muito antes da IA generativa e quando as fake news ainda engatinhavam, esse verbete da renomada publicação alertava para “circunstâncias nas quais os fatos objetivos são menos influentes na opinião pública do que as emoções e as crenças pessoais”. De lá para cá, isso se intensificou exponencialmente: as pessoas acreditam naquilo que lhes for mais conveniente e confortável. As redes sociais levaram isso às raias da loucura e a IA generativa pode complicar ainda mais esse quadro.

“Não é que a verdade não exista: é que a verdade não mais importa”, acrescenta Santaella. “Esse é o grande problema!”

Ter ferramentas como essas abre incríveis possibilidades, mas também exige um uso responsável e consciente, que muitos não têm. Seu uso descuidado e malicioso pode ofuscar os benefícios da inteligência artificial, transformando-a em um mecanismo nefasto de controle e de desinformação, a exemplo do que foi feito com as redes sociais. E vejam como isso está destruindo a sociedade!

Se nenhum limite for imposto, as empresas desenvolvedoras da IA farão o mesmo que fizeram com as redes sociais. É uma corrida em que ninguém quer ficar para trás, pois o vencedor dominará o mundo! Para tornar a situação mais dramática, não se trata apenas de uma disputa entre companhias, mas entre nações. Ou alguém acha que a China está parada diante disso tudo?

Eu jamais serei contra o desenvolvimento de novas tecnologias. Vejo a inteligência artificial como uma ferramenta fabulosa, que pode trazer benefícios imensos. Da mesma forma, sou um entusiasta do meio digital, incluindo nele as redes sociais.

Ainda assim, não podemos viver um vale-tudo em nenhuma delas, seja clonagem, IA ou plataformas digitais. Apesar das críticas ao “PL das Fake News” criadas e popularizadas pela desinformação política e resistência feroz das “big techs” (as verdadeiras prejudicadas pela proposta), ele oferece uma visão equilibrada de como usar bem as redes sociais. Mas para isso, essas empresas precisam se empenhar muito mais, inclusive agindo de forma ética com o negócio que elas mesmas criaram.

Não percamos o foco no que nos torna humanos, nem a capacidade de distinguir verdade de mentira. Só assim continuaremos evoluindo como sociedade e desenvolveremos novas e incríveis tecnologias.

Nesse sentido, o antigo lema do Google era ótimo: “don’t be evil” (“não seja mal”). Mas em 2015, a Alphabet, conglomerado que incorporou o Google, trocou o mote por “faça a coisa certa”, bem mais genérico.

Bem, a coisa certa é justamente não ser mal.

 

Chacrinha, dono de bordões memoráveis, como “quem não comunica se trumbica” - Foto: divulgação

Precisamos resgatar a arte de conversar

By | Educação | No Comments

O brasileiro moderno e digital poderia aprender algo com o Chacrinha. Abelardo Barbosa foi um dos maiores comunicadores do país entre as décadas de 1950 a 1980 por conseguir se conectar com o seu público e por saber fazer boas leituras de cada momento da sociedade. Com isso, ajustava seus programas e suas falas. E dentre seus memoráveis bordões, um sempre captou minha atenção: “quem não comunica se trumbica!” Ou seja, a arte de conversar é essencial para termos sucesso no que for.

Na sociedade polarizada, egoísta e impaciente das redes sociais, muitos parecem estar esquecendo de como fazer isso. Todos querem falar, mas poucos aceitam ouvir. Porém uma conversa exige, por definição, trocas entre pessoas. Para que seja boa, os interlocutores precisam estar dispostos a ouvir genuinamente o que o outro tem a dizer e demonstrar empatia. E –claro– ter algo útil a compartilhar ajuda nessa atividade.

Quando isso não é observado, tudo piora. Um exemplo emblemático aconteceu há duas semanas, na tentativa do Governo Federal de taxar compras em sites asiáticos, como a Shein, Aliexpress e Shopee. A medida é inescapavelmente impopular, pois deixará mais caras transações adoradas pela classe média. Mas uma comunicação falha e até arrogante tornou tudo mais confuso, gerando uma crise desnecessária.


Veja esse artigo em vídeo:


Entre idas e vindas, pessoas do governo dando declarações descontextualizadas e distantes do público, e a tradicional enxurrada de desinformação das redes sociais, muita gente continua sem entender como ficarão suas compras vindas do outro lado do mundo. Isso dói no bolso da população.

Ignorar isso nas comunicações é ignorar as necessidades do interlocutor, no caso, o povo. Por isso, a declaração do ministro da Fazenda, Fernando Haddad, de que não conhecia a Shein, só a Amazon “onde compra todo dia um livro, pelo menos”, foi entendida como elitista e arrogante. Graças a tudo isso, levantamento da consultoria Quaest mostrou que, naqueles dias, 83% das menções ao tema nas redes sociais foram negativas para o governo. A oposição tripudiou!

Mesmo sendo impopular, a comunicação poderia ter seguido outro caminho. Como os produtos ficarão mesmo mais caros, o governo deveria reforçar o discurso de que esse dinheiro extra será revertido para a própria população, melhorando a saúde e a educação, por exemplo. Além disso, precisa explicar por que a evasão de impostos dos portais asiáticos prejudica seriamente varejistas brasileiros, que pagam corretamente seus impostos e empregam muita gente.

Para se ter uma ideia da magnitude da “invasão asiática” no comércio de vestuário, levantamento do Instituto para o Desenvolvimento do Varejo (IDV) mostra que, em 2019, a Shein nem aparecia entre os principais nomes do setor. Dois anos depois, já abocanhava 16,1% do mercado, muito mais que marcas brasileiras tradicionais, que não param de cair. Por isso, elas apoiam a ideia de taxação das asiáticas.

Toda a gritaria resultante dessa falha de comunicação fez o governo recuar na proposta de eliminar o imposto de importação de produtos até US$ 50 entre indivíduos, mecanismo que as asiáticas usam para escapar da taxação (como empresas, não poderiam aproveitar isso). A ideia agora é forçar essas empresas a cobrar os impostos já na compra, o que a encarecerá do mesmo jeito. Mas nem isso foi bem comunicado à população.

O que não dá é insistir no discurso de que “nada mudou, pois o imposto sempre existiu, apenas era ignorado”. Na visão do consumidor, continua a sensação de que comprar da China é mais barato que do Brasil, e que a iniciativa do governo tornará isso mais caro e sua vida mais difícil.

 

Fazendo concessões

Uma boa conversa também implica em fazer concessões. Quem tenta impor seu ponto de vista, acaba ficando sozinho.

Em muitos casos, há interesses conflitantes no debate, mas isso não quer dizer que não se possa chegar a um consenso. No exemplo acima, a inabilidade na comunicação colocou os consumidores do lado dos portais asiáticos e contra os varejistas brasileiros e o próprio governo.

Poderia ter sido diferente!

Não dá para agradar todo mundo! Insistir nisso é um erro de muitas pessoas e empresas. Todos precisam conhecer quem forma seu público, pois as pessoas têm gostos, valores e visões de mundo diferentes. Ao se tentar abarcar muita gente, o que acontece é que se cria uma comunicação genérica e sem graça, que não agrada verdadeiramente ninguém.

Isso não quer dizer que devamos sair por aí cometendo “suicídios de imagem” ao dizer, sem nenhum cuidado, o que precisa ser dito. Precisamos expor as ideias e as informações necessárias, mas levando em consideração as necessidades de todos os envolvidos, negociando o que pode ser concedido em cada caso, sem que isso desfigure o objetivo original.

Sobre isso tudo, precisamos exercitar nossa sensibilidade e nossa empatia. Demonstrar esses sentimentos genuinamente pode pelo menos suavizar uma má notícia.

É uma pena que, em tempos de redes sociais, que criam bolhas que reforçam nossos pontos de vista (mesmo os piores), a empatia se tornou artigo de luxo. Isso acontece porque ela exige tempo e energia, duas coisas que as pessoas não querem conceder.

Em uma situação complexa como essa da taxação das compras nos portais asiáticos, em que há interesses diametralmente opostos, a empatia fica ainda mais importante. O governo precisa trazer a população para o seu lado, ao invés de afastá-la. Não é uma tarefa simples, pois a medida dói no bolso das pessoas, que ainda são incendiadas pela oposição.

Ainda assim, é possível, pelo menos, melhorar um pouco esse quadro. Mas, para isso, é preciso de conversa e de empatia.

Afinal, como diz a sabedoria popular, “é conversando que se entende”. Isso vale para o governo, para empresas e para cada um de nós.

Chacrinha que o diga!