ética

Geoffrey Hinton, o “padrinho da IA”, que se demitiu do Google em maio para poder criticar livremente os rumos da IA - Foto: reprodução

Entusiastas da IA querem acelerar sem parar, mas isso pode fazê-la derrapar

By | Tecnologia | No Comments

Nesse ano, a inteligência artificial deixou de ser um interesse da elite tecnológica e conquistou o cidadão comum, virando tema até de conversas de bar. Muita gente agora a usa intensamente, criando tanto coisas incríveis, quanto enormes bobagens. Isso gerou uma excitação em torno da tecnologia, com grupos que propõem que seja desenvolvida sem nenhuma restrição ou controle, acelerando o máximo que se puder.

Isso pode parecer emocionante, mas esconde um tipo de deslumbramento quase religioso que de vez em quando brota no Vale do Silício, a meca das big techs, nos EUA. Um movimento especificamente vem fazendo bastante barulho com essa ideia. Batizado de “Aceleracionismo Efetivo” (ou “e/acc”, como se autodenominam), ele defende que a inteligência artificial e outras tecnologias emergentes possam avançar o mais rapidamente possível, sem restrições ou regulamentações.

Mas quem acelera demais em qualquer coisa pode acabar saindo da pista!

Eles desprezam pessoas que chamam de “decels” e “doomers”, aquelas preocupadas com riscos de segurança vindos de uma IA muito poderosa ou reguladores que querem desacelerar seu desenvolvimento. Entre eles, está Geoffrey Hinton, conhecido como o “padrinho da IA”, que no dia 1º de maio se demitiu do Google, para poder criticar livremente os caminhos que essa tecnologia está tomando e a disputa sem limites entre as big techs, o que poderia, segundo ele, criar “algo realmente perigoso”.

Como de costume, radicalismos de qualquer lado tendem a dar muito errado. A verdade costuma estar em algum ponto no meio de caminho, por isso todos precisam ser ouvidos. Então, no caso da IA, ela deve ser regulada ou seu desenvolvimento deve ser liberado de uma forma quase anárquica?


Veja esse artigo em vídeo:


O Aceleracionismo Efetivo surgiu nas redes sociais no ano passado, como uma resposta a outro movimento: o “Altruísmo Eficaz”, que se tornou uma força importante no mundo da IA. Esse último começou promovendo filantropia otimizada a partir de dados, mas nos últimos anos tem se preocupado com a segurança da sociedade, propondo a ideia de que uma IA poderosa demais poderia destruir a humanidade.

Já o aceleracionistas efetivos acham que o melhor é sair da frente e deixar a inteligência artificial crescer livre e descontroladamente, pois seus benefícios superariam muito seus eventuais riscos, por isso jamais deveria ser vista como uma ameaça. Para eles, as plataformas devem ser desenvolvidas com software open source, livre do controle das grandes empresas.

Em um manifesto publicado no ano passado, os aceleracionistas efetivos descreveram seus objetivos como uma forma de “inaugurar a próxima evolução da consciência, criando formas de vida impensáveis da próxima geração”. De certa forma, eles até aceitam a ideia de que uma “super IA” poderia ameaçar a raça humana, mas a defendem assim mesmo, pois seria “o próximo passo da evolução”.

Para muita gente, como Hinton, isso já é demais! Em entrevista ao New York Times na época em que deixou o Google, o pioneiro da IA disse que se arrependia de ter contribuído para seu avanço. “Quando você vê algo que é tecnicamente atraente, você vai em frente e faz”, justificando seu papel nessas pesquisas. Agora ele teria percebido que essa visão era muito inconsequente.

Portanto é um debate em torno da ética do desenvolvimento tecnológico e das suas consequências. Conversei na época sobre aquela entrevista de Hinton com Lucia Santaella, professora-titular da PUC-SP. E para ela, “a ética da inteligência artificial tem que funcionar mais ou menos como a da biologia, tem que ter uma trava! Se não, os filmes de ficção científica vão acabar se realizando.”

 

A dificuldade de se regular

Além da questão ética, outro ponto que contrapõe aceleracionistas efetivos e altruístas eficazes é a necessidade de se regular a inteligência artificial. Mas verdade seja dita, essa tecnologia está dando um banho nos legisladores. Isso porque ela evolui muito mais rapidamente do que eles são capazes de propor leis.

Podemos pegar, como exemplo, a União Europeia, que legisla de forma rápida e eficiente temas ligados à tecnologia. Em abril de 2021, ela apresentou um projeto de 125 páginas como “referência” na regulação da IA. Fruto de três anos de debates com especialistas de diferentes setores associados ao tema, Margrethe Vestager, chefe da política digital do bloco, disse que o documento estava “preparado para o futuro”.

Parecia ser isso mesmo, até que, em novembro do ano passado, a OpenAI lançou o ChatGPT e criou uma corrida frenética para se incluir a inteligência artificial generativa em todo tipo de sistema. E isso nem era citado na proposta europeia!

O processo de criação de uma nova lei de qualidade é naturalmente lento, pois exige muita pesquisa e debate. Mas se as coisas acontecerem como propõem os e/accs, os legisladores estarão sempre muito atrás dos desenvolvedores. Os primeiros não conseguem sequer entender a tempo o que os segundos estão criando e, justiça seja feita, mesmo esses não têm total certeza do que fazem.

Enquanto isso, Microsoft, Google, Meta, OpenAI e outras gigantes da tecnologia correm soltas para criar sistemas que lhes concederão muito poder e dinheiro. A verdade é que quem dominar a IA dominará o mundo nos próximos anos.

Os aceleracionistas efetivos afirmam que eles são o antídoto contra o pessimismo dos que querem regular a inteligência artificial, algo que diminuiria o ritmo da inovação, o que, para eles, seria o equivalente a um pecado. Mas quanto disso é real e quanto é apenas uma “atitude de manada” inconsequente?

Sou favorável que a IA se desenvolva ainda mais. Porém, se nenhum limite for imposto, ainda que de responsabilização quando algo der errado, as big techs farão o mesmo que fizeram com as redes sociais. E vejam onde isso nos levou!

Não podemos perder o foco em nossa humanidade, que nos permite distinguir verdade de mentira, certo de errado! Só assim continuaremos desenvolvendo novas e incríveis tecnologias, sem ameaçar a sociedade.

Afinal, a ética consciente é o que nos diferencia dos animais, e agora, pelo jeito, também das máquinas!


Antes de encerrar, gostaria de fazer uma nota pessoal. Ainda que discorde filosoficamente dos aceleracionistas efetivos, acho o debate válido, se feito de forma construtiva. Pessoas com pontos de vista diferentes encontram juntas boas soluções que talvez não conseguiriam sozinhas, justamente por terem visões parciais de um tema. Para isso, necessitamos de conhecimento e de vontade de fazer o bem. Esse é um dos motivos para eu iniciar em 2024 meu doutorado na PUC-SP, sob orientação de Lucia Santaella, para pesquisar o impacto da inteligência artificial na “guerra” pelo que as pessoas entendem como “verdade”, algo determinante em suas vidas.

 

O CEO da OpenAI, Sam Altman, que ganhou a briga contra o antigo conselho da empresa - Foto: Steve Jennings/Creative Commons

Como a confusão na OpenAI determinará nossas vidas

By | Tecnologia | No Comments

Nessa quarta (30), o lançamento do ChatGPT completa seu primeiro aniversário. É bem pouco tempo para um produto que mudou a maneira como fazemos muitas coisas em nossas vidas. Isso se deu não por seus próprios recursos, limitados a escrever textos (ainda que de maneira surpreendente), mas por ter iniciado a corrida da inteligência artificial generativa, que invadiu todo tipo de ferramenta de produtividade.

Por uma infame coincidência, a OpenAI, criadora do sistema, quase deixou de existir na semana passada. Na sexta anterior (17), Sam Altman, fundador e CEO da empresa, foi sumariamente demitido, pegando o mundo da tecnologia –e aparentemente ele mesmo– de surpresa. A OpenAI só não desapareceu por uma cinematográfica sequência de eventos, que puseram Altman de volta na sua cadeira em apenas cinco dias.

Isso já tornaria essa história incrível, mas pouco se sabe e menos ainda se fala dos elementos mais suculentos em seus bastidores. Afinal, o que faria o conselho de administração da OpenAI mandar embora a estrela mais brilhante do Vale do Silício no momento, em plena ascensão?

A resposta é profundamente mais complexa que uma simples “quebra de confiança”, apresentada na justificativa. O real motivo são visões conflitantes sobre como o desenvolvimento da inteligência artificial deve continuar acontecendo. De um lado, temos uma maneira mais lenta e cuidadosa, até para se evitar que ela “saia do controle” e ameace a humanidade. Do outro, há os que defendam que isso aconteça de forma acelerada, criando freneticamente novos e fabulosos produtos com ela.


Veja esse artigo em vídeo:


Sam Altman faz parte do segundo grupo. Os agora ex-membros do conselho de administração da OpenAI fazem parte do outro.

No fim de semana seguinte a sua demissão, Altman tentou sem sucesso reassumir o cargo. Então a Microsoft, que é a principal investidora da OpenAI, anunciou na segunda (20) a sua contratação para liderar um novo centro de pesquisa de inteligência artificial. Disse ainda que aceitaria qualquer profissional da OpenAI que quisesse acompanhar Altman.

No dia seguinte, em um movimento ousado, cerca de 700 trabalhadores da startup publicaram uma carta aberta exigindo a readmissão de Altman e a renúncia dos membros do conselho. Caso contrário, todos se demitiriam, o que na prática acabaria com a empresa. Na quarta, Altman estava de volta e os conselheiros se demitiram.

A Microsoft não tinha nenhum interesse no fim da OpenAI, portanto contratar Altman foi uma jogada de mestre, por forçar a reação das suas equipes. Depois de investir US$ 13 bilhões na startup, seus produtos estão sendo gradualmente integrados aos da gigante, como o pacote 365 (antigo Office) e o buscador Bing. Além disso, a OpenAI está pelo menos seis meses à frente da concorrência, como Google e Meta, o que é um tempo enorme nas pesquisas de IA, e isso não pode ser jogado no lixo.

A confusão na OpenAI não se trata, portanto, se Altman estava fazendo um bom trabalho. Segundo o New York Times, ele e os antigos conselheiros já vinham brigando há mais de um ano, pois o executivo queria acelerar a expansão dos negócios, enquanto eles queriam desacelerar, para fazer isso com segurança.

Vale dizer que a OpenAI foi fundada em 2015 como uma organização sem fins lucrativos, para construir uma superinteligência artificial segura, ética e benéfica à humanidade. Mas a absurda capacidade de processamento que a inteligência artificial exige levou à criação de um braço comercial do negócio, em 2018.

 

A “mãe de todas as IAs”

Altman sempre disse que buscava o desenvolvimento de uma inteligência artificial geral (IAG), um sistema capaz de realizar qualquer tarefa por iniciativa própria, até mesmo se modificar para se aprimorar. Isso é muito diferente das IAs existentes, que realizam apenas um tipo tarefa e dependem de serem acionadas por um usuário.

Alguns pesquisadores afirmam que a IAG, que superaria largamente a capacidade cognitiva humana, jamais existirá. Outros dizem que já estamos próximos dela.

Na semana passada, a OpenAI deu mais um passo nessa busca, com o anúncio da Q* (lê-se “Q-Star”, ou “Q-Estrela”, em tradução livre), uma IA ainda mais poderosa que as atuais. Esse sistema pode ter contribuído para a demissão de Altman.

Nada disso é um “papo de nerd”. Se chegaremos a ter uma inteligência artificial geral ou até com que agressividade a IA transformará todo tipo de ferramentas já impacta decisivamente como vivemos. E isso vem acontecendo de maneira tão rápida, que mesmo os pesquisadores estão inseguros sobre benefícios e riscos que isso envolve.

Há ainda preocupações geopolíticas: se as grandes empresas ocidentais não fizerem isso, regimes autoritários e fundamentalistas podem chegar lá, com consequências imprevisíveis para a ordem mundial. Mas também não podemos ver candidamente o Vale do Silício como um campeão da liberdade e da ética. Eles querem dinheiro, e casos como o da OpenAI e de muitas redes sociais ilustram isso.

Mesmo uma “IA legítima” pode ser usada de forma antiética e abusiva. Acabamos de ver isso na eleição presidencial argentina, com os candidatos usando essas plataformas para se comunicar melhor com seus eleitores, mas também para criar imagens depreciativas dos concorrentes. O mesmo deve acontecer aqui nas eleições municipais de 2024. Tanto que o Tribunal Superior Eleitoral (TSE) já busca como coibir a bagunça. A inteligência artificial deve, portanto, nos preocupar desde um improvável extermínio da humanidade até problemas pelo seu uso incorreto em nosso cotidiano.

Os robôs têm “leis” para que não se voltem contra nós, propostas pelo escritor Isaac Asimov, em 1942. São elas: “um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal”, “um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que entrem em conflito com a Primeira Lei” e “um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.” Mais tarde, ele acrescentou a “Lei Zero”: “um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.”

Elas parecem suficientes, mas são apenas uma ideia, enquanto a IA é uma realidade. E mesmo que sejam implantadas no âmago de uma inteligência artificial geral, que garantia temos de que ela não encontre maneiras de alterar seu código para desobedecê-las se assim achar necessário?

Por tudo isso, as decisões do novo conselho da Open AI nos próximos meses, que a devem tornar mais capitalista, afetarão não apenas a empresa, mas o futuro de todos nós. Com tanto dinheiro envolvido, era pouco provável que um grupo de acadêmicos conseguisse desacelerar o desenvolvimento da IA por questões éticas.

No final das contas, estamos fazendo uma aposta entre produtividade e segurança. Uma goleada da primeira começa a se formar. O problema é que aparentemente não temos capacidade de antecipar com certeza o que acontecerá. Temos que estar monitorando a cada momento essa evolução e ter uma tomada física para simplesmente puxar e desligar a coisa toda, se assim for necessário.

 

Tom Cruise viveu pela segunda vez o intrépido piloto da Marinha dos EUA Pete Mitchell, em “Top Gun: Maverick” (2022) - Foto: divulgação

Inteligência artificial pode mandar “Top Gun” para o museu

By | Tecnologia | No Comments

Em 1986, plateias do mundo todo prenderam a respiração diante das acrobacias aéreas de Tom Cruise nas telas de cinema em “Top Gun”. Ele repetiu a dose em “Maverick”, a segunda maior bilheteria de 2022, rendendo US$ 1,4 bilhão, logo atrás de “Avatar 2”. Agora a inteligência artificial pode fazer essas peripécias virarem peças de museu, ao tornar pilotos de caça obsoletos e desnecessários.

Duas notícias recentes, uma do The New York Times e outra do The Washington Post, revelam planos dos militares de usar essa tecnologia em novas gerações de aviões e de drones. Ela seria capaz de tomar decisões mais rápidas e precisas que os pilotos, até os mais experientes.

A ideia é controversa. Muito se tem debatido sobre a substituição das mais diversas categorias profissionais por robôs, considerando o impacto social dessa mudança. Mas o que se propõe agora é uma máquina tomar decisões que efetivamente visam a morte de pessoas.

Diversos aspectos éticos são levantados nessa hora. Os próprios pilotos veem isso com ressalva, e não apenas porque podem perder seu emprego daqui um tempo. Afinal, uma máquina pode decidir sobre a vida ou a morte de um ser humano? E se isso realmente acontecer no controle de aviões de combate, quanto faltará para vermos robôs policiando nossas ruas e tomando as mesmas decisões letais por sua conta na vizinhança?


Veja esse artigo em vídeo:


Não estamos falando da atual geração de drones militares, que, apesar de úteis, são bem limitados. Um bom exemplo do que vem por aí é o veículo aéreo não tripulado experimental XQ-58A, conhecido como “Valkyrie”, da Força Aérea americana. Ele, se parece muito mais a um caça furtivo futurista, apesar de ser bem menor que os aviões de combate. É impulsionado por um motor de foguete e é capaz de voar de um lado ao outro da China, carregando munições poderosas.

Mas seu grande diferencial é o controle por inteligência artificial, podendo tomar decisões sozinho, apesar de os militares afirmarem que só executará ações letais se autorizado por um ser humano. Ele pode voar diferentes tipos de missões, inclusive apoiando pilotos em seus caças, aumentando o sucesso e preservando suas vidas.

Como sempre, uma guerra não se ganha apenas com os melhores soldados, mas também com a melhor tecnologia. Mas até agora a decisão de matar sempre recaiu sobre os primeiros. O que pode estar diante de nossos olhos é o surgimento de armas que tomem essa decisão seguindo seus critérios, um ponto sensível para os EUA, pelo seu histórico de ataques ilegais com drones convencionais que mataram civis.

Diante disso, o general Mark Milley, principal conselheiro militar do presidente americano, Joe Biden, afirmou que os EUA manterão “humanos à frente da tomada de decisões”. Ele recentemente conclamou forças armadas de outros países a adotar o mesmo padrão ético.

Nesse ponto, caímos em um outro aspecto crítico desse avanço. Países que adotem essas “boas práticas” poderiam ficar em desvantagem diante de outras potências militares e tecnológicas não tão “comprometidas”, com o maior temor recaindo sobre a China. Como a guerra é, por definição, algo “sujo”, seguir as regras poderia então criar uma desvantagem catastrófica.

Outra mudança trazida pela IA ao tabuleiro armamentista é a entrada de novas empresas fornecedoras de equipamentos. No caso da Força Aérea americana, dois nomes surgem quando pensamos na indústria de caças: a Lockheed Martin e a Boeing. Esses casamentos comerciais são tão antigos e poderosos que sua tecnologia jamais chega, por exemplo, a países menores ou –pior– a grupos guerrilheiros.

Com a pulverização de drones com IA relativamente baratos, muitas outras empresas passam a disputar esses bilionários orçamentos. O “Valkyrie”, produzido pela Kratos (fundada em 1994) custa cerca de US$ 7 milhões. Pode parecer muito, mas é bem menos que os US$ 80 milhões de um F-35 Lightning II, da Lockheed Martin. Outros modelos podem custar ainda menos, na casa de US$ 3 milhões.

O receio é que esses fabricantes passem depois a oferecer tecnologia militar de ponta a terroristas e ditadores. E aí o medo de maus usos pela China vira “café pequeno”.

 

Campo de testes

O poder da inteligência artificial contra exércitos poderosos está sendo colocado à prova na invasão da Ucrânia. Seu exército vem usando drones bem mais simples que os citados, mas que já contam com recursos de IA, para atacar tropas russas. Mesmo quando essas aeronaves perdem o contato com seus pilotos remotos, devido aos sistemas de interferência do inimigo, ainda completam sua missão por conta própria.

De fato, a Ucrânia vem se tornando um frutífero campo de testes desses armamentos, que vêm sendo produzidos aos milhares. Além de poderem refinar seus equipamentos em situações reais de combate, os fabricantes podem fazer testes que dificilmente podem acontecer em um país que não esteja em guerra.

Os militares sabem que a inteligência artificial toma decisões erradas. Basta ver as falhas –algumas fatais– de carros autônomos nos últimos anos. Mesmo a tecnologia militar sempre sendo muito mais refinada e cara que a civil, não há garantias quanto a sua precisão. E há outros aspectos a serem considerados.

O primeiro é que a IA pode ser excelente em decisões a partir de padrões conhecidos, mas pode se confundir bastante diante do desconhecido e do inesperado, algo que permeia qualquer campo de batalha. Além disso, máquinas não possuem uma bússola moral, que norteia algumas das melhores decisões de um soldado.

É inevitável pensar no filme RoboCop (1987), em que um policial dado como morto é praticamente transformado em um robô. Apesar de ser obrigado a seguir diretivas em seu sistema, o que o tornava realmente eficiente era a humanidade que sobreviveu em seu cérebro. Isso lhe permitia vencer robôs de combate mais poderosos.

Tudo isso me faz lembrar da Guerra do Golfo, que aconteceu entre 1990 e 1991, quando os americanos invadiram o Iraque. Os militares invasores exterminavam o inimigo de longe, quase sem entrar em combate. Na época, um especialista criticou “soldados que querem matar, mas não querem morrer”.

A inteligência artificial pode potencializar isso. É claro que ninguém quer morrer e todos querem vencer um conflito, de preferência logo. Mas quem ganha algo com isso, além da indústria armamentista? Se a Rússia tivesse essa tecnologia, talvez a Ucrânia tivesse deixado de existir em poucas semanas dessa nefasta invasão atual.

Esse é um dos casos em que a inteligência artificial nunca deveria ser usada. Mas seria uma ilusão pueril acreditar que isso não acontecerá. Talvez o futuro da guerra pertença mesmo às máquinas autônomas. Só espero que isso não aconteça também em policiais-robôs nas ruas de nossos bairros.

 

Neo luta contra o Agente Smith em “Matrix Revolutions” (2003): mundo digital criado para iludir a humanidade - Foto: divulgação

Se deixarmos, a inteligência artificial escolherá o próximo presidente

By | Tecnologia | No Comments

Nas eleições de 2018, eu disse que o presidente eleito naquele ano seria o que usasse melhor as redes sociais, e isso aconteceu. Em 2022, antecipei a guerra das fake news, que iludiram o eleitorado. Para o pleito de 2026, receio que a tecnologia digital ocupe um espaço ainda maior em nossas decisões, dessa vez pelo uso irresponsável da inteligência artificial.

Não estou dizendo que a IA escolherá por sua conta qual é o melhor candidato. A despeito de um medo difuso de que máquinas inteligentes nos exterminem, isso não deve acontecer porque, pelo menos no seu estágio atual, elas não têm iniciativa ou vontade própria: fazem apenas o que lhes pedimos. Os processos não são iniciados por elas. Temos que cuidar para que isso continue dessa forma.

Ainda assim, a inteligência artificial generativa, que ganhou as ruas no ano passado e que tem no ChatGPT sua maior estrela, atingiu um feito memorável: dominou a linguagem, não apenas para nos entender, mas também para produzir textos, fotos, vídeos, músicas muito convincentes.

Tudo que fazemos passa pela linguagem! Não só para nos comunicar, mas nossa cultura e até nosso desenvolvimento como espécie depende dela. Se agora máquinas com capacidades super-humanas também dominam esse recurso, podemos ser obrigados a enfrentar pessoas inescrupulosas que as usem para atingir seus objetivos, a exemplo do que foi feito com as redes sociais e com as fake news.


Veja esse artigo em vídeo:


A inteligência artificial não sai das manchetes há seis meses. Mesmo com tanta informação, as pessoas ainda não sabem exatamente como funciona e o que pode ser feito com ela. E isso é um risco, pois se tornam presas daquele que entendem.

É aí que mora o perigo para as eleições (e muito mais), com o uso dessa tecnologia para iludir e convencer. “No Brasil, as próximas eleições presidenciais serão daqui a três anos, e a tecnologia estará ainda mais avançada”, afirma Diogo Cortiz, professor da PUC-SP e especialista em IA. “A gente vai partir para um discurso não só textual, mas também com vídeo, som, fotografias ultrarrealistas, que farão ser muito difícil separar o real do que é sintético”, explica.

Não nos iludamos: vai acontecer! Esse é o capítulo atual do jogo em que estamos há uma década, em que a tecnologia digital é usada como ferramenta de convencimento. E, como sempre, ela não é ruim intrinsicamente, mas, se não houver nenhuma forma de controle, pessoas, empresas, partidos políticos podem abusar desses recursos para atingir seus fins, até de maneira criminosa.

Entretanto, não somos vítimas indefesas. Da mesma que esses indivíduos não deveriam fazer esses usos indecentes da tecnologia para nos manipular, cabe a cada um de nós usá-la conscientemente. Por mais que pareça mágica ao responder a nossos anseios de maneira tão convincente, ela erra, e muito! Por isso, não podemos pautar decisões importantes no que a IA nos entrega sem verificar essas informações.

O ser humano sempre teve medo de ficar preso em um mundo de ilusões. O filósofo e matemático grego Platão (428 a.C. – 348 a.C.) antecipou isso em seu “Mito da Caverna”. Nos dias atuais, o assunto permeia a ficção, como na série de filmes “Matrix”, curiosamente um mundo falso criado por máquinas para iludir a humanidade.

 

Intimidade com a máquina

Há um outro aspecto que precisamos considerar. Assim como a IA primitiva das redes sociais identifica nossos gostos, desejos e medos para nos apresentar pessoas e conteúdos que nos mantenham em nossa zona de conforto, as plataformas atuais também podem coletar e usar essa informação para se tornarem ainda mais realistas.

Hoje vivemos no chamado “capitalismo de vigilância”, em que nossa atenção e nosso tempo são capturados pelas redes sociais, que os comercializa como forma eficientíssima de vender desde quinquilharias a políticos.

Com a inteligência artificial, a atenção pode ser substituída nessa função pela intimidade. “Eu vejo vários níveis de consequência disso: sociais, cognitivos e psicológicos”, afirma Cortiz, que tem nesse assunto um dos pontos centrais de suas pesquisas atuais. “Se a pessoa começar a projetar um valor muito grande para essa relação com a máquina e desvalorizar a relação com o humano, a gente tem um problema, porque essa intimidade é de uma via só: o laço não existe.”

“O cérebro funciona quimicamente, buscando o menor consumo com o maior benefício”, explica Victoria Martínez, gerente de negócios e data science da empresa de tecnologia Red Hat para a América Latina. Para ela, uma das coisas que nos define como humanos é nossa capacidade de pensar coisas distintas, e não podemos perder isso pela comodidade da IA. E alerta do perigo implícito de crianças e adolescentes usarem essa tecnologia na escola, entregando trabalhos sem saber como foram feitos. “É muito importante aprender o processo, pois, para automatizarmos algo, precisamos entender o que estamos fazendo”, acrescenta.

A qualidade do que a inteligência artificial nos entrega cresce de maneira exponencial. É difícil assimilarmos isso. Assim pode chegar um momento em que não saberemos se o que nos é apresentado é verdade ou mentira, e, no segundo caso, se isso aconteceu por uma falha dos algoritmos ou porque eles foram usados maliciosamente.

Isso explica, pelo menos em parte, tantos temores em torno do tema. Chegamos a ver em março mais de mil de pesquisadores, especialistas e até executivos de empresas do setor pedindo que essas pesquisas sejam desaceleradas.

É por isso que precisamos ampliar o debate em torno da regulação dessa tecnologia. Não como um cabresto que impedirá seu avanço, mas como mecanismos para, pelo menos, tentar garantir responsabilidade e transparência de quem desenvolve essas plataformas e direitos e segurança para quem as usa.

Isso deve ser feito logo, e não apenas depois que o caos se instale, como aconteceu com as redes sociais. Agora, no meio do turbilhão, vemos como está sendo difícil regulamentá-las, graças aos interesses dos que se beneficiam dessa situação.

“Por enquanto, nós temos o controle”, afirma Martínez. “Então espero que a democracia não seja dominada por uma máquina.”

É verdade, mas temos que nos mexer. E que isso seja feito pelas nossas aspirações, e não porque algo deu muito errado!

 

Matt Hicks, CEO da Red Hat, durante a abertura do Red Hat Summit 2023: “esse é o momento da IA” - Foto: Paulo Silvestre

Inteligência artificial produz coisas incríveis, mas não podemos perder nosso protagonismo

By | Tecnologia | No Comments

Estive na semana passada em Boston (EUA), participando do Red Hat Summit, maior evento de software open source do mundo. Apesar desse modelo de desenvolvimento de programas aparecer a todo momento, a estrela da festa foi a inteligência artificial. E algo que me chamou a atenção foi a preocupação da Red Hat e de seus executivos em demonstrar como essa tecnologia, por mais poderosa que seja, não deve fazer nada sozinha, precisando ser “treinada” com bons dados, com o ser humano ocupando o centro do processo.

O próprio CEO, Matt Hicks, abriu a conferência dizendo que esse é o “momento da IA”. Muitos dos principais anúncios do evento, como o Ansible Lightspeed e o OpenShift AI, embutiam um incrível poder da inteligência artificial na automação de tarefas, como geração de código a partir de pedidos simples em português, liberando o tempo das equipes para funções mais nobres.

Isso não quer dizer, entretanto, que os profissionais possam simplesmente “terceirizar” o raciocínio e a sua criatividade para as máquinas. Pelo contrário, por mais fabulosas que sejam essas ferramentas, elas pouco ajudam se o usuário não conhecer pelo menos o essencial do que os sistemas produzem.

Tanto é verdade que assistimos a casos de pessoas e de empresas que enfrentam grandes contratempos por usar plataformas generalistas de inteligência artificial (como o ChatGPT) de maneira descuidada. Precisamos ter em mente que, por mais que ela chegue a parecer mágica, não é infalível!


Veja esse artigo em vídeo:


Foi o que aconteceu recentemente com o advogado americano Steven Schwartz, da firma Levidow, Levidow & Oberman, com mais de 30 anos de experiência: ele enfrentará agora medidas disciplinares por usar o ChatpGPT para pesquisas para o caso de um cliente que processava a Avianca. Tudo porque apresentou à corte um documento com supostos casos semelhantes envolvendo outras empresas aéreas.

O problema é que nenhum desses casos existia: todos foram inventados pelo ChatGPT. Schwartz ainda chegou a perguntar à plataforma se os casos eram reais, o que ela candidamente confirmou. É o que os especialistas chamam de “alucinação da inteligência artificial”: ela apresenta algo completamente errado como um fato, cheia de “convicção”, a ponto de conseguir argumentar sobre aquilo.

“Nessa nova fase, temos que conhecer a pergunta para qual queremos a resposta”, explicou-me Hicks, em uma conversa com jornalistas durante o Summit. “Se você for um novato, poderá criar melhor, mais rápido; se for um especialista, poderá melhorar muito o que faz e usar seu domínio para refinar a entrega”, concluiu.

Para Paulo Bonucci, vice-presidente e gerente-geral da Red Hat para a América Latina, “não adianta você chegar com inteligência artificial assustando a todos, dizendo que vai faltar emprego”. Para o executivo, a transformação que a inteligência artificial promoverá nas empresas passa por uma transformação cultural nos profissionais. “A atenção principal enquanto se desenvolvem os códigos e as tecnologias de inteligência artificial são as pessoas, são os talentos”, acrescenta.

Chega a ser reconfortante ver lideranças de uma empresa desse porte –a Red Hat é a maior empresa de soluções empresariais open source do mundo– demonstrando essa consciência. Pois não se enganem: a inteligência artificial representa uma mudança de patamar tecnológico com um impacto semelhante ao visto com a introdução dos smartphones ou da própria Internet comercial.

A diferença é que, no mundo exponencial em que vivemos, as transformações são maiores e os tempos são menores. E nem sempre as empresas e ainda mais as pessoas têm sido capazes de absorver esse impacto.

 

Corrida do ouro

Infelizmente o que se vê é uma corrida tecnológica, que pode estar atropelando muita gente por descuido e até falta de ética de alguns fabricantes. “Existem empresas grandes que fazem anúncios quando sua tecnologia não está madura”, afirma Victoria Martínez, gerente de negócios e data science da Red Hat para a América’ Latina. “Essa corrida tornou-se muito agressiva”.

É interessante pensarmos que as pesquisas em inteligência artificial existem há décadas, mas o assunto se tornou um tema corriqueiro até entre não-especialistas apenas após o ChatGPT ser lançado, em novembro. Não é à toa que se tornou a ferramenta (de qualquer tipo) de adoção mais rápida da história: todos querem usar o robô para passar para ele suas tarefas. E, graças a essa corrida, isso tem sido feito de maneira descuidada, pois alguns fabricantes parecem não se preocupar tanto com perigos que isso pode representar.

“Isso é uma coisa que a gente deveria estar discutindo mais”, sugere Eduardo Shimizu, diretor de ecossistemas da Red Hat Brasil. “Entendo que nós, não só como especialistas em segurança ou em tecnologia, mas como seres humanos, precisamos discutir esses temas éticos da forma de usar a tecnologia”, acrescenta.

Martínez lembra das preocupações que educadores vêm apresentando sobre o uso de plataformas de IA generativas, como o próprio ChatGPT por crianças. “Não podemos esquecer de aprender o processo”, alerta. Em uma situação limite, seria como entregar uma calculadora a uma criança que não sabe sequer conceitualmente as quatro operações básicas. Ela se desenvolveria como um adulto com seríssimos problemas cognitivos e de adaptação à realidade.

Por isso, a qualquer um que não saiba fazer uma divisão deveria ser proibido usar uma calculadora. Por outro lado, para quem domina suficientemente a matemática, a calculadora e mais ainda uma planilha eletrônica são ferramentas inestimáveis.

É assim que devemos encarar essa mudança de patamar tecnológico. Como escreveu Hicks em um artigo recente, “não sabemos o que o futuro reserva –nem mesmo o ChatGPT é precognitivo ainda. Isso não significa que não podemos antecipar quais desafios enfrentaremos nos próximos meses e anos.”

Quaisquer que sejam, quem deve estar no comando somos nós. Os robôs, por sua vez, serão ajudantes valiosíssimos nesse processo.


Você pode assistir à íntegra em vídeo das minhas entrevistas com os quatro executivos da Red Hat. Basta clicar no seu nome: Matt Hicks, Paulo Bonucci, Victoria Martínez e Eduardo Shimizu.

 

Ian Wilmut, biólogo do Instituto Roslin (Escócia), e a ovelha Dolly, primeiro clone bem-sucedido de um mamífero - Foto: divulgação

Corrida pela inteligência artificial não pode driblar leis ou ética

By | Tecnologia | No Comments

Diante do acalorado debate em torno do “PL das Fake News”, muita gente nem percebeu que outro projeto de lei, possivelmente tão importante quanto, foi apresentado no dia 3 pelo senador Rodrigo Pacheco (PSD-MG): o PL 2338/23, que propõe a regulação da inteligência artificial. Resta saber se uma lei conseguirá conter abusos dessa corrida tecnológica ou sucumbirá à pressão das empresas, como tem acontecido no combate às fake news.

Talvez um caminho melhor seria submeter o desenvolvimento da IA aos limites da ética, mas, para isso, os envolvidos precisariam guiar-se por ela. Nesse sentido, outro acontecimento da semana passada foi emblemático: a saída do Google de Geoffrey Hinton, conhecido como o “padrinho da IA”. Ele disse que fez isso para poder falar criticamente sobre os caminhos que essa tecnologia está tomando e a disputa sem limites que Google, Microsoft e outras companhias estão travando, o que poderia, segundo ele, criar algo realmente perigoso.

Em entrevista ao The New York Times, o pioneiro da IA chegou a dizer que se arrepende de ter contribuído para esse avanço. “Quando você vê algo que é tecnicamente atraente, você vai em frente e faz”, justificando seu papel nessas pesquisas. Hoje ele percebe que essa visão pode ser um tanto inconsequente.

Mas quantos cientistas e principalmente homens de negócios da “big techs” também têm essa consciência?


Veja esse artigo em vídeo:


Isso me lembrou do início da minha carreira, como repórter de ciência, quando o mundo foi sacudido, em fevereiro de 1997, pelo anúncio da ovelha Dolly, o primeiro mamífero clonado com sucesso. Apesar de sua origem incomum, ela viveu uma vida normal por seis anos, tendo até dado à luz seis filhotes. Depois dela, outros mamíferos foram clonados, como porcos, veados, cavalos, touros e até macacos.

Não demorou para que fosse levantada a questão se seria possível clonar seres humanos. Ela rendeu até a novela global “O Clone”, de Glória Perez, em 2001. Em 2007, Ian Wilmut, biólogo do Instituto Roslin (Escócia) que liderou a equipe que criou Dolly, chegou a dizer que a técnica usada com ela talvez nunca fosse eficiente para uso em humanos.

Muitas teorias da conspiração sugerem que clones humanos chegaram a ser criados, mas nunca revelados. Isso estaria em linha com a ideia de Hinton da execução pelo prazer do desafio técnico.

Ainda que tenha se materializado, a pesquisa de clones humanos não foi para frente. E o que impediu não foi qualquer legislação: foi a ética! A sociedade simplesmente não aceitava aquilo.

“A ética da inteligência artificial tem que funcionar mais ou menos como a da biologia, tem que ter uma trava”, afirma Lucia Santaella, professora-titular da PUC-SP. “Se não os filmes de ficção científica vão acabar se realizando.”

 

A verdade irrelevante

Outro ponto destacado por Hinton que me chamou a atenção é sua preocupação com que a inteligência artificial passe a produzir conteúdos tão críveis, que as pessoas não sejam mais capazes de distinguir entre o que é real e o que é falso.

Ela é legítima! Já em 2016, o Dicionário Oxford escolheu “pós-verdade” como sua “palavra do ano”. Muito antes da IA generativa e quando as fake news ainda engatinhavam, esse verbete da renomada publicação alertava para “circunstâncias nas quais os fatos objetivos são menos influentes na opinião pública do que as emoções e as crenças pessoais”. De lá para cá, isso se intensificou exponencialmente: as pessoas acreditam naquilo que lhes for mais conveniente e confortável. As redes sociais levaram isso às raias da loucura e a IA generativa pode complicar ainda mais esse quadro.

“Não é que a verdade não exista: é que a verdade não mais importa”, acrescenta Santaella. “Esse é o grande problema!”

Ter ferramentas como essas abre incríveis possibilidades, mas também exige um uso responsável e consciente, que muitos não têm. Seu uso descuidado e malicioso pode ofuscar os benefícios da inteligência artificial, transformando-a em um mecanismo nefasto de controle e de desinformação, a exemplo do que foi feito com as redes sociais. E vejam como isso está destruindo a sociedade!

Se nenhum limite for imposto, as empresas desenvolvedoras da IA farão o mesmo que fizeram com as redes sociais. É uma corrida em que ninguém quer ficar para trás, pois o vencedor dominará o mundo! Para tornar a situação mais dramática, não se trata apenas de uma disputa entre companhias, mas entre nações. Ou alguém acha que a China está parada diante disso tudo?

Eu jamais serei contra o desenvolvimento de novas tecnologias. Vejo a inteligência artificial como uma ferramenta fabulosa, que pode trazer benefícios imensos. Da mesma forma, sou um entusiasta do meio digital, incluindo nele as redes sociais.

Ainda assim, não podemos viver um vale-tudo em nenhuma delas, seja clonagem, IA ou plataformas digitais. Apesar das críticas ao “PL das Fake News” criadas e popularizadas pela desinformação política e resistência feroz das “big techs” (as verdadeiras prejudicadas pela proposta), ele oferece uma visão equilibrada de como usar bem as redes sociais. Mas para isso, essas empresas precisam se empenhar muito mais, inclusive agindo de forma ética com o negócio que elas mesmas criaram.

Não percamos o foco no que nos torna humanos, nem a capacidade de distinguir verdade de mentira. Só assim continuaremos evoluindo como sociedade e desenvolveremos novas e incríveis tecnologias.

Nesse sentido, o antigo lema do Google era ótimo: “don’t be evil” (“não seja mal”). Mas em 2015, a Alphabet, conglomerado que incorporou o Google, trocou o mote por “faça a coisa certa”, bem mais genérico.

Bem, a coisa certa é justamente não ser mal.

 

Cena do filme “Eu, Robô” (2004), baseado na obra de Isaac Asimov, em que as máquinas seguem as “Leis da Robótica”

ChatGPT põe fogo no debate sobre regulamentação da inteligência artificial

By | Tecnologia | No Comments

O sucesso explosivo do ChatGPT deu novos contornos à discussão se a inteligência artificial deve ser, de alguma forma, regulada. Com 100 milhões de usuários em apenas dois meses, a plataforma da OpenAI tornou-se o produto com adesão mais rápida da história. Sua capacidade de gerar textos convincentes sobre qualquer assunto a partir de comandos simples colocou, em polos opostos, especialistas com fortes argumentos favoráveis e contrários ao controle dessa tecnologia.

De um lado, a turma que defende a regulação aponta que tanto poder computacional poderia causar severos danos ao tomar decisões potencialmente erradas em áreas sensíveis e diversas, como a saúde, a segurança pública ou até na condução de carros autônomos. Do outro, há os que argumentam que leis assim, além de que seriam difíceis de definir e aplicar, inibiriam o desenvolvimento de uma tecnologia que pode levar os humanos a um novo patamar de produtividade. Afirmam ainda que se penalizaria os sistemas, ao invés de criminosos que fizessem maus usos deles.

O fato é que criar um regulamento para uma tecnologia tão inovadora, abrangente e poderosa quanto a inteligência artificial é mesmo um desafio. Ela se desenvolve em uma velocidade estonteante e fica difícil imaginar como qualquer legislação pode acompanhar esse ritmo e o que representaria em um futuro breve.


Veja esse artigo em vídeo:


O Senado já se debruçou sobre o tema. Entre março e dezembro de 2022, uma comissão de 18 juristas debateu o assunto com membros da academia, da sociedade civil e de empresas. Ao final, elaborou uma proposta com 45 artigos e um relatório com mais de 900 páginas, que sugere restrições ao uso de reconhecimento facial indiscriminado por câmeras e a proibição de um “ranqueamento social” com base nas ações de cada pessoa, como acontece na China. Indica ainda que fornecedores ou operadores de sistemas de “alto risco” respondam por eventuais danos que causem.

Foram analisadas legislações aprovadas entre os países da OCDE (Organização para a Cooperação e Desenvolvimento Econômico). A União Europeia pretende chegar a um consenso de projeto regulador até março. Nos Estados Unidos, um comitê consultivo, criado em abril de 2022, espera apresentar uma lei nesse ano.

Mas vale dizer que tudo isso aconteceu antes do lançamento do ChatGPT, no dia 30 de novembro. E ele jogou por terra o que se sabia sobre IA para as massas. “Quando a gente fala em inteligência artificial, um dos grandes pontos sempre é como conseguir dar transparência, sem você violar a propriedade industrial ou intelectual”, explica Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propaganda e Marketing).

Esse é um dos problemas das “inteligências artificias generativas”, como o ChatGPT. Elas produzem coisas incríveis, mas não contam de onde vieram as informações de que “aprenderam” cada tema. Também não fica claro o que acontece “debaixo do capô”, os mecanismos que lhes permitiram chegar a suas conclusões. Para Crespo, “ao invés de simplesmente dizer ‘regular’, deve ser ‘regular pensando no quê’”

Já Paulo de Oliveira Júnior, consultor de inovação e desenvolvimento do Machado Meyer Advogados, afirma que a regulamentação é essencial. “É importante para que a gente possa garantir que a tecnologia não venha a causar nenhum dano para a sociedade, seja ela no campo social, econômico ou político”, explica, concluindo que “é importante que se tenha mais previsibilidade, à medida que a tecnologia vai fazendo parte do nosso dia a dia.”

 

Prós e contras

Além dos motivos já citados, os defensores de uma regulamentação argumentam que ela é necessária para se ter uma garantia mínima de proteção aos dados pessoais usados pelas diferentes aplicações da inteligência artificial. Afinal, se as redes sociais já abusam de nossas informações para fazer dinheiro, com a inteligência artificial, isso ficaria ainda mais difícil de se compreender e controlar.

A legislação também seria necessária para minimizar um problema que vem incomodando em diferentes usos da IA há muitos anos: sistemas que desenvolvem vieses. Isso pode acontecer pelas informações que consome, ao incorporar preconceitos dos desenvolvedores e até aprendendo dos próprios usuários.

Curiosamente um dos argumentos daqueles que são contrários a uma regulação é que as plataformas não poderiam ser responsabilizadas por esse mau uso, e que as pessoas é que deveriam ser controladas e até punidas. Eles também afirmam que esse controle seria falho, pois suas definições seriam imprecisas, criando confusão ao invés de ajudar o mercado.

Esse é um ponto a se considerar. Diversos países do mundo, inclusive o Brasil, estão há uma década tentando regular as redes sociais, sem sucesso. Nós mesmos estamos passando por uma bem-vinda discussão sobre como minimizar os efeitos nocivos das fake news, mas ela falha no ponto essencial de definir o que é desinformação de maneira inequívoca. E isso pode, não apenas impedir os efeitos desejados, como ainda criar um mecanismo de censura.

De forma alguma, isso significa que uma regulamentação não deva ser avaliada. É exatamente o contrário: precisamos de muito debate, incluindo todos os diferentes atores da sociedade envolvidos, para que uma lei não seja criada de maneira enviesada ou incompleta. Isso, sim, seria péssimo!

Especialmente em um país como o Brasil, em que o tecido social foi esgarçado nos últimos anos pelo mau uso de plataformas digitais e onde a violência lidera as preocupações dos cidadãos, é fácil defender um discurso de “vigilantismo”. Não é disso que precisamos!

“A gente vai ter que caminhar para uma regulamentação mais abrangente, que garanta os preceitos éticos e seguros, e cada setor da economia vai ter que fazer sua regulamentação específica”, sugere Oliveira. Já Crespo traz a ideia de que cada produto de IA a ser lançado passe por uma espécie de “relatório de impacto”. “Ele incluiria o que é, quais os principais benefícios e quais os possíveis riscos embarcados, trazendo uma previsibilidade”, explica.

Talvez o melhor caminho seja algo assim mesmo. E a “lei geral da inteligência artificial” poderia ser as Leis da Robótica, propostas pelo escritor Isaac Asimov, em 1942. São elas: “um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal”, “um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que entrem em conflito com a Primeira Lei” e “um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.” Mais tarde, ele acrescentou a “Lei Zero”: “um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.”

Se conseguíssemos garantir que todas as plataformas de inteligência artificial cumprissem essas quatro diretrizes, já seria um bom começo!

 

Onde está a verdade e por que precisamos dela

By | Jornalismo | No Comments

De tempos em tempos, uma pergunta me atormenta: por que parte da população se posiciona contra a imprensa, se ela é o melhor recurso que essas pessoas têm para se proteger de todo tipo de abuso dos mais diversos grupos de poder?

Como democrata, como pesquisador e como alguém que observa a atuação da imprensa em países de diferentes culturas, esse comportamento ainda me choca, mas há muito já não me surpreende. É relativamente simples de ser explicado e está intimamente ligado ao que é a verdade. Mas essa não é uma discussão acadêmica ou uma conversa que interesse apenas a jornalistas. Se não soubermos o que é a verdade e onde a encontrar, estamos condenados a uma vida miserável e cada vez mais servil.

Acontece que a verdade incomoda e é contrária aos interesses de quem precisa enganar para atingir seus objetivos. Por isso, os agressores da imprensa normalmente apoiam, de maneira consciente ou não, quem está “sentado no trono” no momento. Não é um fenômeno novo, mas acontece sempre e de maneira tão mais forte quanto mais autoritário for o governante.


Veja esse artigo em vídeo:


Há um versículo bíblico que vem sendo distorcido e usurpado à exaustão nos últimos tempos por esses governantes: “e conhecereis a verdade, e a verdade vos libertará.”

Oras, mas, afinal, o que é a verdade?

Ela não aparece facilmente. Precisa ser escavada e, em muitas ocasiões, só é encontrada ao se confrontar pontos de vista conflitantes sobre um mesmo assunto. Assim, a verdade surge das diferenças e, por isso, raramente está nas redes sociais. Afinal, seus algoritmos escondem de todos nós os pensamentos divergentes e reforçam os preconceitos.

É por isso que a imprensa se torna alvo desses grupos. Não estou aqui para fazer uma defesa inconsequente dela ou sugerir que seja perfeita: não é e nem tem a pretensão de ser. Entretanto, ao “ousar” ouvir os diferentes lados de um fato, o jornalismo pelo menos se aproxima do que está acontecendo no mundo, por mais incômodo que isso seja –e normalmente é para alguém.

Resgatando o versículo acima, a referida verdade que liberta implica na necessidade de vivermos conscientes do que nos cerca e da libertação que somente o conhecimento disso pode trazer. Não é de se admirar, portanto, que o Papa Francisco seja um defensor do jornalismo.

 

“Vem e verás”

No último dia 23, por conta da Jornada Mundial das Comunicações Sociais, que acontecerá no dia 16 de maio, o sumo pontífice publicou uma mensagem destacando a importância da imprensa na busca pela verdade. Mas afirmou que, para isso, os jornalistas precisam sair à rua, encontrar as pessoas, “gastar sola de sapato” (em suas palavras).

Para Francisco (e ele está certo), não se faz bom jornalismo apenas diante de uma tela: a verdade vem com a reportagem no local dos fatos. Segundo ele, “seria uma perda não só para a informação, mas também para toda a sociedade e para a democracia, se faltassem estas vozes: um empobrecimento para a nossa humanidade”. Portanto, bom jornalismo dá trabalho e só acontece quando seu compromisso é com o público!

Pode-se argumentar que veículos de comunicação pertencem a empresas, e elas, como qualquer outra, têm seus interesses, inclusive econômicos. Mas uma empresa de comunicação, mesmo longe de ser uma entidade imaculada, não é uma empresa comum: a verdade é sua matéria-prima e a reputação é o seu maior ativo, que só existe se lhe for concedida pelo seu público. Sem reputação, um veículo deixa de existir.

Seguindo nesse raciocínio, há alguns dias, revi o ótimo filme “The Post: A Guerra Secreta” (2017). Dirigido por Steven Spielberg e estrelado por Meryl Streep e Tom Hanks, conta (com riqueza de detalhes) a história real do escândalo dos “Pentagon Papers”, documentos ultrassecretos vazados do Pentágono em 1971 e que demonstravam que o governo mentia descaradamente há anos aos americanos sobre a Guerra do Vietnã.

Os documentos geraram reportagens no New York Times e no Washington Post, que enfureceram o presidente americano da época, o republicano Richard Nixon. O mandatário tentou ao máximo desacreditar e intimidar os jornalistas. Até mesmo quis impedir, na Justiça, a continuidade das reportagens que diminuiriam a popularidade de um presidente que brilhava, mas que era sujo. Os jornais venceram na Suprema Corte, irritando ainda mais Nixon. No ano seguinte, o mesmo Washington Post publicou reportagens que deflagaram o escândalo de Watergate, que levaria à renúncia de Nixon dois anos depois.

 

O trabalho é continuar

Todo governo, mesmo o mais democrático, adoraria ter uma imprensa dócil. Mas, nesse caso, não seria jornalismo: seria propaganda!

A imprensa tem que fiscalizar o governo, qualquer governo! Consequentemente, quanto mais autoritário for o mandatário, mais ele tenta calar, desacreditar e, se possível, destruir a imprensa. Por isso, se um veículo é muito atacado por um governo, deve estar fazendo bom jornalismo. Essa é uma métrica que funciona!

No julgamento do caso dos “Pentagon Papers”, o juiz Hugo Black disse: “Os Pais Fundadores deram à imprensa livre a proteção que ela deve ter para cumprir seu papel essencial em nossa democracia. A imprensa deveria servir aos governados, não aos governantes.”

A Justiça deve, portanto, garantir essa proteção, ao contrário do que temos visto frequentemente no Brasil, com incontáveis casos de censura judicial. A imprensa, por sua vez, deve necessariamente defender os interesses da sociedade, não os dos grupos do poder e muito menos os seus, como empresas.

Katharine Graham, então dona do Washington Post, interpretada por Meryl Streep no filme, arriscou ir para a cadeia e ver seu jornal fechado ao confrontar Nixon. Ainda assim, fez o que era certo. E, após sua vitória, sacramentou: “Nem sempre acertamos. Nem sempre é perfeito. Mas acho que, se apenas continuarmos, esse é o trabalho”.

Quantos teriam a coragem de fazer o certo com a faca de um presidente no seu pescoço, como ela fez?

A imprensa erra de vez em quando. Mas precisamos aprender a tolerar os erros que fazem parte do processo de construção da verdade. O que é inadmissível são mentiras deliberadas, venham de quem vier.

O fato é que a democracia vem sendo atacada em várias partes do mundo por aqueles que a juraram defender. A bizarra invasão do Congresso americano, no dia 6 de janeiro, incentivado pelo então ainda presidente Donald Trump, só fracassou porque as instituições republicanas e os militares dos EUA funcionam e não abrem mão da democracia, mesmo diante da pressão do presidente. E o mesmo pode ser dito da maioria dos órgãos de comunicação do país, que promovem a verdade.

Na mensagem do dia 23, o Papa Francisco disse ainda que “o próprio jornalismo, como exposição da realidade, requer a capacidade de ir aonde mais ninguém vai: mover-se com desejo de ver, uma curiosidade, uma abertura, uma paixão.” E, de fato, é preciso paixão pela verdade no jornalismo.

Em um famoso discurso em 1996, o jornalista e Nobel de Literatura Gabriel García Márquez concluiu que “ninguém que não tenha nascido para isso e esteja disposto a viver só para isso poderia persistir em uma profissão tão incompreensível e voraz, cujo trabalho termina a cada notícia, como se fosse para sempre, mas que não garante um momento de paz até que recomece com mais ardor que nunca no minuto seguinte.”

Portanto, a única maneira de escaparmos desse poço de areia movediça política e moral no qual já afundamos como sociedade até o pescoço é acreditando na verdade e em quem a busca. E ela não vem de quem precisa ficar fazendo bravatas o tempo todo para se reafirmar.

Cada um acredita no que quiser! Isso não quer dizer que existam incontáveis verdades para cada indivíduo chamar de sua. A nossa sobrevivência como uma sociedade organizada depende de identificar e apoiar aqueles que pelo menos tentam buscá-la, lutando pelos interesses públicos. Os demais –políticos, empresas, instituições preocupadas apenas com suas necessidades– devem ser varridos para o mais obscuro rodapé da história.

Do contrário, em breve estaremos nas ruas fazendo justiça com nossas próprias mãos. Armadas!

A boa imprensa tem lado, opinião e age com responsabilidade

By | Jornalismo | No Comments

Em uma semana com tantas notícias bombásticas que levaram à esperada vitória de Joe Biden para a presidência dos Estados Unidos, um acontecimento pode ter passado despercebido da maioria das pessoas. Na noite de quinta-feira, as três principais redes da TV aberta americana –ABC, CBS e NBC– e plataformas online de vários jornais do país literalmente cortaram no meio a fala ao vivo de Donald Trump. O motivo: para variar, ele estava despejando suas mentiras alucinadas. Dessa vez, atacava o sistema eleitoral americano pelo simples fato que sua derrota nas urnas era iminente.

Na hora, duas perguntas me vieram à cabeça.

A primeira é por que os veículos de imprensa nunca fizeram isso antes? Afinal, Trump é o “profeta do apocalipse das fake news” desde muito antes de ser presidente. E a imprensa sempre deu palco para esse maluco!

A segunda é: a imprensa pode fazer isso? Afinal, mesmo com Biden eleito, Trump ainda é o presidente, até que seu oponente vitorioso assuma o cargo, o que acontecerá apenas no dia 20 de janeiro.


Veja esse artigo em vídeo:


Em um primeiro momento, isso pode parecer só um dilema ético para jornalistas. Mas não é!

Todos nós, e não apenas os jornalistas, somos responsáveis pelo que dizemos, pelo que propagamos. Essa é uma responsabilidade que sempre tivemos, mas da qual estamos esquecendo por influência do falso véu do anonimato das redes sociais e do “efeito manada”.

Portanto, respondemos pelo que dizemos. Mais que isso: o que dizemos tem impacto real em quem está a nossa volta e, por extensão, na sociedade. Dessa forma, entender o papel e o poder da imprensa nos ajuda a entender o nosso.

Mesmo em tempos de domínio do Facebook e afins, a imprensa ocupa um papel de destaque nisso. Dessa forma, o jornalismo sério busca ser imparcial.

Mas, se é assim, as três grandes emissoras de TV americanas agiram certo ao cortar Trump? Isso seria censura?

A NBC, por exemplo, interrompeu a transmissão de Trump, e seu âncora Brian Williams disse “estamos aqui novamente na posição incomum de não só interromper o presidente dos Estados Unidos, mas também de corrigir o presidente dos Estados Unidos”.

E é exatamente isso que aconteceu!

Trump e todas suas cópias mal ajambradas pelo mundo, inclusive no Brasil, costumam bater no que chamam de “grande mídia”, dizendo que ela os censura, “calam o povo”, e que a verdade só existe nas redes sociais. Isso serve para usarem essas plataformas para mentir descaradamente sobre tudo, o tempo todo, para, assim, se manter no poder. E as pessoas que querem acreditar nisso, por qualquer motivo (além de um exército de robôs), legitimam seus crimes.

Ainda assim, se estamos em uma democracia, cortar Trump não é desrespeitar quem votou nele?

Essa é uma pergunta legítima. E eu a respondo com outra pergunta: o que você teria feito ao ver que o presidente da República estava usando você para espalhar mentiras perigosíssimas e ódio para a população, colocando em risco a própria sociedade?

 

O que é verdade?

Nesse ponto, podemos até mesmo questionar o que é a verdade. O filósofo alemão Friedrich Nietzsche disse que “não há fatos eternos, como não há verdades absolutas.”

Realmente elas são raras! Estão, por exemplo, em leis da ciência. Mas, para chegar a ser lei, uma teoria científica tem um longo caminho a percorrer.

Em muitos casos, a “verdade” pode ser um ponto de vista, e ainda assim ser apresentada como incontestável, mesmo de boa-fé.

O jornalismo encontrou, há muitos anos, uma maneira de minimizar esse problema, definindo que os profissionais devem ouvir o máximo de lados possível sobre um assunto. A verdade possivelmente será a média de todos eles.

A imprensa sempre foi o gatekeeper, aquele que decide o que deve e o que não deve ser visto, com o poder e o dever de não apenas informar, mas também de formar o cidadão. Isso é um poder gigantesco, que só pode ser exercido com grande responsabilidade.

Com a ascensão das redes sociais, esse poder se diluiu. Portanto a pergunta anterior, sobre o que todos nós devemos fazer diante de uma mentira, é justa.

Devemos escolher muito bem o que publicamos na “pequena mídia” que somos. Como temos observado nos últimos anos, em que todos se tornaram mídia graças às redes sociais, a disseminação de notícias falsas e de ódio tem um amplo poder destrutivo. Ecoar essas ideias irrestritamente, ainda que em nome de democraticamente dar voz a todos, é uma falácia, com consequências potencialmente desastrosas. Temos que entender, portanto, que isenção e independência não podem ser confundidas com irresponsabilidade ou deslumbramento sobre o que se publica, mesmo se quem tenha dito a barbaridade seja um presidente da República democraticamente eleito.

Todos merecem e devem ser ouvidos, desde que não estejam cometendo crimes ou deliberadamente mentindo para atingir seus objetivos. Como disse o cartunista e jornalista Millôr Fernandes, “as pessoas que falam muito, mentem sempre, porque acabam esgotando seu estoque de verdades”.

 

Escolha responsável de lado

Ter um lado não significa não ouvir o outro, calar ou censurar. Ter um lado significa defender um ponto de vista dando também bom espaço a quem pensa de maneira diferente, desde que todos os lados sejam legítimos. Afinal crescemos ao sermos confrontados com a diferença. Quem tenta calar a diferença, quem trata o opositor como um inimigo que deve, se possível, ser destruído não é legítimo, pois faz de tudo para tornar quem está a sua volta menor, para se manter no topo com a sua própria pequenez.

Se a verdade absoluta é difícil de ser encontrada, temos que, pelo menos definir o que é legítimo: é o que defende valores inegociáveis, como o direito à vida, à liberdade, à igualdade e a democracia.

Em sua fala de quinta (e em incontáveis outras), Trump feriu isso. Logo, os veículos de comunicação acertaram ao interromper o que dizia para restaurar os fatos. Escolheram um lado e agiram com responsabilidade.

Deveriam ter feito isso desde quando ele ainda era um pré-candidato à presidência dos EUA. Talvez nunca teria sido eleito, o que causou um dano gigantesco ao mundo todo, pela influência do cargo que ocupou por quatro anos. Em nome da democracia, deram espaço a suas ideias alopradas, talvez por que não achassem que aquele bufão pudesse ganhar qualquer coisa.

Mas ele ganhou! Até porque essa exposição permitiu que suas ideias ressoassem em grande parte da população, que “caíram no canto da sereia” e se viram representadas por ele.

Agora Donald Trump é o que os americanos chamam de “pato manco”: o presidente no período entre o resultado da eleição e a posse de seu sucessor. Ele ainda pode causar enormes danos aos Estados Unidos e ao mundo nesses dois meses e meio. Ficar dando palco a suas mentiras só permitirá que ele faça algo ainda pior.

A imprensa e todos nós devemos evitar isso!

Você pode dizer: “mas eu nem falo da eleição americana!” Correto! Ela foi apenas um gancho para esse debate.

O mesmo raciocínio se aplica ao cotidiano de cada um de nós. Não há nada de errado em escolhermos algo para defender. Muito pelo contrário! Mas devemos também dar espaço a ideias diferentes. Devemos acolhê-las, e não as silenciar! Caso contrário, usaremos esse grande poder que todos temos para nos tornarmos pessoas menores e também piorar a sociedade.

Isso ninguém quer. Precisamos escolher um lado, respeitar o outro e agir com responsabilidade.

 

Me engana, que eu gosto!

By | Tecnologia | No Comments

Será que chegamos em um ponto em que o fim justifica os meios, qualquer meio? Vivemos em um mundo de aparências em que só se consegue vender algo “dourando a pílula” além do limite da responsabilidade?

Felizmente a resposta é não. Mas, se você, como eu, acredita ser possível vencer falando a verdade e fazendo o bem, precisa entender os mecanismos desse novo mundo, para não ser soterrado por ele.

Existe um ditado que diz que “à mulher de César não basta ser honesta, deve parecer honesta”. Isso talvez servisse na Roma Antiga. Na atualidade, esse conceito se transformou em outra coisa.

Agora, para muita gente, não é preciso ser honesto: basta parecer honesto. E as redes sociais depois legitimam qualquer pecado. O problema é que, com isso, estamos perdendo a capacidade de diferenciar verdade de ficção, ou simplesmente da mais deslavada mentira.


Veja esse artigo em vídeo:


Estou terminando de assistir à segunda temporada da série “The Boys”. Apesar de ser uma história de ficção, com pessoas comuns enfrentando seres superpoderosos, ela embute uma feroz crítica ao mundo real.

A princípio, seu roteiro se baseia em uma paródia de super-heróis da DC: eles têm suas versões do Super-Homem, do Batman, da Mulher Maravilha, do Flash, do Aquaman e muitos outros. Mas o que seria a Liga da Justiça, nesse universo é representado por uma empresa, chamada Vought, que agencia os tais personagens para faturar bilhões de dólares com a exploração de sua imagem. E os “supers”, de heróis, não têm nada: são indivíduos de fato incrivelmente poderosos, mas egoístas, extremamente violentos e narcisistas.

A opinião pública continua, entretanto, vendo esses personagens como maravilhosos, graças a uma cuidadosa estratégia de marketing, ações judiciais intimidatórias e um uso eficientíssimo das redes sociais.

E aí a coisa começa a se parecer a nossa realidade.

Hoje podemos vender qualquer coisa a qualquer um. É só apresentar isso do jeito que as pessoas desejam.

O pacote chega a ser mais importante que o produto!

Não por acaso, “pós-verdade” foi escolhida como a palavra do ano de 2016 pelo Dicionário Oxford. Pela sua definição, o termo é “relativo ou referente a circunstâncias nas quais os fatos objetivos são menos influentes na opinião pública do que as emoções e as crenças pessoais”. Em outras palavras, as pessoas hoje acreditam muito mais em uma historinha bem contada, que as emocione por reforçar o que elas acreditam ou desejam.

Os superseres de “The Boys” são muito mais supervilões que super-heróis. Entretanto, graças à construção cuidadosa de sua imagem, a população os vê como seus benfeitores e protetores.

Já percebe semelhanças com o nosso mundo atual?

O ódio vende mais que o amor?

A série também se apropria de outra profunda mudança cultural do nosso mundo, que é a manipulação do ódio das pessoas para se atingir objetivos individuais.

Na sua primeira temporada, observa-se como a Vought investe milhões de dólares para fazer com que a população ame seu produto, ou seja, seus heróis. É uma estratégia de massificação da idolatria para se vender todo tipo de coisa, de filmes no cinema a copos dos personagens.

Ou seja, o bom e velho marketing, mais velho que bom.

Na segunda temporada, uma nova superser aparece, muito mais “antenada” com a sociedade. Ela percebe que não é mais possível conquistar toda um povo, e que obter o amor e a admiração das massas é cada vez mais difícil e pouco produtivo. Ao invés disso, descobre que é muito mais eficiente manipular o ódio de uma parcela menor da sociedade.

Como ela explica, é muito melhor ter soldados que fãs, que cinco milhões de pessoas com raiva são mais eficientes para vender qualquer coisa que cinquenta milhões que amam. Ela entendeu que não vivemos mais no mundo da cultura de massas, e sim da “viralização”.

Percebe alguma relação com a nossa realidade?

Trazendo para um produto real, que é consumido anualmente por milhões de pessoas, temos o Big Brother. Quando o programa estreou, há 20 anos, ele era dramaticamente diferente do que é hoje. Existia uma inocência quase pueril dos participantes das primeiras edições. Ela contrasta com movimentos friamente calculados dos atuais personagens. Sim, porque o que os competidores das edições mais recentes mostram, na “casa mais vigiada do Brasil”, não é o que eles realmente são, e sim imagens construídas para manipular o público.

Aliás, um dos critérios mais importantes para a Globo selecionar quem entra na casa nos últimos anos é justamente a capacidade que o jogador tem de trabalhar seu público nas redes sociais. Isso ficou escancarado na edição desse ano.

Eu me pergunto até quando essa manipulação pela pós-verdade é sustentável.

Difícil dizer.

Por um lado, as pessoas dão sinal de que estão cansadas dessas “formulinhas de lançamento”, que ficam “empurrando qualquer porcaria” sempre do mesmo jeito. Esse modelo começa a dar sinais de desgaste. Mas normalmente quem usa essas fórmulas são amadores, pessoas que têm um produto (na melhor das hipóteses) mediano e capacidade de comunicação limitada.

Aqueles que realmente dominam a capacidade de “viralização” de suas ideias e produtos estão muito à frente disso. Esses não param de crescer, o que demonstra que seu formato continua entregando o que as pessoas desejam ouvir, ressoando na parte mais primitiva de seus cérebros, aquela que cuida, por exemplo, de sua autopreservação. E isso não apresenta nenhuma indicação de enfraquecimento.

A única exigência é o “produto” conseguir sustentar sua imagem e suas ideias, porque, quando “a máscara cai”, o prejuízo é devastador e normalmente não tem volta. Então é preciso manter, o tempo todo, seus “soldados” aquecidos. É necessário estar em constante estado de alerta para manter o personagem vivo e seus ideais ativos junto ao seu público.

Pessoas de bem

Mas o que fazer se você não é nada disso, se você não topa fazer esse jogo sujo, se você quer vencer na vida dizendo apenas a verdade?

A narrativa das redes e seus algoritmos de relevância parecem invencíveis e inevitáveis, por isso são tão sedutores. O grande desafio de profissionais e de empresas que querem vencer sem usar esses métodos sórdidos é encontrar o seu caminho nessa realidade, para usar esses recursos para atender seu público.

Em primeiro lugar, é preciso ser honesto consigo mesmo. Ter apenas um produto incrível pode não ser mais suficiente para se ter sucesso: é preciso que esse produto atenda a necessidades de seus clientes.

Você conhece mesmo seus clientes, sabe quais são seus desejos e seus medos?

As mesmas redes sociais podem ajudar incrivelmente no processo de descoberta disso. E estou aqui falando de usos éticos e legais dessas plataformas.

Com essa informação, podemos saber onde as pessoas colocam valor no que fazemos: pode ser surpreendente descobrir que é em algo que nunca havíamos pensado. Com isso, podemos atualizar o nosso produto e criar comunicações mais eficientes.

Não estou dizendo para “abraçar o diabo”, e sim para aprender a jogar o jogo!

Não espere que as pessoas comprem de você apenas pelos seus lindos olhos. Isso não vai acontecer!

Você pode ter um produto incrível e morrer na praia com ele! Não cometa esse erro! Conquiste pela sinceridade e pela qualidade, mas também por uma entrega alinhada a seus clientes e uma comunicação eficiente. Então pare de olhar tanto para si mesmo, e comece a olhar para quem realmente importa, que é o seu público.

Você consegue fazer isso?

O digital lhe tornará um gênio ou uma besta: você decide

By | Tecnologia | No Comments

A tecnologia está literalmente nos transformando, de maneiras que a maioria das pessoas sequer imagina! Mas nos converte em que: gênios ou bestas?

Incrivelmente, a decisão está em nossas mãos!

Tenho acompanhado o crescimento de desconfiança em relação ao meio digital, especialmente às redes sociais. Sistemas que nos rastreiam e coletam nossos dados continuamente, algoritmos de relevância que nos empurram goela abaixo todo tipo de informação e nos manipulam, incontáveis notificações que nos mantêm continuamente engajados, fake news, deef fake, filtros bolha… Tudo isso existe mesmo e chega a ser assustador!

Entretanto, ninguém deixará de usar as redes sociais, buscadores, smartphones e outros recursos do mundo digital, mesmo sabendo que esses sistemas estão o tempo inteiro nos rastreando e coletando informações de todo tipo sobre nós.


Veja esse artigo em vídeo:


Não temos como colocar o gênio de volta na lâmpada!

Os meios digitais nos garantem altas doses de dopamina enquanto os usamos! Nossas vidas ficaram muto mais fáceis e divertidas com todos esses sistemas. Pagamos com o nosso tempo e a nossa atenção aos anunciantes dessas plataformas.

Mas o buraco é mais embaixo.

A superexposição aos recursos digitais está nos provocando alterações até mesmo do ponto de vista fisiológico.

Em 2011, a pesquisadora em psicologia Betsy Sparrow realizou um estudo na Universidade Columbia (EUA), que identificou alterações em nosso cérebro pelo uso do Google e de outros buscadores. Ela concluiu que, graças a ele, nós passamos a memorizar muito menos informação.

O Google não quis criar isso. Mas acabou promovendo a mudança.

Responda a si mesmo: de quantas pessoas você sabe o número de telefone de cor? Provavelmente muito poucas, possivelmente menos que dez! Mas se eu lhe fizesse essa pergunta há 15 anos, você provavelmente saberia o telefone de muita gente e até de empresas.

O que aconteceu? Estamos ficando mais burros?

Não é nada disso! Acontece que nosso cérebro tem uma plasticidade incrível! Informações ou habilidades que ficam menos importantes para nossa vida abrem espaço nele para novos recursos, que estamos efetivamente usando.

A pesquisa de Sparrow demonstra que toda a informação que sabemos que pode ser facilmente encontrada (por exemplo na Internet) é eliminada de nossa memória. Em compensação, melhoramos nossa capacidade de encontrar pessoas, objetos e informações com os recursos que tivermos a nossa disposição. Ou seja, refinamos uma habilidade importantíssima, a de encontrar o que procuramos, mas memorizamos menos coisas.

Essa conclusão é muito importante para ajustarmos como levamos nossas vidas e até como aprendemos coisas novas.

A diferença entre informação e conhecimento

Não é de hoje que observo como os alunos já chegam na sala de aula com uma quantidade incrível de dados, que eles encontram na rede.

Como professor, se eu ficasse simplesmente passando informação, como os professores costumavam fazer (e infelizmente muitos ainda fazem), seria um enorme desperdício de tempo! Muito melhor é ajudar os alunos a juntar as informações que todo o grupo traz para o debate e construir um conhecimento novo e útil a partir disso.

Podemos também pensar no varejo, como exemplo. Hoje, quando o cliente vai a uma loja para comprar algo, muito provavelmente já pesquisou sobre aquele produto na Internet e talvez tenha mais informação sobre ele que o próprio vendedor. Se ele tentar convencer o consumidor simplesmente passando esses mesos dados, corre o risco de perder a venda. Precisa trazer algo novo e contextualizado para aquele cliente! E aí a tecnologia pode ser de grande ajuda, pois ele pode receber, em tempo real, muitas informações valiosas sobre a pessoa que estiver a sua frente, para que ele mostre como o produto a ajudará a satisfazer suas necessidades específicas, e não coisas genéricas.

Isso é bom não apenas para o varejista (porque vai aumentar suas vendas), mas também para o consumidor, que levará para casa um produto que realmente atende suas expectativas, e não qualquer outra coisa, resultado de uma compra ruim.

Infelizmente nem todos estão dispostos a usar esses recursos, essa informação, essa transformação de maneira positiva. Muitos, possivelmente a maioria da população, entrará “no modo automático” e se deixará levar pelos infames algoritmos das plataformas digitais.

E aí é para se ter medo mesmo! Pois essas pessoas já se tornaram massa de manobra de grupos políticos, ideológicos e econômicos. Na prática, terceirizaram seu senso crítico, sua habilidade de pensar criativa e construtivamente.

Esse é um dos maiores desafios dessa geração, pois os sistemas dessas plataformas estão cada vez mais eficientes, para que elas se tornem mais sedutoras. Por outro lado, a turma que quer manipular a população para atingir os seus objetivos –muitas vezes condenáveis– domina mais e mais esses recursos.

Temos que recuperar as rédeas de nossa vida, ou esse poder de transformação do meio digital pode nos converter em bestas, quando poderia nos tornar gênios!

No momento, o lado ruim de toda essa entrega tecnológica está ganhando. Você não precisa ir longe para comprovar isso. Basta olhar, nas redes sociais que você usa, o nível das publicações.

É assustador como elas são rasas e de uma mesmice atroz! Parece que, qualquer que seja o assunto, acabamos tendo apenas algo como meia dúzia de opiniões, que são replicadas indefinidamente pela massa.

Somos seres pensantes, e não gado! Aliás, essa é uma das coisas que mais nos diferenciam de todos os outros animais.

Entretanto, bem em linha com as transformações promovidas em nós pelo meio digital, aquela visão medíocre da vida que se vê nos posts nas redes sociais já invadiu o cotidiano das pessoas. Tudo que é profundo, que exige mais pensamento, perde espaço para aquilo que é mais que simples: simplório! As pessoas querem coisas cada vez mais fáceis, mais básicas, mais rápidas, mais baratas, para um consumo desenfreado e descartável, com as mesmas características.

Vejo isso na evolução da pós-graduação, com o crescimento dos cursos de curtíssima duração, com poucas horas, e o encolhimento da procura por cursos com mais de um ano, como especializações e MBAs. Que dizer então de mestrados e doutorados?

Não há nada de errado em se aprender uma habilidade específica para aplicá-la imediatamente no seu cotidiano. Mas, se estamos sempre reclamando que nosso país e o mundo estão ruins, precisamos colocar mais de nós mesmos para mudar essa situação. Temos que sair da zona de conforto! Temos que desafiar o status quo!

Temos que usar os recursos digitais para nos tornarmos pessoas melhores, e não o contrário!

O discurso, o diálogo, as entregas estão muito empobrecidos! As pessoas estão perdendo a sua capacidade de pensar, de criar, de se libertar! Se isso continuar, teremos, em breve, um futuro distópico em que poucos grupos terão ainda mais controle sobre toda a população.

Temos que usar a tecnologia para nos livrar disso, e não para nos levar a isso.

Quais serão os seus próximos passos com ela?

Já é hora de sair das redes sociais?

By | Tecnologia | No Comments

Chegamos a um ponto em que deveríamos sair das redes sociais? Na verdade, dá para fugir de sua influência e da sua manipulação?

Cada vez mais, eu ouço pessoas se dizendo preocupadas com a quantidade de informações que todas as redes sociais coletam de nós e a crescente capacidade que elas têm de nos manipular. Sim, todas elas coletam uma quantidade obscena de informações de todos seus usuários.

Com isso, têm o poder de nos manipular ou pelo menos induzir sobre o que devemos ler, comprar, quem devemos seguir e até quem pode ser nosso novo melhor amigo. E isso é um poder sem precedentes na história da humanidade.

Há alguns dias, assisti ao documentário “O Dilema das Redes”, que estreou na Netflix no dia 9. Ele escancara como as redes sociais coletam continuamente as nossas informações, nos manipulam e até, de certa forma, como nos viciam.


Veja esse artigo em vídeo:


Como diz no documentário o professor da Universidade de Yale Edward Tufte, “existem apenas duas indústrias que chamam seus clientes de usuários: a de drogas e a de software”.

Para quem estuda o tema há anos, como eu, o filme não chega a trazer nenhuma grande novidade. Mas é interessante ver ex-executivos de gigantes do mundo digital contando claramente as ações mais sórdidas e condenáveis de seus antigos empregadores.

As redes fazem isso para ganhar dinheiro vendendo um dos commodities mais valiosos do mundo: a atenção das pessoas. Ou seja, empresas pagam para as plataformas digitais para que elas mostrem para nós produtos que tenhamos grande chance de comprar.

Portanto, nós não somos clientes das redes sociais; somos seu produto! Nós somos vendidos para os verdadeiros clientes, que são os anunciantes.

Isso é possível graças ao chamado “capitalismo de vigilância”, em que as empresas continuamente nos monitoram, coletando nossos dados, observando nossas ações, nossas conversas. Esse oceano de dados e a inteligência artificial de seus algoritmos lhes permitem antecipar tendências, prever comportamentos, descobrir nossos desejos e medos. Daí, para nos vender qualquer coisa, é só escolher no portfólio quase infinito de ofertas de anunciantes aquela que mais nos satisfaz.

Para isso, as redes devem nos manter continuamente “engajados”, para usar um termo popularizado por essas plataformas. Além disso, é interessante que sejamos afastados de pessoas que pensem de maneira diferente de nós, para reforçar nossas crenças, o que facilita as vendas.

Isso parece muito maquiavélico para você? E é mesmo!

Então por que aceitamos isso?

Porque nos causa prazer!

Viciados nas redes?

Temos necessidades biológicas ligadas a socialização. Precisamos conhecer e conversar com pessoas, e obter aprovação delas.

As redes nos oferecem isso em grande quantidade, ainda que superficialmente, o que libera dopamina em nosso cérebro. Ou seja, não somos viciados nas redes sociais, mas na dopamina que ela nos dá.

O filme mostra que isso acontece até com aquelas pessoas que dizem usar as redes sociais todos os dias, mas “apenas de maneira recreativa” e, por isso, dizem não ser viciadas.

Evidentemente elas estão erradas em algum grau!

Pesquisa da consultoria britânica GlobalWebIndex aponta que os brasileiros são o segundo povo que mais usa redes sociais no mundo, atrás apenas dos filipinos. Ficamos, em média, 225 minutos em redes sociais todos os dias, e esse tempo cresce continuamente.

Esse é o problema: nós queremos isso!

As redes sociais são uma perigosa zona de conforto para todos, acomodados por suas doses de dopamina e pelos serviços e facilidades, mesmo que isso nos mantenha em um “curral digital” à disposição dos sistemas.

Isso me lembra do filme “Matrix”, de 1999, na cena em que o personagem Cypher trai seus amigos humanos para que seja reconectado à Matrix. Mesmo sabendo que, na realidade, ele seria transformado em uma bateria viva para alimentar uma máquina, na sua mente ele teria a ilusão de uma vida de prazeres. E ele considerava uma ilusão doce melhor que uma realidade dura.

Quantos não pensam assim no mundo atual?

Sherry Turkle, professora do MIT (Massachusetts Institute of Technology) e autora do livro “Alone Together” ( “Sozinhos Juntos” em uma tradução livre), afirma que, à medida que a conexão digital com as pessoas aumenta, nossas vidas emocionais diminuem. Seu argumento é que, apesar de estarmos constantemente nos comunicando com outras pessoas pelas redes sociais, essas trocas acabam não sendo autênticas, o que nos leva à solidão.

Daí, no documentário, Tristan Harris, ex-especialista em ética de design do Google, compara as redes a chupetas que usamos quando estamos tristes ou sozinhos. Só que, como estamos cada vez mais tristes e sozinhos, recorremos o tempo todo a elas.

O psicólogo social Jonathan Haidt explica que isso está relacionado ao enorme aumento de depressão, ansiedade, suicídio e autoflagelo entre adolescentes nos Estados Unidos. Segundo ele, essa geração, que começou a usar as redes sociais durante a pré-adolescência, está mais frágil e se arrisca menos na vida.

Nosso cérebro não é capaz de acompanhar tanta informação, tantas notificações, tantas interações com tanta gente ao mesmo tempo. A ironia é que, quando tudo isso foi criado, aparentemente essas empresas entendiam que estavam fazendo algo positivo aos usuários. Mas depois perceberam o incrível poder que tinham em suas mãos. E decidiram usar isso!

E tem mais: outras empresas e pessoas perceberam que poderiam usar esses recursos para vender seus produtos e impor suas ideias. O mais incrível é que elas não “hackeiam” o Facebook: apenas fazem uso das ferramentas da plataforma.

Em um exemplo extremo, temos a eleição de Donald Trump com presidente dos Estados Unidos em 2016, que contou com o apoio decisivo da empresa Cambridge Analytica. Ela roubou os dados de 87 milhões de usuários do Facebook para que depois os manipulasse em favor da campanha. Esse escândalo, aliás, é retratado em outro ótimo documentário da Netflix, chamado “Privacidade Hackeada”.

Desse mesmo saco podre, vêm, por exemplo, a polarização ideológica extrema, o negacionismo e outros comportamentos cancerosos de nossa sociedade retroalimentados nas redes sociais.

Sem escapatória

Não há como fugir disso totalmente. Mas podemos fazer algo!

Não temos como escapar do rastreamento. Mesmo que eliminemos nossas contas nas redes sociais, continuaremos sendo monitorados pelo smartphone e uma quantidade crescente de equipamentos em casa, no ambiente externo e até no que vestimos!

O que temos que fazer é “furar nossas próprias bolhas”, não acreditar em tudo que as redes sociais nos apresentam. E não basta seguir pessoas que pensam diferentemente de nós: o algoritmo sempre vai descobrir a nossa zona de conforto para tentar nos colocar de volta na “nossa bolha”.

Precisamos exercitar a toda hora o nosso senso crítico, por mais que isso exija energia. Temos que nos balizar por valores que não podem ser relativizados ou esquecidos, como o direito à vida, a democracia, a liberdade de expressão, uma sociedade mais justa e uma convivência construtiva com todos. E isso deve ser feito com nossos valores, e não com o que as redes nos jogam na cara.

Temos que ser donos de nosso próprio destino, por mais difícil que possa parecer!

“O Dilema das Redes” começa com uma frase do dramaturgo grego Sófocles: “nada grandioso entra nas vidas dos mortais sem uma maldição”.

Temos que ter essa visão crítica de tudo na vida! Caso contrário, se terceirizarmos nossa capacidade de decisão aos algoritmos, aí sim seremos apenas massa de manobra.

Ataques a reputações nas redes sociais colocam toda a sociedade em risco

By | Tecnologia | No Comments

O uso crescente das redes sociais para destruir reputações de adversários começa a colocar em risco a própria sociedade. Isso acontece porque tais ataques se baseiam em uma eficiente manipulação dos algoritmos e em uma avalanche orquestrada de “fake news”.

Como resultado, a população começa a perder as referências para construção de confiança em pessoas, instituições e empresas. O risco para a comunidade existe porque, pela nossa natureza humana, só conseguimos construir algo com pessoas em quem acreditamos.

Oras, se não confiamos em mais nada e em mais ninguém, nos afastamos da nossa própria evolução! O mais triste é que isso acontece porque somos alegremente manipulados por grupos que promovem esse movimento para ampliar seus privilégios e aumentar seu poder.

Como exemplo, na semana passada, assistimos a tentativas nefastas de desmoralizar a ativista sueca Greta Thunberg, de 16 anos, após sua participação na cúpula do clima da Organização das Nações Unidas.

Precisamos reforçar nosso senso crítico, para que não sejamos mais peões nesse xadrez político e econômico! Veja como no meu vídeo abaixo. E depois conte a todos o que faz para escapar das “fake news” e das manipulações.



Quer ouvir as minhas pílulas de cultura digital no formato de podcast? Basta procurar por “O Macaco Elétrico” no Spotify, no Deezer ou no Soundcloud. Se preferir, pode usar seu aplicativo de podcast preferido. É só cadastrar nele o seguinte endereço: http://feeds.soundcloud.com/users/soundcloud:users:640617936/sounds.rss

Garry Kasparov enfrenta o supercomputador da IBM Deep Blue, em 1997 — Foto: reprodução

Até onde podemos ser iludidos pela Inteligência Artificial

By | Tecnologia | No Comments

Existe um ditado popular que diz, em tão jocoso, “me engana que eu gosto”. Ou seja, por qualquer tipo de conveniência, as pessoas podem acreditar em algo que sabem que não é verdadeiro. Entretanto, graças à Inteligência Artificial (IA), isso está ganhando novos contornos.

Com o avanço da tecnologia, sistemas hoje já conseguem se passar, de maneira convincente, por seres humanos, criando formas de interação bastante naturais com as pessoas oferecendo diferentes serviços. Entre os exemplos mais comuns estão os sistemas de atendimento ao público, os “chatbots”.


Vídeo relacionado:


Esqueçam as vozes metalizadas ou as interações do tipo “pressione 1 para cobrança; pressione 2 para crédito; pressiona 3 para falar com um de nossos atendentes”. Uma das características dos novos sistemas é a linguagem natural, que permite que os comandos sejam feitos em uma conversa livre, e as respostas sejam dadas da mesma forma: o sistema é capaz (ou pelo menos tenta) entender o que o cliente deseja, e busca lhe oferecer a melhor alternativa disponível, quaisquer que sejam as palavras usadas pela pessoa.

Em 2018, o Bradesco trouxe isso para um atendimento comercial de massa, com o lançamento da BIA, acrônimo para “Bradesco Inteligência Artificial”. Trata-se de um sistema de autoatendimento construindo a partir do Watson, da IBM, para atender, com linguagem natural, os clientes do banco. É possível até mesmo fazer perguntas que não têm a ver com transações bancárias (e algumas serão respondidas assim mesmo).

A equipe responsável levou três anos para “calibrar” a BIA, ou seja, oferecer a ela as informações e a capacidade de aprender suficientes para ser lançada comercialmente. E, graças à computação cognitiva da IBM, a BIA literalmente continua aprendendo, à medida que é usada pelos clientes do Bradesco.

Mas para se ter uma experiência bastante interessante disso, basta usar os assistentes virtuais de seu celular: a Siri (para iPhones) e o Google Now (para smartphones Android) já respondem a nossos pedidos em linguagem natural. E estão cada vez mais eficientes, tanto para entender o que queremos, quanto para nos responder.

Experimente dizer “eu te amo” à Siri ou perguntar “quando é o próximo jogo do Timão” ao Google Now.

De onde veio e para onde vai?

Os assistentes virtuais não são exatamente uma novidade. O primeiro deles data de 1966. Chamado de ELIZA, demorou dois anos para ser desenvolvido por Joseph Weizenbaum no laboratório de inteligência artificial do MIT (EUA), e buscava simular um psicólogo aconselhando seus pacientes por mensagens escritas. Apesar de bastante rudimentar, as pessoas necessitavam realizar várias trocas antes de perceber que não estavam conversando com outro ser humano.

De lá para cá, as pesquisas cresceram incrivelmente, seja por sistemas mais inteligentes, seja por equipamentos mais poderosos, que permitem a realização de milhões de combinações por segundo. E, como na maioria dos casos, o processamento se dá em servidores remotos e não no equipamento do usuário (como seus smartphones), o avanço das telecomunicações também é essencial.

Em maio de 2018, uma demonstração no Google I/O, congresso mundial de desenvolvedores da empresa, deixou muita gente de boca aberta. Tratava-se de uma evolução do Google Now, batizado de Google Duplex, que, por telefone e diante de todos, marcou um corte de cabelo e fez uma reserva em um restaurante, sem que os atendentes dos estabelecimentos se dessem conta que estavam falando com uma máquina. A linguagem natural usada pelo sistema era tão perfeita, que muitas pessoas duvidaram que aquilo seria real, apesar de a empresa afirmar categoricamente que sim. Em alguns casos, o sistema parecia falar melhor que os próprios interlocutores humanos com quem estava interagindo por telefone.

Em fevereiro de 2019, a IBM promoveu um debate público sobre educação entre seu sistema de IA Project Debater e o debatedor profissional Harish Natarajan. Apesar da natureza totalmente aberta do tema, para muita gente o sistema foi melhor que o ser humano.

A IBM, aliás, tem história em colocar seus sistemas de IA em confronto com pessoas. Nos anos 1990, seu supercomputador Deep Blue jogou xadrez com o então campeão mundial Garry Kasparov, em dois matches de seis partidas cada. O primeiro foi vencido por Kasparov e o segundo pelo Deep Blue. O campeão chegou a acusar a máquina de manipulação fraudulenta após ser derrotado.

A máquina tem ética?

O fato é que esses sistemas, cada vez mais parecidos com seres humanos em suas interações, são capazes de processar muito mais informações que nós, e têm acesso a muito mais dados do que qualquer ser humano. Isso levanta algumas questões éticas importantes: diante disso tudo, as máquinas poderiam se tornar capazes de nos convencer de qualquer coisa, muito além do que outra pessoa faria?

Afinal, se o nosso interlocutor parece ter o argumento definitivo para contrapor qualquer coisa que digamos, ele está em uma condição claramente vantajosa. Os computadores já têm isso há algum tempo, mas seu diferencial no convencimento desaparece diante do fato de que as interações não são naturais. Em outras palavras, subimos automaticamente nossas defesas para não sermos enganados por uma máquina.

Entretanto, diante dessa nova realidade em que nos encontramos, isso pode deixar de existir. O Google Duplex demonstrou que, por telefone, já não haveria como diferenciar as falas de uma máquina das de uma pessoa.  E quando isso acontecer também presencialmente, com robôs simulando convincentemente os corpos humanos?

O assunto é abordado exaustivamente pela ficção científica. Minha lembrança mais antiga disso é do primeiro “Blade Runner”, de 1982, com seus “replicantes”, robôs tão humanos que alguns nem sabiam da sua natureza artificial, achando que eram pessoas. Como dizia o slogan de seu fabricante, eram “mais humano(s) que o humano”.

Mais recentemente, o episódio “Volto Já”, o primeiro da segunda temporada (de 2013) da série “Black Mirror”, reacendeu o debate, quando a protagonista contrata o serviço de uma empresa que cria robôs capazes de simular o corpo e a mente de entes queridos falecidos. No caso da personagem, ela quase embarca na fantasia de que aquela máquina era seu marido morto. Só não fez isso porque o sistema, afinal, não conseguiu captar as sutilezas de sua personalidade.

Mas e se conseguisse? Ela teria se deixado enganar por aquela ilusão cibernética cuidadosamente elaborada? E, caso assim fizesse, ela poderia ser julgada por isso? Afinal, a máquina seria uma cópia praticamente fiel de seu finado esposo, e serviria para lhe aplacar a dor da perda.

O fato é que podemos estar muito perto de sistemas que sejam capazes de nos iludir e até mesmo manipular para atingir os objetivos de seus fabricantes, por terem sempre os melhores argumentos e se comportarem e parecerem com seres humanos. A máquina não tem ética e nem pode ser culpada se fizer algo que contrarie o que achemos correto. Quem precisa cuidar disso é seu fabricante.

Do nosso lado, precisamos ter esse debate sempre em dia, para que tenhamos esses recursos da tecnologia a nosso favor, tornando nossa vida mais produtiva, fácil, divertida. Podemos, sim, ser iludidos pelas máquinas, desde que seja o que deliberadamente queiramos, por mais que isso possa parecer paradoxal.


E aí? Vamos participar do debate? Role até o fim da página e deixe seu comentário. Essa troca é fundamental para a sociedade.


Artigos relacionados:

Videodebate: tem gente roubando seu lugar!

By | Tecnologia | No Comments

Não olhe agora, mas tem um monte de “picaretas” roubando os seus clientes ou o seu trabalho!

É isso mesmo! Uns caras que sabem muito menos que você estão lhe dando uma rasteira! E, se duvidar, eles sabem tão pouco, que até colocam a vida das pessoas em risco!

E você fica aí, praguejando da “sorte” que os danados têm…

Muita calma nessa hora! Pela minha experiência, não existe essa tal de “sorte” no trabalho.

Sim, é verdade que essas criaturas existem mesmo, e estão ocupando um espaço indevido. Mas não é por acaso, e muito menos por sorte. Eles sabem muito bem como atingir seus resultados. De um jeito torto, mas sabem.

Digo mais: você também tem culpa nisso tudo! E não adianta ficar bravo.

Veja meu vídeo abaixo, e depois vamos debater aqui nos comentários: o que fazer para ocupar o espaço que é SEU?