redes sociais

Alfie (Lucien Laviscount) e Emily (Lily Collins), com a torre Eiffel ao fundo, em cena de “Emily em Paris” – Foto: reprodução

O que “Emily em Paris” diria sobre o câncer de mama

By | Tecnologia | No Comments

Que o apreço pela verdade anda em baixa, não é surpresa. Há muitos anos, a pós-verdade, aquela que prega que a versão dos fatos que interessam às pessoas é mais importante que os fatos em si, tornou-se uma muleta que justifica que pensem e façam o que quiserem, por mais absurdo que seja. Mas observo apreensivo uma nova fase dessa “paranoia coletiva”, em que alguns esperam que a própria realidade se curve aos seus devaneios, como se fossem o centro de seus próprios universos.

Isso se manifesta de maneira mais ou menos escancarada. Um dos exemplos mais emblemáticos e antigos é aquela turma que insiste que a Terra seja plana, contrariando evidências tão enormemente abundantes, que tornam essa crença caricata e patética.

Às vezes, esse descolamento da realidade se torna tragicômico. Por exemplo, a série “Emily em Paris”, sucesso adolescente da Netflix, mostra uma França “perfeita”, que parece gravitar em torno da torre Eiffel, sem moradores de rua, sujeira, crimes ou ratos. Disso surgiram turistas abobalhados que vão a Paris e ficam indignados quando descobrem que ela –como qualquer cidade– não é daquele jeito, e tem problemas!

Em outros casos, as consequências podem ser graves, como em episódios recentes no Brasil de uma médica afirmando nas redes sociais que o câncer de mama não existe e de um médico que disse que a doença pode ser causada por mamografias. Se o fato de profissionais de saúde dizerem algo que pode literalmente matar pessoas não fosse grave o suficiente, esses posts legitimaram que uma legião de pessoas que, por qualquer motivo “não acreditam na doença”, viesse a público “expor essa verdade”.

Os três exemplos, apesar de muito diferentes entre si, guardam uma raiz comum que corrói a sociedade há anos: quando qualquer um pode arrebanhar uma multidão com distorções deliberadas do real, os ganhos civilizatórios começam a colapsar.


Veja esse artigo em vídeo:


Uma pergunta que surge naturalmente é por que alguém comete um desatino desses?

O caso dos médicos é ilustrativo. Eles realmente acreditam naquilo, o que faria deles reprodutores inocentes de um processo anterior de desinformação, ou têm interesses próprios e, portanto, se configurariam como criadores? Os casos estão sendo investigados pelos respectivos Conselhos Regionais de Medicina. No caso da médica, ela também está sendo processada pelo Colégio Brasileiro de Radiologia.

O câncer de mama é a principal neoplasia maligna entre as brasileiras, com mais de 70 mil novos casos por ano por aqui. Em 2022, matou 19.130 mulheres no Brasil. Quanto à mamografia, ela é a principal forma de prevenção de mortes pela doença.

Também podemos aprender com “Emily em Paris”. A série conta a vida de uma jovem publicitária americana que desembarca na Cidade-Luz para trabalhar. Atrapalhada e bem-intencionada, ela colhe tanto vitórias no trabalho, quanto confusões em relacionamentos. Mas chama atenção as locações e figurinos brilhantes, novos, limpos, com cores saturadas. A protagonista sempre veste alta-costura, troca de roupa várias vezes a cada episódio e nunca repetiu um modelo em quatro temporadas no ar!

Pode-se argumentar –com razão– que se trata apenas de entretenimento. Os roteiristas da série não buscam promover a desinformação. Entretanto, acabam contribuindo para um caldo de degradação cognitiva de pessoas que cada vez menos toleram que a vida não seja como imaginam ou esperam. Perdem a capacidade de separar fantasia de realidade, e atacam quem lhes mostra os fatos.

Não se pode desprezar as causas e as consequências de nada disso.

 

Sociedade autodestrutiva

Um estudo de 2021 do instituto britânico Alan Turing detalhou como uma sociedade pode ameaçar a própria sobrevivência, com ataques deliberados à capacidade de se adquirir conhecimento. Para a líder do estudo, Elizabeth Seger, da Universidade de Cambridge, “mesmo que estivesse claro como salvar o mundo, um ecossistema de informações estragado e não-confiável poderia impedir que isso acontecesse”.

Segundo a pesquisa, há quatro ameaças a isso, e nenhuma ao acaso. A primeira são pessoas que atrapalham as decisões com desinformação, algumas agindo de maneira consciente, outras inocentemente. Há ainda um excesso de informação que sobrecarrega nossa concentração, dificultando separar verdades de mentiras. As pessoas também se acostumaram a rejeitar o que desafia suas ideias, particularmente se houver uma forte identidade no grupo, criando o que os pesquisadores chamaram de “racionalidade limitada”. E, por fim, as redes sociais tornaram mais difícil avaliar a confiabilidade das fontes. O estudo conclui que, quando não sabemos em quem acreditar, confiamos naquilo que nos mostra o mundo como queremos.

Há alguns dias, discordei do professor da Universidade de Oxford William Dutton. Ele acredita que as mídias digitais podem disseminar informações enviesadas, mas afirma que as pessoas não são passivas, podendo encontrar facilmente a verdade na Internet ou com amigos e familiares, se assim desejarem. Até diminuiu a importância dos “filtros de bolha”, a que chamou de um “mito tecnológico determinista”. Afirmou ainda que o problema não são as plataformas, e sim os usuários. “Se quiserem, então sabem que podem obter o que desejarem deste canal de televisão e deste site, e ficarão felizes”, acrescenta.

Outro estudo, organizado em 2017 pelo Conselho da Europa e liderado por Claire Wardle, da Universidade de Harvard, trata da “desordem informacional”. Ela se divide em desinformação (informação deliberadamente errada para causar danos), informação falsa (errada, mas sem intenção de causar danos) e informação maliciosa (correta, mas usada para causar danos). Também explica que é preciso considerar quem são os agentes (quem cria e distribui a mensagem, e qual sua motivação), as mensagens em si, e os intérpretes (quem as recebe e suas interpretações).

Essas pesquisas demonstram, entre tantas outras, que as pessoas não conseguem sair facilmente da desinformação, especialmente quando 47% dos brasileiros deliberadamente se recusam a consumir notícias, como demonstrou o Digital News Report 2024, publicado em junho pelo Instituto Reuters e pela Universidade de Oxford. O estudo diz ainda que apenas 43% dos brasileiros confiam no noticiário, o pior índice já registrado no país.

Em um mundo antes da pós-verdade, a vida fantasiosa de Emily seria apenas deleite para os olhos. Mas no cenário de negação em que vivemos, ela inadvertidamente contribui para a desordem informacional. Ainda assim, a jovem personagem, que sempre busca o melhor para todos, jamais negaria a existência do câncer de mama! Pelo contrário: provavelmente encontraria uma forma genial de usar as redes sociais para a conscientização da sociedade para esse gravíssimo problema de saúde.

 

Projeto de lei em debate no Congresso Nacional pode restringir celulares nas escolas já no ano que vem - Foto: Freepik/Creative Commons

Celular na sala de aula não deve ser banido, e sim usado com orientação

By | Educação | No Comments

Ao que tudo indica, o próximo ano letivo começará com os celulares restritos nas salas de aula. Em um raro consenso entre governo e oposição, um projeto de lei que disciplina seu uso deve ser aprovado até o fim do ano no Congresso Nacional. E apesar de eu concordar com a restrição, fico apreensivo com declarações de todos os lados que demonizam smartphones e outras tecnologias em sala de aula.

Esse pensamento torna o debate mais raso e prejudica a possibilidade de crianças e adolescentes aprenderem a usar esses recursos de forma consciente e produtiva. Em um mundo profundamente digital, a simples proibição pode levar a um uso desses equipamentos descontrolado e escondido, o que pode ter consequências negativas.

Todos nós sofremos com as distrações causadas pelos smartphones e suas intermináveis notificações, que sequestram nossa atenção. Para uma criança ou adolescente, essa sedução pode ser muito maior: pesquisas indicam que os alunos podem levar até 20 minutos para se concentrar novamente no que estavam aprendendo depois de usarem o celular para atividades não-acadêmicas. E mesmo o aparelho desligado pode levar a problemas de aprendizagem.

Nesse sentido, não resta dúvida de que os alunos não devem ter acesso livre ao equipamento nas aulas. Especialistas defendem que não o usem nem no recreio, pois ele também comprometeria atividades de socialização típicas daquele momento.

Isso é muito diferente de não usar os celulares com objetivos pedagógicos. Mas desperta outras preocupações, como se o professor está preparado para essa tarefa e se o celular do aluno deveria ser usado nesse caso, o que lhe daria, por exemplo, aceso a suas redes sociais, um verdadeiro “dreno de atenção”.


Veja esse artigo em vídeo:


O consenso entre governo e oposição pode estar associado ao faro político de que a população apoia fortemente a proibição dos celulares em sala de aula. Segundo pesquisa feita recentemente pelo Datafolha, 62% dos brasileiros com mais de 16 anos querem isso. E 76% dos entrevistados acham que o celular traz mais prejuízos que benefícios ao aprendizado, índice que aumenta entre os pais.

O projeto em debate na Câmara prevê que alunos até o quinto ano não possam ter o celular nem na mochila. Já os do sexto ano até o fim do Ensino Médio poderiam levar o equipamento, mas sem usá-lo na sala de aula ou no recreio. Eles seriam permitidos em atividades pedagógicas, com orientação dos professores, e para estudantes com necessidades especiais, que dependam do aparelho para acessibilidade. As escolas públicas e privadas decidiriam como seria a implementação dessas medidas.

As principais evidências que apoiam essa medida vêm do Relatório Global de Monitoramento da Educação, publicado pela Unesco (Organização das Nações Unidas para a Educação, a Ciência e a Cultura) em julho de 2023. Intitulado “A tecnologia na educação, uma ferramenta a serviço de quem?”, compilou estudos que relacionam o uso de celulares e resultados educacionais em 14 países. A conclusão foi de que os efeitos são negativos, principalmente na memória e na compreensão.

O relatório não sugere a proibição irrefletida, e sim que, se usado em excesso ou para atividades não-pedagógicas, os celulares trazem malefícios. “Banir a tecnologia das escolas pode ser legítimo se a integração não melhorar o aprendizado ou piorar o bem-estar do aluno”, diz uma das conclusões. “Trabalhar com tecnologia nas escolas e seus riscos pode exigir algo mais do que o banimento”.

O texto ainda diz que “deve haver clareza sobre o papel que essas novas tecnologias desempenham na aprendizagem e sobre seu uso responsável pelas escolas” e que os alunos “precisam aprender os riscos e oportunidades que vêm com a tecnologia, desenvolver habilidades críticas e entender como viver com e sem tecnologia”.

O abuso do celular e de outras telas por crianças e adolescentes transcende as salas de aula. Normalmente ele é ainda mais intenso em casa, longe dos olhos de pais trabalhando. Muitos até mesmo incentivam o uso da tecnologia, como uma “babá eletrônica”, sem qualquer monitoramento ou orientação. E isso vem agravando problemas de saúde mental nessa faixa etária.

 

Um mundo digital

Segundo a pesquisa TIC Kids Online Brasil 2023, publicada em setembro pelo Cetic.br, órgão de pesquisas ligado ao CGI.br (Comitê Gestor da Internet no Brasil), 28% das escolas de ensino básico públicas e particulares no país proíbem os celulares, enquanto 64% delas permitem com restrições a espaços e horários.

O levantamento também indicou que 95% dos brasileiros entre 9 e 17 anos usam a Internet, quase todos com acesso ao celular. O primeiro contato se deu até os 6 anos de idade para 24% (eram 11% em 2015) e entre 7 e 9 anos para 27%, contrariando especialistas, que sugerem que isso só aconteça na adolescência. Em contrapartida, 580 mil brasileiros nessa faixa nunca tinham acessado a Internet.

Esses números são muito emblemáticos. O celular está impregnado na vida de crianças e adolescentes, que criam contas em redes sociais antes mesmo da idade mínima definida por essas plataformas, com ou sem consentimento dos pais. Esses por sua vez, querem ver o celular fora das aulas, mas muitos paradoxalmente exigem que as escolas permitam que entrem em contato com os filhos a qualquer momento.

No meio disso tudo, fica o professor, acuado por pais e estudantes, e sem saber como usar pedagogicamente a tecnologia. E disso vêm preocupações que as escolas devem endereçar quando essas regras forem implantadas.

Apesar de o projeto de lei ser calcado em estudos sérios, há um certo oportunismo político nele. E gostaria de ver esses pais que disseram querer a proibição dos celulares na escola bancando isso com seus próprios filhos.

Em qualquer cenário, o professor continuará sendo o condutor do processo educacional. Assim ele deve receber apoio do governo, das escolas e das famílias para fazer um uso consciente e construtivo não apenas de smartphones, mas também da inteligência artificial nas salas de aula. Os celulares devem ser restritos na maior parte do tempo, mas usados em atividades pedagógicas, de preferência em equipamentos que não sejam dos próprios alunos.

A proibição pura e simples preservará a saúde mental e eliminará os graves problemas apontados pela Unesco, o que é essencial! Mas também impedirá a chance de criarmos uma geração que faça um uso consciente de tecnologias que moldarão suas vidas de agora em diante.

 

O historiador Yuval Noah Harari, para quem robôs que imitam humanos ameaçam a democracia - Foto: Ciaran McCrickard/Creative Commons

Robôs que fingem ser humanos ameaçam a democracia

By | Tecnologia | No Comments

Desde que o austríaco Fritz Lang levou o robô Maria para as telas, no cultuado “Metropolis” (1927), máquinas fingindo ser pessoas vêm sendo exploradas pela ficção. Ainda que de maneira bem diferente de livros e filmes, nunca estivemos tão perto de isso acontecer, com profundos impactos sociais.

Considerado um expoente do expressionismo alemão, o filme retrata um futuro distópico, que curiosamente se passa em 2020. Nele, governantes que temem uma revolução popular usam uma máquina que falsifica a verdadeira Maria, uma mulher carismática e que prega paz e esperança, para semear o caos entre os trabalhadores.

Na nossa realidade, os robôs mais avançados não têm corpos, mas enganam ao se comportarem como humanos. Eles transmitem ideias de maneira muito convincente, falando como nós. E isso pode transformar a sociedade mais que a Maria de Lang.

No mês, passado, Yuval Noah Harari argumentou em um artigo que a capacidade de a inteligência artificial convencer pessoas melhora à medida que esses sistemas se parecem mais com seres humanos. Como explica o historiador e filósofo israelense, a democracia depende de diálogo, e debates nacionais só se tornaram e se mantêm viáveis graças a tecnologias da informação, como os jornais e a TV.

Logo, qualquer mudança tecnológica pode impactar o diálogo e, consequentemente, a democracia. O irônico é que passamos agora, com a IA, pela maior transformação em décadas, mas seu impacto no diálogo não se dá por ampliar a troca de ideias, mas por ser uma ferramenta excepcional de manipulação das massas.

A pergunta que surge é: até onde esses “falsos humanos” podem prejudicar nossa capacidade de fazer escolhas conscientes sobre o que realmente é melhor para nós?


Veja esse artigo em vídeo:


Pudemos comprovar isso no primeiro turno das eleições, que aconteceu nesse domingo. Seguindo o padrão dos pleitos anteriores, os candidatos com propostas sensatas perderam espaço para quem se apresentou como “antissistema” ou que, no mínimo, propôs grandes mudanças, por mais que fossem esdrúxulas.

Esses candidatos entenderam algo que as redes sociais descobriram há alguns anos: as pessoas curtem, comentam e compartilham o que lhes desperta sentimentos nada nobres, como ódio, ganância e medo. Como vivem de engajamento, seus algoritmos promovem ativamente esses conteúdos. Esses políticos souberam se apropriar de tal recurso, agindo nesses sentimentos, para que aparecessem mais em nosso cotidiano.

Justamente aí a inteligência artificial pode ter um efeito nefasto. Apesar de depender de comandos humanos para funcionar, ela identifica padrões com eficiência sobre-humana, incluindo o que desperta aqueles sentimentos no eleitorado. Com tal informação, essa tecnologia produz para os políticos o material necessário para que se mantenham em evidência com o apoio das redes sociais.

A velha máxima do “falem bem ou mal, mas falem de mim” ganha nova dimensão. No deserto de ideias resultante, além das redes sociais, os outros candidatos e a própria imprensa acabam fazendo o jogo sujo dos “valentões”, que sequestram o tempo e a atenção das pessoas. Nesse vazio, cresce quem simplesmente aparece mais.

Nas minhas viagens pelo mundo, comprovei que a saúde de uma democracia estava ligada à qualidade de sua imprensa, que usa a tecnologia para informar, defender e fortalecer a população. O “problema” é que sua ferramenta é a verdade, que normalmente é muito menos atraente que as mentiras excitantes dos candidatos.

Dessa forma, os políticos atuam na corrosão da confiança das pessoas na imprensa. Por mais que ela faça um bom trabalho, seu papel na preservação da sociedade se enfraquece, pois sua mensagem agora ressoa menos no público. E as redes sociais, que viabilizam isso tudo, se isentam candidamente de qualquer responsabilidade.

Não é de se estranhar, portanto, que 47% dos brasileiros se recusem a consumir qualquer notícia. O número é do Digital News Report 2024, publicado em junho pelo Instituto Reuters e pela Universidade de Oxford. Em 2023, esse índice era de 41%.

 

Às favas com a verdade!

Inicialmente, acreditava-se que as pessoas eram manipuladas pelo convencimento dos algoritmos das redes sociais. E ainda que isso seja verdade para uma parcela muito significativa da população, sabe-se que o mecanismo é mais complexo que isso.

As pessoas acreditam no que lhes convier! Por mais absurda que seja a tese lançada por um político, muita gente não apenas compra a ideia, como ativamente a distribui por todos os meios que dispuser. A imprensa que mostra a falcatrua passa a ser vista como uma inimiga a ser desacreditada e silenciada.

Mas a eleição de 2022 ampliou a deterioração tecnológica da democracia, que se consolidou nesse primeiro turno, especialmente em cidades como São Paulo, onde a campanha se limitou à sarjeta. O que se observa agora são pessoas espalhando informações que sabem ser falsas, pois seus valores se alinham com os do candidato mentiroso. A verdade passa a ser um incômodo descartável, em um gigantesco “o fim justifica os meios”. Não se dão nem mais ao trabalho de acreditar!

A IA já se presta a fornecer a inteligência para isso. “Quando nos envolvemos em um debate político com um bot que se faz passar por humano, perdemos duas vezes”, escreveu Harari, que explica: “É inútil perdermos tempo tentando mudar as opiniões de um bot de propaganda, que simplesmente não está aberto à persuasão. E quanto mais conversamos com o bot, mais revelamos sobre nós mesmos, tornando mais fácil para o bot aprimorar seus argumentos e influenciar nossas opiniões.”

Quando a Internet foi criada, acreditava-se que ela ajudaria a disseminar a verdade. As redes sociais enterraram essa utopia. Com a avalanche de inutilidades e de mentiras que trouxeram, a atenção das pessoas tornou-se um recurso escasso. Na consequente batalha por ela, não vence quem dialoga, mas quem vocifera mais alto o que a turba insana e insatisfeita deseja.

O voto é substituído pela curtida e o debate perde espaço para o algoritmo. Enquanto algumas das melhores mentes do mundo atuam para humanizar os robôs, o resultado de seu trabalho ironicamente ameaça uma das características mais humanas que temos: a capacidade de dialogar e evoluir com isso.

O desafio dessa geração é reverter esse processo. Mas enquanto as empresas que criam as redes sociais e as plataformas de inteligência artificial não assumirem verdadeiramente a sua responsabilidade nesse processo, a dobradinha de robôs e políticos sujos triunfará.

 

Brasileiros ficam na 44ª posição do indicador que mede as nações mais felizes do mundo – Foto: Tomaz Silva/Agência Brasil

Aceleração do mundo digital ameaça a alegria das pessoas

By | Jornalismo, Tecnologia | No Comments

O brasileiro se gabava de ser o povo mais feliz do mundo. Éramos acolhedores até com estranhos e levávamos a vida de forma leve e bem-humorada, mesmo diante de adversidades do cotidiano. Vivíamos na orgulhosa pátria das chuteiras, do samba, do suor e da cerveja. Mas olhando a nossa volta, parece que isso ficou no passado. Muitas coisas explicam essa queda, mas algo sorrateiro tem um papel decisivo nesse entristecimento: a aceleração descontrolada de nossas vidas pelo meio digital.

Segundo o Relatório de Felicidade Mundial 2024, organizado pela consultoria Gallup, pela Universidade de Oxford e pela ONU, lançado em março, o Brasil amarga uma melancólica 44ª posição no indicador de nações felizes, de um total de 143, logo depois da Nicarágua e da Guatemala. Pelo sétimo ano seguido, o país mais feliz do mundo foi a Finlândia. Aliás, o norte da Europa domina a lista, com as primeiras posições completadas por Dinamarca, Islândia e Suécia.

Cada um sabe “onde aperta seu calo”. Entre outras questões, os brasileiros ficaram tristes pela violência, pela corrupção, pela política suja, pelo acesso precário a serviços básicos e pela instabilidade econômica, que leva a um medo constante de perder o emprego. Mas o nosso profundo apreço pelas redes sociais semeou em nós uma permanente insatisfação, que nos torna ansiosos e substitui muitos bons valores por insanas e contínuas buscas, como riqueza fácil com “jogos de tigrinhos” e afins.

Não dá para ser feliz enquanto se estiver insatisfeito! Obviamente temos que buscar nosso crescimento, mas precisamos resgatar o controle de nossas vidas, valorizando aquilo que verdadeiramente nos faz avançar. As redes sociais nos estimulam o tempo todo, de uma maneira que nosso cérebro não mais consegue lidar com tanta informação. Enquanto não percebermos como somos manipulados digitalmente, não sairemos desse quadro desolador.


Veja esse artigo em vídeo:


O Relatório de Felicidade Mundial considera diversos aspectos para definir a felicidade de um povo. Entre eles, estão o PIB per capita, o apoio de parentes e amigos, a expectativa de vida ao nascer, a liberdade de se fazer escolhas, a generosidade com o próximo e a percepção de corrupção. Essa última é onde o Brasil aparece pior, mas também vamos mal em liberdade de se fazer escolhas e na expectativa de vida.

A situação se agrava entre os brasileiros mais jovens. Segundo o estudo, se considerarmos só as pessoas com até 30 anos, o país despenca para a 60ª posição. Por outro lado, se computarmos apenas as com mais de 60, saltamos para a 37ª.

Diante disso é inevitável comparar o índice de felicidade com o de uso das redes sociais. De acordo com a versão mais recente do Digital Global Overview Report, publicado anualmente pela consultoria We Are Social, somos os vice-campeões mundiais em tempo online, com uma média diária de 9 horas e 13 minutos, dos quais 3 horas e 37 minutos são dedicados a redes socias. Em comparação, os dinamarqueses têm uma média diária online de 5 horas e 8 minutos e apenas 1 hora e 50 minutos nas redes sociais. A Finlândia não integrou essa pesquisa.

Não é mera coincidência que os mais jovens, que se informam menos por fontes confiáveis e são mais suscetíveis aos algoritmos de relevância, sejam os mais tristes. As sociedades descobriram que, para vender qualquer coisa, de um produto a um político, é preciso acelerar ainda mais a vida, soterrando o senso crítico.

Nesse cenário resultante de estresse, desesperança e cansaço coletivo, as pessoas aproveitam seu pouco tempo livre com diversão rasa, o que reforça a alienação. Rejeita-se tudo que convide a uma leitura crítica da vida.

 

“Pensar dá trabalho”

Fica fácil entender então por que 47% dos brasileiros deliberadamente se recusam a consumir notícias. O número é do Digital News Report 2024, publicado em junho pelo Instituto Reuters e pela Universidade de Oxford. Em 2023, esse índice era de 41%.

O estudo sugere que essa rejeição se deve à percepção de que “só há notícia ruim”. E apenas 43% dos brasileiros confiam no noticiário, o mesmo índice do ano passado, o pior já registrado (há uma década, era 62%). Se serve de consolo, os brasileiros são os que mais confiam nas notícias entre os seis países latino-americanos pesquisados.

Talvez a grande ironia para os que tentam “resistir ao noticiário” é que os mesmos assuntos ruins continuam os impactando, porém a partir de fontes pouco ou nada confiáveis, como WhatsApp ou Telegram. E assim esse conteúdo chega com uma carga emocional ainda mais pesada que se sua origem fosse o noticiário profissional.

Do outro lado, os que mais confiam no jornalismo são justamente os finlandeses, aqueles que também são os mais felizes do mundo, e que integram o grupo de populações menos influenciadas pelas redes sociais.

A informação que processamos em apenas uma semana hoje é muito maior que a que uma pessoa culta era exposta ao longo de toda sua vida no século XVIII. É verdade que o ser humano se adapta a tudo, mas o nosso cérebro tem seus limites. Quando são desrespeitados, entramos em colapso, daí as atuais ansiedade e depressão.

A inteligência artificial infelizmente tende a agravar isso, em um processo batizado de “hipersuasão” pelo filósofo italiano Luciano Floridi, um dos maiores nomes da filosofia da informação. Para ele, a IA já é usada para identificar nossos desejos e medos, e, a partir deles, produzir conteúdos que nos aceleram e nos convencem cada vez mais sobre qualquer tema. E isso ficará pior com o tempo. Tanto que, em janeiro, o Fórum Econômico Mundial em Davos classificou a desinformação impulsionada pela IA como a maior ameaça à humanidade nos próximos anos.

Podemos comprovar isso nas campanhas eleitorais desse ano. Seguindo o padrão dos pleitos anteriores, os candidatos que trazem propostas sensatas ficam muito atrás daqueles que se apresentam como “antissistema”, que “lacram” e acirram os ânimos. Tragicamente eles vencem sem oferecer nada concreto, apenas uma excitação vazia.

Chegamos a um ponto em que parece não haver saída. Governantes não se movimentam para melhorar esse quadro, pois se beneficiam dessa aceleração. As escolas não se posicionam, até por pressão de pais “acelerados”, preocupados com o vestibular e contra professores que insistam em oferecer a seus filhos visões de mundo mais amplas que as de dentro de casa.

Por isso, por mais que sejamos vítimas disso, sua solução recai sobre nossos ombros. E isso é terrível, porque a aceleração do meio digital nos retira os meios para sequer percebermos que ela existe! Somos arrastados a querer sempre mais, porém nunca chegaremos lá, e assim retroalimentamos o sistema que nos massacra.

Não há outro caminho! Temos que pisar no freio e nos questionar se desejaremos continuar fazendo parte dessa roda viva ou se resgataremos o controle sobre nós mesmos. E nesse caso, precisaremos eliminar nossa submissão digital.

 

O CEO da Microsoft, Satya Nadella, apresenta a linha de computadores Copilot+, em evento da empresa em maio - Foto: reprodução

Mais que chips, novos computadores e celulares funcionam com nossos dados

By | Tecnologia | No Comments

Nos últimos meses, a corrida pelo domínio do mercado da inteligência artificial pariu novos computadores e celulares. Equipamentos da Microsoft, Google e Apple trazem recursos antes inimagináveis, que podem facilitar muito nosso cotidiano. Para que funcionem, são empurrados por processadores poderosos, mas precisam de outro componente vital: dados, muitos dados… nossos dados!

A IA depende de quantidades colossais de informações para que funcione bem. Essa nova geração de máquinas traz esse poder para a realidade de cada usuário, mas, para isso, precisam coletar vorazmente nossas informações. E isso faz sentido: se quisermos que a IA responda perguntas sobre nós mesmos, ela precisa nos conhecer.

É um caminho sem volta! Essa coleta crescerá gradativamente, trazendo resultados cada vez mais surpreendentes. Precisamos entender que nada disso é grátis. Isso leva a um patamar inédito um processo iniciado há cerca de 15 anos com as redes sociais e que ficou conhecido como “capitalismo de vigilância”: para usarmos seus serviços, as big techs coletam e usam nossas informações para nos vender todo tipo de quinquilharia e, em última instância, nos manipular.

O histórico de desrespeito dessas empresas com seus clientes joga contra elas. Queremos os benefícios da inteligência artificial, e isso pode ser feito de maneira ética e legal, mas qual garantia temos de que esses problemas não ficarão ainda maiores?


Veja esse artigo em vídeo:


Não temos essa garantia! As big techs primam pela falta de transparência em seus negócios, e lutam com unhas e dentes contra qualquer tentativa de legislação que coloque seu modelo em risco. Elas foram bem-sucedidas nesse processo, ao travar a criação de leis, inclusive no Brasil, que lhes atribuísse alguma responsabilidade por promoverem conteúdos nocivos aos indivíduos e à sociedade. O único lugar que conseguiu criar alguma regra assim foi a Europa. Agora, com a ascensão da IA, as big techs tentam repetir esse movimento para essa tecnologia.

É importante deixar claro que não sou contra a inteligência artificial: muito pelo contrário! Como pesquisador, reconheço os incríveis benefícios que traz. Mas como diz o ditado, não existe almoço grátis. Precisamos saber quanto estamos pagando!

Entre as novidades, estão os notebooks Copilot+, criados pela Microsoft e lançados por diferentes fabricantes, como Samsung, Dell e Lenovo. Entre outros recursos, eles trazem o Recall, que permite que pesquisemos qualquer coisa que já fizemos no computador. Para isso, ele registra todas as nossas atividades a cada poucos segundos. Essas máquinas também executam localmente diversas atividades de IA generativa que normalmente são executadas na Internet, como no ChatGPT.

O Apple Intelligence, pacote de serviços de IA da empresa para seus novos iPhones, iPads e Macs, cria uma camada de assistência inteligente que combina os dados do usuário distribuídos em múltiplos aplicativos. Muito disso acontece no próprio aparelho, mas há operações que dependem da “nuvem”. A Apple garante que ninguém, nem seus próprios funcionários, tem acesso a esses dados.

O Google AI, pacote de IA do gigante de buscas, oferece recursos interessantes, como um identificador de golpes telefônicos. Mas, para isso, precisa ouvir todas as chamadas de áudio que fizermos. Outro recurso permite que façamos perguntas sobre fotos que tenhamos tirado, às quais ele também tem acesso. A empresa disse que seus funcionários podem eventualmente analisar as perguntas, “para melhorar o produto e sua segurança”.

Todos os fabricantes demonstram grande preocupação com a segurança das informações pessoais, afirmando que tudo é criptografado e que nem eles mesmos têm acesso a isso. Mas a informática sempre mostrou que mesmo o melhor cadeado pode ser aberto por mentes malignas habilidosas.

 

“Raio-X da alma”

Todos esses novos sistemas têm uma incrível capacidade de criar relações e identificar padrões pelos cruzamentos de dados das mais diversas fontes e naturezas. Isso lhes permite compreender quem somos, nossas crenças, desejos, medos, como pensamos, criando um verdadeiro “raio-X de nossa alma”, com informações de valor inestimável para empresas, governos e até criminosos.

É curioso que, até pouco atrás, éramos mais preocupados com a nossa privacidade. Não compartilhávamos dados sem que soubéssemos (pelo menos em tese) o que seria feito deles. Eram pouquíssimas informações e elas não eram cruzadas entre si.

As redes sociais mudaram isso, com a ideia de que nossas informações também lhes pertencem, podendo fazer o que quiserem com elas para seu benefício. E elas fazem, mesmo quando isso prejudica seus usuários.

Um exemplo emblemático de proteção dos usuários aconteceu no início de julho, quando a Autoridade Nacional de Proteção de Dados (ANPD) proibiu a Meta (empresa dona do Facebook, Instagram e WhatsApp) de usar os dados dos brasileiros para treinar seus modelos de inteligência artificial. Infelizmente algo assim é muito raro!

Mesmo que não exista nenhum problema de privacidade, precisamos entender que essas máquinas inauguram um novo tipo de dependência e até de relação entre nós e a tecnologia. Quem assistiu ao filme “Ela” (2013), dirigido por Spike Jonze e estrelado por Joaquin Phoenix e Scarlett Johansson, sabe como isso funciona.

Na história, Theodore (Phoenix) se apaixona por Samantha (a voz de Johansson), o sistema operacional de seu computador e smartphone, movido por uma aparente inteligência artificial geral. Ela sabia tudo sobre ele, e usava essa informação para lhe facilitar a vida. Mas com o tempo, ele se viu em um inusitado relacionamento desequilibrado com uma máquina!

É por isso que, ao aceitarmos usar os incríveis recursos desses novos equipamentos, precisamos estar conscientes de como estaremos nos expondo para isso. Por mais bem-intencionadas que os fabricantes sejam (e há ressalvas nisso em muitos casos), existem riscos potenciais com os quais teremos que aprender a conviver.

Assim como qualquer outro serviço que exista graças à inteligência artificial, os fabricantes precisam assumir responsabilidades durante o desenvolvimento, algo que os já citados dizem fazer. Eles também dever ser responsabilizados se algo der errado durante seu uso, um risco bastante considerável, mas isso eles não aceitam.

É um mundo totalmente novo que se descortina diante de nós. As relações entre empresas, governos, instituições e pessoas precisam ser repensadas diante disso tudo. Caso contrário, clientes e cidadãos podem ficar em uma situação muito precária.

 

O apresentador Silvio Santos, que faleceu na manhã desse sábado - Foto: Palácio do Planalto/Creative Commons

Por que nunca mais haverá alguém como Silvio Santos no mundo

By | Jornalismo | No Comments

O que dizer de Silvio Santos depois que tudo parece já ter sido dito desde a sua morte, na manhã de sábado? Ícone da televisão, apresentador brilhante, comunicador do povo, empresário nato, generoso, visionário, às vezes polêmico… Sobram substantivos e adjetivos para descrevê-lo, e todos parecem ter sido usados. Decidi então explicar por que nunca mais haverá alguém como ele no mundo.

Silvio Santos levou com ele mais que seu carisma e sua sagacidade: encerrou uma era da comunicação que não pode ser reproduzida. Ele foi um caso único que reuniu a espontaneidade de apresentadores capazes de conquistar o país, como Chacrinha, Hebe Camargo, Fausto Silva e Gugu Liberato, com uma visão empresarial que consolidou a própria televisão no país, ao lado de magnatas como Assis Chateubriand e Roberto Marinho.

Esses nomes tornaram-se símbolos desse meio de comunicação, que reinou soberano no mundo todo por décadas. Até pouco tempo atrás, a televisão era o primeiro eletrodoméstico que o brasileiro comprava para uma casa nova, antes mesmo que a geladeira! Mas isso ficou no passado, assim como o poder dessas personalidades.

Silvio Santos foi criador e criatura de um cenário social e tecnológico que nunca mais acontecerá. Por isso, procurar um sucessor para o que ele representou é uma tarefa inócua. Mas podemos olhar para seus acertos e seus erros, e aprender como melhorar a mídia televisiva e digital, para que realmente atenda aos anseios e necessidades do público, algo de que precisamos muito.


Veja esse artigo em vídeo:


O meio digital fragmentou a mídia e diluiu o poder da televisão. Ela ainda é o principal meio de comunicação, abocanhando uma gorda fatia publicitária, mas não ocupa mais o espaço determinante na vida das pessoas que já teve. Com isso, mesmo suas mais importantes estrelas do entretenimento e do jornalismo não conseguem reunir uma multidão de fãs e criar uma poderosa marca pessoal, como outrora acontecia.

Ironicamente essa influência não foi transferida para os grandes nomes do meio digital. Nessa mídia, a concorrência e a pulverização da audiência são absurdas, fazendo com que mesmo seus destaques não se tornem conhecidos do grande público. É verdade que existem nomes muito populares, como Luciano Huck e Felipe Neto, mas eles nunca atingiram a abrangência e a aprovação de pessoas de todas as classes sociais e de todas as regiões do país, até se tornarem ícones da comunicação.

Tudo isso impede que surja outra figura midiática com a envergadura de Silvio Santos no Brasil e em qualquer lugar do mundo. Apesar de sua inegável capacidade de criar conexão com as pessoas, provavelmente mesmo ele não conseguiria repetir seu sucesso hoje, pois o público está mais exigente, buscando opções que sejam muito alinhadas a seus valores. E há muitas delas!

Silvio Santos floresceu em um ambiente de poucas opções, em que a TV era a grande unificadora nacional, retroalimentando a popularidade que conseguia. Isso permitiu que ele saísse da posição de camelô e chegasse às mais altas rodas do poder econômico e político do país.

Isso culminou com uma candidatura-relâmpago à presidência da República, em 1989, a primeira com voto direto para presidente depois da ditadura militar. Silvio Santos foi convencido a entrar na disputa a poucos dias do primeiro turno, saltando para o topo das pesquisas de intenção de voto instantaneamente! Mas sua candidatura acabou impugnada pelo Tribunal Superior Eleitoral (TSE) por falhas na inscrição.

Três décadas depois, a televisão, que já foi o maior cabo eleitoral do país, perdeu essa posição para as redes sociais, usadas pelos candidatos para angariar votos manipulando os algoritmos para controlar corações e mentes dos eleitores.

 

Vamos sorrir e cantar

A despeito de alguns erros empresariais e de posturas inadequadas para os padrões atuais, Silvio Santos deixa para as gerações futuras de comunicadores e de empresários de todos os setores algumas lições importantes. E a maior delas é certamente a preocupação de se conectar ao público de uma maneira espontânea a afável, com uma linguagem que todos podiam entender e até se identificar, sempre com alegria.

Ele era um homem de negócios focado no lucro, mas isso nunca o desviou de criar produtos que atendessem às necessidades de seus clientes e fossem fáceis de entender e de gostar, seja na televisão ou fora dela. Além disso, possuía um senso social bem desenvolvido, o que fazia com que, entre outras coisas, cuidasse muito bem dos profissionais de suas companhias.

Como empresário, ele buscava a inovação e corria riscos. Isso se manifestava não apenas em programas diversificados, mas também em negócios que iam muito além da TV e do entretenimento, como bancos e cosméticos. Nem sempre dava certo, mas era resiliente e bem assessorado para tomar novos rumos diante de adversidades.

Silvio Santos também construiu possivelmente a marca pessoal mais valiosa do país, com seu nome se tornando sinônimo de credibilidade, carisma e diversão para milhões de brasileiros. Fez isso com sua coerência ao longo de décadas, aparecendo como o rosto de seus negócios de entretenimento, algo em que muito acreditava. Não por acaso, ele se tornou uma das pessoas mais imitadas do Brasil.

O apresentador também sempre foi dono de seu destino. Apesar de seu programa ter surgido na TV Paulista, depois incorporada pela Globo, criou sua própria emissora para que pudesse fazer os programas que quisesse, sem depender da aprovação de ninguém.

Nesse sentido, mesmo não sendo mais possível replicar seu sucesso e sua importância social, o legado que ele deixa ainda pode inspirar muita gente. Especificamente no mundo da mídia, eles podem ser muito valiosos em um momento em que grandes marcas lutam sofregamente para se manterem relevantes para um público em constante mudança e com concorrentes inovadores surgindo a todo momento.

O desafio de seus gestores será encontrar novas formas de construir esse tipo de relação com o público, em um mundo cada vez mais diversificado e fragmentado. A música-tema de seu programa dizia que “do mundo não se leva nada”, e isso valeu até para Silvio Santos. Mas como ele mostrou, podemos deixar muita coisa nele se fizermos um bom trabalho e cuidarmos genuinamente das pessoas.

 

O primeiro-ministro indiano, Narendra Modi (direita), manteve o cargo, após as “eleições da IA” - Foto: Governo da Índia/Creative Commons

Índia inaugura novo jeito de fazer campanha eleitoral, com apoio da IA

By | Tecnologia | No Comments

O resultado das eleições sempre esteve ligado ao uso das tecnologias da época. A TV era fundamental para a vitória até 2018, quando foi suplantada pelas redes sociais, críticas para definir os pleitos desde então. Mas agora elas podem perder esse posto para a inteligência artificial. E a Índia, que acabou de realizar a maior eleição do mundo, demonstrou como dominar essa tecnologia ficou essencial para os candidatos.

A IA na política não se resume a criar deep fakes para desmoralizar adversários ou se valer do ChatGPT para compor peças publicitárias, legítimas ou falsas. Como alguns candidatos indianos demonstraram, ela pode desenvolver canais inovadores e personalizados com os eleitores. E isso parece até uma boa ideia!

Se a IA fornecesse a atenção que nenhum candidato humano conseguisse dar, atendendo cada cidadão individualmente, isso poderia até fortalecer a democracia. Mas o problema do uso da IA na política é o mesmo do seu uso em qualquer atividade: abusos de seus recursos para produzir resultados imprecisos, imorais e ilegais, para assim, mais que convencer, manipular multidões e vencer uma eleição.

No final, a IA maximiza a índole de quem a usa. E infelizmente a classe política tem sido pródiga em apresentar pessoas com uma moral rasteira, dispostas a pisotear a ética e usar todos os recursos para vencer. Por isso, devemos olhar para o que aconteceu na Índia e aprender algo com aquilo. Se um bom uso da IA pode fortalecer a democracia, seu mau uso pode colocá-la em seríssimo risco!


Veja esse artigo em vídeo:


Por décadas, os candidatos brasileiros com mais tempo na TV iam para o segundo turno das eleições. Isso mudou em 2018, quando Geraldo Alckmin, que tinha 5 minutos e 32 segundos (quase metade do tempo total do horário eleitoral gratuito), amargou uma quarta posição, enquanto Jair Bolsonaro, com apenas 8 segundos, foi eleito presidente.

Ele ganhou porque percebeu, antes e melhor que todos, que as redes sociais haviam se tornado o canal mais eficiente de disseminação de ideias e de manipulação de mentes. E não se tratava apenas de fazer um bom uso dos recursos técnicos, mas de se alterar o jeito de se fazer a própria política, com apoio de algoritmos, fake news e discursos que parecem falar aos anseios de cada um, e não aos de toda a sociedade.

Agora a inteligência artificial promete levar a “política digital” a patamares inimagináveis. O pleito indiano foi um laboratório que deve ser observado pela população, pela mídia, por autoridades eleitorais e pelos políticos, pelo seu tamanho gigantesco e pela disseminação da tecnologia entre os cidadãos.

Em janeiro, o Fórum Econômico Mundial classificou a desinformação potencializada pela inteligência artificial como um dos maiores desafios do mundo nos próximos anos. No caso da Índia, o relatório a classificou como um risco maior que o de doenças infecciosas ou atividades econômicas ilícitas.

E de fato, muito do que se esperava de ruim se materializou nessa campanha, como uma enxurrada de fake news e de deep fakes para se atacar adversários. Mas foram vistos também o uso extensivo de hologramas de políticos (inclusive de lideranças falecidas) em comícios, sintetização de áudios e vídeos de candidatos para responder, em tempo real, a dúvidas de eleitores, e a inteligência artificial analisando quantidades colossais de dados de usuários (muitos coletados ilegalmente) para apoiar a decisão de campanhas.

A IA generativa foi amplamente usada não apenas para gerar instantaneamente as respostas e o audiovisual, mas também para fazer com que o avatar do candidato falasse na língua de cada eleitor, chamando-o pelo nome. Isso é importante em um país como a Índia, que tem 23 idiomas oficiais e mais de 400 dialetos.

Se as redes sociais foram eficientes em desinformar as pessoas, a inteligência artificial agora pode encantar (e até iludir) os eleitores.

 

Mentiras cada vez mais críveis

Especialistas temem que essa tecnologia convença cada vez mais as pessoas sobre os que os candidatos quiserem, pelos conteúdos personalizados e visualmente convincentes. Além disso, muita gente pode acreditar que está realmente falando com o candidato, ao invés de seu avatar.

Há ainda outro aspecto a ser considerado: por mais que os modelos de IA sejam bem treinados para sintetizar respostas às perguntas de cada eleitor individualmente, eles podem “alucinar” e repassar informações completamente erradas ao público.

No Brasil, o Congresso não ajuda ao travar projetos de lei que poderiam organizar o uso dessas tecnologias nas eleições. As autoridades eleitorais tentam, por sua vez, impedir que esses problemas aconteçam no país, definindo regras claras para a eleição municipal desse ano, incluindo contra abusos da inteligência artificial. Ao assumir a presidência do Tribunal Superior Eleitoral (TSE) no dia 3, a ministra Cármen Lúcia fez um discurso enfatizando a responsabilidade das redes sociais no problema e o combate que fará aos usos indevidos das tecnologias digitais na desinformação.

Não será uma tarefa fácil! Três dias depois, Meta (dona do Facebook, Instagram e WhatsApp), Google (dono do YouTube), Microsoft, TikTok e Kwai aderiram ao Programa de Combate à Desinformação do Supremo Tribunal Federal (STF). O X, que se tornou um dos principais canais de fake news, não mandou representantes.

Ainda que a IA ofereça campanhas muito eficientes por uma fração do custo necessário para se obter os mesmos resultados de maneira convencional, esses recursos podem custar milhões de reais para um candidato. Isso desequilibra ainda mais a eleição entre os concorrentes ricos e os pobres.

A Índia demonstrou as incríveis oportunidades e os enormes problemas do uso da inteligência artificial em uma eleição. Regras são necessárias para disciplinar essa prática, mas bandidos são conhecidos por infringi-las, portanto não são suficientes.

Não podemos ser ingênuos! Esperar que as plataformas digitais tomem todos os devidos cuidados nas eleições é como esperar que a raposa cuide do galinheiro. E achar que todos os candidatos farão um bom uso desses recursos é como entregar as galinhas –ou seja, os eleitores– diretamente para a raposa.

É hora de aproveitar o que há de bom e redobrar a atenção para os usos nocivos da IA! É assim que a política será feita de agora em diante.

 

Theodore e Samantha (o sistema operacional do celular em seu bolso), em cena do filme “Ela” (2013) Foto: reprodução

Empresas querem que acreditemos que a inteligência artificial é humana

By | Tecnologia | No Comments

A nossa interação com diferentes plataformas de inteligência artificial fica cada vez mais parecida com conversas que temos com outras pessoas. Em alguns casos, nossos cérebros podem ser enganados para crer que estão interagindo com outros indivíduos, por mais que saibam que não é verdade. Não é por acaso: as big techs querem que nos relacionemos com esses produtos de maneira mais “humana” possível. Mas longe de ser apenas um recurso para melhorar sua usabilidade, isso levanta questionamentos éticos e até de produtividade.

Ao longo da nossa evolução, aprimoramos a capacidade de atribuirmos características humanas ao que não é. Fazemos isso com animais de estimação, objetos, fenômenos da natureza e até a deuses. É o que chamamos de antropomorfismo. Por exemplo, dizemos que “o cachorro é muito inteligente”, “o carro está nervoso”, “a chuva está chorando” e representamos divindades com corpos e emoções humanas.

Isso é importante, porque facilita a nossa compreensão e interação, especialmente com aquilo com que não somos familiarizados. Além disso, com essa prática, criamos vínculos e até sentimos empatia pelo que não é humano.

Isso explica, pelo menos parcialmente, o ChatGPT ter atingido 100 milhões de usuários em apenas dois meses, o que o tornou o produto de mais rápida adoção da história. Antropomorfizar a inteligência artificial nos deixa à vontade para usá-la intensamente e para acreditar em suas respostas, às vezes além do que deveríamos.

Porém atribuir capacidades que esses sistemas não têm pode atrapalhar a nossa compreensão sobre o que realmente eles são e o que podemos fazer com a inteligência artificial. Corremos o risco de acabar atribuindo responsabilidades que as máquinas não possuem, enquanto ignoramos quem fizer usos indevidos de todo esse poder. Por isso, precisamos usar a IA como ela realmente é.


Veja esse artigo em vídeo:


Para deixar mais claros os efeitos do antropomorfismo, podemos comparar como nos relacionamos com a IA com o que sempre fizemos com os buscadores, que existem há quase três décadas. O Google, maior exemplo deles, tenta responder a todas as nossas perguntas desde 1998, quando foi lançado. E faz isso com uma eficiência incrível, sendo mais confiável que qualquer plataforma de inteligência artificial generativa do momento. Nem por isso, nós atribuímos características humanas a ele.

Como já debati nesse espaço, o mais incrível da inteligência artificial generativa não é o que ela nos diz, mas o simples fato de ser capaz de conversar conosco, como se fosse outra pessoa! Isso facilita o seu uso e amenta a credibilidade de suas respostas, mesmo quando ela nos diz alguma bobagem, as chamadas “alucinações” da IA.

Quando lançou o GPT-4o, no dia 13, a OpenAI dobrou essa aposta! Essa nova versão do “cérebro” do ChatGPT fala conosco com uma fluidez ainda mais impressionante, e é capaz de analisar, ao mesmo tempo, texto, voz, áudios e imagens, em tempo real, “enxergando” (olha a antropomorfização!) e analisando o que filmamos como celular.

Para reforçar ainda mais essa projeção, a empresa sugeriu que estaríamos nos aproximando do visto no filme “Ela” (2013), dirigido por Spike Jonze e estrelado por Joaquin Phoenix e Scarlett Johansson. Na história, Theodore (Phoenix) se apaixona por Samantha (a voz de Johansson), o sistema operacional de seu computador e smartphone, movido por uma aparente inteligência artificial geral.

Sam Altman, CEO da OpenAI, disse que “Ela” é seu filme preferido. Ele tentou contratar Johansson para dar voz ao GPT-4o, mas ela recusou a oferta. Não satisfeito, ele lançou o produto com uma voz muito parecida com a dela, o que lhe rendeu um processo da atriz. Aquela voz deixou de ser oferecida na plataforma.

Se tudo isso parece ficção científica demais, uma pesquisa publicada no ano passado na JAMA, a revista da Associação Médica Americana, indicou que pacientes consideraram empáticas quase dez vezes mais respostas dadas por um chatbot em relação às de médicos humanos. Na verdade, os pacientes sentiram alguma empatia do médico em apenas 5% das consultas, o que não deixa de ser uma informação importante por si só.

As pessoas querem se sentir acolhidas! Será que chegamos a um ponto em que as máquinas serão mais eficientes que humanos nessa tarefa?

 

A máquina perfeita de convencimento

O filósofo italiano e professor de Oxford Luciano Floridi, considerado uma das maiores autoridades nos campos da filosofia e da ética da informação, publicou um artigo nesse ano em que afirma que a inteligência artificial cria os mecanismos do que ele chama de “hiperpersuasão”. Resumidamente, essas plataformas ofereceriam um enorme poder para se convencer qualquer pessoa sobre qualquer coisa.

Segundo o pesquisador, isso se dá graças à já incrível e crescente capacidade de a máquina coletar e processar dados dos indivíduos, identificando padrões de comportamentos, preferências e vulnerabilidades, para manipular opiniões e comportamentos. Além disso, a inteligência artificial generativa pode produzir todo tipo de conteúdo com alta qualidade e cada vez mais parecida ao gerado por humanos.

Para ele, tecnologias persuasivas são tecnologias de poder. Já experimentamos isso com as redes sociais, e a esse processo deve se intensificar muito com a IA, não apenas pela tecnologia em si, mas por usos indevidos de grupos políticos e econômicos.

Para minimizar esses riscos, Floridi afirma que é necessária uma melhor proteção legal e ética da privacidade, contra os usos persuasivos da IA. E curiosamente, diante do fato de que esses usos nocivos acontecerão, ele sugere que a “hiperpersuasão” seja pluralista. Em outras palavras, usos positivos desse recurso poderão “compensar” os maus usos, trazendo também visões complementares do mundo. É mais ou menos o que acontece desde sempre com a mídia, mas agora aplicado à inteligência artificial.

Uma população em que todos os membros fossem muito educados e engajados ajudaria a resolver esse problema. Devemos perseguir sempre isso, mas entendo que seja uma utopia.

Isso nos leva então de volta ao antropomorfismo. Precisamos usar a IA como ela realmente é. Ela certamente atua como um agente social, no sentido em que promove transformações em nosso mundo, mas não é um agente moral, pois não tem autonomia e capacidade de escolher o que fará. Atribuir característica humanas à máquina pode distorcer essa realidade, isentando criminosos que fazem maus usos dela, e responsabilizando a máquina.

E isso não faz sentido algum!

 

Zumbis da série “Walking Dead”: as redes sociais podem nos transformar em uma versão digital dessas criaturas - Foto: reprodução

Ansiedade algorítmica cria zumbis que trabalham de graça para redes sociais

By | Tecnologia | No Comments

“Responda aos comentários dos fãs para ajudar a aumentar o engajamento com a sua conta”. Nessa semana, o Facebook me conclamou (de novo) a interagir ainda mais com outras pessoas, como se isso fosse fazer uma grande diferença na minha vida.

Como a principal rede do Mark Zuckerberg definitivamente não me entrega tal valor, dei de ombros. Mas muita gente não consegue praticar esse desapego, seja no Facebook ou em outras redes sociais. E isso vem provocando uma crescente onda de ansiosos por não darem conta de todas as “tarefas” sugeridas pelos algoritmos, como se fossem necessárias para se destacar em uma vida dividida constantemente entre as redes sociais e suas atividades presenciais.

Por que nos permitimos seduzir (ou controlar) por esses sistemas? Quando deixamos de agradar genuína e desinteressadamente pessoas verdadeiras para satisfazer as demandas insaciáveis das plataformas? Como elas conseguem nos dominar de maneira tão intensa e, ao mesmo tempo, subliminar?

A única rede que me traz benefícios reais é o LinkedIn. Meu mestrado se focou na construção de uma verdadeira reputação digital nele, mas, durante a pandemia, eu me debrucei sobre essas inquietações. Decidi então deixar de produzir para os algoritmos, como um escravizado digital, ou seja, como esses sistemas nos veem.

Já passou da hora de pararmos de nos submetermos aos caprichos desse capitalismo de vigilância e recuperarmos o controle de nossas vidas. No formato atual, as pessoas se afogam em sua ansiedade algorítmica, enquanto trabalham gratuitamente, sem perceber, para as redes sociais.


Veja esse artigo em vídeo:


Mantenho uma produção consistente e cuidadosa no LinkedIn, que me traz contatos qualificados e oportunidades de negócios interessantes. Mas reconheço que, quando parei de criar atendendo as neuroses dos algoritmos, minhas métricas sofreram.

Não escondo isso e, de certa forma, me orgulho desse movimento. Percebi que não precisava impactar, com minhas publicações, dezenas de milhares de pessoas cujos motivos e desejos só os algoritmos conheciam, e que não rendiam nada palpável. Muito melhor é chegar a menos pessoas, mas com as quais possa fazer trocas verdadeiras e produtivas. Outro ganho –tão ou mais importante que essas conexões– é encontrar prazer e leveza em falar com seres humanos, e não com sistemas.

Não é uma tarefa simples. As redes sociais descobriram como reforçar nossa busca por prazeres imediatos, aparentemente exigindo pouco de nós. Afinal, atire a primeira pedra quem nunca publicou algo em uma rede social na expectativa de receber muitas curtidas e, quem sabe, comentários que afagassem seu ego.

Curtidas não pagam contas! Mas relacionamentos qualificados podem ajudar nisso.

A raiz da ansiedade algorítmica está em sabermos que nossas vidas são controladas por esses sistemas, mas não termos conhecimento sobre como eles funcionam. Dependemos deles para conseguirmos trabalho, diversão e até amor, mas seu funcionamento é uma caixa preta que nunca se abre para nós.

Como consequência, estamos sempre tentando descobrir seus segredos para nos dar bem ou, no jargão das redes, “hackear o sistema”. Lemos artigos, fazemos cursos, acreditamos em gurus, mas o fato é que só quem desenvolve os algoritmos sabe da verdade, e esse é o “ouro do bandido”, um segredo tão bem guardado quanto a fórmula da Coca-Cola.

E assim nos viciamos nas microdoses de dopamina que nós mesmos produzimos quando um post tem uma visibilidade maior que nossa própria média (por menor que seja). A partir disso, buscamos sofregamente repetir aquele sucesso fugaz, tentando replicar uma receita que não temos.

 

O mal da falta de transparência

A inteligência artificial reacendeu os debates em torno da importância da transparência nas decisões dos algoritmos, para que entendamos seus motivos, assim como a explicabilidade e a rastreabilidade do que fazem com nossos dados.

Nisso reside um perverso jogo de poder. As redes sociais jamais nos darão essas informações, pois no obscurantismo está seu ganho. A ansiedade que essa nossa ignorância nos causa faz com que atuemos como zumbis teleguiados por seus sistemas. Se soubéssemos de toda a verdade, só publicaríamos o que “dá certo”, e as redes perderiam o controle que têm sobre nós. Isso seria ruim para seus negócios!

Não há a mínima reciprocidade entre os algoritmos e as pessoas: eles sabem tudo sobre nós, mas não sabemos verdadeiramente nada sobre eles. Temos só suposições e lampejos desconexos do seu funcionamento. Por isso, deixamos de representar, em nossas publicações, quem verdadeiramente somos ou o que desejamos. Ao invés disso, tentamos adivinhar e atender o que os outros querem de nós, esperando sua aceitação e aprovação, como se dependêssemos delas.

Essa é uma tarefa inglória e o caminho para a ansiedade e a depressão. Em casos extremos, vemos influenciadores digitais se suicidando, inclusive no Brasil, diante de sua incapacidade de ter o mínimo controle sobre os resultados de seu trabalho.

A opacidade dos algoritmos os torna mais cruéis quando mudam seus parâmetros continuamente, para que as pessoas não os dominem por muito tempo. Com isso, alguém que estivesse conseguindo ganhos de uma boa visibilidade, poderia subitamente ser descartado, sem explicação ou aviso prévio, gerando mais ansiedade.

As empresas se defendem afirmando que seus algoritmos existem para que as experiências em suas plataformas sejam úteis e divertidas, e não para que viciem os usuários. Dizem ainda que o que nos é empurrado depende de nossas interações na própria rede. Essa explicação, ainda que verdadeira, é tão rasa, que chega a ser hipócrita com quem consome e com quem produz conteúdo praticamente às cegas.

Vale lembrar que, apesar de estarmos falando aqui de algoritmos de redes sociais, eles estão presentes em toda parte, tomando decisões que podem influenciar profundamente nossas vidas. Dois exemplos emblemáticos são as plataformas de recrutamento, que podem definir se conseguiremos um emprego ou não, e os sistemas policiais, que podem decidir se somos criminosos, condenando-nos à cadeia.

Precisamos entender que os algoritmos devem trabalhar para nós, e não o contrário. Mas é inocência acreditar que temos algum controle nessa relação: em maior ou menor escala, somos dominados por esses sistemas, que exercem seu poder impunemente, mesmo quando causam grandes prejuízos aos usuários.

Por isso, o melhor a se fazer é mandar os algoritmos às favas e sermos nós mesmos, como acontecia nos primórdios das redes sociais. Mas você consegue fazer isso hoje?

 

Sam Altman, CEO da OpenAI, líder global no desenvolvimento da inteligência artificial, no Fórum Econômico Mundial – Foto: reprodução

Sociedade exige da IA uma transparência que ela mesmo não pratica

By | Tecnologia | No Comments

Muito além do aquecido debate sobre legislações que organizem o uso da inteligência artificial, começa a se formar um consenso sobre alguns valores em torno dessa tecnologia, como uso e desenvolvimento responsáveis, decisões rastreáveis e dois conceitos que se confundem e são pouco conhecidos: transparência e explicabilidade. Todos são essenciais para que os impactos da IA sejam positivos. Mas a sociedade está exigindo algo dessas plataformas que ela mesma não pratica.

Se fizermos uma autoanálise, perceberemos que conscientemente não somos transparentes em muitas coisas de nosso cotidiano, assim como tampouco são empresas e instituições. Como exemplo, uma das maiores falhas das redes sociais, que levou à insana polarização da sociedade e a problemas de saúde mental de seus usuários, é a completa falta de transparência das decisões de seus algoritmos.

Diante disso, alguns especialistas afirmam que exigir esse nível de responsabilidade e transparência das plataformas de IA é um exagero e até, de certa forma, hipocrisia.

Talvez… Mas o fato de cultivarmos esses maus hábitos não pode ser usado para desestimular a busca desses objetivos nessa tecnologia com potencial de ofuscar a transformação que as redes sociais fizeram, que, por sua vez, deixou pequena as mudanças promovidas pela mídia tradicional anteriormente.

Se não tomarmos as devidas precauções, a inteligência artificial pode causar graves consequências para a humanidade pelas ações de grupos que buscam o poder de forma inconsequente. Por isso, ela precisa ser organizada para florescer como uma tecnologia que ampliará nossas capacidades criativas e de produção.

Sem esses pilares éticos, sequer confiaremos no que a IA nos disser, e então tudo irá por água abaixo.


Veja esse artigo em vídeo:


No momento, as plataformas de inteligência artificial funcionam como caixas pretas: colocamos nossos dados e fazemos nossos pedidos de um lado, e nos deslumbramos com os resultados do outro, sem saber como aquela “mágica” foi feita. Apenas quem está dentro das big techs que produzem esses sistemas sabe como aquilo funciona, mas até eles se surpreendem com alguns resultados das suas criaturas, como quando desenvolvem sozinhas habilidades para as quais não foram programadas.

Quando se cria algo que promove profundas mudanças na sociedade, mas não se conhecem seu funcionamento e objetivos, isso pode colocar em risco a própria democracia, não porque exista algo maquiavélico na sua confecção, mas justamente por esse desconhecimento. Não é à toa que legislações para a inteligência artificial ao redor do mundo, com o brasileiro Projeto de Lei 2338/23 e a europeia Lei da Inteligência Artificial, tentem definir rastreabilidade, transparência e explicabilidade.

A rastreabilidade é a capacidade de identificar e acompanhar as ações de um sistema de IA, saber quais dados foram usados para treiná-lo e seus algoritmos, manter registros sobre como chegou a uma determinada decisão e qual foi seu impacto. Isso permite que suas escolhas sejam auditadas e que vieses sejam corrigidos.

Já a transparência se refere às pessoas poderem ser capazes de entender como o sistema de IA funciona, quais dados ele usa e como ele toma decisões. Isso visa garantir que ele seja usado de forma justa e ética, aumentando sua aceitação pública.

Por fim, a explicabilidade se traduz na capacidade de um ser humano compreender as razões complexas pelas quais um sistema de IA toma uma determinada decisão, que fatores contribuíram e como foram ponderados. Ela é importante para identificar erros, prever resultados e garantir a conformidade com padrões éticos e legais.

Se não é fácil entender, mais difícil ainda é entregar esses valores. Os algoritmos mais eficientes são justamente os mais complexos, e uma simples documentação pode não ser suficiente. Ainda assim, o desafio dessa conformidade permanece.

 

Temos que entender

Como exemplo da importância de se entender essas plataformas, podemos pensar na exigência do artigo 20 da Lei Geral de Proteção de Dados (LGPD), que determina que o cidadão pode “solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses”. Mas como ele fará isso se nem compreende como a decisão foi tomada? Da mesma forma, como a empresa revisará a decisão, se tampouco a compreende?

Considerando que a IA estará cada vez mais presente e determinante em nossas vidas, sua compreensão deve ser ensinada até nas escolas, desde a infância, de maneira crescente. Não quer dizer que todos precisem dominar plenamente seu funcionamento: apenas o suficiente para suas necessidades. Fazendo uma comparação com um carro, existe sobre ele os conhecimentos de um projetista, de um mecânico, de um motorista e de um passageiro. E todos usam o carro à sua maneira!

Ao contrário do que alguns dizem, a exigência de que plataformas de inteligência artificial sigam esses preceitos éticos não pode ser visto como ameaça ao seu desenvolvimento e inovação. Pelo contrário, são condições que devem integrar sua própria concepção. A população precisa disso para confiar na inteligência artificial, ou, passada essa fase inicial de deslumbramento, ela poderá deixar de ser considerada como a incrível ferramenta de produtividade que é.

Entendo que as dificuldades para isso sejam imensas. Sei também que nós mesmos não somos transparentes em nosso cotidiano, como já disse. Mas nada disso pode servir como desculpa para se esquivar dessa tarefa. Tampouco é hipocrisia exigir que os desenvolvedores se esmerem para cumprir essas determinações.

Não podemos incorrer no mesmo erro cometido com as redes sociais, que até hoje atuam de maneira inconsequente e sem responsabilidade pelos eventuais efeitos muito nocivos de suas ações. A inteligência artificial já está transformando a sociedade de maneira determinante.

Seríamos inocentes se acreditássemos que essas empresas se autorregularão: seus interesses sempre falarão mais alto nesse caso. Precisamos de regulamentações claras, não para coibir o progresso, mas para dar um norte de bons princípios, para que a inteligência artificial beneficie a todos, e não apenas grupos tecnocratas.

 

IA pode ser usada na eleição, mas seguindo regras para evitar fake news - Ilustração: Paulo Silvestre com Freepik/Creative Commons

Regras para IA nas eleições são positivas, mas criminosos não costumam seguir a lei

By | Tecnologia | No Comments

A tecnologia volta a ser protagonista na política, e não dá para ignorar isso em um mundo tão digital. Na terça, o Tribunal Superior Eleitoral (TSE) aprovou instruções para o pleito municipal desse ano. Os usos de redes sociais e inteligência artificial nas campanhas chamaram atenção. Mas apesar de positivas e bem-produzidas, elas não dizem como identificar e punir a totalidade de crimes eleitorais no ciberespaço, que só aumentam. Enquanto isso, a tecnologia continua favorecendo os criminosos.

Claro que a medida gerou uma polêmica instantânea! Desde 2018, as eleições brasileiras vêm crescentemente sendo decididas com forte influência do que se vê nas redes sociais, especialmente as fake news, que racharam a sociedade brasileira ao meio. Agora a inteligência artificial pode ampliar a insana polarização que elege candidatos com poucas propostas e muito ódio no discurso.

É importante que fique claro que as novas regras não impedem o uso de redes sociais ou de inteligência artificial. Seria insensato bloquear tecnologias que permeiam nossa vida e podem ajudar a melhorar a qualidade e a baratear as campanhas, o que é bem-vindo, especialmente para candidatos mais pobres. Mas não podemos ser inocentes e achar que os políticos farão apenas usos positivos de tanto poder em suas mãos.

Infelizmente a solução para essas más práticas do mundo digital não acontecerá apenas com regulamentos. Esse é também um dilema tecnológico e as plataformas digitais precisam se envolver com seriedade nesse esforço.


Veja esse artigo em vídeo:


A iniciativa do TSE não é isolada. A preocupação com o impacto político do meio digital atingiu um pico no mundo em 2024, ano com 83 eleições ao redor do globo, a maior concentração pelos próximos 24 anos. Isso inclui algumas das maiores democracias do mundo, como Índia, Estados Unidos e Brasil, o que fará com que cerca de metade dos eleitores do planeta depositem seus votos até dezembro.

As regras do TSE procuram ajudar o eleitor a se decidir com informações verdadeiras. Por isso, determinam que qualquer texto, áudio, imagem ou vídeo que tenha sido produzido ou manipulado por IA seja claramente identificado como tal. Além disso, proíbem que sejam criados sistemas que simulem conversas entre o eleitor e qualquer pessoa, inclusive o candidato. Vedam ainda as deep fakes, técnica que cria áudios e vídeos falsos que simulam uma pessoa dizendo ou fazendo algo que jamais aconteceu.

Além de não praticar nada disso, candidatos e partidos deverão denunciar fraudes à Justiça Eleitoral. As plataformas digitais, por sua vez, deverão agir por conta própria, sem receberem ordens judiciais, identificando e removendo conteúdos que claramente sejam falsos, antidemocráticos ou incitem ódio, racismo ou outros crimes. Se não fizerem isso, as empresas podem ser punidas. Candidatos que infringirem as regras podem ter a candidatura e o mandato cassados (no caso de já terem sido eleitos).

Outra inovação é equiparar as redes sociais aos meios de comunicação tradicionais, como jornal, rádio e TV, aplicando a elas as mesmas regras. Alguns especialistas temem que esse conjunto de medidas faça com que as plataformas digitais exagerem nas restrições, eliminando conteúdos a princípio legítimos, por temor a punições. E há ainda o interminável debate se elas seriam capazes de identificar todos os conteúdos problemáticos de maneira automática.

Os desenvolvedores estão se mexendo, especialmente por pressões semelhantes que sofrem nos Estados Unidos e na União Europeia. Em janeiro, 20 empresas de tecnologia assinaram um compromisso voluntário para ajudar a evitar que a IA atrapalhe nos pleitos. A OpenAI, criadora do ChatGPT, e o Google, dono do concorrente Gemini, anunciaram que estão ajustando suas plataformas para que não atendam a pedidos ligados a eleições. A Meta, dona do Facebook, do Instagram e do WhatsApp, disse que está refinando técnicas para identificar e rotular conteúdos criados ou modificados por inteligência artificial.

Tudo isso é necessário e espero que não se resuma apenas a “cortinas de fumaça” ou “leis para inglês ver”. Mas resta descobrir como fiscalizar as ações da parte ao mesmo tempo mais frágil e mais difícil de ser verificada: o usuário.

 

Ajudando o adversário a se enforcar

Por mais que os políticos e as big techs façam tudo que puderem para um bom uso desses recursos, o maior desafio recai sobre os cidadãos, seja um engajado correligionário (instruído ou não pelas campanhas), seja um inocente “tio do Zap”. Esses indivíduos podem produzir e distribuir grande quantidade de conteúdo incendiário e escapar da visão do TSE. Pior ainda: podem criar publicações ilegais como se fossem o adversário deliberadamente para que ele seja punido.

O tribunal não quer que se repita aqui o que foi visto na eleição presidencial argentina, em novembro. Lá as equipes dos candidatos que foram ao segundo turno, o peronista Sergio Massa e o ultraliberal Javier Milei, fizeram amplo uso da IA para denegrir a imagens dos adversários.

Em outro caso internacional, os moradores de New Hampshire (EUA) receberam ligações de um robô com a voz do presidente Joe Biden dizendo para que não votassem nas primárias do Estado, no mês passado. Por aqui, um áudio com a voz do prefeito de Manaus, David Almeida, circulou em dezembro com ofensas contra professores. Os dois casos eram falsos.

Esse é um “jogo de gato e rato”, pois a tecnologia evolui muito mais rapidamente que a legislação, e os criminosos se valem disso. Mas o gato tem que se mexer!

Aqueles que se beneficiam desses crimes são os que buscam confundir a população. Seu discurso tenta rotular essas regras como cerceamento da liberdade de expressão. Isso não é verdade, pois todos podem continuar dizendo o que quiserem. Apenas pagarão no caso de cometerem crimes que sempre foram claramente tipificados.

Há ainda o temor dessas medidas atrapalharem a inovação, o que também é questionável. Alguns setores fortemente regulados, como o farmacêutico e o automobilístico, estão entre os mais inovadores. Por outro lado, produtos reconhecidamente nocivos devem ser coibidos, como os da indústria do cigarro.

A inteligência artificial vem eliminando a fronteira entre conteúdos verdadeiros e falsos. Não se pode achar que os cidadãos (até especialistas) consigam identificar mentiras tão bem-criadas, mesmo impactando decisivamente seu futuro. E as big techs reconhecidamente fazem menos do que poderiam e deveriam para se evitar isso.

Ausência de regras não torna uma sociedade livre, mas anárquica. A verdadeira liberdade vem de termos acesso a informações confiáveis que nos ajudem a fazer as melhores escolhas para uma sociedade melhor e mais justa para todos.

Ao invés de atrapalhar, a tecnologia deve nos ajudar nessa tarefa. E ela pode fazer isso!

 

Na Conferência de Desenvolvedores de 2019, Mark Zuckerberg anunciava que “o futuro é privado” - Foto: Anthony Quintano/Creative Commons

Tudo que você postar pode ser usado contra você e a favor da IA

By | Tecnologia | No Comments

Não é novidade que tudo que publicamos nas redes sociais é usado para criarem perfis detalhados sobre nós para que seus anunciantes nos vendam todo tipo de quinquilharia. Também é conhecido que nossas informações são usadas para “aprimorar” essas plataformas. E que muitas delas fazem menos do que poderiam e deveriam para nos proteger contra desinformação e diferentes tipos de assédio, que podem prejudicar nossa saúde mental. Mas o que é novidade é que agora essas companhias também usam nossas informações pessoais para treinar seus nascentes serviços de inteligência artificial, abrindo uma nova potencial violação de privacidade.

Essas empresas transitam nas ambiguidades de seus termos de serviço e posicionamentos públicos. Por exemplo, no dia 31, os CEOs das redes sociais mais usadas por crianças e adolescentes foram interpelados no Comitê Judiciário do Senado americano, sobre suas ações para proteger os jovens. O mais questionado foi Mark Zuckerberg, CEO da Meta (dona do Facebook, Instagram e WhatsApp). Diante da pressão dos senadores, ele se levantou e se desculpou ao público nas galerias.

Ali estavam pais e mães de crianças que morreram por problemas derivados de abusos nas redes sociais. Menos de uma semana depois, o mesmo Zuckerberg disse, durante uma transmissão sobre os resultados financeiros anuais da Meta, que sua empresa está usando todas as publicações de seus usuários (inclusive de crianças) para treinar suas plataformas de IA.

O mercado adorou: suas ações dispararam 21% com o anúncio dos resultados! E essa infinidade de dados pessoais é mesmo uma mina de ouro! Mas e se eu, que sou o proprietário das minhas ideias (por mais que sejam públicas), quiser que a Meta não as use para treinar sua IA, poderei continuar usando seus produtos?

É inevitável pensar que, pelo jeito, não temos mais privacidade e até mesmo propriedade sobre nossas informações pessoais. E as empresas podem se apropriar delas para criar produtos e faturar bilhões de dólares.


Veja esse artigo em vídeo:


No momento mais dramático da audiência no dia 31, Zuckerberg se levantou e, de costas para os senadores e olhando para as pessoas presentes, muitas carregando fotos de seus filhos mortos, disse: “Sinto muito por tudo que passaram. Ninguém deveria passar pelas coisas que suas famílias sofreram.”

Mas também se defendeu, afirmando que investiu mais de US$ 20 bilhões e contratou “milhares de funcionários” para essa proteção. Ponderou ainda que a empresa precisa equilibrar o cuidado e “as boas experiências entre amigos, entes queridos, celebridades e interesses”. Em outras palavras, a proteção não pode “piorar” o produto, o que seria ruim para os negócios.

Seis dias depois, disse aos investidores: “No Facebook e no Instagram, existem centenas de bilhões de imagens compartilhadas publicamente e dezenas de bilhões de vídeos públicos, que estimamos ser maiores do que os dados do Common Crawl, e as pessoas também compartilham um grande número de postagens de texto públicas em comentários em nossos serviços.”

O Common Crawl é um gigantesco conjunto de dados resultante do contínuo rastreamento do que é público na Internet, podendo ser usado por quem quiser e para qualquer finalidade. Ele serve de base para o treinamento de várias plataformas de IA.

“Considerando os Termos de Uso e as regras da plataforma, seria possível a Meta usar nossos dados para treinar sua IA, embora seja bastante discutível”, explica Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). “É discutível porque muitas das informações nas redes sociais podem ser consideradas dados pessoais e, neste caso, eventualmente legislações específicas acabam incidindo, como a Lei Geral de Proteção de Dados (LGPD)”.

Nos Termos de Serviço do Facebook, a única referência à IA é: “usamos e desenvolvemos tecnologias avançadas (como inteligência artificial, sistemas de aprendizado de máquina e realidade aumentada) para que as pessoas possam usar nossos produtos com segurança, independentemente de capacidade física ou localização geográfica.”

O mesmo documento diz: “realizamos pesquisa para desenvolver, testar e melhorar nossos produtos. Isso inclui a análise dos dados que temos sobre os nossos usuários e o entendimento de como as pessoas usam nossos produtos.” Esse trecho poderia garantir o uso das nossas publicações para o desenvolvimento da IA da Meta.

Por outro lado, os Termos dizem que a remuneração da Meta se dá apenas por anúncios entregues a seus usuários pela análise de suas informações. Oras, a inteligência artificial não é anúncio, mas ela renderá bilhões de dólares à empresa. Assim o uso de nossos dados para treinar a IA geraria um conflito entre as cláusulas.

 

O rei está nu e perdeu a majestade

Sempre tivemos nossos dados coletados e manipulados. O nosso “sócio” mais tradicional é o governo, que sabe coisas inimagináveis sobre o cidadão! Basta ver o Imposto de Renda pré-preenchido! E isso é só a pontinha desse enorme iceberg.

Não vou defender qualquer governo, pois muitas dessas apropriações são no mínimo questionáveis. Mas há uma diferença essencial de qualquer big tech: ele foi eleito para melhorar a vida do cidadão. As empresas, por sua vez, visam apenas seu lucro.

Crespo explica que a principal violação nesse movimento da Meta é que ela usa dados pessoais de seus usuários para uma finalidade que não é aquela pela qual criaram suas contas e fazem suas publicações, e que eles nem sabem. Vale lembrar que, no fim de dezembro, o The New York Times processou a Microsoft e a OpenAI por se apropriarem de seus conteúdos para treinar seu ChatGPT, e um de seus argumentos foi essas empresas usarem esse conteúdo sem pagar por esse objetivo específico.

Esse mesmo raciocínio poderia se aplicar às postagens dos 3 bilhões de usuários do Facebook e dos 2 bilhões do Instagram. Além disso, a baixa qualidade de muitas publicações nessas plataformas pode incluir vieses e informações no mínimo questionáveis no treinamento dessa IA.

“Esse é o grande dilema da atualidade”, afirma Crespo. Empresas podem criar regras para quem quiser usar seus produtos, mas, depois de usar algo como o Google por duas décadas, alguém o abandonaria porque seus dados seriam usados para uma nova e questionável finalidade (entre tantas outras)? “A grande questão é se essas regras são moralmente aceitas e transparentes, ou se, de alguma forma, constituem abuso de direito”, explica Crespo.

No final, caímos novamente no infindável debate sobre a regulamentação das ações e responsabilidades dessas empresas. Essa novidade trazida por Zuckerberg é apenas o mais recente exemplo de que, se deixarmos para que elas se autorregulem, nós, seus usuários, continuaremos sendo os grandes prejudicados.

 

A cantora Taylor Swift, vítima de “deep nudes” que inundaram as redes sociais na semana passada – Foto: Paolo V/Creative Commons

Imagens geradas por IA podem agravar problemas de saúde mental

By | Tecnologia | No Comments

Na semana passada, as redes sociais foram inundadas com fotos de Taylor Swift nua. Não se tratava de algum vazamento de fotos íntimas da cantora, mas de imagens falsas criadas por inteligência artificial, uma técnica conhecida por “deep nude”. Apesar da compreensível revolta dos fãs pelo uso criminoso da sua imagem, o episódio não deve ter causado grandes transtornos para ela, que tem uma equipe multidisciplinar para ajudá-la a lidar com os problemas típicos da sua superexposição.

Infelizmente quase ninguém tem essa rede de proteção. Por isso, a explosão de imagens sintetizadas digitalmente vem provocando muitos danos à saúde mental de crianças, jovens e adultos, que não sabem como lidar com fotos e vídeos falsos de si mesmos ou de ideais inatingíveis de beleza ou sucesso.

Isso não é novo: surgiu na televisão, antes das mídias digitais. Mas elas potencializaram esse problema, que agora se agrava fortemente com recursos de inteligência artificial generativa usados inadequadamente.

Junte ao pacote a dificuldade que muitos têm de lidar com os efeitos nocivos da exposição que as redes sociais podem lhes conferir, ainda que de maneira fugaz. Não é algo pequeno, não é “frescura” ou uma bobagem. Família, amigos e as autoridades precisam aprender a lidar com esses quadros, oferecendo o apoio necessário para que o pior não aconteça.


Veja esse artigo em vídeo:


O youtuber PC Siqueira não teve esse apoio. Neste sábado (27), fez um mês que ele se suicidou em seu apartamento, na zona sul de São Paulo. Um dos primeiros influenciadores do país, quando o termo ainda nem era usado com essa acepção, ele surgiu no YouTube em 2010 e chegou a apresentar um programa na MTV Brasil.

PC Siqueira nunca escondeu que sofria de ansiedade e de depressão. Seu quadro se deteriorou à medida que sua audiência diminuiu com os anos. A situação piorou muito em junho de 2020, quando ele foi acusado de pedofilia. Sempre disse que estava sendo vítima de uma “armação” e, de fato, em fevereiro de 2021, a Polícia Civil concluiu que não havia qualquer indício de que ele tivesse cometido o crime. Ainda assim, nunca conseguiu se recuperar, chegando a essa ação extrema no fim de 2023.

Se PC Siqueira foi vítima de aspectos sórdidos da autoexposição, crescem os casos em que as vítimas são envolvidas de maneira totalmente involuntária. Foi o que aconteceu com um grupo de alunas do Ensino Fundamental II do colégio Santo Agostinho, um dos mais tradicionais do Rio de Janeiro, em outubro passado. Alguns de seus colegas usaram plataformas de criação de “deep nudes” para gerar imagens delas nuas, e as espalharam pelas redes sociais.

Para uma adolescente, isso é devastador! Subitamente elas se tornam o “assunto” da escola inteira, de amigos, de parentes e até nas redes sociais. As fotos passam a ser vistas como se elas as tivessem tirado de fato. Como enfrentar tanta pressão, ainda mais não tendo feito absolutamente nada de errado?

Outro fenômeno que não para de crescer com a IA são as “influenciadoras virtuais”. São imagens de mulheres “perfeitas” que atuam como influenciadoras digitais. Mas tanta beldade não existe: elas são sintetizadas por comandos que podem reforçar estereótipos e falta de diversidade. E isso cria padrões de beleza distorcidos e ainda mais inatingíveis, piorando as já conhecidas pressões por conformidade e empecilhos para aceitar o próprio corpo que afetam muitas mulheres, especialmente adolescentes.

O problema fica mais grave quando se observa que, por trás dessas criações, estão homens, o que reforça a visão masculina de como uma mulher deve ser. Tanto que muitas delas também possuem perfis em sites de imagens pornográficas, em que outros homens pagam para ver as avatares nuas, obviamente também sintetizadas.

 

Capturados pelos seguidores

Todas essas práticas podem impactar seriamente o equilíbrio emocional das pessoas. Apesar de já convivermos há duas décadas com as redes sociais, a verdade é que ainda não sabemos lidar adequadamente com a influência de seus algoritmos e a visibilidade que eventualmente recebemos graças a elas. A ascensão violenta da inteligência artificial generativa apenas está acelerando esses efeitos.

O artista americano Andy Warhol disse em 1968 que “no futuro, todos serão mundialmente famosos por 15 minutos”. Naturalmente ele não antecipava o fenômeno das redes sociais, mas foram elas que viabilizaram sua profecia. Porém, com raríssimas exceções, elas só oferecem mesmo “15 minutos de fama”: da mesma forma que podem alçar um anônimo ao estrelato instantâneo, podem devolvê-lo ao ostracismo com a mesma velocidade. E muita gente não suporta voltar ao lugar de onde veio.

Muitos querem ser famosos e as redes sociais parecem ser o caminho mais fácil para isso. Almejam dinheiro e outros benefícios da exposição, mas poucos estão realmente preparados para lidar com isso. Assim, enquanto poucos são capazes de “capturar sua audiência”, muitos são capturados por ela.

Em algum momento, todos nós ajustamos nossa personalidade para satisfazer expectativas alheias. Isso acontece com muita força na adolescência, no grupo de amigos. Mas com as redes sociais, agora potencializadas pela IA, muita gente se transforma em uma persona que não é, e eventualmente até em algo que lhe cause sofrimento, apenas para agradar seu público online: pessoas que nem conhecem e que, em muitos casos, têm um prazer mórbido de dar suas “curtidas” pelo nosso pior, desvalorizando o que temos de bom a oferecer em um mundo-cão.

Atire a primeira pedra quem nunca produziu uma foto pensando nas “curtidas” que ela geraria! O grande problema disso, para muitas pessoas, é que elas acabam se tornando reféns dessa persona. Para não perderem sua audiência, esquecem do que são e passam a viver uma caricatura de si mesmos, sem escapatória.

Como jornalista, aprendi desde cedo a não cair nessa arapuca. Claro que estou atento aos interesses de meu público, mas, para não entrar nesse “poço narcisista”, nunca esqueço quem sou ou sobre o que falo. Mas admito que essa é uma tarefa muito difícil em um mundo digital que vive de aparências distorcidas pela inteligência artificial.

Todos nós temos a obrigação de resistir aos padrões e pensamentos-únicos que nos são impostos pelas redes sociais e pela inteligência artificial. Isso vai desde não se encantar por influenciadoras virtuais até resistir ao apelo fácil do “copia-e-cola” dos textos desalmados do ChatGPT em nossos posts e trabalhos.

Talvez, se fizermos isso, tenhamos menos gente “gostando” de nós. Em compensação, além de paz de espírito e de uma saúde mental muito mais equilibrada, teremos as pessoas que gostam de nós pelo que genuinamente somos. Isso é essencial, até mesmo para fecharmos negócios sustentáveis e transparentes com o nosso público, e termos mais que os 15 minutos de fama de Andy Warhol.

 

Para Salvador Dalí, “você tem que criar a confusão sistematicamente; isso liberta a criatividade” - Foto: Allan Warren/Creative Commons

Não “terceirize” sua criatividade para as máquinas!

By | Tecnologia | No Comments

Quando o ChatGPT foi lançado, em 30 de novembro de 2022, muita gente disse que, com ele, as pessoas começariam a ficar “intelectualmente preguiçosas”, pois entregariam à inteligência artificial até tarefas que poderiam fazer sem dificuldade. De lá para cá, observamos mesmo muitos casos assim, inclusive com resultados desastrosos. Mas o que também tenho observado é algo mais grave, ainda que mais sutil: indivíduos “terceirizando” a sua criatividade para as máquinas.

Quando fazemos um desenho, tiramos uma foto, compomos uma música ou escrevemos um texto, que pode ser um singelo post para redes sociais, exercitamos habilidades e ativamos conexões neurológicas essenciais para o nosso desenvolvimento. Ao entregar essas atividades à máquina, essas pessoas não percebem o risco que correm por realizarem menos essas ações.

Há um outro aspecto que não pode ser ignorado: a nossa criatividade nos define como seres humanos e como indivíduos. Por isso, adolescentes exercitam intensamente sua criatividade para encontrar seu lugar no mundo e definir seus grupos sociais.

A inteligência artificial generativa é uma ferramenta fabulosa que está apenas dando seus passos iniciais. Por mais que melhore no futuro breve (e melhorará exponencialmente), suas produções resultam do que essas plataformas aprendem de uma base gigantesca que representa a média do que a humanidade sabe.

Ao entregarmos aos robôs não apenas nossas tarefas, mas também nossa criatividade, ameaçamos nossa identidade e a nossa humanidade. Esse é um ótimo exemplo de como usar muito mal uma boa tecnologia. E infelizmente as pessoas não estão percebendo isso.


Veja esse artigo em vídeo:


Assim como nossa carga genética, algo que nos diferencia dos outros indivíduos são nossas ideias. Apesar de fazermos isso naturalmente, ter uma ideia original é um processo complexo, que combina tudo que aprendemos em nossa vida com os estímulos que estivermos recebendo no momento. Além disso, ela é moldada por nossos valores, que são alinhados com os grupos sociais a que pertencemos. E nossa subjetividade ainda refina tudo isso.

Mesmo a mais fabulosa inteligência artificial possui apenas a primeira dessas etapas para suas produções, que é o que aprendeu de sua enorme base de informações coletadas das mais diferentes fontes. É por isso que a qualidade do que produz depende implicitamente da qualidade dessas fontes.

Alguns argumentam que a inteligência artificial também pode desenvolver valores a partir de sua programação, dos dados que consome e da própria interação com os usuários. De fato, um dos maiores problemas dessa tecnologia são os vieses que acaba desenvolvendo, o que piora suas entregas.

Com valores, a máquina se aproxima mais do processo criativo humano. Mas a inteligência artificial ainda não pode ser chamada de criativa, justamente pela etapa final, conduzida pela nossa subjetividade. Os padrões que aprendemos em nossa história de vida única nos permitem ir além de simples deduções lógicas no processo criativo. Para as máquinas, por outro lado, esses mesmos padrões tornam-se limitadores.

Gosto de pensar que o processo criativo é algo que nos conecta com algo sublime, alguns diriam com algo divino. Quando escrevo, por exemplo, um artigo como esse, combino grande quantidade de informações que coletei para essa tarefa com o que aprendi ao longo da minha vida. Mas a fagulha criativa que faz com que isso não seja uma composição burocrática e chata (assim espero) só acontece ao me abrir intensamente para minha sensibilidade.

Jamais entregaria isso a uma máquina, pois isso me define e me dá grande prazer!

 

Nós nos tornaremos máquinas?

Em seu livro “Tecnologia Versus Humanidade” (The Futures Agency, 2017), Gerd Leonhard questiona, anos antes do ChatGPT vir ao sol, como devemos abraçar a tecnologia sem nos tornarmos parte dela. Para o futurólogo alemão, precisamos definir quais valores morais devemos defender, antes que o ser humano altere o seu próprio significado pela interação com as máquinas.

Essas não são palavras vazias. Basta olhar nosso passado recente para ver como a nossa interação incrivelmente intensa com a tecnologia digital nos transformou nos últimos anos, a começar pela polarização irracional que fraturou a sociedade.

O mais terrível disso tudo é que as ideias que nos levaram a isso não são nossas, e sim de grupos que se beneficiam desse caos. Eles souberam manipular os algoritmos das redes sociais para disseminar suas visões, não de maneira óbvia e explícita, mas distribuindo elementos aparentemente não-relacionados (mas cuidadosamente escolhidos) para que as pessoas concluíssem coisas que interessavam a esses poderosos. E uma vez que essa conclusão acontece, fica muito difícil retirar essa ideia da cabeça do indivíduo, pois ele pensa que ela é genuinamente dele.

Se as redes sociais se prestam até hoje a distorcer o processo de nascimento de ideias, a inteligência artificial pode agravar esse quadro na etapa seguinte, que é a nutrição dessas mesmas ideias. Como uma plantinha, elas precisam ser regadas para que cresçam com força.

Em um artigo publicado na semana passada, a professora da PUC-SP Lucia Santaella, autoridade global em semiótica, argumenta que o nosso uso da inteligência artificial generativa criou um novo tipo de leitor, que ela batizou de “leitor iterativo”. Afinal, não lemos apenas palavras: lemos imagens, gráficos, cores, símbolos e a própria natureza.

Com a IA generativa, entramos em um processo cognitivo inédito pelas conversas com essas plataformas. Segundo Santaella, o processo iterativo avança por refinamentos sucessivos, e os chatbots respondem tanto pelo que sabem, quanto pelos estímulos que recebem. Dessa forma, quanto mais iterativo for o usuário sobre o que deseja, melhores serão as respostas.

Isso reforça a minha proposta original de que não podemos “terceirizar” nossa criatividade para a inteligência artificial. Até mesmo a qualidade do que ela nos entrega depende do nível de como nos relacionamos com ela.

Temos que nos apropriar das incríveis possibilidades da inteligência artificial, uma ferramenta que provavelmente potencializará pessoas e empresas que se destacarão nos próximos anos. Mas não podemos abandonar nossa criatividade nesse processo. Pelo contrário: aqueles que mais se beneficiarão das máquinas são justamente os que maximizarem a sua humanidade.

 

Taylor Swift e suas cópias, que podem ser geradas por IA para convencer as pessoas - Foto: Paulo Silvestre com Creative Commons

Pessoas se tornam vítimas de bandidos por acreditarem no que desejam

By | Tecnologia | No Comments

Usar famosos para vender qualquer coisa sempre foi um recurso poderoso do marketing. Mas agora as imagens e as vozes dessas pessoas estão sendo usadas sem sua permissão ou seu conhecimento para promover produtos que eles jamais endossariam e sem que ganhem nada com isso.

Esse conteúdo falso é criado por inteligência artificial e está cada vez mais convincente. Além de anunciar todo tipo de quinquilharia, esses “deep fakes”, como é conhecida essa técnica, podem ser usados para convencer as massas muito além da venda de produtos, envolvendo aspectos políticos e até para se destruir reputações.

O processo todo fica ainda mais eficiente porque as pessoas acreditam mais naquilo que desejam, seja em uma “pílula milagrosa de emagrecimento” ou nas ideias insanas de seu “político de estimação”. Portanto, os bandidos usam os algoritmos das redes sociais para direcionar o conteúdo falso para quem gostaria que aquilo fosse verdade.

Há um outro aspecto mais sério: cresce também o uso de deep fakes de pessoas anônimas para a aplicação de golpes em amigos e familiares. Afinal, é mais fácil acreditar em alguém conhecido. Esse recurso também é usado por desafetos, por exemplo criando e distribuindo imagens pornográficas falsas de suas vítimas.


Veja esse artigo em vídeo:


As redes sociais, que são os maiores vetores da desinformação, agora se deparam sob pressão com o desafio de identificar esse conteúdo falso criado por IA para prejudicar outras pessoas. Mas seus termos de uso e até alguns de seus recursos tornam essa tarefa mais complexa que as dificuldades inerentes da tecnologia.

Por exemplo, redes como TikTok e Instagram oferecem filtros com inteligência artificial para que seus usuários alterem (e supostamente “melhorem”) suas próprias imagens, uma distorção da realidade que especialistas afirmam criar problemas de autoestima, principalmente entre adolescentes. Além disso, muitas dessas plataformas permitem deep fakes em algumas situações, como paródias. Isso pode tornar esse controle ainda mais difícil, pois uma mentira, uma desinformação, um discurso de ódio pode se esconder subliminarmente nos limites do aceitável.

O deep fake surgiu em 2017, mas seu uso explodiu nesse ano graças ao barateamento das ferramentas e à melhora de seus resultados. Além disso, algumas dessas plataformas passaram a convincentemente simular a voz e o jeito de falar de celebridades. Também aprendem o estilo de qualquer pessoa, para “colocar na sua boca” qualquer coisa. Basta treiná-las com alguns minutos de áudio do indivíduo. O “pacote da enganação” se completa com ferramentas que geram imagens e vídeos falsos. Na prática, é possível simular qualquer pessoa falando e fazendo de tudo!

A complexidade do problema cresce ao transcender as simulações grosseiras e óbvias. Mesmo a pessoa mais ingênua pode não acreditar ao ver um vídeo de uma celebridade de grande reputação destilando insanidades. Por isso, o problema maior não reside em um “fake” dizendo um absurdo, mas ao falar algo que o “original” poderia ter dito, mas não disse. E nessa zona cinzenta atuam os criminosos.

Um exemplo pôde ser visto na terça passada (5), quando o apresentador esportivo Galvão Bueno, 73, precisou usar suas redes sociais para denunciar um vídeo com uma voz que parecia ser a sua insultando Ednaldo Rodrigues, presidente da Confederação Brasileira de Futebol (CBF). “Fizeram uma montagem com coisas que eu nunca disse e eu nunca diria”, disse Galvão em sua defesa.

Ele não disse mesmo aquilo, mas poucos estranhariam se tivesse dito! Duas semanas antes, após a derrota da seleção brasileira para a argentina nas eliminatórias da Copa do Mundo, o apresentador fez duras críticas ao mesmo presidente. Vale dizer que há uma guerra pela liderança da CBF, e Rodrigues acabou sendo destituído do cargo no dia 7, pela Justiça do Rio.

 

Ressuscitando os mortos

O deep fake de famosos já gerou um enorme debate no Brasil nesse ano. No dia 3 de julho, um comercial sobre os 70 anos da Volkswagen no país provocou polêmica ao colocar a cantora Elis Regina (morta em 1982) cantando ao lado da filha Maria Rita. Elis aparece no filme dirigindo um antigo modelo de Kombi, enquanto a filha aparece ao volante de uma ID.Buzz, furgão elétrico recém-lançado, chamado de “Nova Kombi”.

Muita gente questionou o uso da imagem de Elis. Mas vale dizer que, nesse caso, os produtores tiveram a autorização da família para o uso de sua imagem. Além disso, ninguém jamais propôs enganar o público para que achasse que Elis estivesse viva.

Outro exemplo aconteceu na recente eleição presidencial argentina. Durante a campanha, surgiram imagens e vídeos dos dois candidatos que foram ao segundo turno fazendo coisas condenáveis. Em um deles, o candidato derrotado, Sergio Massa, aparece cheirando cocaína. Por mais que tenha sido desmentido, ele “viralizou” nas redes e pode ter influenciado o voto de muita gente. Tanto que, no Brasil, o Tribunal Superior Eleitoral (TSE) já se prepara para combater a prática nas eleições municipais de 2024.

Na época do comercial da Volkswagen, conversei sobre o tema com Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propaganda e Marketing). Para ele, “ficará mais difícil, a olho nu, detectar o que é verdadeiro”, restando aos peritos identificar as falsificações. “O desafio, daqui para frente, é que será mais comum ver esse tipo de debate na Justiça”, acrescentou.

Essa é uma preocupação mundial. As fake news mais eficientes não escancaram uma informação falsa “completa”. Ao invés disso, o conceito que pretendem impor é apresentado aos poucos, em pequenos elementos aparentemente desconexos, mas criteriosamente entregues, para que a pessoa conclua “sozinha” o que os criminosos querem. Quando isso acontece, fica difícil convencê-la do contrário.

Não há clareza sobre como resolver esse problema. Os especialistas sugerem que exista algum tipo de regulamentação, mas ela precisa equilibrar a liberdade para se inovar e a garantia dos interesses da sociedade. Sem isso, podemos ver uma enorme ampliação da tragédia das fake news, construída por redes sociais que continuam não sendo responsabilizadas por disseminá-las.

Como determina a Constituição, todos podem dizer o que quiserem, mas respondem por isso. O desafio agora é que não se sabe mais se a pessoa disse o que parece ter dito de maneira cristalina diante de nossos olhos e ouvidos.