Category Archives: Tecnologia

Cena do filme “RoboCop” (1987), em que um policial dado como morto ganha um corpo e uma consciência digitais - Foto: reprodução

IA pode brilhar na segurança, mas suas falhas podem ser catastróficas

By | Tecnologia | No Comments

Pegue qualquer lista dos maiores problemas das grandes cidades e a segurança sempre estará nas primeiras posições. Não é para menos: nos últimos anos, a escalada da violência chegou a níveis insustentáveis em todo Brasil. Diante disso, precisamos usar os recursos disponíveis para tentar resolver o problema. A digitalização de nossas vidas e a inteligência artificial podem ajudar muito nisso, mas precisamos estar preparados para lidar com as consequências de suas imprecisões.

Quanto mais crítica for uma aplicação, menos tolerante a falhas ela é. Isso quer dizer que o sistema não pode sair do ar nunca e as informações oferecidas por ele ou suas decisões devem ser precisas. E infelizmente a tecnologia não chegou a esse nível de excelência inquestionável.

Uma coisa é alguém fazer um trabalho escolar ou um relatório profissional com erros grosseiros por ter acreditado cegamente em alguma bobagem dita pelo ChatGPT. É verdade que podem acabar reprovando na disciplina ou perdendo o emprego por isso, duas coisas ruins. Mas isso não se compara a ser confundido pela máquina com um criminoso, e assim acabar sendo preso ou –pior– morto.

Por isso, apesar de a tecnologia ser muito bem-vinda no combate à criminalidade, os agentes de segurança pública precisam estar preparados para lidar com os resultados dessa colaboração e seus potenciais erros.


Veja esse artigo em vídeo:


Nesse cenário, é bastante ilustrativo o projeto da Prefeitura de São Paulo de unir diversos serviços municipais que hoje não trabalham integrados, como a Defesa Civil, o SAMU, a CET e a Guarda Civil Metropolitana, além das polícias Civil e Militar, Metrô e CPTM. Batizado de Smart Sampa, ele prevê ainda a adição de 20 mil câmeras na cidade, especialmente em pontos sensíveis e de maior criminalidade, que se somarão a outras 20 mil já existentes.

A princípio, a ideia parece muito boa, especialmente porque os diferentes órgãos da administração podem funcionar melhor ao compartilharem suas informações. A exemplo de outras grandes cidades no mundo, como Nova York, a tecnologia desempenha papel central nesse processo. Ironicamente aí começam a surgir os problemas.

O ponto mais delicado da proposta é o uso de reconhecimento facial. Essa tecnologia tem avançado incrivelmente, mas não o suficiente para evitar uma quantidade inaceitável de erros, particularmente entre pessoas negras. Isso acontece porque a inteligência artificial aprende a diferenciar rostos a partir de uma enorme quantidade de fotografias, mas proporcionalmente há muito mais amostras de brancos que de negros nesse “treinamento”. Diferentes estudos apontam que os erros de reconhecimento de pessoas brancas giram em torno de 1%, enquanto de negras ultrapassa os 30%, especialmente mulheres negras.

Por isso, a proposta original do Smart Sampa, que previa “rastrear uma pessoa suspeita, monitorando todos os seus movimentos e atividades, por características como cor, face, roupas, forma do corpo, aspectos físicos etc.”, precisou ser alterada. Monitorar alguém pela sua cor é ilegal!

O projeto prevê que qualquer problema identificado pela plataforma seja confirmado por um agente humano treinado antes de emitir qualquer alerta, o que é, sem dúvida, um ponto positivo para minimizar injustiças. Mas a ideia de rastrear alguém que o algoritmo ache suspeito, ainda cruzando com dados de redes sociais dos cidadãos, lembra algumas das piores sociedades da ficção científica.

 

Sem escapatória

No filme “Minority Report: a Nova Lei” (2002), as autoridades sabiam continuamente onde cada cidadão estava. Além disso, um sistema que combinava tecnologia com aspectos místicos, conseguia prever assassinatos antes que acontecessem. Dessa forma, a polícia prendia os “prováveis criminosos” antes de cometerem o crime.

Sim, as pessoas eram presas antes de terem cometido qualquer crime, apenas porque a plataforma tinha convicção de que o cometeriam! E para a polícia isso era suficiente.

O sistema parecia infalível e, de fato, os assassinatos acabaram. Os “prováveis criminosos” eram condenados a viver o resto de seus dias em uma espécie de coma induzido. O problema é que o sistema não só era falho, como ainda podia ser manipulado para “tirar de circulação” pessoas indesejáveis para os poderosos. Quando isso é revelado, o sistema é desativado e todos os condenados são libertados.

Como se pode ver, quando uma tecnologia tem o poder de levar alguém à prisão ou decidir sobre sua vida ou morte, nenhuma falha é aceitável. Ainda aproveitando a ficção para ilustrar o caso, temos a cena de RoboCop (1987) em que o robô de segurança ED-209, durante uma demonstração, identifica corretamente que um voluntário lhe apontava uma arma. Mas ele falha em reconhecer que a pessoa a joga ao chão logo depois, e acaba metralhando a vítima diante dos presentes.

Por isso, é assustador ver os motivos que desclassificaram a empresa vencedora do primeiro pregão do Smart Sampa. No dia 7 de junho, técnicos da Prefeitura foram verificar se ela estava apta ao serviço. Pelas regras, deveria ter mil câmeras operando com reconhecimento facial, mas só havia 347, das quais apenas 147 estavam online. Segundo o relatório dos técnicos, o responsável argumentou que “todo mundo tem problemas de Internet” e que “horário de almoço é complicado, muita gente fazendo download impacta no link de Internet mesmo”.

Esse amadorismo e falta de comprometimento é algo que jamais poderia pairar sobre um sistema de segurança pública, podendo colocar em xeque toda sua credibilidade! É por essas e outras que cidades importantes ao redor do mundo, como San Francisco (EUA), baniram o uso de reconhecimento facial em plataformas assim.

Alguns grupos querem reduzir esse debate a uma questão ideológica, como vem se tornando um padrão no Brasil há alguns anos. Mas essa não é uma questão ideológica e sim tecnológica!

Em um famoso artigo de 2018, Brad Smith, presidente da Microsoft, questionou qual papel esse tipo de tecnologia deve ter na sociedade, a despeito de todos os benefícios que traga. Segundo ele, “parece mais sensato pedir a um governo eleito que regule as empresas do que pedir a empresas não eleitas que regulem tal governo”.

Como em um bom episódio da série “Black Mirror”, o problema não está necessariamente na tecnologia em si, mas em usos errados dela. Câmeras e inteligência artificial darão poderes sobre-humanos às forças de segurança, com enorme poder de detecção de crimes e contravenções. Mas ela também pode maximizar vieses e falhas humanas da força policial, como o racismo.

Sem dúvida, podem ser ferramentas valiosíssimas no combate à criminalidade galopante. Mas em uma sociedade assustada e que clama por segurança rápida, despontam como soluções “mágicas” para políticos que buscam votos fáceis. Mas a coisa não funciona assim e, se não for implantada com cuidados técnicos e éticos, pode ainda ampliar outros problemas sociais existentes.

É necessário entender que, mesmo que o sistema evite 100 mortes, não é aceitável que 10 vítimas inocentes sejam condenadas ou mortas por erros da plataforma. Se houver um único erro, o sistema não é bom o suficiente para ser usado! Mas parece que pouca gente se preocupa com isso, no melhor estilo de “o fim justifica os meios”.

No final, a solução recai sobre o ser humano. Os agentes de segurança precisam ser treinados para lidar com possíveis falhas técnicas. Precisam aprender a dosar suas ações e abordagens feitas a partir de informações que podem estar erradas.

Resta saber se esses profissionais estão preparados para isso. Diante de diversas ações desastrosas e mortíferas que vemos nas ruas brasileiras o tempo todo, não estão! A solução desse outro problema é essencial e deveria acontecer antes da implantação da tecnologia. Mas isso, por si só, já renderia outro artigo.

 

A imagem de Elis Regina foi recriada digitalmente para dueto com sua filha, Maria Rita, em comercial da Volkswagen - Foto: reprodução

Não podemos mais acreditar no que nossos olhos veem

By | Tecnologia | No Comments

São Tomé ficou famoso por dizer que precisava “ver para crer” que Jesus havia ressuscitado. Seu pedido está associado ao fato de que, de todos os nossos sentidos, a visão é o que transmite mais segurança e confiabilidade. Se vemos algo acontecendo diante de nós, nosso cérebro entende aquilo como verdadeiro. Mas o avanço tecnológico, capaz de criar imagens falsas cada vez mais críveis, coloca isso em xeque e dispara alguns alertas.

Na segunda passada, o comercial “Gerações”, criado em comemoração aos 70 anos da Volkswagen no Brasil, provocou polêmica ao colocar a cantora Elis Regina (morta em 1982) cantando ao lado da filha Maria Rita. Elis aparece no filme dirigindo um antigo modelo de Kombi (que deixou de ser produzida no Brasil em 2013), enquanto a filha aparece ao volante de uma ID.Buzz, furgão elétrico recém-lançado, chamado de “Nova Kombi”.

Muitas pessoas questionaram o uso da imagem de Elis em algo que nunca fez (ou que pelo menos não há nenhum registro): cantar “Como Nossos Pais” enquanto dirige uma Kombi. O debate é válido, mas não me preocupo tanto com o uso da tecnologia dessa forma. Afinal, os produtores do comercial nunca propuseram enganar o público para que achasse que Elis estivesse viva e jovem.

O que me deixa tenso é o uso dessa tecnologia por pessoas inescrupulosas para deliberadamente distorcerem a realidade e enganar as massas para seu benefício. Quando isso acontecer, talvez nossos olhos já não sejam mais suficientes para nos garantir o que é verdadeiro.


Veja esse artigo em vídeo:


Para viabilizar o dueto entre Elis Regina e Maria Rita, a agência AlmapBBDO trabalhou com duas tecnologias: o “deep fake” e o “deep dub”. Elas já existem há alguns anos, mas a qualidade do que criam vem crescendo exponencialmente.

O primeiro “mapeia” os rostos de uma pessoa que é gravada em vídeo e o de quem efetivamente aparecerá na imagem final. Com isso, o sistema recria o vídeo com o segundo rosto no lugar do primeiro, fazendo exatamente os movimentos da pessoa original. Na peça da Volkswagen, a atriz Ana Rios gravou as cenas dirigindo a Kombi e fazendo movimentos típicos de Elis Regina. Quando o sistema trocou seu rosto pelo da cantora, é como se ela mesma estivesse lá.

Como a voz usada era de uma gravação da própria Elis, entrou em cena o “deep dub”. Sua função é modificar imagens já criadas para que exista um perfeito sincronismo entre a voz e o movimento dos lábios.

Apesar de o comercial ter agradado pela sua criatividade, sensibilidade e uso inteligente da tecnologia, muita gente o criticou por usar a inteligência artificial para criar imagens inéditas de alguém que já morreu. Mas não se trata de violação do direito de imagem. Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propaganda e Marketing), explica que, quando alguém morre, esse direito passa a seus herdeiros.

“Mas é sempre importante considerar que eventualmente o próprio falecido não tivesse a intenção de participar post-mortem de atividades com sua imagem”, acrescenta Crespo. Ele explica que, nesse caso, a pessoa deve manifestar explicitamente sua contrariedade ainda em vida.

A publicidade se vale desde sempre de imagens de pessoas famosas que já se foram, com fotos ou filmagens antigas para montagens, e até o uso de atores maquiados para se parecer aos falecidos. A diferença agora é o uso da tecnologia para tornar tudo muito realista.

 

Limites éticos

De toda forma, o debate em torno do comercial foi interessante para se questionar se há um limite ético e moral para o uso dessa tecnologia, com pessoas vivas ou mortas.

Da mesma forma que devemos ver isso cada vez mais em produções audiovisuais, devemos estar preparados para encarar uma avalanche de “deep fakes” criados com o objetivo de prejudicar outras pessoas. Isso tampouco é novo, mas, como explica Crespo, “ficará mais difícil, a olho nu, detectar o que é verdadeiro e o que é uma construção baseada em inteligência artificial”, restando aos peritos identificar as falsificações. “O desafio, daqui pra frente, é que será mais comum ver esse tipo de debate na Justiça, com discussões sobre vídeos”, acrescenta.

Muitos profissionais estão preocupados que categorias inteiras desapareçam graças a essas tecnologias. É o caso dos dubladores. Seu trabalho artístico envolve fazer as falas traduzidas combinarem, tanto quanto possível, com o movimento dos lábios do ator no idioma original.

Agora as plataformas de inteligência artificial podem “aprender a voz” dos atores para recriá-la em qualquer idioma. Dessa forma, seria possível ter, por exemplo, Tom Hanks falando não apenas seu idioma nativo (o inglês), como também português, alemão, russo ou japonês, sem nenhum sotaque e com os lábios no vídeo perfeitamente sincronizados com sua fala em todos os idiomas.

De certa forma, isso ofereceria um produto mais interessante para o público e a produção das versões internacionais ficaria muito mais barata e rápida para os estúdios. Mas também significaria o fim da categoria dos dubladores. Esse não é um problema tecnológico, e sim social, e os países precisam se debruçar sobre um tema trabalhista sem precedentes.

No último dia 13, o músico Paul McCartney revelou que a voz de John Lennon havia sido extraída e aperfeiçoada por inteligência artificial a partir de uma antiga gravação. Nesse caso, a tecnologia não sintetizou nada, mas foi usada para captar a voz de John. Isso permitirá que, até o fim do ano, o mundo conheça uma nova música dos Beatles, apesar de Lennon ter sido assassinado em 1980 e de George Harrison ter morrido em 2001. Além de Paul, Ringo Starr também está vivo.

Por tudo isso, esse debate é válido e necessário. A tecnologia está madura e será cada vez mais usada, tanto em atividades lícitas quando na prática de crimes. Nosso desafio é sermos capazes de identificar o que é verdadeiro e o que é falso, e, nesse caso, se se trata de um uso legítimo, como no comercial da Volkswagen.

Uma educação de qualidade para todos fica ainda mais necessária para que as pessoas desenvolvam um senso crítico apurado. Ela é a melhor ferramenta que temos para fugir de arapucas digitais que coloquem em nosso caminho. Infelizmente esse é um investimento de longo prazo, enquanto a tecnologia avança de maneira galopante.

 

O filósofo e sociólogo polonês Zygmunt Bauman, autor do conceito do “amor líquido” - Foto: M. Oliva Soto/Creative Commons

O meio digital cristalizou o “amor líquido” como uma constante em nossas vidas

By | Tecnologia | No Comments

Quando lançou seu best-seller “Amor Líquido” em 2004, o filósofo e sociólogo polonês Zygmunt Bauman (1925-2017) não podia imaginar como as redes sociais ajudariam a cristalizar esse conceito depois de poucos anos: afinal, essas plataformas ainda eram bebês e suas influências em nossas vidas eram nulas. Isso só reforça sua genialidade e o valor de seus ensinamentos.

Olhe a sua volta e observe a quantidade de relacionamentos criados e desfeitos com grande facilidade. É um sinal dos nossos tempos e as ferramentas digitais são essenciais nesse processo.

Para Bauman, a redução na qualidade das relações é compensada por uma quantidade enorme de parceiros. A relação social como uma responsabilidade mútua dá lugar ao que chamou de “conexão”. Para ele, o grande apelo desses sistemas é a facilidade de esquecer o outro, de se “desconectar”: troca-se, sem remorso, parceiros que deixam de ser “interessantes” por outros “melhores”.

Essa é praticamente a definição do uso dos “aplicativos de pegação”, que têm no Tinder seu maior expoente e que só foi lançado em 2012. Graças a eles, quem quiser pode ter vários parceiros sexuais em um mesmo dia. Os desavisados poderiam achar que isso é algo que só beneficia os mais jovens, mas tem muita gente mais experiente se entregando à “fluidez amorosa” com as facilidades que inundam nossos smartphones.

Mas há outros fatores que aproximam a vida digital do amor líquido em uma relação quase simbiótica. Se Tinder e afins oferecem um “cardápio de gente” mais lúdico que um totem do McDonald’s, as redes de vídeo curtos, sob liderança incontestável do TikTok, estão alterando nossa percepção do mundo, alterando a própria estrutura de nossas narrativas.

Ideias trabalhadas com introdução, desenvolvimento e conclusão dão lugar a microconteúdos sem começo, fim e até sem meio, encadeados pelo algoritmo em uma sequência infinita que retém nossa atenção. As pessoas estão se acostumando a permanecerem continuamente engajadas a vídeos tão estimulantes quanto rasos. O processo é tão eficiente, que provoca uma percepção alterada de que tudo no mundo deveria ser assim.

Mas a vida não é, muito menos relacionamentos, que exigem alguma dose de dedicação, resiliência e adaptabilidade ao outro. Como a linguagem está em nossa essência, esse movimento explica, ainda que parcialmente, a dificuldade de os adolescentes atuais namorarem.

Bauman dizia que, apenas quando nos damos conta de que nossa voz é ouvida e de que nossa presença é sentida, entendemos que somos únicos e dignos de amor. Precisamos do outro em um contato de qualidade para nos fazer perceber isso, mas, se estamos perdendo essa comunicação essencial, como sentiremos o outro? Para ele, “amar é contribuir para o mundo, cada contribuição sendo o traço vivo do eu que ama.” E continua: “no amor, o eu é, pedaço por pedaço, transplantado para o mundo.”

Temos que aproveitar tudo que o digital nos oferece, até mesmo esses aplicativos, que podem ser muito úteis se empregados conscientemente. Apenas não podemos nos perder nossa própria humanidade nesse processo.

 

Anúncios de “host clubs” em Tóquio, onde homens bonitos são pagos para entreter mulheres - Foto: Dick Thomas Johnson/Creative Commons

Como as redes sociais podem diminuir a quantidade de filhos

By | Tecnologia | No Comments

Os primeiros resultados do Censo 2022, divulgados na semana passada, indicam que os brasileiros estão tendo cada vez menos filhos. Causas para essa queda na taxa de fecundidade há muito conhecidos, como o custo de vida e a ascensão profissional das mulheres, ganham ainda mais relevância. Mas há um aspecto que o IBGE não mede e que pode estar contribuindo cada vez mais para esse quadro: as mudanças comportamentais promovidas pelas redes sociais.

Para essa análise, considero bebês nascidos em relacionamentos estáveis de qualquer tipo. Se os últimos diminuírem, teremos menos bebês. E aí entram as plataformas digitais.

Redes de vídeos curtos, especialmente o TikTok, estão alterando não apenas a maneira como consumimos conteúdo, mas também como trabalhamos, estudamos, compramos, nos divertimos e nos relacionamos. Não é um exagero: um bombardeio infinito com estímulos visuais apelativos e vazios está criando uma geração impaciente e avessa a compromissos, que espera que tudo siga esse padrão.

Mas relacionamentos, mesmo um simples namoro, exigem tempo, paciência, resiliência e dedicação. E no final ainda podem dar errado!

Há muitos anos, me disseram que “a paixão é uma armadilha da natureza para procriarmos”. Vendo os números do Censo, essa frase faz ainda mais sentido: se as pessoas não mais tiverem paciência nem para a paixão, teremos mesmo menos crianças no mundo.


Veja esse artigo em vídeo:


Nos últimos 12 anos, o crescimento médio anual da população brasileira foi de 0,52%, o primeiro abaixo de 1% desde que o levantamento começou a ser feito no país, em 1872. O número médio de filhos por mulher, que era de 6,28 em 1960 e 1,90 em 2010, agora gira em torno de 1,75.

Naturalmente esse quadro de diminuição no crescimento populacional não se observa apenas no Brasil. A situação é dramática no Japão, onde nasceram 770 mil pessoas no ano passado, frente a 1,5 milhão de mortes. O governo japonês estima que a população caia dos atuais 125 milhões para 87 milhões em 2070, com a metade sendo idosos. Por lá, 27% das mulheres até 50 anos nunca tiveram filhos, país onde esse índice é mais alto.

Nenhuma economia resiste a padrões como esses. Por isso, o governo japonês está incentivando fortemente que famílias tenham mais filhos, dando dinheiro para quem fizer isso, mais educação (para que as pessoas tenham melhores salários) e promovendo igualdade entre os gêneros no ambiente de trabalho.

Mas a “geração TikTok” resiste, valorizando sua “solteirice”. O mercado e as plataformas digitais oferecem o apoio que precisam. Em Tóquio, por exemplo, já há mais de 3.000 “host clubs”, ambientes em que homens bonitos são pagos para oferecer uma conversa agradável e tratar bem mulheres que querem escapar das “complicações” de um relacionamento ou só fugir da rotina, sem compromissos.

O sexo não é o objetivo desse tipo de estabelecimento (apesar de que pode acontecer), mas, para isso, há aplicativos como o Tinder. Graças a eles, cresce a quantidade de pessoas que chegam a ter vários parceiros sexuais em um único dia.

Todos esses recursos podem até suprir necessidades sexuais e de companhia das pessoas, mas recaímos no problema original: nada disso gera bebês.

 

“Facilidades” do mundo moderno

As plataformas digitais nos oferecem facilidades que seriam verdadeiros superpoderes até bem pouco tempo atrás. Fazemos muito mais e (na maioria das vezes) melhor do que nós mesmos fazíamos há 20 anos. Basta pensar que o primeiro iPhone só veio ao mundo em 2007!

Somos seres gregários, e a linguagem é a nossa ferramenta mais fabulosa de construção. Agora esses microconteúdos subvertem a estrutura narrativa que aprendemos ainda na escola, de que a construção de uma ideia precisa de uma introdução, de um desenvolvimento e de uma conclusão. As redes sociais já desprezavam a primeira e a última, mas agora nem o “miolo” se salva.

Como a linguagem está em nossa essência, esse movimento impacta tudo que fazemos, inclusive os relacionamentos. Isso explica, ainda que parcialmente, a dificuldade de os adolescentes atuais namorarem.

É inevitável pensar no “Amor Líquido”, de Zygmunt Bauman (editora Zahar, 2004). Para o filósofo e sociólogo polonês, a redução na qualidade das relações é compensada por uma quantidade enorme de parceiros. A relação social como uma responsabilidade mútua dá lugar ao que chamou de “conexão”. Para ele, o grande apelo desses sistemas é a facilidade de esquecer o outro, de se “desconectar”: troca-se, sem remorso, parceiros que deixam de ser “interessantes” por outros “melhores”.

Mas, para Bauman, apenas quando nos damos conta de que nossa voz é ouvida e de que nossa presença é sentida, entendemos que somos únicos e dignos de amor. Precisamos do outro em um contato de qualidade para nos fazer perceber isso, mas, se estamos perdendo essa comunicação essencial, nunca sentiremos o outro.

As redes sociais sabem disso e, ainda assim, debaixo de um verniz de bom-mocismo cada vez mais gasto, continuam empurrando recursos para nos manter “engajados” (ou “viciados?) em suas plataformas. Se existisse alguma dúvida disso, os “Facebook Papers”, escândalo em que Frances Haugen expôs milhares de documentos internos da empresa em 2021, deveria ter acabado com ela. A ex-gerente de integridade cívica do Facebook mostrou que o a empresa tinha consciência dos males que causava até à saúde mental dos usuários, mas não fazia nada que atrapalhasse seus negócios.

É simplesmente impossível viver sem os recursos digitais hoje. Isso não quer dizer que podemos abrir mão de nosso livre-arbítrio e de nossas capacidades cognitivas de interagir com o mundo em toda a sua profundidade e complexidade. As redes sociais achatam o que nos rodeia, deixando tudo meio igual e desinteressante. E isso definitivamente não nos favorece.

Citando Bauman, “amar é contribuir para o mundo, cada contribuição sendo o traço vivo do eu que ama.” E continua: “no amor, o eu é, pedaço por pedaço, transplantado para o mundo.”

Precisamos recuperar as rédeas de nossas vidas, até mesmo para –quem diria?– nos relacionarmos e termos filhos.

 

Imagem: composição por Paulo Silvestre

Chamamos de “magia” muitas coisas que simplesmente não entendemos

By | Tecnologia | No Comments

Em 1985, eu e três amigos começamos a nos interessar por computadores, em uma época em que pouquíssimas pessoas sabiam o que eles eram ou para que serviam. Fomos a uma pioneira “escola de computação” no bairro para saber se poderíamos aprender mais sobre aquilo. A recepcionista nos levou a um TK-85 (um pequeno computador como o da imagem) e digitou o seguinte programa:

 

10 PRINT "Qual é o seu nome?"
20 INPUT nome$
30 PRINT "Olá, " + nome$ + "."
40 END

 

Quando ela rodou aquele código “espantoso”, a tela da TV preto-e-branco exibiu “Qual o seu nome?” Cada um de nós digitou o seu, ao que a máquina respondeu (para mim) “Olá, Paulo.”

Assombro geral com a “inteligência” do computador! Suficiente para aqueles pré-adolescentes se matricularem no cursinho de BASIC.

Não é preciso ser um programador para perceber que aquilo era algo extremamente simples. Mas para quem nunca tinha tocado em um computador (1985, lembra?), foi o suficiente para abrir as portas que me permitiram, a partir dali, olhar para o digital como forma de ampliar meus horizontes, procurando entender o que acontece no mundo dos bits.

O ser humano tem medo do desconhecido, porque não o pode controlar. Mesmo que algo aconteça incontestavelmente diante de seus olhos, se não compreender o fenômeno com o que sabe, recai sobre obra do divino ou –pior– vira “bruxaria”. Por conta disso, muitas mulheres e homens geniais foram, ao longo da história, calados, presos ou mortos por suas ideias, mesmo as mais benéficas à humanidade.

Por outro lado, quando adquirimos conhecimento, qualquer coisa, mesmo aquelas até então tidas como mágicas, deixa o campo do desconhecido e passa a ser uma ferramenta sob nosso domínio. E de tempos em tempos, uma nova tecnologia disruptiva surge para “testar a nossa fé”.

A bola da vez é a inteligência artificial, que já está revolucionando muitos negócios, mas igualmente desperta medo, pois o cidadão médio não consegue entender como ela funciona. Para ficar ainda mais confuso, temos pesquisadores e executivos da própria área revelando publicamente restrições a ela.

Talvez exista exagero nesses temores; talvez não. A dúvida se dá porque essa, que é uma das mais poderosas tecnologias já criadas, ainda seja majoritariamente incompreendida pela massa, que a vê, portanto, como “mágica”.

Precisamos desmistificar a IA, assim como qualquer outra tecnologia. Essa é a melhor maneira de tirarmos bom proveito do que ela pode nos oferecer, enquanto escapamos de eventuais armadilhas. Não quer dizer que teremos que ser todos programadores ou cientistas de dados: entendermos o que é, como funciona e para que serve já ajudará muito!

 

PS: tenho até hoje o meu TK-85 (foto a seguir), testemunha daquele momento histórico do nascimento da microinformática no país, nos anos 1980.

Foto: Paulo Silvestre

Foto: Paulo Silvestre

 


Vídeo relacionado:

Joan, protagonista do primeiro episódio da sexta temporada de “Black Mirror”, surta por causa de um mau uso da IA - Foto: divulgação

“Black Mirror” explica ludicamente os riscos da inteligência artificial

By | Tecnologia | No Comments

Em uma sociedade polarizada pelo poder descontrolado dos algoritmos das redes sociais, cresce o debate se a inteligência artificial vai exterminar ou salvar a humanidade. Como costuma acontecer com esses extremismos, a verdade provavelmente fica em algum lugar no meio do caminho. Agora a sexta temporada da série “Black Mirror”, que estreou na Netflix na última quinta (15), surge com uma explicação lúdica de como essa tecnologia pode ser incrível ou devastadora, dependendo apenas de como será usada.

A icônica série, criada em 2011 pelo britânico Charlie Brooker, é conhecida pelas suas perturbadoras críticas ao mau uso de tecnologias. Sem correr risco de “dar spoiler”, o primeiro episódio da nova temporada (“A Joan É Péssima”) concentra-se na inteligência artificial generativa, mas guarda espaço para apontar outros abusos do mundo digital pela sociedade. Sobra até para a própria Netflix, a vilã do episódio!

Como fica claro na história, o poder da inteligência artificial cresce de maneira que chega a ser assustador, alimentando as teorias pessimistas ao redor dela. Se até especialistas se pegam questionando como essas plataformas estão “aprendendo”, para uma pessoa comum isso é praticamente incompreensível, algo ainda no campo da ficção científica.

Mas é real e está a nossa volta, começando pelos nossos smartphones.


Veja esse artigo em vídeo:


Como acontece em tantos episódios de “Black Mirror”, algo dá muito errado. E a culpa não é do digital, mas de como ele é usado por seres humanos movidos por sentimentos ou interesses condenáveis. A lição é que, quanto mais poderosa for a tecnologia, mais incríveis serão os benefícios que ele pode trazer, mas também maiores os riscos associados à sua desvirtuação.

É nesse ponto que estamos com a inteligência artificial. Mas ela não estraga a vida da protagonista do episódio sozinha: tem a “ajuda” de celulares (que estão captando continuamente o que dizemos e fazemos), dos algoritmos das plataformas de streaming (que nos dizem o que assistir), da “ditadura das curtidas”, do sucesso de discursos de ódio e até de instalarmos aplicativos sem lermos seus termos de uso.

A indústria de tecnologia costumava ser regida pela “Lei de Moore”, uma referência a Gordon Moore, um dos fundadores da Intel. Em um artigo em 1965, ele previu que a quantidade de circuitos em chips dobraria a cada 18 meses, pelo mesmo custo. Em 1975, reviu sua previsão para 12 meses. Hoje, o poder da inteligência artificial –que é software, mas depende de um processamento gigantesco– dobra a cada três meses.

O “problema” é que nossa capacidade humana não cresce no mesmo ritmo. E quando não conseguimos acompanhar uma evolução, ela pode nos atropelar. Essa é a gênese de muitos desses problemas, pois tanto poder à disposição pode fazer com que as pessoas deixem cuidados de lado e até passem por cima de limites morais.

É como diz o ditado: “quem nunca comeu melado, quando come, se lambuza!”

 

Faça a coisa certa

Na quarta, participei do AI Forum 2023, promovido pela IBM e pela MIT Sloan Review Brasil. As palestras demonstraram o caminho desse avanço da inteligência artificial e de como ela está se tornando uma ferramenta essencial para empresas de qualquer setor.

De fato, com tantos recursos incríveis que novas plataformas movidas pela IA oferecem aos negócios, fica cada vez mais difícil para uma empresa se manter relevante no mercado sem usar essa tecnologia. É como procurar emprego hoje sem saber usar a Internet ou um smartphone. Por mais experiente e qualificado em outras áreas que se seja, não haveria chance de ser contratado, porque esses pontos fortes seriam facilmente suplantados por outros candidatos que dominassem esses recursos.

Um estudo recém-divulgado pela IBM mostra que, se em 2016 58% dos executivos das empresas estavam familiarizados com a IA tradicional, agora em 2023 83% deles conhecem a IA generativa. Além disso, cerca de dois terços se sentem pressionados a acelerar os investimentos na área, que devem quadruplicar em até três anos.

A mesma pesquisa aponta que o principal fator que atravanca essas decisões é a falta de confiança na tecnologia, especialmente em aspectos de cibersegurança, privacidade e precisão. Outros problemas levantados foram a dificuldade de as decisões tomadas pela IA generativa serem facilmente explicadas, a falta de garantia de segurança e ética, a possibilidade de a tecnologia propagar preconceitos existentes e a falta de confiança nas respostas fornecidas pela IA generativa.

Conversei no evento com Marcela Vairo, diretora de Automação, Dados e IA da IBM (a íntegra da entrevista pode ser vista no vídeo abaixo). Para ela, três premissas devem ser consideradas para que a inteligência artificial nos ajude efetivamente, resolvendo essas preocupações.

A primeira delas é que as aplicações movidas por IA devem ser construídas para tornar as pessoas mais inteligentes e produtivas, e não para substituí-las. Deve existir também um grande cuidado e respeito com os dados dos clientes, que pertencem apenas a eles e não podem ser compartilhados em outra plataforma ou com outros clientes. E por fim, as aplicações devem ser transparentes, para que as pessoas entendam por que elas estão tomando uma determinada decisão e de onde ela veio, o que também ajuda a combater os possíveis vieses que a IA desenvolva.

O que precisamos entender é que essa corrida tecnológica está acontecendo! Não sejamos inocentes em achar que ela será interrompida pelo medo do desconhecido. Os responsáveis por esse desenvolvimento devem incluir travas para que seus sistemas não saiam do controle, garantindo essas premissas.

O que nos leva de volta a “Black Mirror”: tampouco podemos ser inocentes em achar que todos os executivos da indústria serão éticos e preocupados em fazer a coisa certa. É por isso que a inteligência artificial precisa ser regulamentada urgentemente, para pelo menos termos a tranquilidade de continuar usufruindo de seus benefícios incríveis sem o risco de sermos dominados pela máquina.

E no final, sempre temos que ter uma tomada para puxar e desligar a coisa toda se ela sair completamente dos trilhos.


Íntegra de entrevista com Marcela Vairo (IBM):

Marcela Vairo, diretora de Automação, Dados e IA da IBM, fala no palco do AI Forum 2023 - Foto: Paulo Silvestre

As empresas não podem mais ignorar a inteligência artificial

By | Tecnologia | No Comments

A inteligência artificial atingiu o mundo dos negócios como um tsunami. Apesar de pesquisas na área existirem há décadas e de a tecnologia já estar presente em aplicações comerciais e até pessoais há muitos anos, nos últimos seis meses ela ganhou uma visibilidade gigantesca, desde que o ChatGPT colocou nas mãos do cidadão comum a sensação de que ele agora “controla a IA”.

Seja isso real ou uma impressão superestimada, o fato é que o poder da inteligência artificial está dobrando a cada três meses, e isso não pode ser ignorado. Quando pensamos no mundo dos negócios, começa a ficar realmente difícil uma empresa permanecer relevante no mercado quando seus concorrentes adotam ferramentas profissionais com IA.

Fazendo uma analogia, é como se um profissional buscasse emprego hoje sem saber usar a Internet ou um smartphone.  Por mais experiente e qualificado em outras áreas que fosse, não teria chance de ser contratado, porque seus pontos fortes seriam facilmente suplantados por outros candidatos que dominassem essas tecnologias disruptivas em nossas vidas.

Isso não significa que os gestores devem ir para a IA em desabalada carreira. Como toda ferramenta, ela pode trazer ganhos apreciáveis, mas, para isso, precisa ser bem usada. E quanto mais poderosa for essa tecnologia, maiores serão os benefícios que trará, mas também maiores são os riscos de algo dar muito errado.

A boa notícia é que não precisamos reinventar a roda. Foi-se o tempo em que tecnologias assim ficavam no campo da ficção científica, ou custavam tão caro que apenas grandes corporações podiam bancar seus benefícios. Graças a seu desenvolvimento exponencial e à combinação com outras tecnologias, como a computação na nuvem, a inteligência artificial pode hoje beneficiar mesmo pequenos negócios. Há até soluções gratuitas para quem está começando.

Falei sobre isso e muito mais com Marcela Vairo, diretora de Automação, Dados e IA da IBM, no AI Forum 2023, que aconteceu em São Paulo nesta quarta. A conversa traz dicas valiosas para quem deseja entender melhor a inteligência artificial e como ela impacta seus negócios e sua carreira e pode ser encontrada na íntegra no víeo abaixo:

 

 

Neo luta contra o Agente Smith em “Matrix Revolutions” (2003): mundo digital criado para iludir a humanidade - Foto: divulgação

Se deixarmos, a inteligência artificial escolherá o próximo presidente

By | Tecnologia | No Comments

Nas eleições de 2018, eu disse que o presidente eleito naquele ano seria o que usasse melhor as redes sociais, e isso aconteceu. Em 2022, antecipei a guerra das fake news, que iludiram o eleitorado. Para o pleito de 2026, receio que a tecnologia digital ocupe um espaço ainda maior em nossas decisões, dessa vez pelo uso irresponsável da inteligência artificial.

Não estou dizendo que a IA escolherá por sua conta qual é o melhor candidato. A despeito de um medo difuso de que máquinas inteligentes nos exterminem, isso não deve acontecer porque, pelo menos no seu estágio atual, elas não têm iniciativa ou vontade própria: fazem apenas o que lhes pedimos. Os processos não são iniciados por elas. Temos que cuidar para que isso continue dessa forma.

Ainda assim, a inteligência artificial generativa, que ganhou as ruas no ano passado e que tem no ChatGPT sua maior estrela, atingiu um feito memorável: dominou a linguagem, não apenas para nos entender, mas também para produzir textos, fotos, vídeos, músicas muito convincentes.

Tudo que fazemos passa pela linguagem! Não só para nos comunicar, mas nossa cultura e até nosso desenvolvimento como espécie depende dela. Se agora máquinas com capacidades super-humanas também dominam esse recurso, podemos ser obrigados a enfrentar pessoas inescrupulosas que as usem para atingir seus objetivos, a exemplo do que foi feito com as redes sociais e com as fake news.


Veja esse artigo em vídeo:


A inteligência artificial não sai das manchetes há seis meses. Mesmo com tanta informação, as pessoas ainda não sabem exatamente como funciona e o que pode ser feito com ela. E isso é um risco, pois se tornam presas daquele que entendem.

É aí que mora o perigo para as eleições (e muito mais), com o uso dessa tecnologia para iludir e convencer. “No Brasil, as próximas eleições presidenciais serão daqui a três anos, e a tecnologia estará ainda mais avançada”, afirma Diogo Cortiz, professor da PUC-SP e especialista em IA. “A gente vai partir para um discurso não só textual, mas também com vídeo, som, fotografias ultrarrealistas, que farão ser muito difícil separar o real do que é sintético”, explica.

Não nos iludamos: vai acontecer! Esse é o capítulo atual do jogo em que estamos há uma década, em que a tecnologia digital é usada como ferramenta de convencimento. E, como sempre, ela não é ruim intrinsicamente, mas, se não houver nenhuma forma de controle, pessoas, empresas, partidos políticos podem abusar desses recursos para atingir seus fins, até de maneira criminosa.

Entretanto, não somos vítimas indefesas. Da mesma que esses indivíduos não deveriam fazer esses usos indecentes da tecnologia para nos manipular, cabe a cada um de nós usá-la conscientemente. Por mais que pareça mágica ao responder a nossos anseios de maneira tão convincente, ela erra, e muito! Por isso, não podemos pautar decisões importantes no que a IA nos entrega sem verificar essas informações.

O ser humano sempre teve medo de ficar preso em um mundo de ilusões. O filósofo e matemático grego Platão (428 a.C. – 348 a.C.) antecipou isso em seu “Mito da Caverna”. Nos dias atuais, o assunto permeia a ficção, como na série de filmes “Matrix”, curiosamente um mundo falso criado por máquinas para iludir a humanidade.

 

Intimidade com a máquina

Há um outro aspecto que precisamos considerar. Assim como a IA primitiva das redes sociais identifica nossos gostos, desejos e medos para nos apresentar pessoas e conteúdos que nos mantenham em nossa zona de conforto, as plataformas atuais também podem coletar e usar essa informação para se tornarem ainda mais realistas.

Hoje vivemos no chamado “capitalismo de vigilância”, em que nossa atenção e nosso tempo são capturados pelas redes sociais, que os comercializa como forma eficientíssima de vender desde quinquilharias a políticos.

Com a inteligência artificial, a atenção pode ser substituída nessa função pela intimidade. “Eu vejo vários níveis de consequência disso: sociais, cognitivos e psicológicos”, afirma Cortiz, que tem nesse assunto um dos pontos centrais de suas pesquisas atuais. “Se a pessoa começar a projetar um valor muito grande para essa relação com a máquina e desvalorizar a relação com o humano, a gente tem um problema, porque essa intimidade é de uma via só: o laço não existe.”

“O cérebro funciona quimicamente, buscando o menor consumo com o maior benefício”, explica Victoria Martínez, gerente de negócios e data science da empresa de tecnologia Red Hat para a América Latina. Para ela, uma das coisas que nos define como humanos é nossa capacidade de pensar coisas distintas, e não podemos perder isso pela comodidade da IA. E alerta do perigo implícito de crianças e adolescentes usarem essa tecnologia na escola, entregando trabalhos sem saber como foram feitos. “É muito importante aprender o processo, pois, para automatizarmos algo, precisamos entender o que estamos fazendo”, acrescenta.

A qualidade do que a inteligência artificial nos entrega cresce de maneira exponencial. É difícil assimilarmos isso. Assim pode chegar um momento em que não saberemos se o que nos é apresentado é verdade ou mentira, e, no segundo caso, se isso aconteceu por uma falha dos algoritmos ou porque eles foram usados maliciosamente.

Isso explica, pelo menos em parte, tantos temores em torno do tema. Chegamos a ver em março mais de mil de pesquisadores, especialistas e até executivos de empresas do setor pedindo que essas pesquisas sejam desaceleradas.

É por isso que precisamos ampliar o debate em torno da regulação dessa tecnologia. Não como um cabresto que impedirá seu avanço, mas como mecanismos para, pelo menos, tentar garantir responsabilidade e transparência de quem desenvolve essas plataformas e direitos e segurança para quem as usa.

Isso deve ser feito logo, e não apenas depois que o caos se instale, como aconteceu com as redes sociais. Agora, no meio do turbilhão, vemos como está sendo difícil regulamentá-las, graças aos interesses dos que se beneficiam dessa situação.

“Por enquanto, nós temos o controle”, afirma Martínez. “Então espero que a democracia não seja dominada por uma máquina.”

É verdade, mas temos que nos mexer. E que isso seja feito pelas nossas aspirações, e não porque algo deu muito errado!

 

Matt Hicks, CEO da Red Hat, durante a abertura do Red Hat Summit 2023: “esse é o momento da IA” - Foto: Paulo Silvestre

Inteligência artificial produz coisas incríveis, mas não podemos perder nosso protagonismo

By | Tecnologia | No Comments

Estive na semana passada em Boston (EUA), participando do Red Hat Summit, maior evento de software open source do mundo. Apesar desse modelo de desenvolvimento de programas aparecer a todo momento, a estrela da festa foi a inteligência artificial. E algo que me chamou a atenção foi a preocupação da Red Hat e de seus executivos em demonstrar como essa tecnologia, por mais poderosa que seja, não deve fazer nada sozinha, precisando ser “treinada” com bons dados, com o ser humano ocupando o centro do processo.

O próprio CEO, Matt Hicks, abriu a conferência dizendo que esse é o “momento da IA”. Muitos dos principais anúncios do evento, como o Ansible Lightspeed e o OpenShift AI, embutiam um incrível poder da inteligência artificial na automação de tarefas, como geração de código a partir de pedidos simples em português, liberando o tempo das equipes para funções mais nobres.

Isso não quer dizer, entretanto, que os profissionais possam simplesmente “terceirizar” o raciocínio e a sua criatividade para as máquinas. Pelo contrário, por mais fabulosas que sejam essas ferramentas, elas pouco ajudam se o usuário não conhecer pelo menos o essencial do que os sistemas produzem.

Tanto é verdade que assistimos a casos de pessoas e de empresas que enfrentam grandes contratempos por usar plataformas generalistas de inteligência artificial (como o ChatGPT) de maneira descuidada. Precisamos ter em mente que, por mais que ela chegue a parecer mágica, não é infalível!


Veja esse artigo em vídeo:


Foi o que aconteceu recentemente com o advogado americano Steven Schwartz, da firma Levidow, Levidow & Oberman, com mais de 30 anos de experiência: ele enfrentará agora medidas disciplinares por usar o ChatpGPT para pesquisas para o caso de um cliente que processava a Avianca. Tudo porque apresentou à corte um documento com supostos casos semelhantes envolvendo outras empresas aéreas.

O problema é que nenhum desses casos existia: todos foram inventados pelo ChatGPT. Schwartz ainda chegou a perguntar à plataforma se os casos eram reais, o que ela candidamente confirmou. É o que os especialistas chamam de “alucinação da inteligência artificial”: ela apresenta algo completamente errado como um fato, cheia de “convicção”, a ponto de conseguir argumentar sobre aquilo.

“Nessa nova fase, temos que conhecer a pergunta para qual queremos a resposta”, explicou-me Hicks, em uma conversa com jornalistas durante o Summit. “Se você for um novato, poderá criar melhor, mais rápido; se for um especialista, poderá melhorar muito o que faz e usar seu domínio para refinar a entrega”, concluiu.

Para Paulo Bonucci, vice-presidente e gerente-geral da Red Hat para a América Latina, “não adianta você chegar com inteligência artificial assustando a todos, dizendo que vai faltar emprego”. Para o executivo, a transformação que a inteligência artificial promoverá nas empresas passa por uma transformação cultural nos profissionais. “A atenção principal enquanto se desenvolvem os códigos e as tecnologias de inteligência artificial são as pessoas, são os talentos”, acrescenta.

Chega a ser reconfortante ver lideranças de uma empresa desse porte –a Red Hat é a maior empresa de soluções empresariais open source do mundo– demonstrando essa consciência. Pois não se enganem: a inteligência artificial representa uma mudança de patamar tecnológico com um impacto semelhante ao visto com a introdução dos smartphones ou da própria Internet comercial.

A diferença é que, no mundo exponencial em que vivemos, as transformações são maiores e os tempos são menores. E nem sempre as empresas e ainda mais as pessoas têm sido capazes de absorver esse impacto.

 

Corrida do ouro

Infelizmente o que se vê é uma corrida tecnológica, que pode estar atropelando muita gente por descuido e até falta de ética de alguns fabricantes. “Existem empresas grandes que fazem anúncios quando sua tecnologia não está madura”, afirma Victoria Martínez, gerente de negócios e data science da Red Hat para a América’ Latina. “Essa corrida tornou-se muito agressiva”.

É interessante pensarmos que as pesquisas em inteligência artificial existem há décadas, mas o assunto se tornou um tema corriqueiro até entre não-especialistas apenas após o ChatGPT ser lançado, em novembro. Não é à toa que se tornou a ferramenta (de qualquer tipo) de adoção mais rápida da história: todos querem usar o robô para passar para ele suas tarefas. E, graças a essa corrida, isso tem sido feito de maneira descuidada, pois alguns fabricantes parecem não se preocupar tanto com perigos que isso pode representar.

“Isso é uma coisa que a gente deveria estar discutindo mais”, sugere Eduardo Shimizu, diretor de ecossistemas da Red Hat Brasil. “Entendo que nós, não só como especialistas em segurança ou em tecnologia, mas como seres humanos, precisamos discutir esses temas éticos da forma de usar a tecnologia”, acrescenta.

Martínez lembra das preocupações que educadores vêm apresentando sobre o uso de plataformas de IA generativas, como o próprio ChatGPT por crianças. “Não podemos esquecer de aprender o processo”, alerta. Em uma situação limite, seria como entregar uma calculadora a uma criança que não sabe sequer conceitualmente as quatro operações básicas. Ela se desenvolveria como um adulto com seríssimos problemas cognitivos e de adaptação à realidade.

Por isso, a qualquer um que não saiba fazer uma divisão deveria ser proibido usar uma calculadora. Por outro lado, para quem domina suficientemente a matemática, a calculadora e mais ainda uma planilha eletrônica são ferramentas inestimáveis.

É assim que devemos encarar essa mudança de patamar tecnológico. Como escreveu Hicks em um artigo recente, “não sabemos o que o futuro reserva –nem mesmo o ChatGPT é precognitivo ainda. Isso não significa que não podemos antecipar quais desafios enfrentaremos nos próximos meses e anos.”

Quaisquer que sejam, quem deve estar no comando somos nós. Os robôs, por sua vez, serão ajudantes valiosíssimos nesse processo.


Você pode assistir à íntegra em vídeo das minhas entrevistas com os quatro executivos da Red Hat. Basta clicar no seu nome: Matt Hicks, Paulo Bonucci, Victoria Martínez e Eduardo Shimizu.

 

“Montanha russa virtual” da Rilix: equipamento possui vibração e até gerador de vento para aumentar a imersão - Foto: divulgação

Evento mostra como a tecnologia pode levar setor de festas a um novo patamar

By | Tecnologia | No Comments

Esqueça as decorações caseiras improvisadas! O setor de festas já usa há anos a alta tecnologia, não apenas para a produção de itens para celebrações de todo tipo e porte, como também no que é oferecido aos clientes finais. A ideia é transformar esses encontros, sejam pessoais ou corporativos, em momentos memoráveis.

Na semana que vem, o maior evento do setor promete mostrar tudo isso em São Paulo. A Celebra Show acontecerá entre 31 de maio e 3 de junho no Expo Center Norte. Contará com a participação de 180 fabricantes, importadores, exportadores e distribuidores de um setor que representa 4,32% do PIB Nacional, segundo a ABCasa (Associação Brasileira de Artigos para Casa, Decoração, Presente, Utilidades Domésticas, Festas e Flores), organizadora da feira.

A associação calcula que o setor deve movimentar algo como R$ 40 bilhões nesse ano. Isso é 62% a mais que em 2019, o último ano antes da pandemia de Covid-19.

“O nosso objetivo é reunir todos os segmentos que compõem o setor de celebrações em um único evento e que este seja uma referência no mercado nacional e Internacional e onde os visitantes possam verificar tendências, fazer contatos importantes e conhecer novos fornecedores”, explica Eduardo Cincinato, presidente da ABCasa.

Resultado da união das antigas ABCasa Natal e Festas e Expo Festas e Parques, a Celebra Show receberá expositores dos segmentos de Natal, festas, Halloween, eventos sociais, confeitaria, balões, parques e outros. Além de itens mais tradicionais e já conhecidos do público nesses setores, os visitantes poderão ver produtos inovadores, como partes mecânicas e diferentes sensores, que criam verdadeiros efeitos especiais nas celebrações.

A tecnologia também gera oportunidades de negócios novas no setor. É o caso de usos criativos da realidade virtual. Um dos expositores do evento, a Rilix, oferece equipamentos de “montanhas russas virtuais”, que podem ser instaladas em festas ou em espaços públicos (como shoppings) para clientes que queiram pagar para “fazer um passeio”.

O sistema possui uma estrutura em que até duas pessoas podem se sentar. Graças aos óculos de realidade virtual, elas podem olhar para qualquer lado durante a simulação. Para aumentar o envolvimento, o equipamento ainda possui vibração e gerador de vento.

Para a Celebra Show, a empresa prepara um novo recurso que é a captura da posição das mãos dos clientes. “Antes, a pessoa colocava os óculos e fazia um passeio em algum dos 12 cenários”, explica Rafaela Sedlacek, gestora comercial da Rilix. “Agora teremos interação com as mãos, com alvos para atirar durante o passeio, gerando uma pontuação no final.”

A ABCasa tem incentivado seus associados na adoção de tecnologia para incrementar os setores de produção, comercialização e distribuição. Para o evento, a inteligência artificial está sendo usada na logística, garantindo o suprimento e o abastecimento de tudo o que for necessário. Também foram criados microsserviços na nuvem, que oferecem informações em tempo real, podendo ser acessados por computadores, tablets e smartphones.

 

Colaboração entre decoradores

O evento oferecerá, logo na sua entrada, um espaço “instagramável” construído de maneira colaborativa por grandes decoradores e influenciadores brasileiros e da América Latina: o Collab Celebra.

O espaço ocupará mais de 2.500 metros quadrados. O investimento em sua execução se aproximou de R$ 2 milhões. Serão representados os segmentos de confeitaria, festas, Natal, eventos sociais, Halloween e balões.

A feira oferecerá ainda diversos tipos de conteúdos sobre os mercados que representa, incluindo palestras, estudos de caso, workshops e até um seminário para profissionais e apaixonados por balões, o Baloon Meeting Brazil. O credenciamento para participar da Celebra Show é gratuito.

 

Os personagens Theodore e Samantha (no smartphone em seu bolso), no filme “Ela” (2013) - Foto: divulgação

Inteligência artificial começa a substituir pessoas com suas ideias, personalidades e vozes

By | Tecnologia | No Comments

Enquanto o mundo discute o impacto da inteligência artificial no mercado de trabalho, outra revolução, possivelmente mais profunda ainda, começa a tomar forma graças a essa tecnologia: pessoas estão criando representações digitais de si mesmas, simulando suas ideias, vozes e até suas personalidades.

O objetivo é usar esses avatares para conversar com muita gente, como se fossem o indivíduo em si. Isso é particularmente interessante para celebridades com enormes bases de fãs online, mas abre uma série de discussões éticas e até filosóficas sobre a substituição do ser humano por robôs.

Por um lado, eles podem representar um grande avanço no relacionamento com seguidores e clientes, criando uma experiência incrivelmente imersiva e convincente, o que pode ser ótimo para os negócios. Entretanto especialistas temem que esses chatbots hiper-realistas possam provocar estragos na saúde mental de algumas pessoas.


Veja esse artigo em vídeo:


No começo do mês, a influenciadora digital americana Caryn Marjorie, 23, que tem aproximadamente dois milhões de seguidores no Snapchat, lançou um desses avatares. Batizado de CarynAI, ele é construído sobre a tecnologia do GPT-4, motor do afamado ChatGPT.

Mas ele vai muito além de escrever textos a perguntas de seus fãs. O robô simula a voz, personalidade e até maneirismos de Caryn, conversando com os fãs sobre qualquer assunto. Para uma base de seguidores em que 98% são homens, ninguém se surpreendeu que muitas dessas conversas acabaram tendo cunho sexual, apesar de a influenciadora dizer que espera que esse não se torne o assunto principal.

Os fãs sabem que não estão falando com a verdadeira Caryn. Ainda assim não se importam de pagar US$ 1 por minuto de conversa. Não há limite de tempo, mas quando o papo se aproxima de uma hora, CarynAI sugere que o fã continue em outro momento.

Com isso, na primeira semana, o sistema rendeu nada menos que US$ 100 mil à influenciadora. Quando ela conseguir dar acesso a uma lista de espera de milhares de interessados, ela calcula que faturará algo como US$ 5 milhões por mês! Negócios à parte, Caryn disse que “espera curar a solidão de seus fãs” com a ajuda de seu avatar.

“Entrar na fantasia não é errado: isso nos proporciona criatividade, curiosidade, alegria”, explica Katty Zúñiga, psicóloga especializada em comportamento e tecnologia. “Mas, ao mesmo tempo, a gente precisa entrar em contato com nosso lado mais racional, mais consciente, para encontrar o equilíbrio, e não nos perdermos na fantasia, que é o que essa inteligência artificial está nos apresentando.”

 

Vencendo a morte?

CarynAI foi criada pela empresa Forever Voices. Seu CEO e fundador, John Meyer, disse ao The Washington Post que começou a desenvolver a plataforma no ano passado, para tentar “conversar” com seu pai, que faleceu em 2017. Segundo ele, conversar com o robô que tinha a voz e a personalidade do pai foi “uma experiência incrivelmente curativa”.

É inevitável lembrar do episódio “Volto Já” (2013), o primeiro da segunda temporada da série “Black Mirror”, conhecida por promover reflexões sobre usos questionáveis da tecnologia. Nessa história, a personagem Martha (Hayley Atwell) usa um serviço que cria um chatbot com informações, personalidade e trejeitos de seu recém-falecido marido, Ash (Domhnall Gleeson). Como aquilo parecia aplacar sua saudade e solidão, ela atualiza o serviço para uma versão em que o sistema conversa com ela com a voz dele.

Emocionada com os resultados, parte para um terceiro nível, em que compra um robô fisicamente idêntico a Ash, que passa a interagir com ela, até sexualmente. Claro que, nesse momento, a experiência desanda! Quanto mais ampla pretende ser a simulação, maior a chance de ela dar errado. Martha não consegue lidar com as diferenças, e decide tomar uma atitude extrema.

Impossível não pensar também no filme “Ela” (2013). Nele, Theodore (Joaquin Phoenix), um escritor deprimido, se apaixona por Samantha (Scarlett Johansson), a “personalidade” do novo sistema operacional de seu computador e smartphone. Se isso não fosse estranho o suficiente, ela corresponde a seu amor. Aqui também a história não termina bem, pois, apesar de Samantha agradar a Theodore em tudo, ela ainda não consegue ser humana.

As duas histórias são muito impactantes. No caso de Samantha, é muito fácil se apaixonar por ela, mesmo não sendo Theodore. Afinal, ela é dona de uma ternura rara, sempre “ao lado” de Theodore, disposta a dar a ele o que ele precisa. Mas isso é amor ou apenas as ações estatisticamente mais relevantes para cada momento, envelopadas com muito carinho?

É nessa hora que essas plataformas podem se tornar um problema psíquico. A vida real é composta de contraposições entre coisas positivas e negativas, alegrias e tristezas, tensões e distensões. Ao enfrentarmos isso, amadurecemos. Mas se começarmos a viver relacionamentos que nos “protegem” de dissabores, isso pode prejudicar nosso desenvolvimento.

“A gente está vivendo em um mundo de adultos imaturos, por isso as pessoas não aceitam o diferente”, explica Zúñiga. “É como a criança, que vive despreocupada momentos de prazer o tempo todo, porque tem um adulto por trás para cuidar dela”, acrescenta. Mas a vida não funciona dessa forma.

Meyer acredita que, em poucos anos, todos terão um “assistente humanizado por IA” em seu bolso, que poderá ser um parceiro romântico, um personal trainer ou um professor. Resta saber até onde eles poderão ir e como poderemos nos proteger de “abusos” da tecnologia.

No dia 18, Sam Altman, CEO da OpenAI, criadora do ChatGPT, deu uma palestra no Rio de Janeiro. Contrariando o que muito poderiam pensar, ele defende que a inteligência artificial seja regulamentada logo e, de preferência, de maneira única em todos os países.

Infelizmente a chance de isso acontecer é mínima. Afinal, não conseguimos chegar a um consenso nem com o “PL das Fake News”. De qualquer jeito, o debate não pode ficar restrito aos interesses dos fabricantes, ou correremos o risco de parar de nos apaixonar por humanos chatos, preferindo avatares hipersedutores.

 

Mark Zuckerberg, CEO da Meta: redes sociais entraram na briga contra o “PL das Fake News” - Foto: Anthony Quintano / Creative Commons

O poder das redes antissociais

By | Tecnologia | No Comments

No começo, as redes sociais eram espaços divertidos, para encontrarmos antigos amigos e conhecer gente nova. Eram os bons tempos do Orkut, do MySpace e do Friendster. O próprio Facebook surgiu em 2004 como um simples diretório de alunos da Universidade de Harvard. Mas isso mudou na última década, e essas redes têm ficado cada vez menos sociais.

No lugar dos conteúdos inocentes de amigos e de familiares, as páginas dessas plataformas foram tomadas de publicidade, publicações de influenciadores e conteúdo de interesse das próprias empresas. Os feeds, que prendem nossa atenção, se transformaram em ferramentas de convencimento fabulosas, que nos induzem desde comprar todo tipo de quinquilharia até em quem votar. O espaço social deu lugar à máquina publicitária mais eficiente já criada.

A redução no aspecto social teve um custo para usuários e para as próprias redes.

Há semanas, o Brasil vem debatendo o Projeto de Lei 2.630/20, apelidado de “PL das Fake News”, que busca regulamentar essas plataformas. E agora elas entraram de sola na briga, combatendo explicitamente a proposta em suas páginas.

Não é de se espantar: são elas as mais impactadas pelo projeto, e não os usuários, os negócios, as igrejas ou mesmo os políticos. As redes, cada vez mais poderosas e menos sociais, não podem mais se eximir de suas responsabilidades, e precisarão fazer muito mais que atualmente para a manutenção saudável da sociedade.


Veja esse artigo em vídeo:


Nada disso chega a ser novo, mas a magnitude do espaço que ocupa em nossas vidas tornou-se alarmante. Como disse o professor da Universidade de Yale Edward Tufte, no documentário “O Dilema das Redes” (Netflix, 2020), “existem apenas duas indústrias que chamam seus clientes de usuários: a de drogas e a de software”.

Algumas pessoas questionam o aumento desse poder em detrimento dos aspectos sociais. Isso vem provocando sangrias de usuários desencantados. Por isso, essas empresas também são prejudicadas, pois os usuários acabam migrando para plataformas menores e nichadas, onde o aspecto social ainda é relevante. Com isso, o sonho megalomaníaco de moguls como Mark Zuckerberg e Elon Musk de ter uma plataforma onde todos fariam de tudo, fica cada vez mais distante.

“Não é do interesse das redes sociais mudarem o formato de como operam e muito menos abrirem as caixas pretas com algoritmos”, explica Magaly Prado, pesquisadora do Instituto de Estudos Avançados da Universidade de São Paulo. “É notório verificar o espalhamento desenfreado de assuntos polêmicos e, principalmente, quando sacodem emoções.”

Isso explica atitudes como as vistas nos últimos dias, como quando o Google colocou um link para defender sua posição contrária à regulamentação na sua página de entrada, ou quando o Telegram enviou uma mensagem para todos seus usuários no Brasil, com o mesmo fim. Para fazer valer seu ponto de vista, não economizaram em afirmações falsas ou distorcidas. No caso do último, ainda carregou em frases de efeito e falsas, como dizer que “a democracia está sob ataque no Brasil”, que “a lei matará a Internet moderna” ou que “concede poderes de censura ao governo”.

Essas iniciativas provocaram reações no mundo político, jurídico e empresarial. A própria Meta, dona do Facebook, Instagram e WhatsApp, correu para dizer que não concordava com as afirmações do Telegram.

 

Abuso de poder?

Muitos argumentaram que essas atitudes das plataformas digitais poderiam ser consideradas “abuso de poder econômico”, pela enorme penetração que essas empresas têm na sociedade e pelo poder de convencimento de seus algoritmos. Apesar disso, juridicamente não se pode sustentar isso.

“O abuso de poder econômico pode ser resumido como a situação em que uma entidade dominante em um setor empresarial viola as regras da concorrência livre, impedindo que seus concorrentes, sejam eles diretos ou indiretos, conduzam seus negócios”, explica Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propaganda e Marketing). Para ele, as iniciativas do Google e do Telegram não se enquadram nisso. “Diferente seria se houvesse uma manipulação algorítmica que privilegiasse conteúdo alinhado com seu posicionamento, em detrimento de posições contrárias”, contrapõe.

De toda forma, esses episódios podem ser educativos. Eles ilustram muito bem o poder que as plataformas digitais desenvolveram, a ponto de se contrapor a governos eleitos e de jogar parte da população contra eles.

Ninguém ganha nada com isso!

“As redes perdem ao entulhar o feed dos internautas com mensagens falsas de interesses escusos, fugindo da ideia da Internet em unir as pessoas em uma esfera de sociabilidade e troca de saberes”, afirma Prado. De certa forma, leis como o “PL das Fake News” ao redor do mundo, como da União Europeia, China e Austrália, são reações aos descuidos com os aspectos sociais pelas plataformas, com a explosão das fake news, do discurso de ódio e de outros crimes nesses ambientes. Se essas empresas tivessem levado mais a sério esses cuidados, assim como os aspectos nocivos de seus algoritmos na saúde mental dos usuários, a sociedade não chegaria a essa cisão e talvez nada disso fosse necessário.

Talvez todos possamos aprender algo com a forma como as redes sociais cresceram. A liberdade nos permite criar coisas incríveis, mas ela não nos permite tudo! A liberdade de um termina quando começa a do outro, e o meio digital não se sobrepõe às leis de um país.

Não é um exagero dizer que as redes sociais são um invento que modificou nossas vidas profundamente, abrindo grandes oportunidades de comunicação e exposição. Mas se perderam pelo caminho. Ficaram demasiadamente poderosas, e isso subiu à cabeça de alguns de seus criadores.

Tristemente as grandes plataformas estão se tornando redes antissociais, onde o dinheiro supera os interesses daqueles que viabilizam o negócio: seus usuários. Por mais que não paguem por seus serviços (quem faz isso são os anunciantes), esse e qualquer negócio só prosperam se forem verdadeiramente benéficos a todos os envolvidos. Se a balança se desequilibra, como se vê agora, os clientes sempre encontrarão quem se preocupe de verdade com eles.

 

Ian Wilmut, biólogo do Instituto Roslin (Escócia), e a ovelha Dolly, primeiro clone bem-sucedido de um mamífero - Foto: divulgação

Corrida pela inteligência artificial não pode driblar leis ou ética

By | Tecnologia | No Comments

Diante do acalorado debate em torno do “PL das Fake News”, muita gente nem percebeu que outro projeto de lei, possivelmente tão importante quanto, foi apresentado no dia 3 pelo senador Rodrigo Pacheco (PSD-MG): o PL 2338/23, que propõe a regulação da inteligência artificial. Resta saber se uma lei conseguirá conter abusos dessa corrida tecnológica ou sucumbirá à pressão das empresas, como tem acontecido no combate às fake news.

Talvez um caminho melhor seria submeter o desenvolvimento da IA aos limites da ética, mas, para isso, os envolvidos precisariam guiar-se por ela. Nesse sentido, outro acontecimento da semana passada foi emblemático: a saída do Google de Geoffrey Hinton, conhecido como o “padrinho da IA”. Ele disse que fez isso para poder falar criticamente sobre os caminhos que essa tecnologia está tomando e a disputa sem limites que Google, Microsoft e outras companhias estão travando, o que poderia, segundo ele, criar algo realmente perigoso.

Em entrevista ao The New York Times, o pioneiro da IA chegou a dizer que se arrepende de ter contribuído para esse avanço. “Quando você vê algo que é tecnicamente atraente, você vai em frente e faz”, justificando seu papel nessas pesquisas. Hoje ele percebe que essa visão pode ser um tanto inconsequente.

Mas quantos cientistas e principalmente homens de negócios da “big techs” também têm essa consciência?


Veja esse artigo em vídeo:


Isso me lembrou do início da minha carreira, como repórter de ciência, quando o mundo foi sacudido, em fevereiro de 1997, pelo anúncio da ovelha Dolly, o primeiro mamífero clonado com sucesso. Apesar de sua origem incomum, ela viveu uma vida normal por seis anos, tendo até dado à luz seis filhotes. Depois dela, outros mamíferos foram clonados, como porcos, veados, cavalos, touros e até macacos.

Não demorou para que fosse levantada a questão se seria possível clonar seres humanos. Ela rendeu até a novela global “O Clone”, de Glória Perez, em 2001. Em 2007, Ian Wilmut, biólogo do Instituto Roslin (Escócia) que liderou a equipe que criou Dolly, chegou a dizer que a técnica usada com ela talvez nunca fosse eficiente para uso em humanos.

Muitas teorias da conspiração sugerem que clones humanos chegaram a ser criados, mas nunca revelados. Isso estaria em linha com a ideia de Hinton da execução pelo prazer do desafio técnico.

Ainda que tenha se materializado, a pesquisa de clones humanos não foi para frente. E o que impediu não foi qualquer legislação: foi a ética! A sociedade simplesmente não aceitava aquilo.

“A ética da inteligência artificial tem que funcionar mais ou menos como a da biologia, tem que ter uma trava”, afirma Lucia Santaella, professora-titular da PUC-SP. “Se não os filmes de ficção científica vão acabar se realizando.”

 

A verdade irrelevante

Outro ponto destacado por Hinton que me chamou a atenção é sua preocupação com que a inteligência artificial passe a produzir conteúdos tão críveis, que as pessoas não sejam mais capazes de distinguir entre o que é real e o que é falso.

Ela é legítima! Já em 2016, o Dicionário Oxford escolheu “pós-verdade” como sua “palavra do ano”. Muito antes da IA generativa e quando as fake news ainda engatinhavam, esse verbete da renomada publicação alertava para “circunstâncias nas quais os fatos objetivos são menos influentes na opinião pública do que as emoções e as crenças pessoais”. De lá para cá, isso se intensificou exponencialmente: as pessoas acreditam naquilo que lhes for mais conveniente e confortável. As redes sociais levaram isso às raias da loucura e a IA generativa pode complicar ainda mais esse quadro.

“Não é que a verdade não exista: é que a verdade não mais importa”, acrescenta Santaella. “Esse é o grande problema!”

Ter ferramentas como essas abre incríveis possibilidades, mas também exige um uso responsável e consciente, que muitos não têm. Seu uso descuidado e malicioso pode ofuscar os benefícios da inteligência artificial, transformando-a em um mecanismo nefasto de controle e de desinformação, a exemplo do que foi feito com as redes sociais. E vejam como isso está destruindo a sociedade!

Se nenhum limite for imposto, as empresas desenvolvedoras da IA farão o mesmo que fizeram com as redes sociais. É uma corrida em que ninguém quer ficar para trás, pois o vencedor dominará o mundo! Para tornar a situação mais dramática, não se trata apenas de uma disputa entre companhias, mas entre nações. Ou alguém acha que a China está parada diante disso tudo?

Eu jamais serei contra o desenvolvimento de novas tecnologias. Vejo a inteligência artificial como uma ferramenta fabulosa, que pode trazer benefícios imensos. Da mesma forma, sou um entusiasta do meio digital, incluindo nele as redes sociais.

Ainda assim, não podemos viver um vale-tudo em nenhuma delas, seja clonagem, IA ou plataformas digitais. Apesar das críticas ao “PL das Fake News” criadas e popularizadas pela desinformação política e resistência feroz das “big techs” (as verdadeiras prejudicadas pela proposta), ele oferece uma visão equilibrada de como usar bem as redes sociais. Mas para isso, essas empresas precisam se empenhar muito mais, inclusive agindo de forma ética com o negócio que elas mesmas criaram.

Não percamos o foco no que nos torna humanos, nem a capacidade de distinguir verdade de mentira. Só assim continuaremos evoluindo como sociedade e desenvolveremos novas e incríveis tecnologias.

Nesse sentido, o antigo lema do Google era ótimo: “don’t be evil” (“não seja mal”). Mas em 2015, a Alphabet, conglomerado que incorporou o Google, trocou o mote por “faça a coisa certa”, bem mais genérico.

Bem, a coisa certa é justamente não ser mal.

 

Imagem artística de Tiradentes, criada por Oscar Pereira da Silva - Foto: Acervo do Museu Paulista da USP / Creative Commons

Se fosse hoje, Tiradentes teria ficado famoso no TikTok

By | Tecnologia | No Comments

Quanto tempo é necessário para se criar um herói?

Na sexta, comemoramos o Dia de Tiradentes. Aproveitamos o feriado em nome do maior herói da história do país, mas são pouquíssimos os brasileiros que sabem qualquer coisa sobre ele, além de uma história rasa e totalmente fantasiosa que aprendem na escola.

A sua imagem amplamente difundida foi criada por positivistas no momento da fundação da República. Em um país carente de heróis, precisavam de uma figura para personificar os ideais republicanos. Isso foi conseguido com um discurso único e ufanista sobre um homem esquecido durante todo o Império. A imprensa e o sistema educacional foram os veículos desse processo, que levou décadas para se consolidar.

Hoje, talvez isso acontecesse em poucos meses, algumas semanas até. Os ideólogos modernos fazem isso com o apoio das redes sociais, capazes de criar mitos e de destruir reputações consolidadas com incrível eficiência. A ideia simples dá lugar à disseminação ampla e orquestrada de uma enxurrada de informações que permitem a construção de ideias que se enraízam na mente de grande parte da população.

O Brasil está em pleno debate sobre a responsabilidade das redes sociais no processo de desinformação, que vem carcomendo a sociedade. Nessa semana, deve ser votado na Câmara dos Deputados o chamado “Projeto de Lei das Fake News”, que visa disciplinar o tema. Mas um grupo de mais de cem deputados, com o apoio das big techs, tenta impedir essa votação.


Veja esse artigo em vídeo:


É de se perguntar por que a resistência a esse projeto de lei, e como tanta gente compra essa ideia. De certa forma, a resposta é justamente o motivo que faz a legislação tão necessária: a capacidade de alguns grupos de disseminar facilmente informações falsas ou distorcidas para atingirem seus objetivos. Esse mecanismo sempre existiu, mas ganhou uma força descomunal com as redes sociais.

Isso nos remete de novo a Tiradentes. A imagem que nos vem à mente é a de um homem de barbas e cabelos longos, junto ao cadafalso. Mas Joaquim José da Silva Xavier, nome do herói, era um alferes e, como militar, o máximo que se permitia era um discreto bigode. Na prisão em que passou seus últimos três anos, era obrigado a raspar o cabelo e a barba, para se evitar piolhos.

Todas as representações conhecidas de Tiradentes são criações livres de artistas que nunca o viram. A mais famosa delas, com longa barba e cabeleira, surgiu sob medida para remeter à imagem de Jesus Cristo, reforçando o aspecto messiânico do personagem que se desejava criar. Ironicamente a própria imagem dominante de Cristo, com um aspecto e vestes europeias da Idade Média, não deve representar em nada um homem que nasceu e viveu no Oriente Médio há 2.000 anos, sendo ela própria fruto de manipulação.

A apresentação de Tiradentes como líder da Inconfidência Mineira tampouco faz jus aos fatos. Ele foi o único enforcado do grupo não por ser uma liderança, mas por ser o “menos rico” de todos e o único que confessou a participação, servindo de exemplo à população. Seus companheiros endinheirados foram condenados ao exílio. De qualquer forma, seu martírio caiu como uma luva para a construção de sua imagem heroica.

Nos dias atuais, ninguém precisa morrer para se tornar um símbolo nacional. Basta saber como usar as redes sociais para captar as insatisfações da população e construir narrativas eficientes que o apresentem como a solução para essas mazelas.

 

“Libertas quæ sera tamen”

Podemos argumentar que o texto “Libertas quæ sera tamen”, tradicionalmente traduzido como “Liberdade ainda que tardia”, nunca esteve tão atual, graças ao debate em torno da responsabilidade das redes sociais pela fake news. A frase em latim foi proposta pelos inconfidentes para a bandeira da república que idealizaram no Brasil do final do século XVIII. Hoje ela faz parte da bandeira do Estado de Minas Gerais.

Aqueles que se opõem à regulamentação das redes sociais argumentem justamente que ela cercearia a liberdade de expressão, abrindo caminho para todo tipo de censura. Como muitos processos eficientes de desinformação, a ideia se constrói sobre argumentos verdadeiros e até desejáveis (no caso, a liberdade), mas colocados de maneira maliciosamente distorcida, para convencer grande parte da população a apoiar os interesses de um grupo.

De fato, o grande problema do projeto de lei é não definir, de maneira inequívoca, o que são fake news, o que pode abrir brechas para quem se beneficia delas. Por outro lado, reconheço a dificuldade de criar uma regra definitiva para tal, recaindo sobre a Justiça arbitrar casos duvidosos.

Outro ponto questionável do projeto é garantir a imunidade parlamentar no meio digital. Não é segredo algum que, entre os maiores produtores, disseminadores e beneficiários da desinformação, estão muitos políticos. Isso pode blindar essa categoria para que continuem abusando desse expediente.

Apesar disso tudo, o projeto avança em um ponto essencial, que é a responsabilização das redes sociais pelo que se publica em suas páginas. Se isso já era grave, ficou explícito com a explosão de ataques a escolas, incentivados por publicações no meio digital.

As plataformas devem bloquear conteúdos indubitavelmente criminosos. Para caso de falsos positivos, devem oferecer mecanismos de contestação. Em conteúdos dúbios, a Justiça continuará sendo acionada para decisões. O que se exige dessas empresas é celeridade e transparência no processo, algo que elas não oferecem hoje.

Não se trata, portanto, de ameaça à liberdade ou criação de um mecanismo de censura. Todos podem continuar dizendo o que quiserem nas redes sociais, sendo penalizados apenas quando infringirem alguma lei, como, por exemplo, em casos de calúnia ou difamação. E esses crimes já eram definidos muito antes desse debate.

As empresas das redes sociais não podem continuar isentas de um problema que nasceu e continua existindo graças a recursos que elas criaram, por mais que não fosse esse seu objetivo. Não se deseja cercear liberdades ou banir plataformas, e sim trazê-las para o centro dos esforços de solução dessa crise.

Nosso papel, como cidadãos, é parar de acreditar na barba falsa de Tiradentes e buscar fatos confiáveis para nossa tomada de decisões. Ninguém está isento dessa responsabilidade, nem das consequências de usos abusivos das plataformas digitais.

 

Sam Altman, CEO da OpenAI, disse estar “um pouco assustado” com a inteligência artificial – Foto: Steve Jennings / Creative Commons

Como lidar com os algoritmos que se sobrepõem à verdade

By | Tecnologia | No Comments

Três acontecimentos da semana passada, que provavelmente passaram despercebidos da maioria da população, envolvem tecnologias de enorme impacto em nossas vidas. O primeiro foi uma audiência no STF (Supremo Tribunal Federal) que debateu, na terça, o Marco Civil da Internet. Na quarta, mais de mil pesquisadores, executivos e especialistas publicaram um manifesto solicitando que pesquisas de inteligência artificial diminuam o ritmo, por representarem “grandes riscos para a humanidade”. Por fim, na sexta, a Itália determinou que o ChatGPT, plataforma de produção de textos por inteligência artificial da OpenAI, fosse bloqueado no país.

Em comum, os três tratam de tecnologias existentes há anos, mas com as quais paradoxalmente ainda temos dificuldade de lidar: as redes sociais e a inteligência artificial. E ambas vêm se desenvolvendo exponencialmente em seu poder para distorcer a realidade a nossa volta, muitas vezes contra nossos interesses e a favor dos das empresas que criam essas plataformas.

Não é um exagero! As redes sociais, usadas por quase 5 bilhões de pessoas, definem como nos relacionamos, nos divertimos, conversamos e nos informamos, manipulando-nos para consumirmos o que os algoritmos consideram melhor (mesmo não sendo). A “inteligência artificial generativa”, que ganhou os holofotes no ano passado e tem no ChatGPT sua estrela, produz conteúdos incríveis, mas que podem embutir grandes imprecisões que as pessoas aceitam alegremente como fatos.

As preocupações que se impõem são como podemos aproveitar o lado bom desses serviços, enquanto nos protegemos de potenciais efeitos nocivos, além de como responsabilizar seus produtores, algo que não acontece hoje!


Veja esse artigo em vídeo:


As redes sociais já são nossas velhas conhecidas. Segundo o relatório “Digital 2023 Global Overview Report”, da consultoria americana We Are Social, os brasileiros passam uma média de 9 horas e 32 minutos na Internet por dia, das quais 3 horas e 46 minutos são em redes sociais. Nos dois casos, somos os vice-campeões mundiais.

Não é surpresa para ninguém que sejamos manipulados por elas, em maior ou menor escala. Segundo a mesma pesquisa, 65,2% dos brasileiros se dizem preocupados se o que veem na Internet é real ou falso. Nesse quesito, somos o quinto país no mundo.

Agora a inteligência artificial ganha um destaque sem precedentes nas discussões tecnológicas, pelo poder criativo das plataformas que elaboram conteúdo. Algumas pessoas acham isso a aurora de uma nova colaboração entre nós e as máquinas; outros veem como um risco considerável para a própria humanidade.

Mas ela já faz parte do nosso cotidiano profundamente. Basta ver que os principais recursos de nossos smartphones dependem da inteligência artificial. As próprias redes sociais fazem uso intensivo dela para nos convencer. E se considerarmos que isso provocou uma polarização social inédita, colocando em risco a própria sociedade, os temores dos pessimistas fazem algum sentido.

Essa amálgama de euforia e paranoia provoca decisões às vezes precipitadas, mesmo de pessoas qualificadas. Países do mundo todo, inclusive o Brasil, se debruçam sobre o tema, tentando encontrar mecanismos legais para organizá-lo.

 

Regular ou não regular?

No Brasil, o uso das redes é disciplinado pelo Marco Civil da Internet, de 2014. “Ele entrou em vigor quando discurso de ódio e fake news estavam em outro patamar”, afirma Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propaganda e Marketing). “Acredito que a revisão seja necessária, mas não com a simples declaração de inconstitucionalidade do artigo 19, e sim a partir de sistemas mais efetivos e transparentes de como as big techs fazem a gestão dos próprios termos de uso quando violados.”

“Hoje temos interações mais rápidas e intensas, que mudam a forma como vivemos em sociedade”, explica Carolina Giovanini, advogada especialista em direito digital do Prado Vidigal Advogados. “Porém isso não significa que o Marco Civil da Internet esteja ‘ultrapassado’, pelo contrário: é uma legislação que foi pensada levando em consideração o futuro da rede.”

O referido artigo 19 está no centro dessa discussão porque protege as plataformas digitais de serem responsabilizadas pelo conteúdo que os usuários publicam em suas páginas. Segundo o texto, elas só poderiam ser penalizadas se deixassem de retirar algo do ar após uma ordem judicial.

Como a Justiça não consegue analisar tudo que se publica nas redes, especialistas defendem que as plataformas sejam obrigadas a fazer isso por sua conta. A inteligência artificial seria fundamental para decidir o que seria apagado, mas a subjetividade de muitos conteúdos dificulta a definição inequívoca do que é desinformação, o que poderia levar a censura por falsos positivos.

“A própria ideia das redes sociais é ser um portal descentralizado, sem ‘pauta editorial’ ou viés socioeconômico, para que a sociedade pulverizada ganhe voz”, sugere Matheus Puppe, sócio da área de TMT, privacidade e proteção de dados do Maneira Advogados. “Responsabilizando as plataformas, todo o modelo de negócios e o propósito da informação descentralizada vai por água abaixo.”

Na prática, isso vem permitindo que as empresas que produzem essas tecnologias gozem de uma prerrogativa rara, que é responder pouco ou nada por danos que provoquem. Não se pode imaginar um mundo sem elas, mas o crescimento explosivo da desinformação e a consequente polarização social não podem ser vistos como meros “efeitos colaterais”. É como “perdoar” um remédio que mate 5.000 pessoas para curar outras 10.000: a cura é bem-vinda, mas não se pode tolerar tantas mortes.

“O ponto é que um novo regime de responsabilidade não é desejado pelas big techs”, afirma Crespo. “Elas têm até bons argumentos para manter como está, na medida em que elas mesmas removem alguns conteúdos ilícitos por vontade própria.”

Estamos em um impasse! Como canta Ney Matogrosso, “se correr o bicho pega; se ficar, o bicho come!” As redes sociais estão no centro da nossa vida. A inteligência artificial abre possibilidade incríveis e necessárias. Eliminá-las é impossível, desacelerá-las é improvável. Mas esses problemas aparecem cada vez com mais força.

Qualquer que seja o futuro, ele precisa ser criado com a participação ativa de todos os agentes da sociedade. Essas empresas não podem continuar dando as cartas baseadas apenas na sua busca pelo lucro, pois seus produtos estão muito além de qualquer outra coisa já feita, do ponto de vista de transformação social.

Os benefícios devem ser distribuídos para todos, assim como as responsabilidades e os riscos. O futuro não pode ser distópico!