inteligência artificial

Metrô de São Paulo lotado após fracasso de “big techs” que revolucionariam a mobilidade urbana - Foto: Wilfredor / Creative Commons

Como as big techs querem substituir instituições da sociedade por tecnologia

By | Tecnologia | No Comments

Todos nós usamos produtos do Google, da Meta, da Apple e de outras “big techs”. De fato, eles facilitam enormemente a nossa vida e ainda são rotulados como “grátis”.

Sabemos que não há nada de graça nisso. A explicação tradicional é que pagamos por eles com nossos dados, que permitem que essas empresas ganhem dinheiro, por exemplo, nos entregando anúncios hiperpersonalizados. É o chamado “capitalismo de vigilância”.

Mas a ascensão da inteligência artificial e a guerra aberta que as “big techs” travam contra qualquer forma de limitação de suas atividades, como estamos vendo no Brasil no embate contra o “PL das Fake News”, revela que esse controle que elas têm sobre nós é muito mais complexo, a ponto de que muita gente as defende nesses casos. E a tentativa de regulação da inteligência artificial fará nosso fracasso em impor limites razoáveis às redes sociais parecer algo pífio.

O que essas empresas realmente desejam é uma liberdade não-regulada para, entre outras coisas, substituir instituições da sociedade em áreas como saúde, educação, transporte ou segurança por soluções tecnológicas que, segundo elas, superariam a “ineficiência” do que temos hoje. Ao ocupar um espaço tradicionalmente sob cuidados do Estado, alcançariam um poder inimaginável, muito maior que o atual.

Eles só não dizem que tudo nessa vida tem um custo. Esse não será pago com publicidade em nossos celulares. Então “como essa conta fecha”?


Veja esse artigo em vídeo:


O avanço da inteligência artificial é inevitável e muito bem-vindo: ela tem o potencial de oferecer à sociedade benefícios até então inimagináveis. Mas isso significará que entregaremos muitas de nossas escolhas às máquinas, que decidirão o que elas acreditam ser o melhor para cada um de nós.

Em uma sociedade já encharcada de algoritmos, eles passam a controlar muito de nossa vida, de maneiras que nem percebemos. Nós não temos a menor ideia de quais são suas regras que decidem cada vez mais por nós. Diante de tanto poder, a falta de transparência das “big techs” e de explicabilidade de seus produtos se torna inaceitável e perigoso para nossas vidas e para a democracia. É justamente isso que essas empresas lutam para manter, pois, se soubermos detalhadamente o funcionamento de seus algoritmos, elas perdem o poder que têm sobre os cidadãos.

Tudo isso vale para os algoritmos atuais, bem conhecidos e controlados pelas “big techs”. A inteligência artificial torna esse debate ainda mais importante, pois nem seus criadores entendem completamente as novas estratégias criadas pelas máquinas para solucionar problemas.

Se essas companhias lograrem criar a chamada “inteligência artificial geral”, aquela que não se limita mais a tarefas específicas e passa a se comportar de maneira semelhante à mente humana, tomando decisões sobre qualquer assunto, a situação pode ficar realmente dramática.

Imagine um sistema como esse que tenha assumido, com nosso consentimento, decisões críticas sobre a saúde pública. Em nome de deixar todo o sistema mais “eficiente”, ele pode passar a privilegiar cirurgias com mais chance de sucesso ou lucrativas, em detrimento das mais difíceis ou com menos ganhos. Mas todos merecem a chance de serem tratados, mesmo quem tem baixa possibilidade de sucesso. Essa é a visão humana de um médico, que uma máquina que acha que o fim justifica os meios pode ignorar.

Agora multiplique esses riscos acrescentando, na equação, segurança pública, educação e até economia de um país.

 

Nem sempre dá certo

O discurso do Vale do Silício enaltece o inegável poder transformador da tecnologia. É praticamente impossível viver hoje sem smartphones, buscadores ou redes sociais. Mas seus gurus adoram perpetuar as histórias de sucesso, enquanto ignoram os fracassos. E eles muitas vezes acontecem quando se tenta substituir uma instituição social por uma tecnologia.

Podemos pensar, como exemplo, no caso da Uber. Conceitualmente acho sua proposta muito interessante, mas ela parece “estar fazendo água”, particularmente no Brasil. Vocês devem se lembrar como a empresa chegou prometendo revolucionar a mobilidade urbana, como um substituto vantajoso ao transporte público, com suas corridas baratas e a possibilidade de se ganhar dinheiro dirigindo.

Foi um sucesso instantâneo: muita gente chegou a vender seu carro! Mas, para aquilo ser possível, a empresa queimava milhões de dólares em subsídios. Quando os investidores se cansaram de perder dinheiro e exigiram lucros, o modelo ruiu, com a consequente queda enorme na qualidade do serviço, que agora sentimos.

Porém o mais educativo desse exemplo é mostrar que nunca se propôs resolver o verdadeiro problema social, no caso as deficiências no transporte público. Substituía-se uma “gestão governamental ineficiente” por uma “solução tecnológica mágica”, cujo verdadeiro objetivo era sedimentar a dominância da empresa em seu setor. Quando a realidade bateu à porta, ficamos sem nada!

O grande desafio da nossa geração é tomar consciência de que somos cada vez mais dependentes da tecnologia e das empresas que as criam. Elas têm suas próprias agendas e narrativas de como estão melhorando e até “salvando” o mundo com seus produtos. Mas às vezes a sua necessidade de lucrar chega antes de salvarem qualquer coisa.

Não nos enganemos: como qualquer outra empresa, seu objetivo real é aumentar seus lucros, e, a princípio, não há nada de errado nisso. Mas esse objetivo não pode ser atingido às custas do desmantelamento das instituições da sociedade e dos mecanismos de proteção dos interesses da população.

Não estou propondo a interrupção do avanço tecnológico: ele é essencial para melhorarmos nossas vidas. Mas precisamos parar de acreditar candidamente que a tecnologia resolverá todos nossos problemas e melhorará magicamente a sociedade. Temos que ter consciência de como isso será feito e qual será o verdadeiro o custo social que pagaremos.

Tudo isso deve acontecer preservando os legítimos interesses das pessoas, o que muitas vezes conflitam com os dessas empresas. É por essas e outras que elas precisam ser reguladas. Elas não podem ser mais poderosas que os governos eleitos no mundo todo, nem mesmo substituir suas instituições.

 

Cena de “O Exterminador do Futuro” (1984), em que máquinas inteligentes querem exterminar a humanidade - Foto: reprodução

Qual será a próxima vítima da inteligência artificial?

By | Tecnologia | No Comments

No dia 13, o sindicato dos atores de Hollywood se juntou à greve do sindicato dos roteiristas dos EUA, que acontece desde maio. É a primeira vez em 63 anos que as duas organizações cruzam os braços ao mesmo tempo, o que já impacta a produção de filmes e séries. Entre reivindicações mais convencionais, como melhores condições de trabalho e salários, os dois grupos preocupam-se com o impacto que a inteligência artificial terá em suas profissões.

Já debati longamente, nesse mesmo espaço, sobre a substituição de profissionais por essa tecnologia. Mas esse caso é emblemático porque são as primeiras grandes entidades trabalhistas que colocam isso na pauta de reivindicações para seus patrões.

É curioso porque, no atual estágio de desenvolvimento da inteligência artificial, não se vislumbra que ela substitua consistentemente atores ou roteiristas em grandes produções, como filmes ou séries. Isso não quer dizer que, com o avanço galopante de sua evolução, não possa acontecer em algum momento. Portanto, a reivindicação dos sindicatos visa uma proteção futura, contra um concorrente digital implacável que ainda está por vir.

O que me preocupa, no presente, são empresas de todos os setores que possam estar se preparando para usar a IA, do jeito que está, para substituir trabalhadores de “níveis mais baixos da cadeia alimentar”, mesmo quando isso resulte em produtos ou atendimentos piores para os consumidores. Aqueles dispostos a cortar custos de forma dramática, irresponsável e impensada representam um perigo muito maior que a tecnologia em si.

Como dizem por aí, “isso é tão Black Mirror!”


Veja esse artigo em vídeo:


Não me interpretem mal! Sou um entusiasta da inteligência artificial bem usada, e entendo que esse movimento não tem volta. E nem deveria ter: quando aplicada de forma consciente e responsável, a IA traz inegáveis benefícios a empresas e a indivíduos. Nós mesmos já somos muito beneficiados em nosso cotidiano, em incontáveis aplicativos em nosso celular, que só existem graças a ela.

Mas a inteligência artificial não é uma panaceia. E isso fica claro com o popularíssimo ChatGPT, lançado em novembro e que provocou uma explosão de discussões e de uso da IA, além de uma corrida para empresas demonstrarem que estão nesse barco. Depois do frisson criado pela sua capacidade de manter conversas consistentes sobre qualquer assunto, as pessoas começaram a perceber que muito do que ele fala são verdadeiras bobagens. A despeito dos melhores esforços de seus desenvolvedores, ainda é uma ferramenta sem compromisso com a verdade.

Mas isso não impede que pessoas e empresas usem a plataforma como um oráculo. Gestores vêm confiando em respostas da plataforma para oferecer serviços. Alguns chegam a alimentar o sistema com dados sigilosos de seus clientes, uma calamidade se considerarmos que a ferramenta não promete nenhuma segurança nisso.

Da mesma forma, algumas pessoas têm usado o ChatGPT para funções para as quais não foi desenvolvido, como “fazer terapia” com um sistema incapaz de desenvolver empatia ou que sequer sabe realmente o que está falando: todas essas plataformas simplesmente encadeiam palavras seguindo análises estatísticas a partir de uma gigantesca base de informações com a qual foram “treinadas”.

O problema não é, portanto, usar a tecnologia, e sim usar mal uma coisa boa! Se o objetivo for somente economizar custos, essa é uma “economia porca” que resulta em uma queda dramática na entrega ao público.

 

Exterminador do Futuro

No dia 18, James Cameron, diretor e roteirista de sucessos como “Avatar” (2009) e “Titanic” (1997), deu uma entrevista à rede de TV canadense CTV News, afirmando que a inteligência artificial não é capaz de produzir roteiros. “Não acredito que uma mente desencarnada, que apenas regurgita o que outras mentes vivas disseram sobre a vida que tiveram, sobre amor, sobre mentira, sobre medo, sobre mortalidade, tenha algo que vá comover o público”, disse.

Há um ponto essencial na fala de Cameron, que também foi diretor e roteirista de “O Exterminador do Futuro” (1984), em que máquinas inteligentes tentam eliminar a humanidade: precisamos entender que a inteligência artificial não é realmente criativa!

Ela apenas agrupa padrões e estilos para suas criações, mas não tem algo essencial a qualquer artista: a subjetividade. A nossa história de vida faz com que os padrões que aprendemos sejam inspiração para nossa criatividade, e não uma limitação. A máquina, por outro lado, fica restrita a eles, sendo incapaz de alterá-los.

Mas eu não me iludo: o que puder ser automatizado será. Funções cujos trabalhadores atuam de forma previsível, seguindo regras muito estritas, já estão sendo substituídas por robôs. Em situações como essas, a máquina desempenha as tarefas de maneira mais rápida, eficiente e barata. A qualidade das entregas ao cliente pode até melhorar!

Nos demais casos, a inteligência artificial não deveria ser usada como uma ferramenta para substituir profissionais, e sim para torná-los mais eficientes em suas atividades, oferecendo-lhes sugestões e informações que jamais conseguiriam ter sozinhos, pelas suas limitações humanas.

Em outra frente, o Google está testando, com alguns jornais, um sistema baseado em inteligência artificial capaz de escrever textos a partir de informações que lhe forem apresentadas. Em um comunicado, a empresa disse que “essa ferramenta não pretende e não pode substituir o papel essencial que os jornalistas têm em reportar, criar e verificar os fatos”, devendo ser usado como um apoio a esses profissionais, liberando seu tempo para tarefas mais nobres. Resta saber se, uma vez lançado, o produto não será usado por editores para enxugar mais as já minguadas redações, mesmo que isso resulte em publicações suscetíveis a erros e menos criativas.

Na mesma entrevista, Cameron explicou que, sobre os roteiros, “nunca é uma questão de quem os escreveu, mas de serem boas histórias”. Só faltou definir, de maneira inequívoca, o que é “boa”. Alguns filmes têm roteiros escritos por humanos que são muito ruins. Para escrever aquilo, talvez a inteligência artificial bastasse.

Isso vale para roteiristas, atores, jornalistas e qualquer profissional que se sinta ameaçado pela tecnologia. A melhor proteção que podem ter contra os robôs é fazer melhor que o que eles são capazes de entregar.

Nós, como clientes de todos esses serviços, também temos um papel importante: não podemos aceitar que produtos ruins nos sejam empurrados. Muitos gestores tentarão usar esses recursos assim! Com isso, perderemos nós e os profissionais, todos vítimas dessa “tecnoganância”. Isso não pode passar e muito menos se normalizar.

 

Cena do filme “RoboCop” (1987), em que um policial dado como morto ganha um corpo e uma consciência digitais - Foto: reprodução

IA pode brilhar na segurança, mas suas falhas podem ser catastróficas

By | Tecnologia | No Comments

Pegue qualquer lista dos maiores problemas das grandes cidades e a segurança sempre estará nas primeiras posições. Não é para menos: nos últimos anos, a escalada da violência chegou a níveis insustentáveis em todo Brasil. Diante disso, precisamos usar os recursos disponíveis para tentar resolver o problema. A digitalização de nossas vidas e a inteligência artificial podem ajudar muito nisso, mas precisamos estar preparados para lidar com as consequências de suas imprecisões.

Quanto mais crítica for uma aplicação, menos tolerante a falhas ela é. Isso quer dizer que o sistema não pode sair do ar nunca e as informações oferecidas por ele ou suas decisões devem ser precisas. E infelizmente a tecnologia não chegou a esse nível de excelência inquestionável.

Uma coisa é alguém fazer um trabalho escolar ou um relatório profissional com erros grosseiros por ter acreditado cegamente em alguma bobagem dita pelo ChatGPT. É verdade que podem acabar reprovando na disciplina ou perdendo o emprego por isso, duas coisas ruins. Mas isso não se compara a ser confundido pela máquina com um criminoso, e assim acabar sendo preso ou –pior– morto.

Por isso, apesar de a tecnologia ser muito bem-vinda no combate à criminalidade, os agentes de segurança pública precisam estar preparados para lidar com os resultados dessa colaboração e seus potenciais erros.


Veja esse artigo em vídeo:


Nesse cenário, é bastante ilustrativo o projeto da Prefeitura de São Paulo de unir diversos serviços municipais que hoje não trabalham integrados, como a Defesa Civil, o SAMU, a CET e a Guarda Civil Metropolitana, além das polícias Civil e Militar, Metrô e CPTM. Batizado de Smart Sampa, ele prevê ainda a adição de 20 mil câmeras na cidade, especialmente em pontos sensíveis e de maior criminalidade, que se somarão a outras 20 mil já existentes.

A princípio, a ideia parece muito boa, especialmente porque os diferentes órgãos da administração podem funcionar melhor ao compartilharem suas informações. A exemplo de outras grandes cidades no mundo, como Nova York, a tecnologia desempenha papel central nesse processo. Ironicamente aí começam a surgir os problemas.

O ponto mais delicado da proposta é o uso de reconhecimento facial. Essa tecnologia tem avançado incrivelmente, mas não o suficiente para evitar uma quantidade inaceitável de erros, particularmente entre pessoas negras. Isso acontece porque a inteligência artificial aprende a diferenciar rostos a partir de uma enorme quantidade de fotografias, mas proporcionalmente há muito mais amostras de brancos que de negros nesse “treinamento”. Diferentes estudos apontam que os erros de reconhecimento de pessoas brancas giram em torno de 1%, enquanto de negras ultrapassa os 30%, especialmente mulheres negras.

Por isso, a proposta original do Smart Sampa, que previa “rastrear uma pessoa suspeita, monitorando todos os seus movimentos e atividades, por características como cor, face, roupas, forma do corpo, aspectos físicos etc.”, precisou ser alterada. Monitorar alguém pela sua cor é ilegal!

O projeto prevê que qualquer problema identificado pela plataforma seja confirmado por um agente humano treinado antes de emitir qualquer alerta, o que é, sem dúvida, um ponto positivo para minimizar injustiças. Mas a ideia de rastrear alguém que o algoritmo ache suspeito, ainda cruzando com dados de redes sociais dos cidadãos, lembra algumas das piores sociedades da ficção científica.

 

Sem escapatória

No filme “Minority Report: a Nova Lei” (2002), as autoridades sabiam continuamente onde cada cidadão estava. Além disso, um sistema que combinava tecnologia com aspectos místicos, conseguia prever assassinatos antes que acontecessem. Dessa forma, a polícia prendia os “prováveis criminosos” antes de cometerem o crime.

Sim, as pessoas eram presas antes de terem cometido qualquer crime, apenas porque a plataforma tinha convicção de que o cometeriam! E para a polícia isso era suficiente.

O sistema parecia infalível e, de fato, os assassinatos acabaram. Os “prováveis criminosos” eram condenados a viver o resto de seus dias em uma espécie de coma induzido. O problema é que o sistema não só era falho, como ainda podia ser manipulado para “tirar de circulação” pessoas indesejáveis para os poderosos. Quando isso é revelado, o sistema é desativado e todos os condenados são libertados.

Como se pode ver, quando uma tecnologia tem o poder de levar alguém à prisão ou decidir sobre sua vida ou morte, nenhuma falha é aceitável. Ainda aproveitando a ficção para ilustrar o caso, temos a cena de RoboCop (1987) em que o robô de segurança ED-209, durante uma demonstração, identifica corretamente que um voluntário lhe apontava uma arma. Mas ele falha em reconhecer que a pessoa a joga ao chão logo depois, e acaba metralhando a vítima diante dos presentes.

Por isso, é assustador ver os motivos que desclassificaram a empresa vencedora do primeiro pregão do Smart Sampa. No dia 7 de junho, técnicos da Prefeitura foram verificar se ela estava apta ao serviço. Pelas regras, deveria ter mil câmeras operando com reconhecimento facial, mas só havia 347, das quais apenas 147 estavam online. Segundo o relatório dos técnicos, o responsável argumentou que “todo mundo tem problemas de Internet” e que “horário de almoço é complicado, muita gente fazendo download impacta no link de Internet mesmo”.

Esse amadorismo e falta de comprometimento é algo que jamais poderia pairar sobre um sistema de segurança pública, podendo colocar em xeque toda sua credibilidade! É por essas e outras que cidades importantes ao redor do mundo, como San Francisco (EUA), baniram o uso de reconhecimento facial em plataformas assim.

Alguns grupos querem reduzir esse debate a uma questão ideológica, como vem se tornando um padrão no Brasil há alguns anos. Mas essa não é uma questão ideológica e sim tecnológica!

Em um famoso artigo de 2018, Brad Smith, presidente da Microsoft, questionou qual papel esse tipo de tecnologia deve ter na sociedade, a despeito de todos os benefícios que traga. Segundo ele, “parece mais sensato pedir a um governo eleito que regule as empresas do que pedir a empresas não eleitas que regulem tal governo”.

Como em um bom episódio da série “Black Mirror”, o problema não está necessariamente na tecnologia em si, mas em usos errados dela. Câmeras e inteligência artificial darão poderes sobre-humanos às forças de segurança, com enorme poder de detecção de crimes e contravenções. Mas ela também pode maximizar vieses e falhas humanas da força policial, como o racismo.

Sem dúvida, podem ser ferramentas valiosíssimas no combate à criminalidade galopante. Mas em uma sociedade assustada e que clama por segurança rápida, despontam como soluções “mágicas” para políticos que buscam votos fáceis. Mas a coisa não funciona assim e, se não for implantada com cuidados técnicos e éticos, pode ainda ampliar outros problemas sociais existentes.

É necessário entender que, mesmo que o sistema evite 100 mortes, não é aceitável que 10 vítimas inocentes sejam condenadas ou mortas por erros da plataforma. Se houver um único erro, o sistema não é bom o suficiente para ser usado! Mas parece que pouca gente se preocupa com isso, no melhor estilo de “o fim justifica os meios”.

No final, a solução recai sobre o ser humano. Os agentes de segurança precisam ser treinados para lidar com possíveis falhas técnicas. Precisam aprender a dosar suas ações e abordagens feitas a partir de informações que podem estar erradas.

Resta saber se esses profissionais estão preparados para isso. Diante de diversas ações desastrosas e mortíferas que vemos nas ruas brasileiras o tempo todo, não estão! A solução desse outro problema é essencial e deveria acontecer antes da implantação da tecnologia. Mas isso, por si só, já renderia outro artigo.

 

A imagem de Elis Regina foi recriada digitalmente para dueto com sua filha, Maria Rita, em comercial da Volkswagen - Foto: reprodução

Não podemos mais acreditar no que nossos olhos veem

By | Tecnologia | No Comments

São Tomé ficou famoso por dizer que precisava “ver para crer” que Jesus havia ressuscitado. Seu pedido está associado ao fato de que, de todos os nossos sentidos, a visão é o que transmite mais segurança e confiabilidade. Se vemos algo acontecendo diante de nós, nosso cérebro entende aquilo como verdadeiro. Mas o avanço tecnológico, capaz de criar imagens falsas cada vez mais críveis, coloca isso em xeque e dispara alguns alertas.

Na segunda passada, o comercial “Gerações”, criado em comemoração aos 70 anos da Volkswagen no Brasil, provocou polêmica ao colocar a cantora Elis Regina (morta em 1982) cantando ao lado da filha Maria Rita. Elis aparece no filme dirigindo um antigo modelo de Kombi (que deixou de ser produzida no Brasil em 2013), enquanto a filha aparece ao volante de uma ID.Buzz, furgão elétrico recém-lançado, chamado de “Nova Kombi”.

Muitas pessoas questionaram o uso da imagem de Elis em algo que nunca fez (ou que pelo menos não há nenhum registro): cantar “Como Nossos Pais” enquanto dirige uma Kombi. O debate é válido, mas não me preocupo tanto com o uso da tecnologia dessa forma. Afinal, os produtores do comercial nunca propuseram enganar o público para que achasse que Elis estivesse viva e jovem.

O que me deixa tenso é o uso dessa tecnologia por pessoas inescrupulosas para deliberadamente distorcerem a realidade e enganar as massas para seu benefício. Quando isso acontecer, talvez nossos olhos já não sejam mais suficientes para nos garantir o que é verdadeiro.


Veja esse artigo em vídeo:


Para viabilizar o dueto entre Elis Regina e Maria Rita, a agência AlmapBBDO trabalhou com duas tecnologias: o “deep fake” e o “deep dub”. Elas já existem há alguns anos, mas a qualidade do que criam vem crescendo exponencialmente.

O primeiro “mapeia” os rostos de uma pessoa que é gravada em vídeo e o de quem efetivamente aparecerá na imagem final. Com isso, o sistema recria o vídeo com o segundo rosto no lugar do primeiro, fazendo exatamente os movimentos da pessoa original. Na peça da Volkswagen, a atriz Ana Rios gravou as cenas dirigindo a Kombi e fazendo movimentos típicos de Elis Regina. Quando o sistema trocou seu rosto pelo da cantora, é como se ela mesma estivesse lá.

Como a voz usada era de uma gravação da própria Elis, entrou em cena o “deep dub”. Sua função é modificar imagens já criadas para que exista um perfeito sincronismo entre a voz e o movimento dos lábios.

Apesar de o comercial ter agradado pela sua criatividade, sensibilidade e uso inteligente da tecnologia, muita gente o criticou por usar a inteligência artificial para criar imagens inéditas de alguém que já morreu. Mas não se trata de violação do direito de imagem. Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propaganda e Marketing), explica que, quando alguém morre, esse direito passa a seus herdeiros.

“Mas é sempre importante considerar que eventualmente o próprio falecido não tivesse a intenção de participar post-mortem de atividades com sua imagem”, acrescenta Crespo. Ele explica que, nesse caso, a pessoa deve manifestar explicitamente sua contrariedade ainda em vida.

A publicidade se vale desde sempre de imagens de pessoas famosas que já se foram, com fotos ou filmagens antigas para montagens, e até o uso de atores maquiados para se parecer aos falecidos. A diferença agora é o uso da tecnologia para tornar tudo muito realista.

 

Limites éticos

De toda forma, o debate em torno do comercial foi interessante para se questionar se há um limite ético e moral para o uso dessa tecnologia, com pessoas vivas ou mortas.

Da mesma forma que devemos ver isso cada vez mais em produções audiovisuais, devemos estar preparados para encarar uma avalanche de “deep fakes” criados com o objetivo de prejudicar outras pessoas. Isso tampouco é novo, mas, como explica Crespo, “ficará mais difícil, a olho nu, detectar o que é verdadeiro e o que é uma construção baseada em inteligência artificial”, restando aos peritos identificar as falsificações. “O desafio, daqui pra frente, é que será mais comum ver esse tipo de debate na Justiça, com discussões sobre vídeos”, acrescenta.

Muitos profissionais estão preocupados que categorias inteiras desapareçam graças a essas tecnologias. É o caso dos dubladores. Seu trabalho artístico envolve fazer as falas traduzidas combinarem, tanto quanto possível, com o movimento dos lábios do ator no idioma original.

Agora as plataformas de inteligência artificial podem “aprender a voz” dos atores para recriá-la em qualquer idioma. Dessa forma, seria possível ter, por exemplo, Tom Hanks falando não apenas seu idioma nativo (o inglês), como também português, alemão, russo ou japonês, sem nenhum sotaque e com os lábios no vídeo perfeitamente sincronizados com sua fala em todos os idiomas.

De certa forma, isso ofereceria um produto mais interessante para o público e a produção das versões internacionais ficaria muito mais barata e rápida para os estúdios. Mas também significaria o fim da categoria dos dubladores. Esse não é um problema tecnológico, e sim social, e os países precisam se debruçar sobre um tema trabalhista sem precedentes.

No último dia 13, o músico Paul McCartney revelou que a voz de John Lennon havia sido extraída e aperfeiçoada por inteligência artificial a partir de uma antiga gravação. Nesse caso, a tecnologia não sintetizou nada, mas foi usada para captar a voz de John. Isso permitirá que, até o fim do ano, o mundo conheça uma nova música dos Beatles, apesar de Lennon ter sido assassinado em 1980 e de George Harrison ter morrido em 2001. Além de Paul, Ringo Starr também está vivo.

Por tudo isso, esse debate é válido e necessário. A tecnologia está madura e será cada vez mais usada, tanto em atividades lícitas quando na prática de crimes. Nosso desafio é sermos capazes de identificar o que é verdadeiro e o que é falso, e, nesse caso, se se trata de um uso legítimo, como no comercial da Volkswagen.

Uma educação de qualidade para todos fica ainda mais necessária para que as pessoas desenvolvam um senso crítico apurado. Ela é a melhor ferramenta que temos para fugir de arapucas digitais que coloquem em nosso caminho. Infelizmente esse é um investimento de longo prazo, enquanto a tecnologia avança de maneira galopante.

 

Imagem: composição por Paulo Silvestre

Chamamos de “magia” muitas coisas que simplesmente não entendemos

By | Tecnologia | No Comments

Em 1985, eu e três amigos começamos a nos interessar por computadores, em uma época em que pouquíssimas pessoas sabiam o que eles eram ou para que serviam. Fomos a uma pioneira “escola de computação” no bairro para saber se poderíamos aprender mais sobre aquilo. A recepcionista nos levou a um TK-85 (um pequeno computador como o da imagem) e digitou o seguinte programa:

 

10 PRINT "Qual é o seu nome?"
20 INPUT nome$
30 PRINT "Olá, " + nome$ + "."
40 END

 

Quando ela rodou aquele código “espantoso”, a tela da TV preto-e-branco exibiu “Qual o seu nome?” Cada um de nós digitou o seu, ao que a máquina respondeu (para mim) “Olá, Paulo.”

Assombro geral com a “inteligência” do computador! Suficiente para aqueles pré-adolescentes se matricularem no cursinho de BASIC.

Não é preciso ser um programador para perceber que aquilo era algo extremamente simples. Mas para quem nunca tinha tocado em um computador (1985, lembra?), foi o suficiente para abrir as portas que me permitiram, a partir dali, olhar para o digital como forma de ampliar meus horizontes, procurando entender o que acontece no mundo dos bits.

O ser humano tem medo do desconhecido, porque não o pode controlar. Mesmo que algo aconteça incontestavelmente diante de seus olhos, se não compreender o fenômeno com o que sabe, recai sobre obra do divino ou –pior– vira “bruxaria”. Por conta disso, muitas mulheres e homens geniais foram, ao longo da história, calados, presos ou mortos por suas ideias, mesmo as mais benéficas à humanidade.

Por outro lado, quando adquirimos conhecimento, qualquer coisa, mesmo aquelas até então tidas como mágicas, deixa o campo do desconhecido e passa a ser uma ferramenta sob nosso domínio. E de tempos em tempos, uma nova tecnologia disruptiva surge para “testar a nossa fé”.

A bola da vez é a inteligência artificial, que já está revolucionando muitos negócios, mas igualmente desperta medo, pois o cidadão médio não consegue entender como ela funciona. Para ficar ainda mais confuso, temos pesquisadores e executivos da própria área revelando publicamente restrições a ela.

Talvez exista exagero nesses temores; talvez não. A dúvida se dá porque essa, que é uma das mais poderosas tecnologias já criadas, ainda seja majoritariamente incompreendida pela massa, que a vê, portanto, como “mágica”.

Precisamos desmistificar a IA, assim como qualquer outra tecnologia. Essa é a melhor maneira de tirarmos bom proveito do que ela pode nos oferecer, enquanto escapamos de eventuais armadilhas. Não quer dizer que teremos que ser todos programadores ou cientistas de dados: entendermos o que é, como funciona e para que serve já ajudará muito!

 

PS: tenho até hoje o meu TK-85 (foto a seguir), testemunha daquele momento histórico do nascimento da microinformática no país, nos anos 1980.

Foto: Paulo Silvestre

Foto: Paulo Silvestre

 


Vídeo relacionado:

Joan, protagonista do primeiro episódio da sexta temporada de “Black Mirror”, surta por causa de um mau uso da IA - Foto: divulgação

“Black Mirror” explica ludicamente os riscos da inteligência artificial

By | Tecnologia | No Comments

Em uma sociedade polarizada pelo poder descontrolado dos algoritmos das redes sociais, cresce o debate se a inteligência artificial vai exterminar ou salvar a humanidade. Como costuma acontecer com esses extremismos, a verdade provavelmente fica em algum lugar no meio do caminho. Agora a sexta temporada da série “Black Mirror”, que estreou na Netflix na última quinta (15), surge com uma explicação lúdica de como essa tecnologia pode ser incrível ou devastadora, dependendo apenas de como será usada.

A icônica série, criada em 2011 pelo britânico Charlie Brooker, é conhecida pelas suas perturbadoras críticas ao mau uso de tecnologias. Sem correr risco de “dar spoiler”, o primeiro episódio da nova temporada (“A Joan É Péssima”) concentra-se na inteligência artificial generativa, mas guarda espaço para apontar outros abusos do mundo digital pela sociedade. Sobra até para a própria Netflix, a vilã do episódio!

Como fica claro na história, o poder da inteligência artificial cresce de maneira que chega a ser assustador, alimentando as teorias pessimistas ao redor dela. Se até especialistas se pegam questionando como essas plataformas estão “aprendendo”, para uma pessoa comum isso é praticamente incompreensível, algo ainda no campo da ficção científica.

Mas é real e está a nossa volta, começando pelos nossos smartphones.


Veja esse artigo em vídeo:


Como acontece em tantos episódios de “Black Mirror”, algo dá muito errado. E a culpa não é do digital, mas de como ele é usado por seres humanos movidos por sentimentos ou interesses condenáveis. A lição é que, quanto mais poderosa for a tecnologia, mais incríveis serão os benefícios que ele pode trazer, mas também maiores os riscos associados à sua desvirtuação.

É nesse ponto que estamos com a inteligência artificial. Mas ela não estraga a vida da protagonista do episódio sozinha: tem a “ajuda” de celulares (que estão captando continuamente o que dizemos e fazemos), dos algoritmos das plataformas de streaming (que nos dizem o que assistir), da “ditadura das curtidas”, do sucesso de discursos de ódio e até de instalarmos aplicativos sem lermos seus termos de uso.

A indústria de tecnologia costumava ser regida pela “Lei de Moore”, uma referência a Gordon Moore, um dos fundadores da Intel. Em um artigo em 1965, ele previu que a quantidade de circuitos em chips dobraria a cada 18 meses, pelo mesmo custo. Em 1975, reviu sua previsão para 12 meses. Hoje, o poder da inteligência artificial –que é software, mas depende de um processamento gigantesco– dobra a cada três meses.

O “problema” é que nossa capacidade humana não cresce no mesmo ritmo. E quando não conseguimos acompanhar uma evolução, ela pode nos atropelar. Essa é a gênese de muitos desses problemas, pois tanto poder à disposição pode fazer com que as pessoas deixem cuidados de lado e até passem por cima de limites morais.

É como diz o ditado: “quem nunca comeu melado, quando come, se lambuza!”

 

Faça a coisa certa

Na quarta, participei do AI Forum 2023, promovido pela IBM e pela MIT Sloan Review Brasil. As palestras demonstraram o caminho desse avanço da inteligência artificial e de como ela está se tornando uma ferramenta essencial para empresas de qualquer setor.

De fato, com tantos recursos incríveis que novas plataformas movidas pela IA oferecem aos negócios, fica cada vez mais difícil para uma empresa se manter relevante no mercado sem usar essa tecnologia. É como procurar emprego hoje sem saber usar a Internet ou um smartphone. Por mais experiente e qualificado em outras áreas que se seja, não haveria chance de ser contratado, porque esses pontos fortes seriam facilmente suplantados por outros candidatos que dominassem esses recursos.

Um estudo recém-divulgado pela IBM mostra que, se em 2016 58% dos executivos das empresas estavam familiarizados com a IA tradicional, agora em 2023 83% deles conhecem a IA generativa. Além disso, cerca de dois terços se sentem pressionados a acelerar os investimentos na área, que devem quadruplicar em até três anos.

A mesma pesquisa aponta que o principal fator que atravanca essas decisões é a falta de confiança na tecnologia, especialmente em aspectos de cibersegurança, privacidade e precisão. Outros problemas levantados foram a dificuldade de as decisões tomadas pela IA generativa serem facilmente explicadas, a falta de garantia de segurança e ética, a possibilidade de a tecnologia propagar preconceitos existentes e a falta de confiança nas respostas fornecidas pela IA generativa.

Conversei no evento com Marcela Vairo, diretora de Automação, Dados e IA da IBM (a íntegra da entrevista pode ser vista no vídeo abaixo). Para ela, três premissas devem ser consideradas para que a inteligência artificial nos ajude efetivamente, resolvendo essas preocupações.

A primeira delas é que as aplicações movidas por IA devem ser construídas para tornar as pessoas mais inteligentes e produtivas, e não para substituí-las. Deve existir também um grande cuidado e respeito com os dados dos clientes, que pertencem apenas a eles e não podem ser compartilhados em outra plataforma ou com outros clientes. E por fim, as aplicações devem ser transparentes, para que as pessoas entendam por que elas estão tomando uma determinada decisão e de onde ela veio, o que também ajuda a combater os possíveis vieses que a IA desenvolva.

O que precisamos entender é que essa corrida tecnológica está acontecendo! Não sejamos inocentes em achar que ela será interrompida pelo medo do desconhecido. Os responsáveis por esse desenvolvimento devem incluir travas para que seus sistemas não saiam do controle, garantindo essas premissas.

O que nos leva de volta a “Black Mirror”: tampouco podemos ser inocentes em achar que todos os executivos da indústria serão éticos e preocupados em fazer a coisa certa. É por isso que a inteligência artificial precisa ser regulamentada urgentemente, para pelo menos termos a tranquilidade de continuar usufruindo de seus benefícios incríveis sem o risco de sermos dominados pela máquina.

E no final, sempre temos que ter uma tomada para puxar e desligar a coisa toda se ela sair completamente dos trilhos.


Íntegra de entrevista com Marcela Vairo (IBM):

Neo luta contra o Agente Smith em “Matrix Revolutions” (2003): mundo digital criado para iludir a humanidade - Foto: divulgação

Se deixarmos, a inteligência artificial escolherá o próximo presidente

By | Tecnologia | No Comments

Nas eleições de 2018, eu disse que o presidente eleito naquele ano seria o que usasse melhor as redes sociais, e isso aconteceu. Em 2022, antecipei a guerra das fake news, que iludiram o eleitorado. Para o pleito de 2026, receio que a tecnologia digital ocupe um espaço ainda maior em nossas decisões, dessa vez pelo uso irresponsável da inteligência artificial.

Não estou dizendo que a IA escolherá por sua conta qual é o melhor candidato. A despeito de um medo difuso de que máquinas inteligentes nos exterminem, isso não deve acontecer porque, pelo menos no seu estágio atual, elas não têm iniciativa ou vontade própria: fazem apenas o que lhes pedimos. Os processos não são iniciados por elas. Temos que cuidar para que isso continue dessa forma.

Ainda assim, a inteligência artificial generativa, que ganhou as ruas no ano passado e que tem no ChatGPT sua maior estrela, atingiu um feito memorável: dominou a linguagem, não apenas para nos entender, mas também para produzir textos, fotos, vídeos, músicas muito convincentes.

Tudo que fazemos passa pela linguagem! Não só para nos comunicar, mas nossa cultura e até nosso desenvolvimento como espécie depende dela. Se agora máquinas com capacidades super-humanas também dominam esse recurso, podemos ser obrigados a enfrentar pessoas inescrupulosas que as usem para atingir seus objetivos, a exemplo do que foi feito com as redes sociais e com as fake news.


Veja esse artigo em vídeo:


A inteligência artificial não sai das manchetes há seis meses. Mesmo com tanta informação, as pessoas ainda não sabem exatamente como funciona e o que pode ser feito com ela. E isso é um risco, pois se tornam presas daquele que entendem.

É aí que mora o perigo para as eleições (e muito mais), com o uso dessa tecnologia para iludir e convencer. “No Brasil, as próximas eleições presidenciais serão daqui a três anos, e a tecnologia estará ainda mais avançada”, afirma Diogo Cortiz, professor da PUC-SP e especialista em IA. “A gente vai partir para um discurso não só textual, mas também com vídeo, som, fotografias ultrarrealistas, que farão ser muito difícil separar o real do que é sintético”, explica.

Não nos iludamos: vai acontecer! Esse é o capítulo atual do jogo em que estamos há uma década, em que a tecnologia digital é usada como ferramenta de convencimento. E, como sempre, ela não é ruim intrinsicamente, mas, se não houver nenhuma forma de controle, pessoas, empresas, partidos políticos podem abusar desses recursos para atingir seus fins, até de maneira criminosa.

Entretanto, não somos vítimas indefesas. Da mesma que esses indivíduos não deveriam fazer esses usos indecentes da tecnologia para nos manipular, cabe a cada um de nós usá-la conscientemente. Por mais que pareça mágica ao responder a nossos anseios de maneira tão convincente, ela erra, e muito! Por isso, não podemos pautar decisões importantes no que a IA nos entrega sem verificar essas informações.

O ser humano sempre teve medo de ficar preso em um mundo de ilusões. O filósofo e matemático grego Platão (428 a.C. – 348 a.C.) antecipou isso em seu “Mito da Caverna”. Nos dias atuais, o assunto permeia a ficção, como na série de filmes “Matrix”, curiosamente um mundo falso criado por máquinas para iludir a humanidade.

 

Intimidade com a máquina

Há um outro aspecto que precisamos considerar. Assim como a IA primitiva das redes sociais identifica nossos gostos, desejos e medos para nos apresentar pessoas e conteúdos que nos mantenham em nossa zona de conforto, as plataformas atuais também podem coletar e usar essa informação para se tornarem ainda mais realistas.

Hoje vivemos no chamado “capitalismo de vigilância”, em que nossa atenção e nosso tempo são capturados pelas redes sociais, que os comercializa como forma eficientíssima de vender desde quinquilharias a políticos.

Com a inteligência artificial, a atenção pode ser substituída nessa função pela intimidade. “Eu vejo vários níveis de consequência disso: sociais, cognitivos e psicológicos”, afirma Cortiz, que tem nesse assunto um dos pontos centrais de suas pesquisas atuais. “Se a pessoa começar a projetar um valor muito grande para essa relação com a máquina e desvalorizar a relação com o humano, a gente tem um problema, porque essa intimidade é de uma via só: o laço não existe.”

“O cérebro funciona quimicamente, buscando o menor consumo com o maior benefício”, explica Victoria Martínez, gerente de negócios e data science da empresa de tecnologia Red Hat para a América Latina. Para ela, uma das coisas que nos define como humanos é nossa capacidade de pensar coisas distintas, e não podemos perder isso pela comodidade da IA. E alerta do perigo implícito de crianças e adolescentes usarem essa tecnologia na escola, entregando trabalhos sem saber como foram feitos. “É muito importante aprender o processo, pois, para automatizarmos algo, precisamos entender o que estamos fazendo”, acrescenta.

A qualidade do que a inteligência artificial nos entrega cresce de maneira exponencial. É difícil assimilarmos isso. Assim pode chegar um momento em que não saberemos se o que nos é apresentado é verdade ou mentira, e, no segundo caso, se isso aconteceu por uma falha dos algoritmos ou porque eles foram usados maliciosamente.

Isso explica, pelo menos em parte, tantos temores em torno do tema. Chegamos a ver em março mais de mil de pesquisadores, especialistas e até executivos de empresas do setor pedindo que essas pesquisas sejam desaceleradas.

É por isso que precisamos ampliar o debate em torno da regulação dessa tecnologia. Não como um cabresto que impedirá seu avanço, mas como mecanismos para, pelo menos, tentar garantir responsabilidade e transparência de quem desenvolve essas plataformas e direitos e segurança para quem as usa.

Isso deve ser feito logo, e não apenas depois que o caos se instale, como aconteceu com as redes sociais. Agora, no meio do turbilhão, vemos como está sendo difícil regulamentá-las, graças aos interesses dos que se beneficiam dessa situação.

“Por enquanto, nós temos o controle”, afirma Martínez. “Então espero que a democracia não seja dominada por uma máquina.”

É verdade, mas temos que nos mexer. E que isso seja feito pelas nossas aspirações, e não porque algo deu muito errado!

 

Matt Hicks, CEO da Red Hat, durante a abertura do Red Hat Summit 2023: “esse é o momento da IA” - Foto: Paulo Silvestre

Inteligência artificial produz coisas incríveis, mas não podemos perder nosso protagonismo

By | Tecnologia | No Comments

Estive na semana passada em Boston (EUA), participando do Red Hat Summit, maior evento de software open source do mundo. Apesar desse modelo de desenvolvimento de programas aparecer a todo momento, a estrela da festa foi a inteligência artificial. E algo que me chamou a atenção foi a preocupação da Red Hat e de seus executivos em demonstrar como essa tecnologia, por mais poderosa que seja, não deve fazer nada sozinha, precisando ser “treinada” com bons dados, com o ser humano ocupando o centro do processo.

O próprio CEO, Matt Hicks, abriu a conferência dizendo que esse é o “momento da IA”. Muitos dos principais anúncios do evento, como o Ansible Lightspeed e o OpenShift AI, embutiam um incrível poder da inteligência artificial na automação de tarefas, como geração de código a partir de pedidos simples em português, liberando o tempo das equipes para funções mais nobres.

Isso não quer dizer, entretanto, que os profissionais possam simplesmente “terceirizar” o raciocínio e a sua criatividade para as máquinas. Pelo contrário, por mais fabulosas que sejam essas ferramentas, elas pouco ajudam se o usuário não conhecer pelo menos o essencial do que os sistemas produzem.

Tanto é verdade que assistimos a casos de pessoas e de empresas que enfrentam grandes contratempos por usar plataformas generalistas de inteligência artificial (como o ChatGPT) de maneira descuidada. Precisamos ter em mente que, por mais que ela chegue a parecer mágica, não é infalível!


Veja esse artigo em vídeo:


Foi o que aconteceu recentemente com o advogado americano Steven Schwartz, da firma Levidow, Levidow & Oberman, com mais de 30 anos de experiência: ele enfrentará agora medidas disciplinares por usar o ChatpGPT para pesquisas para o caso de um cliente que processava a Avianca. Tudo porque apresentou à corte um documento com supostos casos semelhantes envolvendo outras empresas aéreas.

O problema é que nenhum desses casos existia: todos foram inventados pelo ChatGPT. Schwartz ainda chegou a perguntar à plataforma se os casos eram reais, o que ela candidamente confirmou. É o que os especialistas chamam de “alucinação da inteligência artificial”: ela apresenta algo completamente errado como um fato, cheia de “convicção”, a ponto de conseguir argumentar sobre aquilo.

“Nessa nova fase, temos que conhecer a pergunta para qual queremos a resposta”, explicou-me Hicks, em uma conversa com jornalistas durante o Summit. “Se você for um novato, poderá criar melhor, mais rápido; se for um especialista, poderá melhorar muito o que faz e usar seu domínio para refinar a entrega”, concluiu.

Para Paulo Bonucci, vice-presidente e gerente-geral da Red Hat para a América Latina, “não adianta você chegar com inteligência artificial assustando a todos, dizendo que vai faltar emprego”. Para o executivo, a transformação que a inteligência artificial promoverá nas empresas passa por uma transformação cultural nos profissionais. “A atenção principal enquanto se desenvolvem os códigos e as tecnologias de inteligência artificial são as pessoas, são os talentos”, acrescenta.

Chega a ser reconfortante ver lideranças de uma empresa desse porte –a Red Hat é a maior empresa de soluções empresariais open source do mundo– demonstrando essa consciência. Pois não se enganem: a inteligência artificial representa uma mudança de patamar tecnológico com um impacto semelhante ao visto com a introdução dos smartphones ou da própria Internet comercial.

A diferença é que, no mundo exponencial em que vivemos, as transformações são maiores e os tempos são menores. E nem sempre as empresas e ainda mais as pessoas têm sido capazes de absorver esse impacto.

 

Corrida do ouro

Infelizmente o que se vê é uma corrida tecnológica, que pode estar atropelando muita gente por descuido e até falta de ética de alguns fabricantes. “Existem empresas grandes que fazem anúncios quando sua tecnologia não está madura”, afirma Victoria Martínez, gerente de negócios e data science da Red Hat para a América’ Latina. “Essa corrida tornou-se muito agressiva”.

É interessante pensarmos que as pesquisas em inteligência artificial existem há décadas, mas o assunto se tornou um tema corriqueiro até entre não-especialistas apenas após o ChatGPT ser lançado, em novembro. Não é à toa que se tornou a ferramenta (de qualquer tipo) de adoção mais rápida da história: todos querem usar o robô para passar para ele suas tarefas. E, graças a essa corrida, isso tem sido feito de maneira descuidada, pois alguns fabricantes parecem não se preocupar tanto com perigos que isso pode representar.

“Isso é uma coisa que a gente deveria estar discutindo mais”, sugere Eduardo Shimizu, diretor de ecossistemas da Red Hat Brasil. “Entendo que nós, não só como especialistas em segurança ou em tecnologia, mas como seres humanos, precisamos discutir esses temas éticos da forma de usar a tecnologia”, acrescenta.

Martínez lembra das preocupações que educadores vêm apresentando sobre o uso de plataformas de IA generativas, como o próprio ChatGPT por crianças. “Não podemos esquecer de aprender o processo”, alerta. Em uma situação limite, seria como entregar uma calculadora a uma criança que não sabe sequer conceitualmente as quatro operações básicas. Ela se desenvolveria como um adulto com seríssimos problemas cognitivos e de adaptação à realidade.

Por isso, a qualquer um que não saiba fazer uma divisão deveria ser proibido usar uma calculadora. Por outro lado, para quem domina suficientemente a matemática, a calculadora e mais ainda uma planilha eletrônica são ferramentas inestimáveis.

É assim que devemos encarar essa mudança de patamar tecnológico. Como escreveu Hicks em um artigo recente, “não sabemos o que o futuro reserva –nem mesmo o ChatGPT é precognitivo ainda. Isso não significa que não podemos antecipar quais desafios enfrentaremos nos próximos meses e anos.”

Quaisquer que sejam, quem deve estar no comando somos nós. Os robôs, por sua vez, serão ajudantes valiosíssimos nesse processo.


Você pode assistir à íntegra em vídeo das minhas entrevistas com os quatro executivos da Red Hat. Basta clicar no seu nome: Matt Hicks, Paulo Bonucci, Victoria Martínez e Eduardo Shimizu.

 

Os personagens Theodore e Samantha (no smartphone em seu bolso), no filme “Ela” (2013) - Foto: divulgação

Inteligência artificial começa a substituir pessoas com suas ideias, personalidades e vozes

By | Tecnologia | No Comments

Enquanto o mundo discute o impacto da inteligência artificial no mercado de trabalho, outra revolução, possivelmente mais profunda ainda, começa a tomar forma graças a essa tecnologia: pessoas estão criando representações digitais de si mesmas, simulando suas ideias, vozes e até suas personalidades.

O objetivo é usar esses avatares para conversar com muita gente, como se fossem o indivíduo em si. Isso é particularmente interessante para celebridades com enormes bases de fãs online, mas abre uma série de discussões éticas e até filosóficas sobre a substituição do ser humano por robôs.

Por um lado, eles podem representar um grande avanço no relacionamento com seguidores e clientes, criando uma experiência incrivelmente imersiva e convincente, o que pode ser ótimo para os negócios. Entretanto especialistas temem que esses chatbots hiper-realistas possam provocar estragos na saúde mental de algumas pessoas.


Veja esse artigo em vídeo:


No começo do mês, a influenciadora digital americana Caryn Marjorie, 23, que tem aproximadamente dois milhões de seguidores no Snapchat, lançou um desses avatares. Batizado de CarynAI, ele é construído sobre a tecnologia do GPT-4, motor do afamado ChatGPT.

Mas ele vai muito além de escrever textos a perguntas de seus fãs. O robô simula a voz, personalidade e até maneirismos de Caryn, conversando com os fãs sobre qualquer assunto. Para uma base de seguidores em que 98% são homens, ninguém se surpreendeu que muitas dessas conversas acabaram tendo cunho sexual, apesar de a influenciadora dizer que espera que esse não se torne o assunto principal.

Os fãs sabem que não estão falando com a verdadeira Caryn. Ainda assim não se importam de pagar US$ 1 por minuto de conversa. Não há limite de tempo, mas quando o papo se aproxima de uma hora, CarynAI sugere que o fã continue em outro momento.

Com isso, na primeira semana, o sistema rendeu nada menos que US$ 100 mil à influenciadora. Quando ela conseguir dar acesso a uma lista de espera de milhares de interessados, ela calcula que faturará algo como US$ 5 milhões por mês! Negócios à parte, Caryn disse que “espera curar a solidão de seus fãs” com a ajuda de seu avatar.

“Entrar na fantasia não é errado: isso nos proporciona criatividade, curiosidade, alegria”, explica Katty Zúñiga, psicóloga especializada em comportamento e tecnologia. “Mas, ao mesmo tempo, a gente precisa entrar em contato com nosso lado mais racional, mais consciente, para encontrar o equilíbrio, e não nos perdermos na fantasia, que é o que essa inteligência artificial está nos apresentando.”

 

Vencendo a morte?

CarynAI foi criada pela empresa Forever Voices. Seu CEO e fundador, John Meyer, disse ao The Washington Post que começou a desenvolver a plataforma no ano passado, para tentar “conversar” com seu pai, que faleceu em 2017. Segundo ele, conversar com o robô que tinha a voz e a personalidade do pai foi “uma experiência incrivelmente curativa”.

É inevitável lembrar do episódio “Volto Já” (2013), o primeiro da segunda temporada da série “Black Mirror”, conhecida por promover reflexões sobre usos questionáveis da tecnologia. Nessa história, a personagem Martha (Hayley Atwell) usa um serviço que cria um chatbot com informações, personalidade e trejeitos de seu recém-falecido marido, Ash (Domhnall Gleeson). Como aquilo parecia aplacar sua saudade e solidão, ela atualiza o serviço para uma versão em que o sistema conversa com ela com a voz dele.

Emocionada com os resultados, parte para um terceiro nível, em que compra um robô fisicamente idêntico a Ash, que passa a interagir com ela, até sexualmente. Claro que, nesse momento, a experiência desanda! Quanto mais ampla pretende ser a simulação, maior a chance de ela dar errado. Martha não consegue lidar com as diferenças, e decide tomar uma atitude extrema.

Impossível não pensar também no filme “Ela” (2013). Nele, Theodore (Joaquin Phoenix), um escritor deprimido, se apaixona por Samantha (Scarlett Johansson), a “personalidade” do novo sistema operacional de seu computador e smartphone. Se isso não fosse estranho o suficiente, ela corresponde a seu amor. Aqui também a história não termina bem, pois, apesar de Samantha agradar a Theodore em tudo, ela ainda não consegue ser humana.

As duas histórias são muito impactantes. No caso de Samantha, é muito fácil se apaixonar por ela, mesmo não sendo Theodore. Afinal, ela é dona de uma ternura rara, sempre “ao lado” de Theodore, disposta a dar a ele o que ele precisa. Mas isso é amor ou apenas as ações estatisticamente mais relevantes para cada momento, envelopadas com muito carinho?

É nessa hora que essas plataformas podem se tornar um problema psíquico. A vida real é composta de contraposições entre coisas positivas e negativas, alegrias e tristezas, tensões e distensões. Ao enfrentarmos isso, amadurecemos. Mas se começarmos a viver relacionamentos que nos “protegem” de dissabores, isso pode prejudicar nosso desenvolvimento.

“A gente está vivendo em um mundo de adultos imaturos, por isso as pessoas não aceitam o diferente”, explica Zúñiga. “É como a criança, que vive despreocupada momentos de prazer o tempo todo, porque tem um adulto por trás para cuidar dela”, acrescenta. Mas a vida não funciona dessa forma.

Meyer acredita que, em poucos anos, todos terão um “assistente humanizado por IA” em seu bolso, que poderá ser um parceiro romântico, um personal trainer ou um professor. Resta saber até onde eles poderão ir e como poderemos nos proteger de “abusos” da tecnologia.

No dia 18, Sam Altman, CEO da OpenAI, criadora do ChatGPT, deu uma palestra no Rio de Janeiro. Contrariando o que muito poderiam pensar, ele defende que a inteligência artificial seja regulamentada logo e, de preferência, de maneira única em todos os países.

Infelizmente a chance de isso acontecer é mínima. Afinal, não conseguimos chegar a um consenso nem com o “PL das Fake News”. De qualquer jeito, o debate não pode ficar restrito aos interesses dos fabricantes, ou correremos o risco de parar de nos apaixonar por humanos chatos, preferindo avatares hipersedutores.

 

Ian Wilmut, biólogo do Instituto Roslin (Escócia), e a ovelha Dolly, primeiro clone bem-sucedido de um mamífero - Foto: divulgação

Corrida pela inteligência artificial não pode driblar leis ou ética

By | Tecnologia | No Comments

Diante do acalorado debate em torno do “PL das Fake News”, muita gente nem percebeu que outro projeto de lei, possivelmente tão importante quanto, foi apresentado no dia 3 pelo senador Rodrigo Pacheco (PSD-MG): o PL 2338/23, que propõe a regulação da inteligência artificial. Resta saber se uma lei conseguirá conter abusos dessa corrida tecnológica ou sucumbirá à pressão das empresas, como tem acontecido no combate às fake news.

Talvez um caminho melhor seria submeter o desenvolvimento da IA aos limites da ética, mas, para isso, os envolvidos precisariam guiar-se por ela. Nesse sentido, outro acontecimento da semana passada foi emblemático: a saída do Google de Geoffrey Hinton, conhecido como o “padrinho da IA”. Ele disse que fez isso para poder falar criticamente sobre os caminhos que essa tecnologia está tomando e a disputa sem limites que Google, Microsoft e outras companhias estão travando, o que poderia, segundo ele, criar algo realmente perigoso.

Em entrevista ao The New York Times, o pioneiro da IA chegou a dizer que se arrepende de ter contribuído para esse avanço. “Quando você vê algo que é tecnicamente atraente, você vai em frente e faz”, justificando seu papel nessas pesquisas. Hoje ele percebe que essa visão pode ser um tanto inconsequente.

Mas quantos cientistas e principalmente homens de negócios da “big techs” também têm essa consciência?


Veja esse artigo em vídeo:


Isso me lembrou do início da minha carreira, como repórter de ciência, quando o mundo foi sacudido, em fevereiro de 1997, pelo anúncio da ovelha Dolly, o primeiro mamífero clonado com sucesso. Apesar de sua origem incomum, ela viveu uma vida normal por seis anos, tendo até dado à luz seis filhotes. Depois dela, outros mamíferos foram clonados, como porcos, veados, cavalos, touros e até macacos.

Não demorou para que fosse levantada a questão se seria possível clonar seres humanos. Ela rendeu até a novela global “O Clone”, de Glória Perez, em 2001. Em 2007, Ian Wilmut, biólogo do Instituto Roslin (Escócia) que liderou a equipe que criou Dolly, chegou a dizer que a técnica usada com ela talvez nunca fosse eficiente para uso em humanos.

Muitas teorias da conspiração sugerem que clones humanos chegaram a ser criados, mas nunca revelados. Isso estaria em linha com a ideia de Hinton da execução pelo prazer do desafio técnico.

Ainda que tenha se materializado, a pesquisa de clones humanos não foi para frente. E o que impediu não foi qualquer legislação: foi a ética! A sociedade simplesmente não aceitava aquilo.

“A ética da inteligência artificial tem que funcionar mais ou menos como a da biologia, tem que ter uma trava”, afirma Lucia Santaella, professora-titular da PUC-SP. “Se não os filmes de ficção científica vão acabar se realizando.”

 

A verdade irrelevante

Outro ponto destacado por Hinton que me chamou a atenção é sua preocupação com que a inteligência artificial passe a produzir conteúdos tão críveis, que as pessoas não sejam mais capazes de distinguir entre o que é real e o que é falso.

Ela é legítima! Já em 2016, o Dicionário Oxford escolheu “pós-verdade” como sua “palavra do ano”. Muito antes da IA generativa e quando as fake news ainda engatinhavam, esse verbete da renomada publicação alertava para “circunstâncias nas quais os fatos objetivos são menos influentes na opinião pública do que as emoções e as crenças pessoais”. De lá para cá, isso se intensificou exponencialmente: as pessoas acreditam naquilo que lhes for mais conveniente e confortável. As redes sociais levaram isso às raias da loucura e a IA generativa pode complicar ainda mais esse quadro.

“Não é que a verdade não exista: é que a verdade não mais importa”, acrescenta Santaella. “Esse é o grande problema!”

Ter ferramentas como essas abre incríveis possibilidades, mas também exige um uso responsável e consciente, que muitos não têm. Seu uso descuidado e malicioso pode ofuscar os benefícios da inteligência artificial, transformando-a em um mecanismo nefasto de controle e de desinformação, a exemplo do que foi feito com as redes sociais. E vejam como isso está destruindo a sociedade!

Se nenhum limite for imposto, as empresas desenvolvedoras da IA farão o mesmo que fizeram com as redes sociais. É uma corrida em que ninguém quer ficar para trás, pois o vencedor dominará o mundo! Para tornar a situação mais dramática, não se trata apenas de uma disputa entre companhias, mas entre nações. Ou alguém acha que a China está parada diante disso tudo?

Eu jamais serei contra o desenvolvimento de novas tecnologias. Vejo a inteligência artificial como uma ferramenta fabulosa, que pode trazer benefícios imensos. Da mesma forma, sou um entusiasta do meio digital, incluindo nele as redes sociais.

Ainda assim, não podemos viver um vale-tudo em nenhuma delas, seja clonagem, IA ou plataformas digitais. Apesar das críticas ao “PL das Fake News” criadas e popularizadas pela desinformação política e resistência feroz das “big techs” (as verdadeiras prejudicadas pela proposta), ele oferece uma visão equilibrada de como usar bem as redes sociais. Mas para isso, essas empresas precisam se empenhar muito mais, inclusive agindo de forma ética com o negócio que elas mesmas criaram.

Não percamos o foco no que nos torna humanos, nem a capacidade de distinguir verdade de mentira. Só assim continuaremos evoluindo como sociedade e desenvolveremos novas e incríveis tecnologias.

Nesse sentido, o antigo lema do Google era ótimo: “don’t be evil” (“não seja mal”). Mas em 2015, a Alphabet, conglomerado que incorporou o Google, trocou o mote por “faça a coisa certa”, bem mais genérico.

Bem, a coisa certa é justamente não ser mal.

 

Sam Altman, CEO da OpenAI, disse estar “um pouco assustado” com a inteligência artificial – Foto: Steve Jennings / Creative Commons

Como lidar com os algoritmos que se sobrepõem à verdade

By | Tecnologia | No Comments

Três acontecimentos da semana passada, que provavelmente passaram despercebidos da maioria da população, envolvem tecnologias de enorme impacto em nossas vidas. O primeiro foi uma audiência no STF (Supremo Tribunal Federal) que debateu, na terça, o Marco Civil da Internet. Na quarta, mais de mil pesquisadores, executivos e especialistas publicaram um manifesto solicitando que pesquisas de inteligência artificial diminuam o ritmo, por representarem “grandes riscos para a humanidade”. Por fim, na sexta, a Itália determinou que o ChatGPT, plataforma de produção de textos por inteligência artificial da OpenAI, fosse bloqueado no país.

Em comum, os três tratam de tecnologias existentes há anos, mas com as quais paradoxalmente ainda temos dificuldade de lidar: as redes sociais e a inteligência artificial. E ambas vêm se desenvolvendo exponencialmente em seu poder para distorcer a realidade a nossa volta, muitas vezes contra nossos interesses e a favor dos das empresas que criam essas plataformas.

Não é um exagero! As redes sociais, usadas por quase 5 bilhões de pessoas, definem como nos relacionamos, nos divertimos, conversamos e nos informamos, manipulando-nos para consumirmos o que os algoritmos consideram melhor (mesmo não sendo). A “inteligência artificial generativa”, que ganhou os holofotes no ano passado e tem no ChatGPT sua estrela, produz conteúdos incríveis, mas que podem embutir grandes imprecisões que as pessoas aceitam alegremente como fatos.

As preocupações que se impõem são como podemos aproveitar o lado bom desses serviços, enquanto nos protegemos de potenciais efeitos nocivos, além de como responsabilizar seus produtores, algo que não acontece hoje!


Veja esse artigo em vídeo:


As redes sociais já são nossas velhas conhecidas. Segundo o relatório “Digital 2023 Global Overview Report”, da consultoria americana We Are Social, os brasileiros passam uma média de 9 horas e 32 minutos na Internet por dia, das quais 3 horas e 46 minutos são em redes sociais. Nos dois casos, somos os vice-campeões mundiais.

Não é surpresa para ninguém que sejamos manipulados por elas, em maior ou menor escala. Segundo a mesma pesquisa, 65,2% dos brasileiros se dizem preocupados se o que veem na Internet é real ou falso. Nesse quesito, somos o quinto país no mundo.

Agora a inteligência artificial ganha um destaque sem precedentes nas discussões tecnológicas, pelo poder criativo das plataformas que elaboram conteúdo. Algumas pessoas acham isso a aurora de uma nova colaboração entre nós e as máquinas; outros veem como um risco considerável para a própria humanidade.

Mas ela já faz parte do nosso cotidiano profundamente. Basta ver que os principais recursos de nossos smartphones dependem da inteligência artificial. As próprias redes sociais fazem uso intensivo dela para nos convencer. E se considerarmos que isso provocou uma polarização social inédita, colocando em risco a própria sociedade, os temores dos pessimistas fazem algum sentido.

Essa amálgama de euforia e paranoia provoca decisões às vezes precipitadas, mesmo de pessoas qualificadas. Países do mundo todo, inclusive o Brasil, se debruçam sobre o tema, tentando encontrar mecanismos legais para organizá-lo.

 

Regular ou não regular?

No Brasil, o uso das redes é disciplinado pelo Marco Civil da Internet, de 2014. “Ele entrou em vigor quando discurso de ódio e fake news estavam em outro patamar”, afirma Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propaganda e Marketing). “Acredito que a revisão seja necessária, mas não com a simples declaração de inconstitucionalidade do artigo 19, e sim a partir de sistemas mais efetivos e transparentes de como as big techs fazem a gestão dos próprios termos de uso quando violados.”

“Hoje temos interações mais rápidas e intensas, que mudam a forma como vivemos em sociedade”, explica Carolina Giovanini, advogada especialista em direito digital do Prado Vidigal Advogados. “Porém isso não significa que o Marco Civil da Internet esteja ‘ultrapassado’, pelo contrário: é uma legislação que foi pensada levando em consideração o futuro da rede.”

O referido artigo 19 está no centro dessa discussão porque protege as plataformas digitais de serem responsabilizadas pelo conteúdo que os usuários publicam em suas páginas. Segundo o texto, elas só poderiam ser penalizadas se deixassem de retirar algo do ar após uma ordem judicial.

Como a Justiça não consegue analisar tudo que se publica nas redes, especialistas defendem que as plataformas sejam obrigadas a fazer isso por sua conta. A inteligência artificial seria fundamental para decidir o que seria apagado, mas a subjetividade de muitos conteúdos dificulta a definição inequívoca do que é desinformação, o que poderia levar a censura por falsos positivos.

“A própria ideia das redes sociais é ser um portal descentralizado, sem ‘pauta editorial’ ou viés socioeconômico, para que a sociedade pulverizada ganhe voz”, sugere Matheus Puppe, sócio da área de TMT, privacidade e proteção de dados do Maneira Advogados. “Responsabilizando as plataformas, todo o modelo de negócios e o propósito da informação descentralizada vai por água abaixo.”

Na prática, isso vem permitindo que as empresas que produzem essas tecnologias gozem de uma prerrogativa rara, que é responder pouco ou nada por danos que provoquem. Não se pode imaginar um mundo sem elas, mas o crescimento explosivo da desinformação e a consequente polarização social não podem ser vistos como meros “efeitos colaterais”. É como “perdoar” um remédio que mate 5.000 pessoas para curar outras 10.000: a cura é bem-vinda, mas não se pode tolerar tantas mortes.

“O ponto é que um novo regime de responsabilidade não é desejado pelas big techs”, afirma Crespo. “Elas têm até bons argumentos para manter como está, na medida em que elas mesmas removem alguns conteúdos ilícitos por vontade própria.”

Estamos em um impasse! Como canta Ney Matogrosso, “se correr o bicho pega; se ficar, o bicho come!” As redes sociais estão no centro da nossa vida. A inteligência artificial abre possibilidade incríveis e necessárias. Eliminá-las é impossível, desacelerá-las é improvável. Mas esses problemas aparecem cada vez com mais força.

Qualquer que seja o futuro, ele precisa ser criado com a participação ativa de todos os agentes da sociedade. Essas empresas não podem continuar dando as cartas baseadas apenas na sua busca pelo lucro, pois seus produtos estão muito além de qualquer outra coisa já feita, do ponto de vista de transformação social.

Os benefícios devem ser distribuídos para todos, assim como as responsabilidades e os riscos. O futuro não pode ser distópico!

 

Profissional captura imagens de obras para a plataforma da Construct IN, usando capacete com câmera 360º - Foto: divulgação

“Tour virtual” reduz custos e melhora documentação de obras

By | Tecnologia | No Comments

Um dos grandes desafios de uma obra é garantir que o projeto esteja sendo cumprido adequadamente, identificando qualquer erro o quanto antes. Isso evita retrabalho e aditivos, que podem elevar consideravelmente o tempo e os custos totais do empreendimento. Agora a tecnologia digital pode facilitar e baratear essa verificação.

Tradicionalmente ela é feita com um engenheiro no próprio local. As despesas com essa ação crescem exponencialmente com a distância da obra, que pode estar até em outro Estado. Pensando nisso, a startup gaúcha Construct IN criou um sistema que oferece fazer isso remotamente, a partir de um “tour virtual” no canteiro, potencializado com ferramentas de gestão, documentação e inteligência artificial.

Ele lembra muito o serviço Google Street View, que permite que se “navegue” por ruas e o interior de estabelecimentos a partir de fotos capturadas em todas as direções previamente. No caso da Construct IN, as imagens da obra são coletadas por uma pessoa que caminha por todo o canteiro usando um capacete com uma câmera 360º na parte superior. As fotos tiradas automaticamente são enviadas ao seu celular, que as carrega para o servidor da empresa, onde são “unidas” para criar a sensação de se estar andando pela obra, com a possibilidade de se olhar para qualquer lado.

Essa junção é feita por inteligência artificial, que também se encarrega de borrar os rostos de quem for eventualmente fotografado, para preservar sua privacidade. O sistema também identifica falhas de segurança, como alguém não estar usando o capacete, emitindo um alerta automaticamente.

Uma diferença em relação ao Street View é que a Construct IN permite comparar diferenças nas imagens captadas em diferentes momentos, algo desnecessário no primeiro, mas muito relevante no segundo caso. “Com a tecnologia, é possível acessar o histórico de todos os ambientes da obra, e observar o andamento do dia a dia, comparando o avanço diariamente ou semanalmente”, explica Tales Silva, CEO da start up. “Isso traz maior segurança, agilidade e transparência em todo o processo de gestão das obras”. Não há limites de capturas, podendo ser feitas até mais de uma vez por dia.

 

Plataforma permite comparar imagens das obras com projetos na BIM (Modelagem de Informação da Construção) – Imagem: reprodução

Plataforma permite comparar imagens das obras com projetos na BIM (Modelagem de Informação da Construção) – Imagem: reprodução

 

A navegação acontece por qualquer navegador na Web, dispensando a instalação de programas. Além de permitir “caminhar pela obra”, que pode estar em qualquer lugar do mundo, a plataforma oferece diversos serviços adicionais, como, por exemplo, fazer medidas com precisão, como se estivesse no local. Também é possível adicionar notas para outros usuários sobre as imagens. O sistema ainda “conversa” com plataformas de BIM (Modelagem de Informação da Construção), permitindo comparar, lado a lado, imagens imersivas da obra com a navegação tridimensional dessas ferramentas de projeto.

Para o fim do ano, a empresa promete uma nova camada de inteligência artificial. A partir de reconhecimento de imagens, ela indicará automaticamente quais os avanços foram feitos em diversos aspectos da obra, como alvenaria, forro, piso e contrapiso, entregando indicadores gerais do andamento de cada pavimento. Isso tornará o gerenciamento da obra ainda mais eficiente e rápido.

A maioria dos clientes da Construct IN é formada por redes de varejistas, que costumam ter equipes reduzidas de engenharia. Por isso, a habilidade de acompanhar as obras remotamente fica muito importante para essas empresas.

É o caso da cadeia de pet shops Petz, cuja sede fica em São Paulo, mas que possui obras de lojas em diversos Estados brasileiros. Elas são realizadas por construtoras e empreiteiros locais e acompanhadas remotamente. Com isso, as visitas presenciais da equipe aos canteiros podem ser feitas a cada 20 dias apenas.

Por se tratar de obras rápidas, com até 90 dias de duração, uma demora de uma semana para identificar alguma falha pode ter impacto considerável no resultado. “Os registros remotos permitem comparar, quase em tempo real, a execução com o projeto, verificar se a obra está no cronograma e fazer checklists à distância”, explica André Ortega, gerente de obras da Petz.

A Construct IN possui hoje 130 clientes, com mais de 700 obras em andamento na plataforma. No ano passado, isso representou 1,5 milhão de imagens capturadas. A estimativa da empresa é que, em 2023, esse número chegue a 3 milhões.

 

Cena de “Tempos Modernos” (1936), em que Charles Chaplin já criticava a automação do trabalho – Foto: reprodução

Que empregos a inteligência artificial deixará para nós?

By | Tecnologia | No Comments

As grandes empresas de tecnologia continuam “passando o facão” em suas equipes no mundo todo. Em 2022, foram cerca de 150 mil demitidos; nesse ano, já são quase 100 mil. A maior parte dos cortes está associada a uma adequação dos times depois de grandes contratações na pandemia e pela crise nos EUA, mas especialistas indicam que podemos estar observando mudanças profissionais patrocinadas pela inteligência artificial em ascensão.

Não se trata de ficção científica distópica. Desde que o ChatGPT, o sistema produtor de textos da OpenAI, foi lançado no dia 30 de novembro, a quantidade de aplicações para a chamada “inteligência artificial generativa” não para de crescer.

Se antes o risco de substituição de trabalhadores humanos por máquinas era restrito a funções menos especializadas e criativas, essa tecnologia agora impacta trabalhadores que se sentiam “protegidos dos robôs” pela sua formação. E como o avanço das capacidades digitais acontece exponencialmente, alguns começam a se perguntar que empregos restarão em breve para humanos diante de máquinas cada vez mais eficientes.


Veja esse artigo em vídeo:


Na semana passada, a Amazon anunciou o corte de 9.000 funcionários no mundo, totalizando 27.000 vagas a menos desde novembro. Uma semana antes, a Meta (dona do Facebook) disse que demitirá outros 10.000 profissionais e congelará 5.000 contratações, somados aos 11 mil funcionários demitidos globalmente há três meses.

Um estudo divulgado no final de janeiro e feito sobre os cortes de 2022 indicou que supreendentemente a maior parte dos demitidos foi de funções ligadas a recursos humanos –27,8%– e não a tecnologia –que vieram na sequência, com 22,1%. Segundo a consultoria 365 Data Science, responsável pela pesquisa, isso se explica em parte por essas empresas estarem necessitando menos de analistas de RH, mas também porque grande parte do processo de recrutamento (e até de demissões) passou a ser automatizado pela inteligência artificial.

Coincidência ou não, algumas das que mais demitiram estão realizando investimentos massivos no tema. A Microsoft, que cortou 10 mil funcionários no fim de 2022, anunciou ao mesmo tempo um investimento estimado em US$ 10 bilhões na OpenAI. A Alphabet (controladora do Google), que mandou para casa 12 mil pessoas, lançou na semana passada o Bard, seu sistema concorrente do ChatGPT.

Outro estudo, realizado por pesquisadores da Universidade da Pensilvânia (EUA) e da OpenAI, concluiu que 80% dos trabalhadores americanos podem ter pelo menos 10% de suas tarefas afetadas por essa tecnologia, com 19% deles tendo que encarar metade do que fazem sendo tomado pela máquina. A influência abrange todos os níveis salariais, com empregos de renda mais alta sendo mais afetados.

“O importante é não entrar em estado de negação quanto ao avanço da tecnologia e estar aberto ao aprendizado contínuo através da empresa ou autodesenvolvimento”, explica a consultora de carreira Ticyana Arnaud. Isso está em linha com os pesquisadores da 365 Data Science, que afirmam ser essencial possuir a capacidade de se adaptar e se manter atualizado com as mais recentes inovações tecnológicas.

 

Aprender a aprender

“O indivíduo deve ser verdadeiramente protagonista de sua própria aprendizagem”, explica Karen Kanaan, sócia da École 42 no Brasil, uma escola francesa de tecnologia que forma profissionais a partir de projetos em que necessariamente precisam colaborar uns com os outros. “Deve ser uma formação que estimule que ele busque aprender a aprender, a colaborar, a ter empatia, a pensar de forma crítica, a ter criatividade e raciocínio lógico”, completa.

Como acontece com toda nova tecnologia, ela acaba extinguindo profissões inteiras, enquanto cria oportunidades. Isso acontece desde o início da Revolução Industrial, no século XVIII. A diferença é que, em mundos digitais, o tempo para que as pessoas se adaptem é muito menor, o que se agrava porque os novos ofícios exigem habilidades básicas que a maioria da população não tem.

Como disse no sábado ao Estadão o economista José Pastore, “a destruição (de empregos) é rápida e visível; a criação é lenta e é invisível”. Para o professor da FEA-USP, “isso traz impactos sociais imediatos, e apavora todo mundo.”

O mesmo Estadão trouxe uma reportagem sobre novas profissões ligadas a inteligência artificial, cujos salários chegam a R$ 20 mil. Apesar de a maioria estar, de alguma maneira, associada à área de TI, é importante observar que a adoção de inteligência artificial necessita de equipes multidisciplinares, para “treinar” as plataformas em tarefas dos mais diversos setores da economia. Além disso, algum domínio da tecnologia vem se tornando essencial em todas as carreiras.

Isso aparece na origem dos estudantes da École 42, cujo curso equivale a uma formação em engenharia de software. A maioria não vem da área de tecnologia e trazem, na sua bagagem, carreiras tão distintas quanto publicitários, cozinheiros, médicos e cabelereiros. E todos podem adquirir as novas habilidades de TI.

“É preciso conhecer seus limites, valores, o que gosta, o que sabe, o que quer fazer para levar uma vida que seja relevante, antes de tudo, pra si”, explica Kanaan. E isso é algo que a inteligência artificial não consegue fazer. Para ela, “um indivíduo criativo, capaz de imaginar, raciocinar consegue se adaptar a qualquer movimento.”

Em outras palavras, ninguém está “seguro”, mas também não precisa se desesperar. “A inteligência artificial fomenta a importância de uma vida voltada ao aprendizado”, afirma Arnaud. Temos que estar sempre atentos às tendências com implicações em nosso trabalho, aprendendo o que há de novo.

Muitas pessoas podem dizer que “falar é fácil”, e não as julgaria por isso. Talvez fosse mesmo mais confortável o mundo de 30 anos atrás, quando o que se aprendia na faculdade era suficiente para chegar até a aposentadoria.

Isso ficou literalmente no passado. Agora somos obrigados a estar em constante movimento. Mas isso pode ser uma incrível oportunidade, não apenas para continuarmos profissionalmente relevantes, mas para nos tornarmos pessoas melhores. Esse é o melhor caminho para os robôs não nos alcançarem.

 

A IA pode oferecer a atendentes dados para melhorarem o relacionamento com o público – Foto: Kampus Poduction - Creative Commons

“Humanidade aumentada” une inteligência artificial e pessoas para criar um atendimento superior

By | Tecnologia | No Comments

Em tempos em que o ChatGPT e outras plataformas de inteligência artificial parecem invadir e automatizar todo tipo de tarefa, essa tecnologia pode elevar o relacionamento entre empresas e seus clientes a um patamar inédito. Isso não se dará pela substituição de atendentes humanos, mas sim por potencializar suas habilidades de relacionamento interpessoal com informações que só a máquina pode lhes oferecer.

Essa colaboração entre computadores e indivíduos é uma vertente da “humanidade aumentada”. O termo, usado pela primeira vem em 2010 pelo então CEO do Google, Eric Schmidt, prevê o uso de tecnologias para ampliar capacidades humanas. Pode ser por equipamentos robóticos, assistentes virtuais, acesso a dados para tomada de decisões e muito mais. E a tecnologia evoluiu dramaticamente nesses 13 anos.

A inteligência artificial tornou-se muito eficiente em compreender pedidos das pessoas e gerar respostas adequadas para cada caso específico, e não mais tentar enquadrar as demandas em situações pré-definidas. Isso não é feito apenas a partir de dados históricos, mas da sua capacidade de tirar conclusões de padrões, por exemplo de consumo ou de comportamento. Para quem lida com o público, como atendentes ou vendedores, esse recurso é praticamente um superpoder.


Veja esse artigo em vídeo:


“Os sistemas automatizados alcançaram uma qualidade comparável à de um ser humano em muitos casos”, explica David Paulding, vice-presidente sênior da Talkdesk, multinacional portuguesa que desenvolve sistemas de atendimento. “A IA generativa está sendo aproveitada em um número cada vez maior de casos para melhorar a experiência do cliente e simplificar as interações”, acrescenta.

Ele explica que sistemas de atendimento com inteligência artificial podem reduzir a frustração de clientes por não terem suas necessidades resolvidas rapidamente, economizando o tempo deles e dos atendentes. Segundo o executivo, 69% das empresas já investiram em plataformas com essa tecnologia, que aumentam a chance de o cliente encontrar o que quer por conta própria e ajudam os atendentes a encontrar a solução certa em menos tempo.

Ironicamente, muitas empresas estão se interessando por soluções de inteligência artificial graças à grande visibilidade que a mídia vem dando ao tema nos últimos tempos. Mas é um erro pensar que ela é uma bala de prata que resolverá todas as dificuldades. Muitos negócios ainda têm problemas graves e básicos na experiência que oferecem a seus clientes, em nível conceitual.

“Você pode ter toda a tecnologia do mundo, mas, se você não mudar a maneira como você pensa, a tecnologia não resolve nada”, afirma Bart De Muynck, Chief Industry Officer da project44, empresa americana de sistemas de logística, que também adota a inteligência artificial em suas soluções. Ele explica que “a máquina pode ver, entender e calcular as coisas mais complexas, mas pode se perder diante de algo simples”.

Nessas horas, o ser humano é necessário, seja para melhorar um processo ruim, seja para corrigir uma conclusão errada da máquina.

 

Tempo é dinheiro

Dizem que o bem mais valioso da humanidade é o tempo, pois é a única coisa que não pode ser comprada. Portanto, se o dia continua tendo 24 horas para todos, o jeito é não desperdiçar nenhum minuto.

No caso de clientes, poucas coisas os aborrecem tanto quando ficar dando voltas por sistemas de autoatendimento ou tendo conversas infrutíferas com um atendente. Já em uma venda, o consumidor fica mais satisfeito quando lhe é oferecido o produto que realmente satisfaz suas necessidades. Aliás, no varejo, um dos maiores dramas é um estoque cheio, normalmente causado por decisões de compras no volume ou no tempo errados, que acabam forçando depois vendas com descontos.

A inteligência artificial brilha nisso. “Com ela, as empresas podem não apenas responder às necessidades e desejos do cliente de maneira integrada em todos os canais, com serviço personalizado, mas também prever e se preparar para suas necessidades e desejos futuros”, explica Paulding.

Há desafios para a implantação da inteligência artificial nesses processos. Além de entender como ela pode ajudar cada empresa, o executivo explica que há um grande trabalho para evitar que a tecnologia desenvolva vieses nas suas respostas e que elas sejam “explicáveis”, ou seja, que o usuário entenda por que aquilo lhe foi sugerido.

Os vieses merecem uma atenção especial, pois as plataformas podem efetivamente aprender respostas ruins dos próprios usuários. É por isso que elas precisam ser alimentadas com conjuntos de dados cuidadosamente selecionados, para que sejam representativas para seu uso e seu público. Além disso, especialistas na área da aplicação devem ser envolvidos ao longo do ciclo de vida da plataforma, para que seja continuamente avaliada e “limpa”.

Um outro ponto sempre destacado por aqueles que trabalham com o público é o risco de esses sistemas roubarem seus empregos. E, quando a tarefa for muito repetitiva, ele existe mesmo. “Quando combinados com a tecnologia avançada de conversão de texto em fala, esses modelos de linguagem poderão em breve assumir todo o processo de engajamento do cliente”, indica Paulding. A saída, segundo ele, é deixar a IA assumir as tarefas repetitivas enquanto dá mais poder aos atendentes humanos naquilo que eles são melhores, como desenvolver a empatia com seus consumidores.

“Nós ainda temos a pessoa como figura central, mas devemos usar a inteligência artificial para ajudá-la a fazer mais, melhor, além de fazer seu trabalho mais divertido”, explica De Muynck. Para ele, “não devem cuidar de coisas estúpidas que o computador pode fazer, concentrando-se no que realmente agrega valor”.

“Não faz sentido pensar na IA como forma de cortar equipes”, acrescenta Paulding . “As organizações devem entender que ela pode aumentar as capacidades dos atendentes com dados e insights, melhorando a satisfação do cliente”, acrescenta.

Essa é a versão atual da eterna luta entre homens e máquinas, começada na Revolução Industrial. Como sempre, o verdadeiro problema recai em capacitar as pessoas para usar bem as novas tecnologias e melhorar seu trabalho. Mas agora, pela primeira vez, podemos ver a própria tecnologia fazendo isso.

 

Cena do filme “Eu, Robô” (2004), baseado na obra de Isaac Asimov, em que as máquinas seguem as “Leis da Robótica”

ChatGPT põe fogo no debate sobre regulamentação da inteligência artificial

By | Tecnologia | No Comments

O sucesso explosivo do ChatGPT deu novos contornos à discussão se a inteligência artificial deve ser, de alguma forma, regulada. Com 100 milhões de usuários em apenas dois meses, a plataforma da OpenAI tornou-se o produto com adesão mais rápida da história. Sua capacidade de gerar textos convincentes sobre qualquer assunto a partir de comandos simples colocou, em polos opostos, especialistas com fortes argumentos favoráveis e contrários ao controle dessa tecnologia.

De um lado, a turma que defende a regulação aponta que tanto poder computacional poderia causar severos danos ao tomar decisões potencialmente erradas em áreas sensíveis e diversas, como a saúde, a segurança pública ou até na condução de carros autônomos. Do outro, há os que argumentam que leis assim, além de que seriam difíceis de definir e aplicar, inibiriam o desenvolvimento de uma tecnologia que pode levar os humanos a um novo patamar de produtividade. Afirmam ainda que se penalizaria os sistemas, ao invés de criminosos que fizessem maus usos deles.

O fato é que criar um regulamento para uma tecnologia tão inovadora, abrangente e poderosa quanto a inteligência artificial é mesmo um desafio. Ela se desenvolve em uma velocidade estonteante e fica difícil imaginar como qualquer legislação pode acompanhar esse ritmo e o que representaria em um futuro breve.


Veja esse artigo em vídeo:


O Senado já se debruçou sobre o tema. Entre março e dezembro de 2022, uma comissão de 18 juristas debateu o assunto com membros da academia, da sociedade civil e de empresas. Ao final, elaborou uma proposta com 45 artigos e um relatório com mais de 900 páginas, que sugere restrições ao uso de reconhecimento facial indiscriminado por câmeras e a proibição de um “ranqueamento social” com base nas ações de cada pessoa, como acontece na China. Indica ainda que fornecedores ou operadores de sistemas de “alto risco” respondam por eventuais danos que causem.

Foram analisadas legislações aprovadas entre os países da OCDE (Organização para a Cooperação e Desenvolvimento Econômico). A União Europeia pretende chegar a um consenso de projeto regulador até março. Nos Estados Unidos, um comitê consultivo, criado em abril de 2022, espera apresentar uma lei nesse ano.

Mas vale dizer que tudo isso aconteceu antes do lançamento do ChatGPT, no dia 30 de novembro. E ele jogou por terra o que se sabia sobre IA para as massas. “Quando a gente fala em inteligência artificial, um dos grandes pontos sempre é como conseguir dar transparência, sem você violar a propriedade industrial ou intelectual”, explica Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propaganda e Marketing).

Esse é um dos problemas das “inteligências artificias generativas”, como o ChatGPT. Elas produzem coisas incríveis, mas não contam de onde vieram as informações de que “aprenderam” cada tema. Também não fica claro o que acontece “debaixo do capô”, os mecanismos que lhes permitiram chegar a suas conclusões. Para Crespo, “ao invés de simplesmente dizer ‘regular’, deve ser ‘regular pensando no quê’”

Já Paulo de Oliveira Júnior, consultor de inovação e desenvolvimento do Machado Meyer Advogados, afirma que a regulamentação é essencial. “É importante para que a gente possa garantir que a tecnologia não venha a causar nenhum dano para a sociedade, seja ela no campo social, econômico ou político”, explica, concluindo que “é importante que se tenha mais previsibilidade, à medida que a tecnologia vai fazendo parte do nosso dia a dia.”

 

Prós e contras

Além dos motivos já citados, os defensores de uma regulamentação argumentam que ela é necessária para se ter uma garantia mínima de proteção aos dados pessoais usados pelas diferentes aplicações da inteligência artificial. Afinal, se as redes sociais já abusam de nossas informações para fazer dinheiro, com a inteligência artificial, isso ficaria ainda mais difícil de se compreender e controlar.

A legislação também seria necessária para minimizar um problema que vem incomodando em diferentes usos da IA há muitos anos: sistemas que desenvolvem vieses. Isso pode acontecer pelas informações que consome, ao incorporar preconceitos dos desenvolvedores e até aprendendo dos próprios usuários.

Curiosamente um dos argumentos daqueles que são contrários a uma regulação é que as plataformas não poderiam ser responsabilizadas por esse mau uso, e que as pessoas é que deveriam ser controladas e até punidas. Eles também afirmam que esse controle seria falho, pois suas definições seriam imprecisas, criando confusão ao invés de ajudar o mercado.

Esse é um ponto a se considerar. Diversos países do mundo, inclusive o Brasil, estão há uma década tentando regular as redes sociais, sem sucesso. Nós mesmos estamos passando por uma bem-vinda discussão sobre como minimizar os efeitos nocivos das fake news, mas ela falha no ponto essencial de definir o que é desinformação de maneira inequívoca. E isso pode, não apenas impedir os efeitos desejados, como ainda criar um mecanismo de censura.

De forma alguma, isso significa que uma regulamentação não deva ser avaliada. É exatamente o contrário: precisamos de muito debate, incluindo todos os diferentes atores da sociedade envolvidos, para que uma lei não seja criada de maneira enviesada ou incompleta. Isso, sim, seria péssimo!

Especialmente em um país como o Brasil, em que o tecido social foi esgarçado nos últimos anos pelo mau uso de plataformas digitais e onde a violência lidera as preocupações dos cidadãos, é fácil defender um discurso de “vigilantismo”. Não é disso que precisamos!

“A gente vai ter que caminhar para uma regulamentação mais abrangente, que garanta os preceitos éticos e seguros, e cada setor da economia vai ter que fazer sua regulamentação específica”, sugere Oliveira. Já Crespo traz a ideia de que cada produto de IA a ser lançado passe por uma espécie de “relatório de impacto”. “Ele incluiria o que é, quais os principais benefícios e quais os possíveis riscos embarcados, trazendo uma previsibilidade”, explica.

Talvez o melhor caminho seja algo assim mesmo. E a “lei geral da inteligência artificial” poderia ser as Leis da Robótica, propostas pelo escritor Isaac Asimov, em 1942. São elas: “um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal”, “um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que entrem em conflito com a Primeira Lei” e “um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.” Mais tarde, ele acrescentou a “Lei Zero”: “um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.”

Se conseguíssemos garantir que todas as plataformas de inteligência artificial cumprissem essas quatro diretrizes, já seria um bom começo!