inteligência artificial

Graças à IA em novos celulares, qualquer um poderá alterar profundamente suas fotos - Foto: Akshay Gupta/Creative Commons

Celulares podem se tornar máquinas de distorcer a realidade

By | Tecnologia | No Comments

Quando a fotografia foi inventada, no século XIX, ela revolucionou o mundo por conseguir reproduzir facilmente a realidade. De lá para cá, ela só melhorou, culminando na fotografia digital, que transformou um hobby caro em uma diversão extremamente popular, consolidada com as câmeras cada vez mais poderosas nos celulares. Mas agora esses equipamentos podem ironicamente subverter a característica essencial da fotografia de retratar a realidade com precisão.

A culpa disso recai sobre a inteligência artificial. Ela já está presente há algum tempo nos softwares de captura e edição de imagens dos melhores celulares. Mas, até então, prestava-se a “melhorar” (note as aspas) as fotografias, usando técnicas para aumentar a sua fidelidade e refinar elementos como cores, brilho e contraste.

Isso começa a mudar agora, com o lançamento nos EUA, no dia 11, do Pixel 8 (sem previsão de chegada ao Brasil). O smartphone de US$ 700 do Google consegue efetivamente alterar a realidade fotografada. Isso quer dizer que, com ele, é possível, por exemplo, eliminar pessoas e objetos das fotos, alterar elementos das imagens ou modificar suas posições e até “melhorar” (de novo, com aspas) o rosto de pessoas combinando com a maneira que elas apareceram em outras fotos.

Como em todas as atuais plataformas baseadas na inteligência artificial generativa, alguns resultados dessas edições são decepcionantes e até grotescos. Outros, porém, ficam incrivelmente convincentes!

Já dizia São Tomé: “preciso ver para crer”. Parábolas à parte, é um fato que somos seres visuais: nosso cérebro tende a assumir como real o que está diante de nossos olhos. Por isso, vale perguntar até que ponto é positivo e até saudável dar a possibilidade de se distorcer a realidade de maneira tão simples.


Veja esse artigo em vídeo:


É curioso que a fotografia foi combatida por muitos quando surgiu, justamente pela sua capacidade de reproduzir, de maneira fácil, rápida e precisa, o mundo. Pintores diziam que o invento era algo grosseiro, que eliminava a subjetividade e a técnica dos artistas quando retratavam pessoas e paisagens. Grupos religiosos também a combatiam, por serem contrários à captura de imagens de “coisas feitas por Deus”.

Em 1826, o francês Joseph Nicéphore Niépce registrou seu quintal em uma placa de estanho revestida de betume, usando uma câmera escura por oito horas. Essa é considerada a primeira fotografia permanente. Três anos depois, ele fez um acordo com outro francês, Louis Jacques Mandé Daguerre, que aperfeiçoou o processo com o daguerreótipo, que precisava de “apenas” 30 segundos para fazer uma fotografia.

A patente do daguerreótipo foi vendida ao Estado francês em 1839, que a colocou em domínio público. Isso permitiu que a fotografia experimentasse grandes avanços ao redor do mundo. Provavelmente a empresa mais inovadora do setor foi criada pelo americano George Eastman em 1888: a Kodak. Entre suas contribuições, estão o rolo de filme (1889), a primeira câmera de bolso (1912) e o filme colorido moderno (1935).

O último grande invento da Kodak foi a fotografia digital, em 1975. Mas como os lucros da empresa dependiam da venda de filmes, seus executivos não deram importância a ela. Foi um erro fatal, pois a tecnologia se tornou incrivelmente popular e, quando a empresa decidiu olhar para ela, as japonesas já dominavam o mercado.

Em 1999, foi lançado o Kyocera VP-210, o primeiro celular com câmera capaz de tirar fotos, que tinham resolução de 0,11 megapixel (o iPhone 15 tira fotos de 48 megapixels). E isso nos traz de volta ao dilema atual.

 

Realidade alternativa

As fotografias nos celulares se tornaram tão realistas e detalhadas que o próprio negócio de câmeras fotográficas entrou em colapso. Elas continuam existindo, mas hoje praticamente só profissionais as utilizam, pois sabem como aproveitar todos os recursos daqueles equipamentos para fotografias realmente diferenciadas.

Os recursos de IA do Pixel 8 fazem parte de uma nova versão do Google Fotos, o aplicativo de edição e publicação de fotos da empresa, que é nativo nos smartphones Android, mas também pode ser baixado para iPhones. Isso significa que, em tese, outros aparelhos poderão ganhar esses recursos em breve, desde que, claro, tenham capacidade de processamento para isso.

A alteração de fotografias sempre existiu, mesmo antes dos softwares de edição de imagem. Entretanto fazer isso era difícil, exigindo equipamentos e programas caros e muita habilidade técnica. Além disso, as fotos editadas eram apresentadas como tal, sem a pretensão de levar quem as visse a acreditar que fossem reais (salvo exceções, claro)..

O que se propõe agora é que isso seja feito de maneira muito fácil, por qualquer pessoa, sem nenhum custo adicional e em equipamentos vendidos aos milhões. Isso levanta algumas questões éticas.

A primeira delas é que as pessoas podem passar a se tornar intolerantes com a própria realidade. O mundo deixaria de ser o que é, para ser o que gostariam. Isso é perigosíssimo como ferramenta para enganarem outros indivíduos e até a si mesmas.

A sociedade já experimenta, há anos, um crescimento de problemas de saúde mental, especialmente entre adolescentes, devido a fotos de colegas com corpos “perfeitos” (pela terceira vez, as aspas). Isso acontece graças a filtros com inteligência artificial em redes sociais, especialmente Instagram e TikTok, que fazem coisas como afinar o nariz, engrossar os lábios, diminuir os quadris e alterar a cor da pele. O que se observa mais recentemente são adolescentes insatisfeitos com seus corpos não pelo que veem em amigos, mas pelo que veem em suas próprias versões digitais.

Há um outro aspecto que precisa ser considerado nesses recursos de alteração de imagens, que são os processos de desinformação. Muito provavelmente veremos grupos que já se beneficiam das fake news usando intensamente essa facilidade para convencer seu público com mentiras cada vez mais críveis.

Hoje esses recursos ainda estão toscos demais para um convencimento completo. Mas é uma questão de pouco tempo até que eles se aproximem da perfeição.

Não tenham dúvidas: quando estiver disponível, as pessoas usarão intensamente essa tecnologia, estando imbuídas de boas intensões ou de outras não tão nobres assim. Quem será responsabilizado quando começarem a surgir problemas disso?

Assim como acontece com as redes sociais, as desenvolvedoras se furtam disso, dizendo que apenas oferecem um bom recurso, e as pessoas que fazem maus usos deles. Em tese, isso é verdade. Mas alegar inocência dessa forma chega a ser indecente! É como entregar uma arma carregada na mão de uma criança e torcer para que nada de ruim aconteça.

Chegamos ao mundo em que a ilusão se sobrepõe à realidade, mas não estamos prontos para lidar com isso.

 

Entregador dorme sobre seus jornais, em imagem tirada em 1935 – Foto: City of Toronto Archives/Creative Commons

Reação da mídia ao ChatGPT pode favorecer as fake news

By | Tecnologia | No Comments

Nas últimas semanas, diversas empresas de comunicação impediram que seus conteúdos continuassem sendo usados para alimentar o ChatGPT. Elas argumentam –com razão– que seus produtos têm valor e que não estão sendo remuneradas pela melhoria que proporcionam involuntariamente à plataforma geradora de textos por inteligência artificial da OpenAI.

Entre os que decidiram promover o bloqueio, estão os jornais americanos The New York Times e The Washington Post, o britânico The Guardian, a rede de TV CNN, as agências de notícias Reuters e Bloomberg, além de diversos veículos europeus. Até a gigante de e-commerce Amazon decidiu fechar a porta para esse robô.

Apesar de seus argumentos legítimos, essa decisão pode favorecer a desinformação em um futuro breve. Os sistemas de inteligência artificial generativa tornaram-se um enorme sucesso, e as pessoas devem usá-los cada vez mais. Em uma situação extrema em que todos os produtores de bons conteúdos os neguem a essas plataformas, elas poderiam ficar restritas a sites dedicados a fake news e outros tipos de conteúdo de baixa qualidade para “aprender o que dizer” aos seus usuários.

Nesse cenário, o público poderia passar a consumir e a replicar o lixo desinformativo, em uma escala ainda maior que a já vista nos últimos anos. Seria terrível para o jornalismo –que luta para combater isso– e para a sociedade como um todo.


Veja esse artigo em vídeo:


Eu já vi uma história parecida antes. Quando foi criado, em 2002, o Google Notícias gerou protestos entre veículos de comunicação do mundo todo, que acusavam a empresa de se apropriar de sua produção para criar um concorrente. O Google Notícias sempre se defendeu, dizendo que fazia um “uso justo” de pequenos trechos dos veículos e que sempre enviava os leitores que clicassem nos seus links para a fonte da notícia.

Diante das reclamações, o Google criou um recurso para que os veículos impedissem que seu conteúdo fosse usado no Notícias. O problema é que isso também tirava os veículos do buscador, o que não era nada interessante para eles. Eventualmente as partes chegaram a acordos que permitiram que esse conteúdo continuasse sendo usado, enquanto o Google criava mecanismos de apoio ao jornalismo no mundo. Movimentos semelhantes também aconteceram com as principais redes socais.

No caso atual, há algumas diferenças significativas. Pela natureza da inteligência artificial generativa, ela sempre cria textos inéditos, a cada pedido dos usuários. Não há remuneração, referência e sequer um link para as fontes que foram usadas para o sistema escrever aquilo. Consequentemente não há nenhum ganho para os autores.

“Certamente as inteligências artificiais não produziriam o conteúdo que elas são capazes sem serem alimentadas com o conteúdo criado por humanos, que não autorizaram isso e que não estão sendo remunerados por isso”, explica Marcelo Cárgano, advogado de Direito Digital e de Proteção de Dados do Abe Advogados. “A grande questão, no final, é essa!”

No dia 6, 26 organizações do mercado editorial, inclusive a brasileira ANJ (Associação Nacional de Jornais), publicaram o documento “Princípios Globais para a Inteligência Artificial”. Ele traz regras que consideram essenciais para a prática do jornalismo frente ao avanço da inteligência artificial, cobrando o desenvolvimento ético da tecnologia e o respeito às propriedades intelectuais dos veículos.

Outra fonte de informação ameaçada pela inteligência artificial é a enciclopédia digital Wikipedia. Pela natureza mais perene de seus milhões de verbetes, as pessoas poderiam fazer perguntas a plataformas de IA ao invés de consultar suas páginas, o que já vem preocupando seus editores. Suprema ironia, uma das maiores fontes para o ChatGPT é a própria Wikipedia.

 

Atualidade e ética

Além da questão da falta de remuneração pelo uso de conteúdos alheios, há ainda o temor de que as plataformas de inteligência artificial acabem substituindo a Wikipedia e o próprio jornalismo.

Esse questionamento surgiu, na quarta passada, em uma mesa de debates da qual participei na Semana da Imprensa, promovida pelo jornal Joca, na ESPM (Escola Superior de Propaganda e Marketing). O evento explica o jornalismo para crianças e adolescentes, o público do veículo.

Os participantes foram unânimes em negar essa possibilidade. O primeiro motivo é que esses sistemas, a despeito de seus melhores esforços, são imprecisos, cometendo muitos erros pela falta de uma verificação humana. Outro problema é que suas bases estão sempre desatualizadas (o ChatGPT só conhece fatos até setembro de 2021). Por fim, mas não menos importante, essas ferramentas não possuem qualquer iniciativa, ética ou transparência, essenciais a qualquer produto informativo.

“A função dos veículos de comunicação é particularmente importante para a democracia”, explica Cárgano, fazendo referência ao papel do jornalismo de promover debates críticos para a sociedade. “Mas eles também são empresas e têm que gerar lucro para sua própria viabilidade econômica”, acrescenta.

Toda essa confusão deriva do impacto que essa tecnologia já apresenta sobre pessoas e empresas. Ele é enorme, mas ainda pouco compreendido. Enquanto isso, todos buscam caminhos para aproveitar seus incríveis recursos, sem cair em possíveis armadilhas que podem surgir dela.

A decisão de impedir as plataformas de inteligência artificial de aprender com a sua produção pode ser ironicamente um “tiro no pé” do jornalismo. Se elas forem entregues a fontes de baixa qualidade, podem se tornar poderosas ferramentas de fake news, que fustigam os jornalistas e a própria imprensa como pilar que é de uma sociedade desenvolvida.

É preciso uma conscientização dos diferentes atores nesse processo. Do lado dos usuários, eles devem entender que a IA não é uma ferramenta que substitui o jornalismo ou mesmo um buscador, pois ela não garante a verdade no que produz. As empresas de inteligência artificial devem, por sua vez, melhorar ainda mais sua tecnologia, para corrigir as imperfeições existentes, e cuidar para não canibalizar suas próprias fontes, o que poderia, a médio prazo, inviabilizar seu próprio negócio.

As empresas de comunicação têm um papel fundamental na solução desse imbróglio. Obviamente elas precisam defender seus interesses comerciais, mas sem que isso crie riscos ainda inexistentes para o próprio negócio. Devem buscar uma compensação justa das plataformas de IA.

Vivemos em um mundo em que a verdade perde força diante de narrativas distorcidas por diferentes grupos de poder. Aqueles que a buscam deve se unir e somar as novas tecnologias às suas metodologias editoriais consagradas. Se forem bem-sucedidos nisso, todos ganharão!

 

Crianças participam em atividade de aula de robótica em sua escola - Foto: Arno Mikkor/Creative Commons

Pensamento computacional em crianças e jovens ajuda a formar melhores cidadãos

By | Educação | No Comments

Em uma famosa entrevista em 1995, Steve Jobs disse que “todos neste país deveriam aprender a programar um computador, pois isto ensina a pensar.” O cofundador da Apple foi visionário, pois dominar a tecnologia se tornou crucial em um mundo imerso nela. A explosão no debate e aplicações de inteligência artificial reacendeu o tema, pois fica cada vez mais claro que ela pode colocar pessoas e empresas em um patamar superior àquelas que não se aproveitam de seus recursos.

Mas o pensamento computacional transcende programar computadores. Na verdade, hoje podemos fazer usos incríveis das máquinas sem escrever uma linha de código. Essa maneira de raciocinar envolve a capacidade analítica de resolver qualquer tipo de problema, de identificar padrões, de modelar processos. Ela aprimora nossa capacidade de aprender e de pensar criativa e criticamente, mesmo sem nada digital.

Nas últimas décadas, muitas escolas tentaram implantar computadores no cotidiano escolar em iniciativas muitas vezes improdutivas. Até pouco tempo, muitas ainda tinham “aulas de informática” sobre Windows e Word. Isso já erra por segregar a “informática” a uma aula, ao invés de encará-la de maneira transversal nas disciplinas.

Agora nos aproximamos do momento em que as escolas precisarão implantar a Política Nacional de Educação Digital, que estabelece diretrizes e metas para a promoção da educação digital, instituída no dia 11 de janeiro pela lei 14.533/23. Resta saber se as escolas estão preparadas para isso.


Veja esse artigo em vídeo:


Não podemos esquecer que muitas dessas instituições no país não têm infraestrutura para isso, carecendo de computadores e acesso à Internet. Mas esse trabalho pode começar mesmo sem o lado digital.

“Se a gente trabalha isso desde cedo nas escolas, com crianças e jovens, a gente consegue uma geração que sabe pensar de um jeito melhor, mais estruturado”, explica Cristina Diaz, diretora da UpMat Educacional, empresa que atua na educação básica a partir de conteúdos de matemática e pensamento computacional. Para ela, as crianças que desenvolvem essas habilidades desde cedo têm mais chance de criar um gosto pelo aprendizado, que levarão para o resto da vida.

Uma resolução do MEC (Ministério da Educação), de 4 de outubro do ano passado, determina que, a partir do mês que vem, as escolas passem a ensinar computação. A lei de janeiro detalha como isso deve ser feito, considerando a inclusão digital da sociedade, a educação digital nas escolas, as ações de capacitação do mercado de trabalho e o incentivo à inovação, à pesquisa e ao desenvolvimento.

Se isso já não bastasse, o lançamento do ChatGPT em novembro passado provocou um enorme debate sobre como a inteligência artificial impacta as atividades escolares, com professores e alunos usando a ferramenta sem preparo. Coincidentemente, na quinta passada, a Unesco (Organização das Nações Unidas para Educação, Ciência e Cultura) publicou orientações sobre o uso da inteligência artificial na educação e na pesquisa. Nelas, o órgão sugere que a IA não seja usada antes dos 13 anos de idade.

Diaz não acredita que a inteligência artificial deixará as pessoas menos inteligentes ou preguiçosas, um temor que vem sendo ventilado por muita gente. O motivo é simples: “para manusear esse tipo de tecnologia, a gente vai ter que aprender coisas mais sofisticadas, uma leitura crítica, a utilizar competências superiores”, afirma.

De fato, uma ferramenta tão poderosa como a inteligência artificial generativa oferece os seus maiores benefícios àqueles que sabem tirar proveito dela, com perguntas inteligentes. Infelizmente, a recíproca também é válida.

Como diz um ditado americano, “se entra lixo, sai lixo”.

 

Aliada da educação

Ao contrário do que muitos temem, a tecnologia digital –e a inteligência artificial particularmente– não ameaça a educação ou o papel do professor. Pelo contrário, pode ser uma incrível aliada no processo, se bem usada.

Em uma palestra há quatro meses, Salman Khan, fundador e CEO da Khan Academy, uma organização que oferece educação gratuita pela Internet, demonstrou uma ferramenta de IA generativa que auxilia professores e alunos. Nela, é possível ver, no caso dos estudantes, a máquina não lhes dando respostas prontas e ajudando-os a pensar na solução dos problemas. Para os professores, a ferramenta ajuda no planejamento de aulas mais engajadoras. Como disse Khan, para os alunos, a IA atua como um tutor, enquanto, para os professores, age como um assistente.

Os professores, as escolas e as políticas educacionais precisam se modernizar para absorver essas mudanças aceleradas da sociedade. Ainda temos um sistema educacional conteudista, com uma quantidade de informação tão grande, que pode desestimular o aluno a querer aprender mais.

Isso se reflete nos péssimos resultados do Brasil nas diferentes avaliações internacionais de eficiência educacional. Nossos estudantes, na média, sabem muito pouco de linguagem, ciências e matemática. Essa última é particularmente maltratada em nosso país, cujas últimas gerações parecem não gostar dela por definição.

Mas como ser um bom cidadão em uma sociedade profundamente digital sem uma boa base de pensamento computacional?

Engana-se quem acha que isso impacta apenas habilidades ligadas às Exatas. Um pensamento computacional limitado afeta diretamente o senso crítico do indivíduo. Em um mundo em que redes sociais e smartphones se transformaram em ferramentas de dominação ideológica pelas infames fake news, nada é mais necessário e determinante para a criação de um cidadão consciente, com sua mente livre.

“As escolas já estão reconhecendo a sensação de que não tem para onde escapar, e não porque é uma demanda da lei, mas porque é uma demanda da sociedade, das crianças, das famílias, da vida”, acrescenta Diaz. “Ninguém fala em outra coisa: o mundo do trabalho depende disso!”

Pais e escolas precisam se unir para que as crianças sejam incentivadas a desenvolver seu pensamento computacional. A matemática e o raciocínio lógico não podem continuar sendo encarados como “coisas chatas”, pois são os alunos que dominam esses recursos que escreverão o futuro de um mundo melhor para si e para todos os demais.

 

Tom Cruise viveu pela segunda vez o intrépido piloto da Marinha dos EUA Pete Mitchell, em “Top Gun: Maverick” (2022) - Foto: divulgação

Inteligência artificial pode mandar “Top Gun” para o museu

By | Tecnologia | No Comments

Em 1986, plateias do mundo todo prenderam a respiração diante das acrobacias aéreas de Tom Cruise nas telas de cinema em “Top Gun”. Ele repetiu a dose em “Maverick”, a segunda maior bilheteria de 2022, rendendo US$ 1,4 bilhão, logo atrás de “Avatar 2”. Agora a inteligência artificial pode fazer essas peripécias virarem peças de museu, ao tornar pilotos de caça obsoletos e desnecessários.

Duas notícias recentes, uma do The New York Times e outra do The Washington Post, revelam planos dos militares de usar essa tecnologia em novas gerações de aviões e de drones. Ela seria capaz de tomar decisões mais rápidas e precisas que os pilotos, até os mais experientes.

A ideia é controversa. Muito se tem debatido sobre a substituição das mais diversas categorias profissionais por robôs, considerando o impacto social dessa mudança. Mas o que se propõe agora é uma máquina tomar decisões que efetivamente visam a morte de pessoas.

Diversos aspectos éticos são levantados nessa hora. Os próprios pilotos veem isso com ressalva, e não apenas porque podem perder seu emprego daqui um tempo. Afinal, uma máquina pode decidir sobre a vida ou a morte de um ser humano? E se isso realmente acontecer no controle de aviões de combate, quanto faltará para vermos robôs policiando nossas ruas e tomando as mesmas decisões letais por sua conta na vizinhança?


Veja esse artigo em vídeo:


Não estamos falando da atual geração de drones militares, que, apesar de úteis, são bem limitados. Um bom exemplo do que vem por aí é o veículo aéreo não tripulado experimental XQ-58A, conhecido como “Valkyrie”, da Força Aérea americana. Ele, se parece muito mais a um caça furtivo futurista, apesar de ser bem menor que os aviões de combate. É impulsionado por um motor de foguete e é capaz de voar de um lado ao outro da China, carregando munições poderosas.

Mas seu grande diferencial é o controle por inteligência artificial, podendo tomar decisões sozinho, apesar de os militares afirmarem que só executará ações letais se autorizado por um ser humano. Ele pode voar diferentes tipos de missões, inclusive apoiando pilotos em seus caças, aumentando o sucesso e preservando suas vidas.

Como sempre, uma guerra não se ganha apenas com os melhores soldados, mas também com a melhor tecnologia. Mas até agora a decisão de matar sempre recaiu sobre os primeiros. O que pode estar diante de nossos olhos é o surgimento de armas que tomem essa decisão seguindo seus critérios, um ponto sensível para os EUA, pelo seu histórico de ataques ilegais com drones convencionais que mataram civis.

Diante disso, o general Mark Milley, principal conselheiro militar do presidente americano, Joe Biden, afirmou que os EUA manterão “humanos à frente da tomada de decisões”. Ele recentemente conclamou forças armadas de outros países a adotar o mesmo padrão ético.

Nesse ponto, caímos em um outro aspecto crítico desse avanço. Países que adotem essas “boas práticas” poderiam ficar em desvantagem diante de outras potências militares e tecnológicas não tão “comprometidas”, com o maior temor recaindo sobre a China. Como a guerra é, por definição, algo “sujo”, seguir as regras poderia então criar uma desvantagem catastrófica.

Outra mudança trazida pela IA ao tabuleiro armamentista é a entrada de novas empresas fornecedoras de equipamentos. No caso da Força Aérea americana, dois nomes surgem quando pensamos na indústria de caças: a Lockheed Martin e a Boeing. Esses casamentos comerciais são tão antigos e poderosos que sua tecnologia jamais chega, por exemplo, a países menores ou –pior– a grupos guerrilheiros.

Com a pulverização de drones com IA relativamente baratos, muitas outras empresas passam a disputar esses bilionários orçamentos. O “Valkyrie”, produzido pela Kratos (fundada em 1994) custa cerca de US$ 7 milhões. Pode parecer muito, mas é bem menos que os US$ 80 milhões de um F-35 Lightning II, da Lockheed Martin. Outros modelos podem custar ainda menos, na casa de US$ 3 milhões.

O receio é que esses fabricantes passem depois a oferecer tecnologia militar de ponta a terroristas e ditadores. E aí o medo de maus usos pela China vira “café pequeno”.

 

Campo de testes

O poder da inteligência artificial contra exércitos poderosos está sendo colocado à prova na invasão da Ucrânia. Seu exército vem usando drones bem mais simples que os citados, mas que já contam com recursos de IA, para atacar tropas russas. Mesmo quando essas aeronaves perdem o contato com seus pilotos remotos, devido aos sistemas de interferência do inimigo, ainda completam sua missão por conta própria.

De fato, a Ucrânia vem se tornando um frutífero campo de testes desses armamentos, que vêm sendo produzidos aos milhares. Além de poderem refinar seus equipamentos em situações reais de combate, os fabricantes podem fazer testes que dificilmente podem acontecer em um país que não esteja em guerra.

Os militares sabem que a inteligência artificial toma decisões erradas. Basta ver as falhas –algumas fatais– de carros autônomos nos últimos anos. Mesmo a tecnologia militar sempre sendo muito mais refinada e cara que a civil, não há garantias quanto a sua precisão. E há outros aspectos a serem considerados.

O primeiro é que a IA pode ser excelente em decisões a partir de padrões conhecidos, mas pode se confundir bastante diante do desconhecido e do inesperado, algo que permeia qualquer campo de batalha. Além disso, máquinas não possuem uma bússola moral, que norteia algumas das melhores decisões de um soldado.

É inevitável pensar no filme RoboCop (1987), em que um policial dado como morto é praticamente transformado em um robô. Apesar de ser obrigado a seguir diretivas em seu sistema, o que o tornava realmente eficiente era a humanidade que sobreviveu em seu cérebro. Isso lhe permitia vencer robôs de combate mais poderosos.

Tudo isso me faz lembrar da Guerra do Golfo, que aconteceu entre 1990 e 1991, quando os americanos invadiram o Iraque. Os militares invasores exterminavam o inimigo de longe, quase sem entrar em combate. Na época, um especialista criticou “soldados que querem matar, mas não querem morrer”.

A inteligência artificial pode potencializar isso. É claro que ninguém quer morrer e todos querem vencer um conflito, de preferência logo. Mas quem ganha algo com isso, além da indústria armamentista? Se a Rússia tivesse essa tecnologia, talvez a Ucrânia tivesse deixado de existir em poucas semanas dessa nefasta invasão atual.

Esse é um dos casos em que a inteligência artificial nunca deveria ser usada. Mas seria uma ilusão pueril acreditar que isso não acontecerá. Talvez o futuro da guerra pertença mesmo às máquinas autônomas. Só espero que isso não aconteça também em policiais-robôs nas ruas de nossos bairros.

 

O consumidor não se contente mais com um bom produto, querendo agora uma ótima experiência - Foto: Drazen Zigic/Creative Commons

Quando todo produto precisa se tornar digital, as empresas precisam aprender a correr riscos

By | Tecnologia | No Comments

A inteligência artificial está em toda parte! A essa altura, não é novidade. Dois estudos divulgados na quarta (16) pela IBM reforçam isso e como um número crescente de executivos a consideram um diferencial de negócios, abandonando o aspecto de “curiosidade tecnológica”. Ainda assim, empresas enfrentam dificuldades para adotá-la, por falta de experiência ou de apetite por correr riscos.

Outra que também poderia estar mais bem posicionada em nossas vidas se houvesse mais investimento é o 5G, que acaba de completar um ano de operação no Brasil. Segundo números apresentados pela Ericsson na mesma quarta, o país já atingiu 11,4 milhões de usuários dessa geração da telefonia móvel em 329 municípios. Mas os principais benefícios que ela traz não aparecem, porque as operadoras concentram sua comunicação na oferta de maior velocidade, sem fazer as necessárias atualizações em suas redes e em seus modelos de negócios.

Esse cenário traz desafios inéditos aos gestores de companhias de todos setores e portes. O consumidor fica mais exigente pelas ofertas de uma alta concorrência, e agora busca experiências e personalização que transcendem as propostas originais dos produtos. Com isso, toda oferta precisa se tornar um produto digital.

A boa notícia é que a tecnologia está muito mais acessível, seja pela facilidade de uso, seja pelo preço. Mas para dar certo, os profissionais precisam de atitude para fazer os movimentos necessários.


Veja esse artigo em vídeo:


Segundo o estudo da IBM “Sete apostas”, a previsão de Marc Andreessen está se tornando realidade: em um artigo de 2011 no The Wall Street Journal, o pioneiro da Internet disse que “o software estava comendo o mundo”. E está mesmo: ele controla de celulares a carros, de aspiradores de pó a robôs industriais. E agora “a inteligência artificial está comendo o software”.

Com isso, os melhores executivos estão desenvolvendo uma mentalidade de engenharia de produto. Eles entendem que a adoção da tecnologia é fundamental para o sucesso, pois os clientes esperam uma ótima experiência digital qualquer que seja o produto ou serviço oferecido.

Curiosamente, nada disso é novo. Software embarcado em produtos e até a inteligência artificial fazem parte do cotidiano de pessoas e de empresas há anos. A diferença é que, desde o fim do ano passado, com o lançamento do ChatGPT, a IA deixou de ser algo obscuro e restrito a poucos profissionais de TI para ser democratizada para qualquer cidadão.

“O ChatGPT capturou o momento em que a experiência se conectou à tecnologia”, afirma Marco Kalil, líder da IBM Consulting no Brasil. Para ele, a digitalização de produtos e o uso da IA como ferramenta de negócios são um caminho sem volta. “As pessoas que souberem aplicar a inteligência artificial nos negócios, realmente priorizando a experiência, terão mais sucesso que os outros, sem dúvida alguma.”

Já no estudo “Tomada de decisão do CEO na era da IA”, também da IBM, 60% dos CEOs entrevistados no Brasil disseram que a computação em nuvem é fundamental para a conquista de resultados nos próximos três anos, enquanto 56% deles confiam na IA. Apesar disso, 41% sentem dificuldade de obter ideias a partir dos dados que têm, com 61% afirmando que a qualidade e a origem desses dados são a principal barreira para adoção da inteligência artificial.

 

Garantindo seu bônus

Incluir inovações em qualquer negócio implica algum nível de risco, pelo simples fato de se sair da zona de conforto. Por isso, muitos executivos, apesar de serem conscientes da necessidade de inovação, resistem a ela, para não ameaçar seus bônus de fim de ano.

Mas a inovação se tornou condição para se manter no mercado, e não apenas as já citadas. Outras apostas do estudo da IBM são a sustentabilidade e o metaverso.

Segundo a pesquisa, muitos executivos ainda veem sustentabilidade e lucros como incompatíveis, indicando uma visão míope de gestão. Já o metaverso deve ser encarado como uma ferramenta que amplie possibilidades do mundo físico, ao invés de substituí-lo. Em ambos os casos, criar experiências com benefícios tangíveis para clientes internos e externos diminui as barreiras para sua adoção.

De fato, não dá para dissociar inovação de experiência. No caso do 5G, a base de usuários brasileiros já poderia ser maior, mas isso não acontece porque o público não vê as incríveis possibilidades da tecnologia, achando que se trata apenas de uma Internet mais rápida. Se for só para isso, preferem esperar.

Sim, a velocidade é muito maior e a latência é muito menor que a do 4G. Isso é necessário para produtos como veículos autônomos, telemedicina, educação a distância e automação industrial disruptivas, cidades inteligentes e entretenimento revolucionário, especialmente em games e transmissões ao vivo interativas.

Mas tudo depende da criação de um ecossistema de provedores de serviços que, por sua vez, precisam que as operadoras de telefonia modernizem sua infraestrutura. Isso permitirá, por exemplo, o “fatiamento da rede”, que entrega conexões diferentes seguindo a necessidade do cliente, podendo até variar de acordo com o momento. Também é necessário que ofereçam APIs, mecanismos para que os desenvolvedores criem aplicações que tirem o máximo proveito dos recursos da rede. Os modelos de negócios também devem ser atualizados, para que o usuário deixe de ser cobrado por franquias e passe a ser cobrado pelos serviços que usa.

“As operadoras já entenderam que o caminho passa por oferecer serviços fornecidos por outras empresas”, explica Marcos Scheffer, vice-presidente de redes da Ericsson para América Latina. Mas, segundo ele, há um processo a ser cumprido e, no momento, as teles estão cuidando da ampliação da cobertura.

“Na hora que você conecta tecnologia com o interesse do usuário, é fantástico”, exclama Kalil. Para o executivo, está na hora de as empresas colocarem essas tecnologias como protagonistas, e não como meras ferramentas. “Nessa hora, o negócio vai mudar”, conclui.

Sei que tudo é investimento –às vezes, muito dinheiro. Além disso, o mercado brasileiro costuma ser impiedoso com aqueles que falham. Essa combinação é mortífera para a inovação, pois os gestores tendem a escolher o caminho seguro e menos inovador.

O problema é que, dessa forma, a empresa perde a chance de se descolar da concorrência e os clientes amargam produtos limitados e experiências ruins. Precisamos aprender a correr riscos com inteligência!


Vídeo relacionado – íntegra da entrevista com Marco Kalil, líder da IBM Consulting no Brasil:

 

 

Metrô de São Paulo lotado após fracasso de “big techs” que revolucionariam a mobilidade urbana - Foto: Wilfredor / Creative Commons

Como as big techs querem substituir instituições da sociedade por tecnologia

By | Tecnologia | No Comments

Todos nós usamos produtos do Google, da Meta, da Apple e de outras “big techs”. De fato, eles facilitam enormemente a nossa vida e ainda são rotulados como “grátis”.

Sabemos que não há nada de graça nisso. A explicação tradicional é que pagamos por eles com nossos dados, que permitem que essas empresas ganhem dinheiro, por exemplo, nos entregando anúncios hiperpersonalizados. É o chamado “capitalismo de vigilância”.

Mas a ascensão da inteligência artificial e a guerra aberta que as “big techs” travam contra qualquer forma de limitação de suas atividades, como estamos vendo no Brasil no embate contra o “PL das Fake News”, revela que esse controle que elas têm sobre nós é muito mais complexo, a ponto de que muita gente as defende nesses casos. E a tentativa de regulação da inteligência artificial fará nosso fracasso em impor limites razoáveis às redes sociais parecer algo pífio.

O que essas empresas realmente desejam é uma liberdade não-regulada para, entre outras coisas, substituir instituições da sociedade em áreas como saúde, educação, transporte ou segurança por soluções tecnológicas que, segundo elas, superariam a “ineficiência” do que temos hoje. Ao ocupar um espaço tradicionalmente sob cuidados do Estado, alcançariam um poder inimaginável, muito maior que o atual.

Eles só não dizem que tudo nessa vida tem um custo. Esse não será pago com publicidade em nossos celulares. Então “como essa conta fecha”?


Veja esse artigo em vídeo:


O avanço da inteligência artificial é inevitável e muito bem-vindo: ela tem o potencial de oferecer à sociedade benefícios até então inimagináveis. Mas isso significará que entregaremos muitas de nossas escolhas às máquinas, que decidirão o que elas acreditam ser o melhor para cada um de nós.

Em uma sociedade já encharcada de algoritmos, eles passam a controlar muito de nossa vida, de maneiras que nem percebemos. Nós não temos a menor ideia de quais são suas regras que decidem cada vez mais por nós. Diante de tanto poder, a falta de transparência das “big techs” e de explicabilidade de seus produtos se torna inaceitável e perigoso para nossas vidas e para a democracia. É justamente isso que essas empresas lutam para manter, pois, se soubermos detalhadamente o funcionamento de seus algoritmos, elas perdem o poder que têm sobre os cidadãos.

Tudo isso vale para os algoritmos atuais, bem conhecidos e controlados pelas “big techs”. A inteligência artificial torna esse debate ainda mais importante, pois nem seus criadores entendem completamente as novas estratégias criadas pelas máquinas para solucionar problemas.

Se essas companhias lograrem criar a chamada “inteligência artificial geral”, aquela que não se limita mais a tarefas específicas e passa a se comportar de maneira semelhante à mente humana, tomando decisões sobre qualquer assunto, a situação pode ficar realmente dramática.

Imagine um sistema como esse que tenha assumido, com nosso consentimento, decisões críticas sobre a saúde pública. Em nome de deixar todo o sistema mais “eficiente”, ele pode passar a privilegiar cirurgias com mais chance de sucesso ou lucrativas, em detrimento das mais difíceis ou com menos ganhos. Mas todos merecem a chance de serem tratados, mesmo quem tem baixa possibilidade de sucesso. Essa é a visão humana de um médico, que uma máquina que acha que o fim justifica os meios pode ignorar.

Agora multiplique esses riscos acrescentando, na equação, segurança pública, educação e até economia de um país.

 

Nem sempre dá certo

O discurso do Vale do Silício enaltece o inegável poder transformador da tecnologia. É praticamente impossível viver hoje sem smartphones, buscadores ou redes sociais. Mas seus gurus adoram perpetuar as histórias de sucesso, enquanto ignoram os fracassos. E eles muitas vezes acontecem quando se tenta substituir uma instituição social por uma tecnologia.

Podemos pensar, como exemplo, no caso da Uber. Conceitualmente acho sua proposta muito interessante, mas ela parece “estar fazendo água”, particularmente no Brasil. Vocês devem se lembrar como a empresa chegou prometendo revolucionar a mobilidade urbana, como um substituto vantajoso ao transporte público, com suas corridas baratas e a possibilidade de se ganhar dinheiro dirigindo.

Foi um sucesso instantâneo: muita gente chegou a vender seu carro! Mas, para aquilo ser possível, a empresa queimava milhões de dólares em subsídios. Quando os investidores se cansaram de perder dinheiro e exigiram lucros, o modelo ruiu, com a consequente queda enorme na qualidade do serviço, que agora sentimos.

Porém o mais educativo desse exemplo é mostrar que nunca se propôs resolver o verdadeiro problema social, no caso as deficiências no transporte público. Substituía-se uma “gestão governamental ineficiente” por uma “solução tecnológica mágica”, cujo verdadeiro objetivo era sedimentar a dominância da empresa em seu setor. Quando a realidade bateu à porta, ficamos sem nada!

O grande desafio da nossa geração é tomar consciência de que somos cada vez mais dependentes da tecnologia e das empresas que as criam. Elas têm suas próprias agendas e narrativas de como estão melhorando e até “salvando” o mundo com seus produtos. Mas às vezes a sua necessidade de lucrar chega antes de salvarem qualquer coisa.

Não nos enganemos: como qualquer outra empresa, seu objetivo real é aumentar seus lucros, e, a princípio, não há nada de errado nisso. Mas esse objetivo não pode ser atingido às custas do desmantelamento das instituições da sociedade e dos mecanismos de proteção dos interesses da população.

Não estou propondo a interrupção do avanço tecnológico: ele é essencial para melhorarmos nossas vidas. Mas precisamos parar de acreditar candidamente que a tecnologia resolverá todos nossos problemas e melhorará magicamente a sociedade. Temos que ter consciência de como isso será feito e qual será o verdadeiro o custo social que pagaremos.

Tudo isso deve acontecer preservando os legítimos interesses das pessoas, o que muitas vezes conflitam com os dessas empresas. É por essas e outras que elas precisam ser reguladas. Elas não podem ser mais poderosas que os governos eleitos no mundo todo, nem mesmo substituir suas instituições.

 

Cena de “O Exterminador do Futuro” (1984), em que máquinas inteligentes querem exterminar a humanidade - Foto: reprodução

Qual será a próxima vítima da inteligência artificial?

By | Tecnologia | No Comments

No dia 13, o sindicato dos atores de Hollywood se juntou à greve do sindicato dos roteiristas dos EUA, que acontece desde maio. É a primeira vez em 63 anos que as duas organizações cruzam os braços ao mesmo tempo, o que já impacta a produção de filmes e séries. Entre reivindicações mais convencionais, como melhores condições de trabalho e salários, os dois grupos preocupam-se com o impacto que a inteligência artificial terá em suas profissões.

Já debati longamente, nesse mesmo espaço, sobre a substituição de profissionais por essa tecnologia. Mas esse caso é emblemático porque são as primeiras grandes entidades trabalhistas que colocam isso na pauta de reivindicações para seus patrões.

É curioso porque, no atual estágio de desenvolvimento da inteligência artificial, não se vislumbra que ela substitua consistentemente atores ou roteiristas em grandes produções, como filmes ou séries. Isso não quer dizer que, com o avanço galopante de sua evolução, não possa acontecer em algum momento. Portanto, a reivindicação dos sindicatos visa uma proteção futura, contra um concorrente digital implacável que ainda está por vir.

O que me preocupa, no presente, são empresas de todos os setores que possam estar se preparando para usar a IA, do jeito que está, para substituir trabalhadores de “níveis mais baixos da cadeia alimentar”, mesmo quando isso resulte em produtos ou atendimentos piores para os consumidores. Aqueles dispostos a cortar custos de forma dramática, irresponsável e impensada representam um perigo muito maior que a tecnologia em si.

Como dizem por aí, “isso é tão Black Mirror!”


Veja esse artigo em vídeo:


Não me interpretem mal! Sou um entusiasta da inteligência artificial bem usada, e entendo que esse movimento não tem volta. E nem deveria ter: quando aplicada de forma consciente e responsável, a IA traz inegáveis benefícios a empresas e a indivíduos. Nós mesmos já somos muito beneficiados em nosso cotidiano, em incontáveis aplicativos em nosso celular, que só existem graças a ela.

Mas a inteligência artificial não é uma panaceia. E isso fica claro com o popularíssimo ChatGPT, lançado em novembro e que provocou uma explosão de discussões e de uso da IA, além de uma corrida para empresas demonstrarem que estão nesse barco. Depois do frisson criado pela sua capacidade de manter conversas consistentes sobre qualquer assunto, as pessoas começaram a perceber que muito do que ele fala são verdadeiras bobagens. A despeito dos melhores esforços de seus desenvolvedores, ainda é uma ferramenta sem compromisso com a verdade.

Mas isso não impede que pessoas e empresas usem a plataforma como um oráculo. Gestores vêm confiando em respostas da plataforma para oferecer serviços. Alguns chegam a alimentar o sistema com dados sigilosos de seus clientes, uma calamidade se considerarmos que a ferramenta não promete nenhuma segurança nisso.

Da mesma forma, algumas pessoas têm usado o ChatGPT para funções para as quais não foi desenvolvido, como “fazer terapia” com um sistema incapaz de desenvolver empatia ou que sequer sabe realmente o que está falando: todas essas plataformas simplesmente encadeiam palavras seguindo análises estatísticas a partir de uma gigantesca base de informações com a qual foram “treinadas”.

O problema não é, portanto, usar a tecnologia, e sim usar mal uma coisa boa! Se o objetivo for somente economizar custos, essa é uma “economia porca” que resulta em uma queda dramática na entrega ao público.

 

Exterminador do Futuro

No dia 18, James Cameron, diretor e roteirista de sucessos como “Avatar” (2009) e “Titanic” (1997), deu uma entrevista à rede de TV canadense CTV News, afirmando que a inteligência artificial não é capaz de produzir roteiros. “Não acredito que uma mente desencarnada, que apenas regurgita o que outras mentes vivas disseram sobre a vida que tiveram, sobre amor, sobre mentira, sobre medo, sobre mortalidade, tenha algo que vá comover o público”, disse.

Há um ponto essencial na fala de Cameron, que também foi diretor e roteirista de “O Exterminador do Futuro” (1984), em que máquinas inteligentes tentam eliminar a humanidade: precisamos entender que a inteligência artificial não é realmente criativa!

Ela apenas agrupa padrões e estilos para suas criações, mas não tem algo essencial a qualquer artista: a subjetividade. A nossa história de vida faz com que os padrões que aprendemos sejam inspiração para nossa criatividade, e não uma limitação. A máquina, por outro lado, fica restrita a eles, sendo incapaz de alterá-los.

Mas eu não me iludo: o que puder ser automatizado será. Funções cujos trabalhadores atuam de forma previsível, seguindo regras muito estritas, já estão sendo substituídas por robôs. Em situações como essas, a máquina desempenha as tarefas de maneira mais rápida, eficiente e barata. A qualidade das entregas ao cliente pode até melhorar!

Nos demais casos, a inteligência artificial não deveria ser usada como uma ferramenta para substituir profissionais, e sim para torná-los mais eficientes em suas atividades, oferecendo-lhes sugestões e informações que jamais conseguiriam ter sozinhos, pelas suas limitações humanas.

Em outra frente, o Google está testando, com alguns jornais, um sistema baseado em inteligência artificial capaz de escrever textos a partir de informações que lhe forem apresentadas. Em um comunicado, a empresa disse que “essa ferramenta não pretende e não pode substituir o papel essencial que os jornalistas têm em reportar, criar e verificar os fatos”, devendo ser usado como um apoio a esses profissionais, liberando seu tempo para tarefas mais nobres. Resta saber se, uma vez lançado, o produto não será usado por editores para enxugar mais as já minguadas redações, mesmo que isso resulte em publicações suscetíveis a erros e menos criativas.

Na mesma entrevista, Cameron explicou que, sobre os roteiros, “nunca é uma questão de quem os escreveu, mas de serem boas histórias”. Só faltou definir, de maneira inequívoca, o que é “boa”. Alguns filmes têm roteiros escritos por humanos que são muito ruins. Para escrever aquilo, talvez a inteligência artificial bastasse.

Isso vale para roteiristas, atores, jornalistas e qualquer profissional que se sinta ameaçado pela tecnologia. A melhor proteção que podem ter contra os robôs é fazer melhor que o que eles são capazes de entregar.

Nós, como clientes de todos esses serviços, também temos um papel importante: não podemos aceitar que produtos ruins nos sejam empurrados. Muitos gestores tentarão usar esses recursos assim! Com isso, perderemos nós e os profissionais, todos vítimas dessa “tecnoganância”. Isso não pode passar e muito menos se normalizar.

 

Cena do filme “RoboCop” (1987), em que um policial dado como morto ganha um corpo e uma consciência digitais - Foto: reprodução

IA pode brilhar na segurança, mas suas falhas podem ser catastróficas

By | Tecnologia | No Comments

Pegue qualquer lista dos maiores problemas das grandes cidades e a segurança sempre estará nas primeiras posições. Não é para menos: nos últimos anos, a escalada da violência chegou a níveis insustentáveis em todo Brasil. Diante disso, precisamos usar os recursos disponíveis para tentar resolver o problema. A digitalização de nossas vidas e a inteligência artificial podem ajudar muito nisso, mas precisamos estar preparados para lidar com as consequências de suas imprecisões.

Quanto mais crítica for uma aplicação, menos tolerante a falhas ela é. Isso quer dizer que o sistema não pode sair do ar nunca e as informações oferecidas por ele ou suas decisões devem ser precisas. E infelizmente a tecnologia não chegou a esse nível de excelência inquestionável.

Uma coisa é alguém fazer um trabalho escolar ou um relatório profissional com erros grosseiros por ter acreditado cegamente em alguma bobagem dita pelo ChatGPT. É verdade que podem acabar reprovando na disciplina ou perdendo o emprego por isso, duas coisas ruins. Mas isso não se compara a ser confundido pela máquina com um criminoso, e assim acabar sendo preso ou –pior– morto.

Por isso, apesar de a tecnologia ser muito bem-vinda no combate à criminalidade, os agentes de segurança pública precisam estar preparados para lidar com os resultados dessa colaboração e seus potenciais erros.


Veja esse artigo em vídeo:


Nesse cenário, é bastante ilustrativo o projeto da Prefeitura de São Paulo de unir diversos serviços municipais que hoje não trabalham integrados, como a Defesa Civil, o SAMU, a CET e a Guarda Civil Metropolitana, além das polícias Civil e Militar, Metrô e CPTM. Batizado de Smart Sampa, ele prevê ainda a adição de 20 mil câmeras na cidade, especialmente em pontos sensíveis e de maior criminalidade, que se somarão a outras 20 mil já existentes.

A princípio, a ideia parece muito boa, especialmente porque os diferentes órgãos da administração podem funcionar melhor ao compartilharem suas informações. A exemplo de outras grandes cidades no mundo, como Nova York, a tecnologia desempenha papel central nesse processo. Ironicamente aí começam a surgir os problemas.

O ponto mais delicado da proposta é o uso de reconhecimento facial. Essa tecnologia tem avançado incrivelmente, mas não o suficiente para evitar uma quantidade inaceitável de erros, particularmente entre pessoas negras. Isso acontece porque a inteligência artificial aprende a diferenciar rostos a partir de uma enorme quantidade de fotografias, mas proporcionalmente há muito mais amostras de brancos que de negros nesse “treinamento”. Diferentes estudos apontam que os erros de reconhecimento de pessoas brancas giram em torno de 1%, enquanto de negras ultrapassa os 30%, especialmente mulheres negras.

Por isso, a proposta original do Smart Sampa, que previa “rastrear uma pessoa suspeita, monitorando todos os seus movimentos e atividades, por características como cor, face, roupas, forma do corpo, aspectos físicos etc.”, precisou ser alterada. Monitorar alguém pela sua cor é ilegal!

O projeto prevê que qualquer problema identificado pela plataforma seja confirmado por um agente humano treinado antes de emitir qualquer alerta, o que é, sem dúvida, um ponto positivo para minimizar injustiças. Mas a ideia de rastrear alguém que o algoritmo ache suspeito, ainda cruzando com dados de redes sociais dos cidadãos, lembra algumas das piores sociedades da ficção científica.

 

Sem escapatória

No filme “Minority Report: a Nova Lei” (2002), as autoridades sabiam continuamente onde cada cidadão estava. Além disso, um sistema que combinava tecnologia com aspectos místicos, conseguia prever assassinatos antes que acontecessem. Dessa forma, a polícia prendia os “prováveis criminosos” antes de cometerem o crime.

Sim, as pessoas eram presas antes de terem cometido qualquer crime, apenas porque a plataforma tinha convicção de que o cometeriam! E para a polícia isso era suficiente.

O sistema parecia infalível e, de fato, os assassinatos acabaram. Os “prováveis criminosos” eram condenados a viver o resto de seus dias em uma espécie de coma induzido. O problema é que o sistema não só era falho, como ainda podia ser manipulado para “tirar de circulação” pessoas indesejáveis para os poderosos. Quando isso é revelado, o sistema é desativado e todos os condenados são libertados.

Como se pode ver, quando uma tecnologia tem o poder de levar alguém à prisão ou decidir sobre sua vida ou morte, nenhuma falha é aceitável. Ainda aproveitando a ficção para ilustrar o caso, temos a cena de RoboCop (1987) em que o robô de segurança ED-209, durante uma demonstração, identifica corretamente que um voluntário lhe apontava uma arma. Mas ele falha em reconhecer que a pessoa a joga ao chão logo depois, e acaba metralhando a vítima diante dos presentes.

Por isso, é assustador ver os motivos que desclassificaram a empresa vencedora do primeiro pregão do Smart Sampa. No dia 7 de junho, técnicos da Prefeitura foram verificar se ela estava apta ao serviço. Pelas regras, deveria ter mil câmeras operando com reconhecimento facial, mas só havia 347, das quais apenas 147 estavam online. Segundo o relatório dos técnicos, o responsável argumentou que “todo mundo tem problemas de Internet” e que “horário de almoço é complicado, muita gente fazendo download impacta no link de Internet mesmo”.

Esse amadorismo e falta de comprometimento é algo que jamais poderia pairar sobre um sistema de segurança pública, podendo colocar em xeque toda sua credibilidade! É por essas e outras que cidades importantes ao redor do mundo, como San Francisco (EUA), baniram o uso de reconhecimento facial em plataformas assim.

Alguns grupos querem reduzir esse debate a uma questão ideológica, como vem se tornando um padrão no Brasil há alguns anos. Mas essa não é uma questão ideológica e sim tecnológica!

Em um famoso artigo de 2018, Brad Smith, presidente da Microsoft, questionou qual papel esse tipo de tecnologia deve ter na sociedade, a despeito de todos os benefícios que traga. Segundo ele, “parece mais sensato pedir a um governo eleito que regule as empresas do que pedir a empresas não eleitas que regulem tal governo”.

Como em um bom episódio da série “Black Mirror”, o problema não está necessariamente na tecnologia em si, mas em usos errados dela. Câmeras e inteligência artificial darão poderes sobre-humanos às forças de segurança, com enorme poder de detecção de crimes e contravenções. Mas ela também pode maximizar vieses e falhas humanas da força policial, como o racismo.

Sem dúvida, podem ser ferramentas valiosíssimas no combate à criminalidade galopante. Mas em uma sociedade assustada e que clama por segurança rápida, despontam como soluções “mágicas” para políticos que buscam votos fáceis. Mas a coisa não funciona assim e, se não for implantada com cuidados técnicos e éticos, pode ainda ampliar outros problemas sociais existentes.

É necessário entender que, mesmo que o sistema evite 100 mortes, não é aceitável que 10 vítimas inocentes sejam condenadas ou mortas por erros da plataforma. Se houver um único erro, o sistema não é bom o suficiente para ser usado! Mas parece que pouca gente se preocupa com isso, no melhor estilo de “o fim justifica os meios”.

No final, a solução recai sobre o ser humano. Os agentes de segurança precisam ser treinados para lidar com possíveis falhas técnicas. Precisam aprender a dosar suas ações e abordagens feitas a partir de informações que podem estar erradas.

Resta saber se esses profissionais estão preparados para isso. Diante de diversas ações desastrosas e mortíferas que vemos nas ruas brasileiras o tempo todo, não estão! A solução desse outro problema é essencial e deveria acontecer antes da implantação da tecnologia. Mas isso, por si só, já renderia outro artigo.

 

A imagem de Elis Regina foi recriada digitalmente para dueto com sua filha, Maria Rita, em comercial da Volkswagen - Foto: reprodução

Não podemos mais acreditar no que nossos olhos veem

By | Tecnologia | No Comments

São Tomé ficou famoso por dizer que precisava “ver para crer” que Jesus havia ressuscitado. Seu pedido está associado ao fato de que, de todos os nossos sentidos, a visão é o que transmite mais segurança e confiabilidade. Se vemos algo acontecendo diante de nós, nosso cérebro entende aquilo como verdadeiro. Mas o avanço tecnológico, capaz de criar imagens falsas cada vez mais críveis, coloca isso em xeque e dispara alguns alertas.

Na segunda passada, o comercial “Gerações”, criado em comemoração aos 70 anos da Volkswagen no Brasil, provocou polêmica ao colocar a cantora Elis Regina (morta em 1982) cantando ao lado da filha Maria Rita. Elis aparece no filme dirigindo um antigo modelo de Kombi (que deixou de ser produzida no Brasil em 2013), enquanto a filha aparece ao volante de uma ID.Buzz, furgão elétrico recém-lançado, chamado de “Nova Kombi”.

Muitas pessoas questionaram o uso da imagem de Elis em algo que nunca fez (ou que pelo menos não há nenhum registro): cantar “Como Nossos Pais” enquanto dirige uma Kombi. O debate é válido, mas não me preocupo tanto com o uso da tecnologia dessa forma. Afinal, os produtores do comercial nunca propuseram enganar o público para que achasse que Elis estivesse viva e jovem.

O que me deixa tenso é o uso dessa tecnologia por pessoas inescrupulosas para deliberadamente distorcerem a realidade e enganar as massas para seu benefício. Quando isso acontecer, talvez nossos olhos já não sejam mais suficientes para nos garantir o que é verdadeiro.


Veja esse artigo em vídeo:


Para viabilizar o dueto entre Elis Regina e Maria Rita, a agência AlmapBBDO trabalhou com duas tecnologias: o “deep fake” e o “deep dub”. Elas já existem há alguns anos, mas a qualidade do que criam vem crescendo exponencialmente.

O primeiro “mapeia” os rostos de uma pessoa que é gravada em vídeo e o de quem efetivamente aparecerá na imagem final. Com isso, o sistema recria o vídeo com o segundo rosto no lugar do primeiro, fazendo exatamente os movimentos da pessoa original. Na peça da Volkswagen, a atriz Ana Rios gravou as cenas dirigindo a Kombi e fazendo movimentos típicos de Elis Regina. Quando o sistema trocou seu rosto pelo da cantora, é como se ela mesma estivesse lá.

Como a voz usada era de uma gravação da própria Elis, entrou em cena o “deep dub”. Sua função é modificar imagens já criadas para que exista um perfeito sincronismo entre a voz e o movimento dos lábios.

Apesar de o comercial ter agradado pela sua criatividade, sensibilidade e uso inteligente da tecnologia, muita gente o criticou por usar a inteligência artificial para criar imagens inéditas de alguém que já morreu. Mas não se trata de violação do direito de imagem. Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propaganda e Marketing), explica que, quando alguém morre, esse direito passa a seus herdeiros.

“Mas é sempre importante considerar que eventualmente o próprio falecido não tivesse a intenção de participar post-mortem de atividades com sua imagem”, acrescenta Crespo. Ele explica que, nesse caso, a pessoa deve manifestar explicitamente sua contrariedade ainda em vida.

A publicidade se vale desde sempre de imagens de pessoas famosas que já se foram, com fotos ou filmagens antigas para montagens, e até o uso de atores maquiados para se parecer aos falecidos. A diferença agora é o uso da tecnologia para tornar tudo muito realista.

 

Limites éticos

De toda forma, o debate em torno do comercial foi interessante para se questionar se há um limite ético e moral para o uso dessa tecnologia, com pessoas vivas ou mortas.

Da mesma forma que devemos ver isso cada vez mais em produções audiovisuais, devemos estar preparados para encarar uma avalanche de “deep fakes” criados com o objetivo de prejudicar outras pessoas. Isso tampouco é novo, mas, como explica Crespo, “ficará mais difícil, a olho nu, detectar o que é verdadeiro e o que é uma construção baseada em inteligência artificial”, restando aos peritos identificar as falsificações. “O desafio, daqui pra frente, é que será mais comum ver esse tipo de debate na Justiça, com discussões sobre vídeos”, acrescenta.

Muitos profissionais estão preocupados que categorias inteiras desapareçam graças a essas tecnologias. É o caso dos dubladores. Seu trabalho artístico envolve fazer as falas traduzidas combinarem, tanto quanto possível, com o movimento dos lábios do ator no idioma original.

Agora as plataformas de inteligência artificial podem “aprender a voz” dos atores para recriá-la em qualquer idioma. Dessa forma, seria possível ter, por exemplo, Tom Hanks falando não apenas seu idioma nativo (o inglês), como também português, alemão, russo ou japonês, sem nenhum sotaque e com os lábios no vídeo perfeitamente sincronizados com sua fala em todos os idiomas.

De certa forma, isso ofereceria um produto mais interessante para o público e a produção das versões internacionais ficaria muito mais barata e rápida para os estúdios. Mas também significaria o fim da categoria dos dubladores. Esse não é um problema tecnológico, e sim social, e os países precisam se debruçar sobre um tema trabalhista sem precedentes.

No último dia 13, o músico Paul McCartney revelou que a voz de John Lennon havia sido extraída e aperfeiçoada por inteligência artificial a partir de uma antiga gravação. Nesse caso, a tecnologia não sintetizou nada, mas foi usada para captar a voz de John. Isso permitirá que, até o fim do ano, o mundo conheça uma nova música dos Beatles, apesar de Lennon ter sido assassinado em 1980 e de George Harrison ter morrido em 2001. Além de Paul, Ringo Starr também está vivo.

Por tudo isso, esse debate é válido e necessário. A tecnologia está madura e será cada vez mais usada, tanto em atividades lícitas quando na prática de crimes. Nosso desafio é sermos capazes de identificar o que é verdadeiro e o que é falso, e, nesse caso, se se trata de um uso legítimo, como no comercial da Volkswagen.

Uma educação de qualidade para todos fica ainda mais necessária para que as pessoas desenvolvam um senso crítico apurado. Ela é a melhor ferramenta que temos para fugir de arapucas digitais que coloquem em nosso caminho. Infelizmente esse é um investimento de longo prazo, enquanto a tecnologia avança de maneira galopante.

 

Imagem: composição por Paulo Silvestre

Chamamos de “magia” muitas coisas que simplesmente não entendemos

By | Tecnologia | No Comments

Em 1985, eu e três amigos começamos a nos interessar por computadores, em uma época em que pouquíssimas pessoas sabiam o que eles eram ou para que serviam. Fomos a uma pioneira “escola de computação” no bairro para saber se poderíamos aprender mais sobre aquilo. A recepcionista nos levou a um TK-85 (um pequeno computador como o da imagem) e digitou o seguinte programa:

 

10 PRINT "Qual é o seu nome?"
20 INPUT nome$
30 PRINT "Olá, " + nome$ + "."
40 END

 

Quando ela rodou aquele código “espantoso”, a tela da TV preto-e-branco exibiu “Qual o seu nome?” Cada um de nós digitou o seu, ao que a máquina respondeu (para mim) “Olá, Paulo.”

Assombro geral com a “inteligência” do computador! Suficiente para aqueles pré-adolescentes se matricularem no cursinho de BASIC.

Não é preciso ser um programador para perceber que aquilo era algo extremamente simples. Mas para quem nunca tinha tocado em um computador (1985, lembra?), foi o suficiente para abrir as portas que me permitiram, a partir dali, olhar para o digital como forma de ampliar meus horizontes, procurando entender o que acontece no mundo dos bits.

O ser humano tem medo do desconhecido, porque não o pode controlar. Mesmo que algo aconteça incontestavelmente diante de seus olhos, se não compreender o fenômeno com o que sabe, recai sobre obra do divino ou –pior– vira “bruxaria”. Por conta disso, muitas mulheres e homens geniais foram, ao longo da história, calados, presos ou mortos por suas ideias, mesmo as mais benéficas à humanidade.

Por outro lado, quando adquirimos conhecimento, qualquer coisa, mesmo aquelas até então tidas como mágicas, deixa o campo do desconhecido e passa a ser uma ferramenta sob nosso domínio. E de tempos em tempos, uma nova tecnologia disruptiva surge para “testar a nossa fé”.

A bola da vez é a inteligência artificial, que já está revolucionando muitos negócios, mas igualmente desperta medo, pois o cidadão médio não consegue entender como ela funciona. Para ficar ainda mais confuso, temos pesquisadores e executivos da própria área revelando publicamente restrições a ela.

Talvez exista exagero nesses temores; talvez não. A dúvida se dá porque essa, que é uma das mais poderosas tecnologias já criadas, ainda seja majoritariamente incompreendida pela massa, que a vê, portanto, como “mágica”.

Precisamos desmistificar a IA, assim como qualquer outra tecnologia. Essa é a melhor maneira de tirarmos bom proveito do que ela pode nos oferecer, enquanto escapamos de eventuais armadilhas. Não quer dizer que teremos que ser todos programadores ou cientistas de dados: entendermos o que é, como funciona e para que serve já ajudará muito!

 

PS: tenho até hoje o meu TK-85 (foto a seguir), testemunha daquele momento histórico do nascimento da microinformática no país, nos anos 1980.

Foto: Paulo Silvestre

Foto: Paulo Silvestre

 


Vídeo relacionado:

Joan, protagonista do primeiro episódio da sexta temporada de “Black Mirror”, surta por causa de um mau uso da IA - Foto: divulgação

“Black Mirror” explica ludicamente os riscos da inteligência artificial

By | Tecnologia | No Comments

Em uma sociedade polarizada pelo poder descontrolado dos algoritmos das redes sociais, cresce o debate se a inteligência artificial vai exterminar ou salvar a humanidade. Como costuma acontecer com esses extremismos, a verdade provavelmente fica em algum lugar no meio do caminho. Agora a sexta temporada da série “Black Mirror”, que estreou na Netflix na última quinta (15), surge com uma explicação lúdica de como essa tecnologia pode ser incrível ou devastadora, dependendo apenas de como será usada.

A icônica série, criada em 2011 pelo britânico Charlie Brooker, é conhecida pelas suas perturbadoras críticas ao mau uso de tecnologias. Sem correr risco de “dar spoiler”, o primeiro episódio da nova temporada (“A Joan É Péssima”) concentra-se na inteligência artificial generativa, mas guarda espaço para apontar outros abusos do mundo digital pela sociedade. Sobra até para a própria Netflix, a vilã do episódio!

Como fica claro na história, o poder da inteligência artificial cresce de maneira que chega a ser assustador, alimentando as teorias pessimistas ao redor dela. Se até especialistas se pegam questionando como essas plataformas estão “aprendendo”, para uma pessoa comum isso é praticamente incompreensível, algo ainda no campo da ficção científica.

Mas é real e está a nossa volta, começando pelos nossos smartphones.


Veja esse artigo em vídeo:


Como acontece em tantos episódios de “Black Mirror”, algo dá muito errado. E a culpa não é do digital, mas de como ele é usado por seres humanos movidos por sentimentos ou interesses condenáveis. A lição é que, quanto mais poderosa for a tecnologia, mais incríveis serão os benefícios que ele pode trazer, mas também maiores os riscos associados à sua desvirtuação.

É nesse ponto que estamos com a inteligência artificial. Mas ela não estraga a vida da protagonista do episódio sozinha: tem a “ajuda” de celulares (que estão captando continuamente o que dizemos e fazemos), dos algoritmos das plataformas de streaming (que nos dizem o que assistir), da “ditadura das curtidas”, do sucesso de discursos de ódio e até de instalarmos aplicativos sem lermos seus termos de uso.

A indústria de tecnologia costumava ser regida pela “Lei de Moore”, uma referência a Gordon Moore, um dos fundadores da Intel. Em um artigo em 1965, ele previu que a quantidade de circuitos em chips dobraria a cada 18 meses, pelo mesmo custo. Em 1975, reviu sua previsão para 12 meses. Hoje, o poder da inteligência artificial –que é software, mas depende de um processamento gigantesco– dobra a cada três meses.

O “problema” é que nossa capacidade humana não cresce no mesmo ritmo. E quando não conseguimos acompanhar uma evolução, ela pode nos atropelar. Essa é a gênese de muitos desses problemas, pois tanto poder à disposição pode fazer com que as pessoas deixem cuidados de lado e até passem por cima de limites morais.

É como diz o ditado: “quem nunca comeu melado, quando come, se lambuza!”

 

Faça a coisa certa

Na quarta, participei do AI Forum 2023, promovido pela IBM e pela MIT Sloan Review Brasil. As palestras demonstraram o caminho desse avanço da inteligência artificial e de como ela está se tornando uma ferramenta essencial para empresas de qualquer setor.

De fato, com tantos recursos incríveis que novas plataformas movidas pela IA oferecem aos negócios, fica cada vez mais difícil para uma empresa se manter relevante no mercado sem usar essa tecnologia. É como procurar emprego hoje sem saber usar a Internet ou um smartphone. Por mais experiente e qualificado em outras áreas que se seja, não haveria chance de ser contratado, porque esses pontos fortes seriam facilmente suplantados por outros candidatos que dominassem esses recursos.

Um estudo recém-divulgado pela IBM mostra que, se em 2016 58% dos executivos das empresas estavam familiarizados com a IA tradicional, agora em 2023 83% deles conhecem a IA generativa. Além disso, cerca de dois terços se sentem pressionados a acelerar os investimentos na área, que devem quadruplicar em até três anos.

A mesma pesquisa aponta que o principal fator que atravanca essas decisões é a falta de confiança na tecnologia, especialmente em aspectos de cibersegurança, privacidade e precisão. Outros problemas levantados foram a dificuldade de as decisões tomadas pela IA generativa serem facilmente explicadas, a falta de garantia de segurança e ética, a possibilidade de a tecnologia propagar preconceitos existentes e a falta de confiança nas respostas fornecidas pela IA generativa.

Conversei no evento com Marcela Vairo, diretora de Automação, Dados e IA da IBM (a íntegra da entrevista pode ser vista no vídeo abaixo). Para ela, três premissas devem ser consideradas para que a inteligência artificial nos ajude efetivamente, resolvendo essas preocupações.

A primeira delas é que as aplicações movidas por IA devem ser construídas para tornar as pessoas mais inteligentes e produtivas, e não para substituí-las. Deve existir também um grande cuidado e respeito com os dados dos clientes, que pertencem apenas a eles e não podem ser compartilhados em outra plataforma ou com outros clientes. E por fim, as aplicações devem ser transparentes, para que as pessoas entendam por que elas estão tomando uma determinada decisão e de onde ela veio, o que também ajuda a combater os possíveis vieses que a IA desenvolva.

O que precisamos entender é que essa corrida tecnológica está acontecendo! Não sejamos inocentes em achar que ela será interrompida pelo medo do desconhecido. Os responsáveis por esse desenvolvimento devem incluir travas para que seus sistemas não saiam do controle, garantindo essas premissas.

O que nos leva de volta a “Black Mirror”: tampouco podemos ser inocentes em achar que todos os executivos da indústria serão éticos e preocupados em fazer a coisa certa. É por isso que a inteligência artificial precisa ser regulamentada urgentemente, para pelo menos termos a tranquilidade de continuar usufruindo de seus benefícios incríveis sem o risco de sermos dominados pela máquina.

E no final, sempre temos que ter uma tomada para puxar e desligar a coisa toda se ela sair completamente dos trilhos.


Íntegra de entrevista com Marcela Vairo (IBM):

Neo luta contra o Agente Smith em “Matrix Revolutions” (2003): mundo digital criado para iludir a humanidade - Foto: divulgação

Se deixarmos, a inteligência artificial escolherá o próximo presidente

By | Tecnologia | No Comments

Nas eleições de 2018, eu disse que o presidente eleito naquele ano seria o que usasse melhor as redes sociais, e isso aconteceu. Em 2022, antecipei a guerra das fake news, que iludiram o eleitorado. Para o pleito de 2026, receio que a tecnologia digital ocupe um espaço ainda maior em nossas decisões, dessa vez pelo uso irresponsável da inteligência artificial.

Não estou dizendo que a IA escolherá por sua conta qual é o melhor candidato. A despeito de um medo difuso de que máquinas inteligentes nos exterminem, isso não deve acontecer porque, pelo menos no seu estágio atual, elas não têm iniciativa ou vontade própria: fazem apenas o que lhes pedimos. Os processos não são iniciados por elas. Temos que cuidar para que isso continue dessa forma.

Ainda assim, a inteligência artificial generativa, que ganhou as ruas no ano passado e que tem no ChatGPT sua maior estrela, atingiu um feito memorável: dominou a linguagem, não apenas para nos entender, mas também para produzir textos, fotos, vídeos, músicas muito convincentes.

Tudo que fazemos passa pela linguagem! Não só para nos comunicar, mas nossa cultura e até nosso desenvolvimento como espécie depende dela. Se agora máquinas com capacidades super-humanas também dominam esse recurso, podemos ser obrigados a enfrentar pessoas inescrupulosas que as usem para atingir seus objetivos, a exemplo do que foi feito com as redes sociais e com as fake news.


Veja esse artigo em vídeo:


A inteligência artificial não sai das manchetes há seis meses. Mesmo com tanta informação, as pessoas ainda não sabem exatamente como funciona e o que pode ser feito com ela. E isso é um risco, pois se tornam presas daquele que entendem.

É aí que mora o perigo para as eleições (e muito mais), com o uso dessa tecnologia para iludir e convencer. “No Brasil, as próximas eleições presidenciais serão daqui a três anos, e a tecnologia estará ainda mais avançada”, afirma Diogo Cortiz, professor da PUC-SP e especialista em IA. “A gente vai partir para um discurso não só textual, mas também com vídeo, som, fotografias ultrarrealistas, que farão ser muito difícil separar o real do que é sintético”, explica.

Não nos iludamos: vai acontecer! Esse é o capítulo atual do jogo em que estamos há uma década, em que a tecnologia digital é usada como ferramenta de convencimento. E, como sempre, ela não é ruim intrinsicamente, mas, se não houver nenhuma forma de controle, pessoas, empresas, partidos políticos podem abusar desses recursos para atingir seus fins, até de maneira criminosa.

Entretanto, não somos vítimas indefesas. Da mesma que esses indivíduos não deveriam fazer esses usos indecentes da tecnologia para nos manipular, cabe a cada um de nós usá-la conscientemente. Por mais que pareça mágica ao responder a nossos anseios de maneira tão convincente, ela erra, e muito! Por isso, não podemos pautar decisões importantes no que a IA nos entrega sem verificar essas informações.

O ser humano sempre teve medo de ficar preso em um mundo de ilusões. O filósofo e matemático grego Platão (428 a.C. – 348 a.C.) antecipou isso em seu “Mito da Caverna”. Nos dias atuais, o assunto permeia a ficção, como na série de filmes “Matrix”, curiosamente um mundo falso criado por máquinas para iludir a humanidade.

 

Intimidade com a máquina

Há um outro aspecto que precisamos considerar. Assim como a IA primitiva das redes sociais identifica nossos gostos, desejos e medos para nos apresentar pessoas e conteúdos que nos mantenham em nossa zona de conforto, as plataformas atuais também podem coletar e usar essa informação para se tornarem ainda mais realistas.

Hoje vivemos no chamado “capitalismo de vigilância”, em que nossa atenção e nosso tempo são capturados pelas redes sociais, que os comercializa como forma eficientíssima de vender desde quinquilharias a políticos.

Com a inteligência artificial, a atenção pode ser substituída nessa função pela intimidade. “Eu vejo vários níveis de consequência disso: sociais, cognitivos e psicológicos”, afirma Cortiz, que tem nesse assunto um dos pontos centrais de suas pesquisas atuais. “Se a pessoa começar a projetar um valor muito grande para essa relação com a máquina e desvalorizar a relação com o humano, a gente tem um problema, porque essa intimidade é de uma via só: o laço não existe.”

“O cérebro funciona quimicamente, buscando o menor consumo com o maior benefício”, explica Victoria Martínez, gerente de negócios e data science da empresa de tecnologia Red Hat para a América Latina. Para ela, uma das coisas que nos define como humanos é nossa capacidade de pensar coisas distintas, e não podemos perder isso pela comodidade da IA. E alerta do perigo implícito de crianças e adolescentes usarem essa tecnologia na escola, entregando trabalhos sem saber como foram feitos. “É muito importante aprender o processo, pois, para automatizarmos algo, precisamos entender o que estamos fazendo”, acrescenta.

A qualidade do que a inteligência artificial nos entrega cresce de maneira exponencial. É difícil assimilarmos isso. Assim pode chegar um momento em que não saberemos se o que nos é apresentado é verdade ou mentira, e, no segundo caso, se isso aconteceu por uma falha dos algoritmos ou porque eles foram usados maliciosamente.

Isso explica, pelo menos em parte, tantos temores em torno do tema. Chegamos a ver em março mais de mil de pesquisadores, especialistas e até executivos de empresas do setor pedindo que essas pesquisas sejam desaceleradas.

É por isso que precisamos ampliar o debate em torno da regulação dessa tecnologia. Não como um cabresto que impedirá seu avanço, mas como mecanismos para, pelo menos, tentar garantir responsabilidade e transparência de quem desenvolve essas plataformas e direitos e segurança para quem as usa.

Isso deve ser feito logo, e não apenas depois que o caos se instale, como aconteceu com as redes sociais. Agora, no meio do turbilhão, vemos como está sendo difícil regulamentá-las, graças aos interesses dos que se beneficiam dessa situação.

“Por enquanto, nós temos o controle”, afirma Martínez. “Então espero que a democracia não seja dominada por uma máquina.”

É verdade, mas temos que nos mexer. E que isso seja feito pelas nossas aspirações, e não porque algo deu muito errado!

 

Matt Hicks, CEO da Red Hat, durante a abertura do Red Hat Summit 2023: “esse é o momento da IA” - Foto: Paulo Silvestre

Inteligência artificial produz coisas incríveis, mas não podemos perder nosso protagonismo

By | Tecnologia | No Comments

Estive na semana passada em Boston (EUA), participando do Red Hat Summit, maior evento de software open source do mundo. Apesar desse modelo de desenvolvimento de programas aparecer a todo momento, a estrela da festa foi a inteligência artificial. E algo que me chamou a atenção foi a preocupação da Red Hat e de seus executivos em demonstrar como essa tecnologia, por mais poderosa que seja, não deve fazer nada sozinha, precisando ser “treinada” com bons dados, com o ser humano ocupando o centro do processo.

O próprio CEO, Matt Hicks, abriu a conferência dizendo que esse é o “momento da IA”. Muitos dos principais anúncios do evento, como o Ansible Lightspeed e o OpenShift AI, embutiam um incrível poder da inteligência artificial na automação de tarefas, como geração de código a partir de pedidos simples em português, liberando o tempo das equipes para funções mais nobres.

Isso não quer dizer, entretanto, que os profissionais possam simplesmente “terceirizar” o raciocínio e a sua criatividade para as máquinas. Pelo contrário, por mais fabulosas que sejam essas ferramentas, elas pouco ajudam se o usuário não conhecer pelo menos o essencial do que os sistemas produzem.

Tanto é verdade que assistimos a casos de pessoas e de empresas que enfrentam grandes contratempos por usar plataformas generalistas de inteligência artificial (como o ChatGPT) de maneira descuidada. Precisamos ter em mente que, por mais que ela chegue a parecer mágica, não é infalível!


Veja esse artigo em vídeo:


Foi o que aconteceu recentemente com o advogado americano Steven Schwartz, da firma Levidow, Levidow & Oberman, com mais de 30 anos de experiência: ele enfrentará agora medidas disciplinares por usar o ChatpGPT para pesquisas para o caso de um cliente que processava a Avianca. Tudo porque apresentou à corte um documento com supostos casos semelhantes envolvendo outras empresas aéreas.

O problema é que nenhum desses casos existia: todos foram inventados pelo ChatGPT. Schwartz ainda chegou a perguntar à plataforma se os casos eram reais, o que ela candidamente confirmou. É o que os especialistas chamam de “alucinação da inteligência artificial”: ela apresenta algo completamente errado como um fato, cheia de “convicção”, a ponto de conseguir argumentar sobre aquilo.

“Nessa nova fase, temos que conhecer a pergunta para qual queremos a resposta”, explicou-me Hicks, em uma conversa com jornalistas durante o Summit. “Se você for um novato, poderá criar melhor, mais rápido; se for um especialista, poderá melhorar muito o que faz e usar seu domínio para refinar a entrega”, concluiu.

Para Paulo Bonucci, vice-presidente e gerente-geral da Red Hat para a América Latina, “não adianta você chegar com inteligência artificial assustando a todos, dizendo que vai faltar emprego”. Para o executivo, a transformação que a inteligência artificial promoverá nas empresas passa por uma transformação cultural nos profissionais. “A atenção principal enquanto se desenvolvem os códigos e as tecnologias de inteligência artificial são as pessoas, são os talentos”, acrescenta.

Chega a ser reconfortante ver lideranças de uma empresa desse porte –a Red Hat é a maior empresa de soluções empresariais open source do mundo– demonstrando essa consciência. Pois não se enganem: a inteligência artificial representa uma mudança de patamar tecnológico com um impacto semelhante ao visto com a introdução dos smartphones ou da própria Internet comercial.

A diferença é que, no mundo exponencial em que vivemos, as transformações são maiores e os tempos são menores. E nem sempre as empresas e ainda mais as pessoas têm sido capazes de absorver esse impacto.

 

Corrida do ouro

Infelizmente o que se vê é uma corrida tecnológica, que pode estar atropelando muita gente por descuido e até falta de ética de alguns fabricantes. “Existem empresas grandes que fazem anúncios quando sua tecnologia não está madura”, afirma Victoria Martínez, gerente de negócios e data science da Red Hat para a América’ Latina. “Essa corrida tornou-se muito agressiva”.

É interessante pensarmos que as pesquisas em inteligência artificial existem há décadas, mas o assunto se tornou um tema corriqueiro até entre não-especialistas apenas após o ChatGPT ser lançado, em novembro. Não é à toa que se tornou a ferramenta (de qualquer tipo) de adoção mais rápida da história: todos querem usar o robô para passar para ele suas tarefas. E, graças a essa corrida, isso tem sido feito de maneira descuidada, pois alguns fabricantes parecem não se preocupar tanto com perigos que isso pode representar.

“Isso é uma coisa que a gente deveria estar discutindo mais”, sugere Eduardo Shimizu, diretor de ecossistemas da Red Hat Brasil. “Entendo que nós, não só como especialistas em segurança ou em tecnologia, mas como seres humanos, precisamos discutir esses temas éticos da forma de usar a tecnologia”, acrescenta.

Martínez lembra das preocupações que educadores vêm apresentando sobre o uso de plataformas de IA generativas, como o próprio ChatGPT por crianças. “Não podemos esquecer de aprender o processo”, alerta. Em uma situação limite, seria como entregar uma calculadora a uma criança que não sabe sequer conceitualmente as quatro operações básicas. Ela se desenvolveria como um adulto com seríssimos problemas cognitivos e de adaptação à realidade.

Por isso, a qualquer um que não saiba fazer uma divisão deveria ser proibido usar uma calculadora. Por outro lado, para quem domina suficientemente a matemática, a calculadora e mais ainda uma planilha eletrônica são ferramentas inestimáveis.

É assim que devemos encarar essa mudança de patamar tecnológico. Como escreveu Hicks em um artigo recente, “não sabemos o que o futuro reserva –nem mesmo o ChatGPT é precognitivo ainda. Isso não significa que não podemos antecipar quais desafios enfrentaremos nos próximos meses e anos.”

Quaisquer que sejam, quem deve estar no comando somos nós. Os robôs, por sua vez, serão ajudantes valiosíssimos nesse processo.


Você pode assistir à íntegra em vídeo das minhas entrevistas com os quatro executivos da Red Hat. Basta clicar no seu nome: Matt Hicks, Paulo Bonucci, Victoria Martínez e Eduardo Shimizu.

 

Os personagens Theodore e Samantha (no smartphone em seu bolso), no filme “Ela” (2013) - Foto: divulgação

Inteligência artificial começa a substituir pessoas com suas ideias, personalidades e vozes

By | Tecnologia | No Comments

Enquanto o mundo discute o impacto da inteligência artificial no mercado de trabalho, outra revolução, possivelmente mais profunda ainda, começa a tomar forma graças a essa tecnologia: pessoas estão criando representações digitais de si mesmas, simulando suas ideias, vozes e até suas personalidades.

O objetivo é usar esses avatares para conversar com muita gente, como se fossem o indivíduo em si. Isso é particularmente interessante para celebridades com enormes bases de fãs online, mas abre uma série de discussões éticas e até filosóficas sobre a substituição do ser humano por robôs.

Por um lado, eles podem representar um grande avanço no relacionamento com seguidores e clientes, criando uma experiência incrivelmente imersiva e convincente, o que pode ser ótimo para os negócios. Entretanto especialistas temem que esses chatbots hiper-realistas possam provocar estragos na saúde mental de algumas pessoas.


Veja esse artigo em vídeo:


No começo do mês, a influenciadora digital americana Caryn Marjorie, 23, que tem aproximadamente dois milhões de seguidores no Snapchat, lançou um desses avatares. Batizado de CarynAI, ele é construído sobre a tecnologia do GPT-4, motor do afamado ChatGPT.

Mas ele vai muito além de escrever textos a perguntas de seus fãs. O robô simula a voz, personalidade e até maneirismos de Caryn, conversando com os fãs sobre qualquer assunto. Para uma base de seguidores em que 98% são homens, ninguém se surpreendeu que muitas dessas conversas acabaram tendo cunho sexual, apesar de a influenciadora dizer que espera que esse não se torne o assunto principal.

Os fãs sabem que não estão falando com a verdadeira Caryn. Ainda assim não se importam de pagar US$ 1 por minuto de conversa. Não há limite de tempo, mas quando o papo se aproxima de uma hora, CarynAI sugere que o fã continue em outro momento.

Com isso, na primeira semana, o sistema rendeu nada menos que US$ 100 mil à influenciadora. Quando ela conseguir dar acesso a uma lista de espera de milhares de interessados, ela calcula que faturará algo como US$ 5 milhões por mês! Negócios à parte, Caryn disse que “espera curar a solidão de seus fãs” com a ajuda de seu avatar.

“Entrar na fantasia não é errado: isso nos proporciona criatividade, curiosidade, alegria”, explica Katty Zúñiga, psicóloga especializada em comportamento e tecnologia. “Mas, ao mesmo tempo, a gente precisa entrar em contato com nosso lado mais racional, mais consciente, para encontrar o equilíbrio, e não nos perdermos na fantasia, que é o que essa inteligência artificial está nos apresentando.”

 

Vencendo a morte?

CarynAI foi criada pela empresa Forever Voices. Seu CEO e fundador, John Meyer, disse ao The Washington Post que começou a desenvolver a plataforma no ano passado, para tentar “conversar” com seu pai, que faleceu em 2017. Segundo ele, conversar com o robô que tinha a voz e a personalidade do pai foi “uma experiência incrivelmente curativa”.

É inevitável lembrar do episódio “Volto Já” (2013), o primeiro da segunda temporada da série “Black Mirror”, conhecida por promover reflexões sobre usos questionáveis da tecnologia. Nessa história, a personagem Martha (Hayley Atwell) usa um serviço que cria um chatbot com informações, personalidade e trejeitos de seu recém-falecido marido, Ash (Domhnall Gleeson). Como aquilo parecia aplacar sua saudade e solidão, ela atualiza o serviço para uma versão em que o sistema conversa com ela com a voz dele.

Emocionada com os resultados, parte para um terceiro nível, em que compra um robô fisicamente idêntico a Ash, que passa a interagir com ela, até sexualmente. Claro que, nesse momento, a experiência desanda! Quanto mais ampla pretende ser a simulação, maior a chance de ela dar errado. Martha não consegue lidar com as diferenças, e decide tomar uma atitude extrema.

Impossível não pensar também no filme “Ela” (2013). Nele, Theodore (Joaquin Phoenix), um escritor deprimido, se apaixona por Samantha (Scarlett Johansson), a “personalidade” do novo sistema operacional de seu computador e smartphone. Se isso não fosse estranho o suficiente, ela corresponde a seu amor. Aqui também a história não termina bem, pois, apesar de Samantha agradar a Theodore em tudo, ela ainda não consegue ser humana.

As duas histórias são muito impactantes. No caso de Samantha, é muito fácil se apaixonar por ela, mesmo não sendo Theodore. Afinal, ela é dona de uma ternura rara, sempre “ao lado” de Theodore, disposta a dar a ele o que ele precisa. Mas isso é amor ou apenas as ações estatisticamente mais relevantes para cada momento, envelopadas com muito carinho?

É nessa hora que essas plataformas podem se tornar um problema psíquico. A vida real é composta de contraposições entre coisas positivas e negativas, alegrias e tristezas, tensões e distensões. Ao enfrentarmos isso, amadurecemos. Mas se começarmos a viver relacionamentos que nos “protegem” de dissabores, isso pode prejudicar nosso desenvolvimento.

“A gente está vivendo em um mundo de adultos imaturos, por isso as pessoas não aceitam o diferente”, explica Zúñiga. “É como a criança, que vive despreocupada momentos de prazer o tempo todo, porque tem um adulto por trás para cuidar dela”, acrescenta. Mas a vida não funciona dessa forma.

Meyer acredita que, em poucos anos, todos terão um “assistente humanizado por IA” em seu bolso, que poderá ser um parceiro romântico, um personal trainer ou um professor. Resta saber até onde eles poderão ir e como poderemos nos proteger de “abusos” da tecnologia.

No dia 18, Sam Altman, CEO da OpenAI, criadora do ChatGPT, deu uma palestra no Rio de Janeiro. Contrariando o que muito poderiam pensar, ele defende que a inteligência artificial seja regulamentada logo e, de preferência, de maneira única em todos os países.

Infelizmente a chance de isso acontecer é mínima. Afinal, não conseguimos chegar a um consenso nem com o “PL das Fake News”. De qualquer jeito, o debate não pode ficar restrito aos interesses dos fabricantes, ou correremos o risco de parar de nos apaixonar por humanos chatos, preferindo avatares hipersedutores.

 

Ian Wilmut, biólogo do Instituto Roslin (Escócia), e a ovelha Dolly, primeiro clone bem-sucedido de um mamífero - Foto: divulgação

Corrida pela inteligência artificial não pode driblar leis ou ética

By | Tecnologia | No Comments

Diante do acalorado debate em torno do “PL das Fake News”, muita gente nem percebeu que outro projeto de lei, possivelmente tão importante quanto, foi apresentado no dia 3 pelo senador Rodrigo Pacheco (PSD-MG): o PL 2338/23, que propõe a regulação da inteligência artificial. Resta saber se uma lei conseguirá conter abusos dessa corrida tecnológica ou sucumbirá à pressão das empresas, como tem acontecido no combate às fake news.

Talvez um caminho melhor seria submeter o desenvolvimento da IA aos limites da ética, mas, para isso, os envolvidos precisariam guiar-se por ela. Nesse sentido, outro acontecimento da semana passada foi emblemático: a saída do Google de Geoffrey Hinton, conhecido como o “padrinho da IA”. Ele disse que fez isso para poder falar criticamente sobre os caminhos que essa tecnologia está tomando e a disputa sem limites que Google, Microsoft e outras companhias estão travando, o que poderia, segundo ele, criar algo realmente perigoso.

Em entrevista ao The New York Times, o pioneiro da IA chegou a dizer que se arrepende de ter contribuído para esse avanço. “Quando você vê algo que é tecnicamente atraente, você vai em frente e faz”, justificando seu papel nessas pesquisas. Hoje ele percebe que essa visão pode ser um tanto inconsequente.

Mas quantos cientistas e principalmente homens de negócios da “big techs” também têm essa consciência?


Veja esse artigo em vídeo:


Isso me lembrou do início da minha carreira, como repórter de ciência, quando o mundo foi sacudido, em fevereiro de 1997, pelo anúncio da ovelha Dolly, o primeiro mamífero clonado com sucesso. Apesar de sua origem incomum, ela viveu uma vida normal por seis anos, tendo até dado à luz seis filhotes. Depois dela, outros mamíferos foram clonados, como porcos, veados, cavalos, touros e até macacos.

Não demorou para que fosse levantada a questão se seria possível clonar seres humanos. Ela rendeu até a novela global “O Clone”, de Glória Perez, em 2001. Em 2007, Ian Wilmut, biólogo do Instituto Roslin (Escócia) que liderou a equipe que criou Dolly, chegou a dizer que a técnica usada com ela talvez nunca fosse eficiente para uso em humanos.

Muitas teorias da conspiração sugerem que clones humanos chegaram a ser criados, mas nunca revelados. Isso estaria em linha com a ideia de Hinton da execução pelo prazer do desafio técnico.

Ainda que tenha se materializado, a pesquisa de clones humanos não foi para frente. E o que impediu não foi qualquer legislação: foi a ética! A sociedade simplesmente não aceitava aquilo.

“A ética da inteligência artificial tem que funcionar mais ou menos como a da biologia, tem que ter uma trava”, afirma Lucia Santaella, professora-titular da PUC-SP. “Se não os filmes de ficção científica vão acabar se realizando.”

 

A verdade irrelevante

Outro ponto destacado por Hinton que me chamou a atenção é sua preocupação com que a inteligência artificial passe a produzir conteúdos tão críveis, que as pessoas não sejam mais capazes de distinguir entre o que é real e o que é falso.

Ela é legítima! Já em 2016, o Dicionário Oxford escolheu “pós-verdade” como sua “palavra do ano”. Muito antes da IA generativa e quando as fake news ainda engatinhavam, esse verbete da renomada publicação alertava para “circunstâncias nas quais os fatos objetivos são menos influentes na opinião pública do que as emoções e as crenças pessoais”. De lá para cá, isso se intensificou exponencialmente: as pessoas acreditam naquilo que lhes for mais conveniente e confortável. As redes sociais levaram isso às raias da loucura e a IA generativa pode complicar ainda mais esse quadro.

“Não é que a verdade não exista: é que a verdade não mais importa”, acrescenta Santaella. “Esse é o grande problema!”

Ter ferramentas como essas abre incríveis possibilidades, mas também exige um uso responsável e consciente, que muitos não têm. Seu uso descuidado e malicioso pode ofuscar os benefícios da inteligência artificial, transformando-a em um mecanismo nefasto de controle e de desinformação, a exemplo do que foi feito com as redes sociais. E vejam como isso está destruindo a sociedade!

Se nenhum limite for imposto, as empresas desenvolvedoras da IA farão o mesmo que fizeram com as redes sociais. É uma corrida em que ninguém quer ficar para trás, pois o vencedor dominará o mundo! Para tornar a situação mais dramática, não se trata apenas de uma disputa entre companhias, mas entre nações. Ou alguém acha que a China está parada diante disso tudo?

Eu jamais serei contra o desenvolvimento de novas tecnologias. Vejo a inteligência artificial como uma ferramenta fabulosa, que pode trazer benefícios imensos. Da mesma forma, sou um entusiasta do meio digital, incluindo nele as redes sociais.

Ainda assim, não podemos viver um vale-tudo em nenhuma delas, seja clonagem, IA ou plataformas digitais. Apesar das críticas ao “PL das Fake News” criadas e popularizadas pela desinformação política e resistência feroz das “big techs” (as verdadeiras prejudicadas pela proposta), ele oferece uma visão equilibrada de como usar bem as redes sociais. Mas para isso, essas empresas precisam se empenhar muito mais, inclusive agindo de forma ética com o negócio que elas mesmas criaram.

Não percamos o foco no que nos torna humanos, nem a capacidade de distinguir verdade de mentira. Só assim continuaremos evoluindo como sociedade e desenvolveremos novas e incríveis tecnologias.

Nesse sentido, o antigo lema do Google era ótimo: “don’t be evil” (“não seja mal”). Mas em 2015, a Alphabet, conglomerado que incorporou o Google, trocou o mote por “faça a coisa certa”, bem mais genérico.

Bem, a coisa certa é justamente não ser mal.