inteligência artificial

O CEO da OpenAI, Sam Altman, que ganhou a briga contra o antigo conselho da empresa - Foto: Steve Jennings/Creative Commons

Como a confusão na OpenAI determinará nossas vidas

By | Tecnologia | No Comments

Nessa quarta (30), o lançamento do ChatGPT completa seu primeiro aniversário. É bem pouco tempo para um produto que mudou a maneira como fazemos muitas coisas em nossas vidas. Isso se deu não por seus próprios recursos, limitados a escrever textos (ainda que de maneira surpreendente), mas por ter iniciado a corrida da inteligência artificial generativa, que invadiu todo tipo de ferramenta de produtividade.

Por uma infame coincidência, a OpenAI, criadora do sistema, quase deixou de existir na semana passada. Na sexta anterior (17), Sam Altman, fundador e CEO da empresa, foi sumariamente demitido, pegando o mundo da tecnologia –e aparentemente ele mesmo– de surpresa. A OpenAI só não desapareceu por uma cinematográfica sequência de eventos, que puseram Altman de volta na sua cadeira em apenas cinco dias.

Isso já tornaria essa história incrível, mas pouco se sabe e menos ainda se fala dos elementos mais suculentos em seus bastidores. Afinal, o que faria o conselho de administração da OpenAI mandar embora a estrela mais brilhante do Vale do Silício no momento, em plena ascensão?

A resposta é profundamente mais complexa que uma simples “quebra de confiança”, apresentada na justificativa. O real motivo são visões conflitantes sobre como o desenvolvimento da inteligência artificial deve continuar acontecendo. De um lado, temos uma maneira mais lenta e cuidadosa, até para se evitar que ela “saia do controle” e ameace a humanidade. Do outro, há os que defendam que isso aconteça de forma acelerada, criando freneticamente novos e fabulosos produtos com ela.


Veja esse artigo em vídeo:


Sam Altman faz parte do segundo grupo. Os agora ex-membros do conselho de administração da OpenAI fazem parte do outro.

No fim de semana seguinte a sua demissão, Altman tentou sem sucesso reassumir o cargo. Então a Microsoft, que é a principal investidora da OpenAI, anunciou na segunda (20) a sua contratação para liderar um novo centro de pesquisa de inteligência artificial. Disse ainda que aceitaria qualquer profissional da OpenAI que quisesse acompanhar Altman.

No dia seguinte, em um movimento ousado, cerca de 700 trabalhadores da startup publicaram uma carta aberta exigindo a readmissão de Altman e a renúncia dos membros do conselho. Caso contrário, todos se demitiriam, o que na prática acabaria com a empresa. Na quarta, Altman estava de volta e os conselheiros se demitiram.

A Microsoft não tinha nenhum interesse no fim da OpenAI, portanto contratar Altman foi uma jogada de mestre, por forçar a reação das suas equipes. Depois de investir US$ 13 bilhões na startup, seus produtos estão sendo gradualmente integrados aos da gigante, como o pacote 365 (antigo Office) e o buscador Bing. Além disso, a OpenAI está pelo menos seis meses à frente da concorrência, como Google e Meta, o que é um tempo enorme nas pesquisas de IA, e isso não pode ser jogado no lixo.

A confusão na OpenAI não se trata, portanto, se Altman estava fazendo um bom trabalho. Segundo o New York Times, ele e os antigos conselheiros já vinham brigando há mais de um ano, pois o executivo queria acelerar a expansão dos negócios, enquanto eles queriam desacelerar, para fazer isso com segurança.

Vale dizer que a OpenAI foi fundada em 2015 como uma organização sem fins lucrativos, para construir uma superinteligência artificial segura, ética e benéfica à humanidade. Mas a absurda capacidade de processamento que a inteligência artificial exige levou à criação de um braço comercial do negócio, em 2018.

 

A “mãe de todas as IAs”

Altman sempre disse que buscava o desenvolvimento de uma inteligência artificial geral (IAG), um sistema capaz de realizar qualquer tarefa por iniciativa própria, até mesmo se modificar para se aprimorar. Isso é muito diferente das IAs existentes, que realizam apenas um tipo tarefa e dependem de serem acionadas por um usuário.

Alguns pesquisadores afirmam que a IAG, que superaria largamente a capacidade cognitiva humana, jamais existirá. Outros dizem que já estamos próximos dela.

Na semana passada, a OpenAI deu mais um passo nessa busca, com o anúncio da Q* (lê-se “Q-Star”, ou “Q-Estrela”, em tradução livre), uma IA ainda mais poderosa que as atuais. Esse sistema pode ter contribuído para a demissão de Altman.

Nada disso é um “papo de nerd”. Se chegaremos a ter uma inteligência artificial geral ou até com que agressividade a IA transformará todo tipo de ferramentas já impacta decisivamente como vivemos. E isso vem acontecendo de maneira tão rápida, que mesmo os pesquisadores estão inseguros sobre benefícios e riscos que isso envolve.

Há ainda preocupações geopolíticas: se as grandes empresas ocidentais não fizerem isso, regimes autoritários e fundamentalistas podem chegar lá, com consequências imprevisíveis para a ordem mundial. Mas também não podemos ver candidamente o Vale do Silício como um campeão da liberdade e da ética. Eles querem dinheiro, e casos como o da OpenAI e de muitas redes sociais ilustram isso.

Mesmo uma “IA legítima” pode ser usada de forma antiética e abusiva. Acabamos de ver isso na eleição presidencial argentina, com os candidatos usando essas plataformas para se comunicar melhor com seus eleitores, mas também para criar imagens depreciativas dos concorrentes. O mesmo deve acontecer aqui nas eleições municipais de 2024. Tanto que o Tribunal Superior Eleitoral (TSE) já busca como coibir a bagunça. A inteligência artificial deve, portanto, nos preocupar desde um improvável extermínio da humanidade até problemas pelo seu uso incorreto em nosso cotidiano.

Os robôs têm “leis” para que não se voltem contra nós, propostas pelo escritor Isaac Asimov, em 1942. São elas: “um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal”, “um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que entrem em conflito com a Primeira Lei” e “um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.” Mais tarde, ele acrescentou a “Lei Zero”: “um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.”

Elas parecem suficientes, mas são apenas uma ideia, enquanto a IA é uma realidade. E mesmo que sejam implantadas no âmago de uma inteligência artificial geral, que garantia temos de que ela não encontre maneiras de alterar seu código para desobedecê-las se assim achar necessário?

Por tudo isso, as decisões do novo conselho da Open AI nos próximos meses, que a devem tornar mais capitalista, afetarão não apenas a empresa, mas o futuro de todos nós. Com tanto dinheiro envolvido, era pouco provável que um grupo de acadêmicos conseguisse desacelerar o desenvolvimento da IA por questões éticas.

No final das contas, estamos fazendo uma aposta entre produtividade e segurança. Uma goleada da primeira começa a se formar. O problema é que aparentemente não temos capacidade de antecipar com certeza o que acontecerá. Temos que estar monitorando a cada momento essa evolução e ter uma tomada física para simplesmente puxar e desligar a coisa toda, se assim for necessário.

 

Cena de “Black Mirror”, em que se vê o implante ocular digital que aparece em vários episódios, com usos diversos - Foto: Reprodução

IA traz as coisas mais legais e mais sinistras de “Black Mirror” para o nosso cotidiano

By | Tecnologia | No Comments

Você gostaria de ter a sua disposição algumas das tecnologias de “Black Mirror”, que praticamente dão “superpoderes” a seus usuários, mesmo que isso possa lhes trazer algum risco? Se a reposta for positiva, prepare-se, pois a inteligência artificial pode fazer algo parecido àquilo se tornar realidade em breve, com tudo de bom e de ruim que oferece.

A série britânica, disponível na Netflix, ficou famosa por mostrar uma realidade alternativa ou um futuro próximo com dispositivos tecnológicos incríveis, capazes de alterar profundamente a vida das pessoas. Mas, via de regra, algo dá errado na história, não pela tecnologia em si, mas pela desvirtuação de seu uso por alguns indivíduos.

Os roteiros promovem reflexões importantes sobre as pessoas estarem preparadas para lidar com tanto poder. Com as novidades tecnológicas já lançadas ou prometidas para os próximos meses, os mesmos dilemas éticos começam a invadir nosso cotidiano, especialmente se (ou quando) as coisas saírem dos trilhos. Diante de problemas inusitados (para dizer o mínimo), quem deve ser responsabilizado: os clientes, por usos inadequados dos produtos, ou seus fabricantes, que não criaram mecanismos de segurança para conter isso?


Veja esse artigo em vídeo:


Provavelmente o dispositivo mais icônico de “Black Mirror”, que aparece em vários episódios, com diferentes aplicações, é uma espécie de implante ocular capaz de captar tudo que a pessoa vê em sua vida, que fica armazenado em um chip implantado atrás da orelha. Essa memória eterna e detalhada pode ser recuperada a qualquer momento, sendo projetada diretamente no próprio olho ou em uma tela.

Não é difícil imaginar como isso pode ser problemático, especialmente quando outras pessoas têm acesso a memórias alheias. Algumas coisas deveriam ser simplesmente esquecidas ou jamais compartilhadas!

A privacidade se torna um bem cada vez mais valioso em um mundo em que nossas informações pessoais viram dinheiro na mão de empresas que as transformam em dados comercializáveis. Um bom exemplo são equipamentos que vestimos (os chamados “wearables”) que captam informações sobre nossa saúde, muitas delas compartilhadas com os fabricantes. Mas para que esse envio é necessário?

Os relógios inteligentes (os “smart watches”) são o exemplo mais popular desses equipamentos. Mas uma nova geração de dispositivos melhorados pela inteligência artificial aprendem como nosso corpo funciona e nos oferecem informações personalizadas para uma vida melhor.

É o caso do Whoop 4.0, uma pulseira com diversos sensores biométricos, como batimentos cardíacos, oxigênio no sangue, temperatura e taxa de respiração, que afirma ajudar em atividades físicas e até em como dormimos. Já o Oura Smart Ring oferece algo semelhante, porém “escondido” em um simples anel.

Alguns são mais radicais, como a pulseira Pavlok 3. Ela promete ajudar a desenvolver hábitos mais saudáveis, como dormir melhor e até parar de fumar. Quando o dispositivo detecta algo ruim (como fumar), ele emite uma vibração e, se necessário, dá um choque elétrico na pessoa, para associar desconforto ao mau hábito.

Mas dois outros dispositivos lembram mais “Black Mirror”: o Rewind Pendant e o Humane AI Pin. Ainda não são os implantes oculares da série, mas prometem gravar o que acontece a nossa volta e muito mais. Eles pretendem inaugurar a era da “computação invisível”, em que não mais dependeremos de telas, nem mesmo as de celulares ou de óculos de realidades virtual ou aumentada.

O Rewind Pendant é um pequeno pingente que grava tudo que o usuário fala ou ouve. A partir daí, é possível dar comandos simples como “resuma a reunião de ontem” ou “o que meu filho me pediu hoje de manhã”. Como o sistema identifica a voz de quem está falando, o fabricante afirma que só grava alguém se essa pessoa explicitamente autorizar isso por voz.

Já o Humane AI Pin é um discreto broche que funciona como um assistente virtual que conhece nossos hábitos, grava e até projeta imagens em nossa mão. Comunica-se com o usuário por voz e sua inteligência artificial pode até desaconselhar que se coma algo, porque aquilo contém algum ingrediente a que a pessoa seja intolerante.

 

“Babaca digital”

Impossível não se lembrar do Google Glass, óculos inteligentes que a empresa lançou em 2013. Ele rodava diferentes aplicativos e as informações eram projetadas em sua lente, que se tornava uma tela para o usuário.

Apesar de cobiçado, acabou retirado do mercado por questões de privacidade. Ele tirava fotos e filmava sem que os outros soubessem. Além disso, fazia reconhecimento facial de interlocutores, que poderia ser usado para coletar informações adicionais. As pessoas que faziam maus usos do produto passaram a ser chamadas de “glassholes”, um trocadilho que junta “Glass” a “asshole” (algo como “babaca” em inglês).

Isso nos remete novamente a “Black Mirror”. Nenhum desses produtos foi criado para maus usos, mas as pessoas podem fazer o que bem entenderem com eles. E depois que são lançados, fica difícil “colocar o gênio de volta na lâmpada”.

Estamos apenas arranhando as possibilidades oferecidas pela inteligência artificial, que ainda revolucionará vidas e negócios. Tanto poder exigiria grandes responsabilidades, mas não podemos esperar isso das pessoas, e os fabricantes tampouco parecem muito preocupados.

Como exemplo, na semana passada, vimos o caso de alunos do 7º ao 9º ano do Colégio Santo Agostinho, um dos mais tradicionais do Rio de Janeiro, usando a inteligência artificial para criar imagens de suas colegas sem roupa. Desenvolvedores desses sistemas proíbem que sejam usados para esse fim, mas é inocência achar que isso será atendido. Tanto que já foram criadas plataformas especificamente para isso.

Quem deve ser responsabilizado por esses “deep nudes”: os alunos, os pais, a escola, o fabricante? Não se pode mais acreditar em qualquer imagem, pois ela pode ter sido sintetizada! Isso potencializa outros problemas, como os golpes de “sextorsão”, em que pessoas são chantageadas para que suas fotos íntimas não sejam divulgadas. Com a “computação invisível”, isso pode se agravar ainda mais!

O sociólogo polonês Zygmunt Bauman (1925 – 2017) era mesmo o filósofo de nosso tempo, com obras como “Modernidade Líquida” (1999), “Amor Líquido” (2004) e “Vida Líquida” (2005). Não viveu para experimentar a IA ou esses dispositivos, mas seu pensamento antecipou como tudo se tornaria descartável e efêmero na vida, nos relacionamentos, na segurança pessoal e coletiva, no consumo e no próprio sentido da existência.

A inteligência artificial está aí e ela é incrível: não dá para deixar de usá-la! Mas precisamos encontrar mecanismos para não cairmos nas armadilhas que nós mesmos criaremos com seu uso indevido.

 

Thiago Araki, diretor-sênior de Tecnologia da Red Hat na América Latina, no palco do Summit Connect, no dia 18 – Foto: Red Hat

Negócios e empregos mudam exponencialmente com novas tecnologias e modelos

By | Tecnologia | No Comments

O ano de 2023 será lembrado como o momento em que a inteligência artificial ganhou as ruas. O lançamento do ChatGPT, no final de 2022, disparou uma corrida em que todos os negócios parecem ser obrigados a usar a IA, quase como se ela fosse um selo de qualidade, o que obviamente não passa de uma distorção do que ela representa. O grande desafio reside, portanto, em conhecer e se apropriar dessa tecnologia, para tirar proveito dela adequadamente.

As empresas têm um papel central em ajudar nessa tarefa, não apenas com o lançamento de produtos que tragam soluções consistentes com a IA, mas também na educação do mercado. Isso ficou claro durante o Red Hat Summit: Connect, principal evento de tecnologia open source da América Latina, que aconteceu em São Paulo no dia 18.

É curioso pensar que a inteligência artificial já está em nosso cotidiano há muitos anos, em incontáveis aplicações empresariais e até em nosso celular, ajudando-nos a fazer escolhas melhores. A diferença é que, até então, ela se escondia nas entranhas desses sistemas. Agora ganhou a luz do sol, exposta em conversas que temos com a máquina, que nos responde como se fosse outra pessoa.

Ainda há deslumbramento demais e conhecimento de menos sobre a inteligência artificial entre consumidores e empresas. O próprio lançamento de tantas plataformas de inteligência artificial generativa, na esteira do sucesso explosivo do ChatGPT, indica um certo descuido de alguns desenvolvedores de soluções, liberando um enorme poder para pessoas que não sabem como usá-lo corretamente.

Nesse sentido, a Red Hat, que é a maior empresa do mundo no fornecimento de soluções empresariais open source, entende que deve ir além do seu papel de desenvolver produtos que tiram proveito da IA: deve também educar seus usuários, seja pelas suas próprias iniciativas, seja pela colaboração com o mundo acadêmico. “As empresas não só podem como devem colaborar na formação de profissionais”, explica Alexandre Duarte, vice-presidente de Serviços para a América Latina na Red Hat. “Nós temos que juntar esforços do mundo corporativo com o mundo educacional, estando alinhados.”

A versão latino-americana do Summit, que também acontece em Buenos Aires (Argentina), Santiago (Chile), Tulum (México), Lima (Peru) e Montevidéu (Uruguai), traz para esses mercados produtos e conceitos que foram apresentados em maio no evento global da empresa, realizado em Boston (EUA). Entre eles, o Ansible Lightspeed e o OpenShift AI, que usam a inteligência artificial na automação de tarefas, como geração de códigos a partir de pedidos simples em português, liberando o tempo das equipes para funções mais nobres.

E assim como pude ver em Boston, aqui a empresa também deixa claro que a inteligência artificial não chega para substituir profissionais, e sim para melhorar suas rotinas. “Se você for um novato, poderá criar melhor, mais rápido; se for um especialista, poderá melhorar muito o que faz e usar seu domínio para refinar a entrega”, explicou-me Matt Hicks, CEO global da Red Hat, em uma conversa com jornalistas durante o Summit na cidade americana. “Nessa nova fase, temos que conhecer a pergunta para a qual queremos a resposta”, concluiu.

É auspicioso observar essa visão em uma das empresas de software mais respeitadas do mundo, em um momento em que muita gente teme pelo seu emprego pelo avanço da inteligência artificial. “Essas ondas tecnológicas não tiram o emprego das pessoas, os profissionais precisam se acomodar”, acalma Duarte. Mas ele faz uma ressalva: é preciso querer aprender! “Se você tem propensão a aprender coisas novas, eu não acredito que a inteligência artificial vai tirar seu emprego, e ainda vai gerar novas oportunidades de trabalho”, acrescenta.

 

O poder da “coopetição”

Em março deste ano, a Red Hat completou 30 anos. Ele cresceu a partir de sua distribuição do sistema operacional Linux, provavelmente o software open source mais famoso do mundo. Nessa modalidade, o produto e o código-fonte ficam disponíveis gratuitamente. A regra fundamental é que, se alguém fizer uma melhoria no sistema, ela deve ser compartilhada de volta com a comunidade.

Essa forma de pensar inspira seu próprio modelo de trabalho, que ficou conhecido como “open business”, uma abordagem empresarial em que equipes, a comunidade e até concorrentes são convidados a cooperar de maneira transparente. Ela valoriza a transparência e a responsabilização, distribuindo os benefícios para todos. “Há 30 anos a gente fala sobre essa abertura, essa transparência, essa possibilidade de diferentes perspectivas”, afirma Sandra Vaz, diretora-sênior de Alianças e Canais para a América Latina na Red Hat.

Surge então a chamada “coopetição”, um neologismo que une “cooperação” e “competição”. “Nada mais é que dois competidores cooperando e criando novas soluções para o bem de seus clientes”, explica Vaz. “Nós colaboramos, nossas equipes de desenvolvimento se conectam e criam o melhor dos mundos, simplificando soluções já existentes.”

A “coopetição” também é uma poderosa ferramenta para ampliar a base de clientes, pois um dos participantes pode trazer consumidores a que o outro lado não teria acesso. Sandra dá, como exemplo, um provedor de serviços na nuvem, como a AWS ou a Microsoft, que podem até ter produtos concorrentes aos da Red Hat, mas que se associam a ela justamente nessas soluções, se assim for o desejo do cliente.

A tecnologia avança a passos muito rápidos, assim como modelos de negócios inovadores. Qualquer que seja o mercado ou a função, está claro que profissionais precisam estar não apenas abertos à inovação, como também dispostos a aprender como tirar proveito dela de maneira eficiente e ética.

A inteligência artificial talvez não acabe com os empregos das pessoas que não a adotem, mas isso pode acabar acontecendo pelas mãos daquelas que passarem a usá-la.


Você pode assistir à íntegra em vídeo das minhas entrevistas com os executivos da Red Hat. Basta clicar no respectivo nome: Alexandre Duarte, Sandra VazMatt Hicks.

 

Graças à IA em novos celulares, qualquer um poderá alterar profundamente suas fotos - Foto: Akshay Gupta/Creative Commons

Celulares podem se tornar máquinas de distorcer a realidade

By | Tecnologia | No Comments

Quando a fotografia foi inventada, no século XIX, ela revolucionou o mundo por conseguir reproduzir facilmente a realidade. De lá para cá, ela só melhorou, culminando na fotografia digital, que transformou um hobby caro em uma diversão extremamente popular, consolidada com as câmeras cada vez mais poderosas nos celulares. Mas agora esses equipamentos podem ironicamente subverter a característica essencial da fotografia de retratar a realidade com precisão.

A culpa disso recai sobre a inteligência artificial. Ela já está presente há algum tempo nos softwares de captura e edição de imagens dos melhores celulares. Mas, até então, prestava-se a “melhorar” (note as aspas) as fotografias, usando técnicas para aumentar a sua fidelidade e refinar elementos como cores, brilho e contraste.

Isso começa a mudar agora, com o lançamento nos EUA, no dia 11, do Pixel 8 (sem previsão de chegada ao Brasil). O smartphone de US$ 700 do Google consegue efetivamente alterar a realidade fotografada. Isso quer dizer que, com ele, é possível, por exemplo, eliminar pessoas e objetos das fotos, alterar elementos das imagens ou modificar suas posições e até “melhorar” (de novo, com aspas) o rosto de pessoas combinando com a maneira que elas apareceram em outras fotos.

Como em todas as atuais plataformas baseadas na inteligência artificial generativa, alguns resultados dessas edições são decepcionantes e até grotescos. Outros, porém, ficam incrivelmente convincentes!

Já dizia São Tomé: “preciso ver para crer”. Parábolas à parte, é um fato que somos seres visuais: nosso cérebro tende a assumir como real o que está diante de nossos olhos. Por isso, vale perguntar até que ponto é positivo e até saudável dar a possibilidade de se distorcer a realidade de maneira tão simples.


Veja esse artigo em vídeo:


É curioso que a fotografia foi combatida por muitos quando surgiu, justamente pela sua capacidade de reproduzir, de maneira fácil, rápida e precisa, o mundo. Pintores diziam que o invento era algo grosseiro, que eliminava a subjetividade e a técnica dos artistas quando retratavam pessoas e paisagens. Grupos religiosos também a combatiam, por serem contrários à captura de imagens de “coisas feitas por Deus”.

Em 1826, o francês Joseph Nicéphore Niépce registrou seu quintal em uma placa de estanho revestida de betume, usando uma câmera escura por oito horas. Essa é considerada a primeira fotografia permanente. Três anos depois, ele fez um acordo com outro francês, Louis Jacques Mandé Daguerre, que aperfeiçoou o processo com o daguerreótipo, que precisava de “apenas” 30 segundos para fazer uma fotografia.

A patente do daguerreótipo foi vendida ao Estado francês em 1839, que a colocou em domínio público. Isso permitiu que a fotografia experimentasse grandes avanços ao redor do mundo. Provavelmente a empresa mais inovadora do setor foi criada pelo americano George Eastman em 1888: a Kodak. Entre suas contribuições, estão o rolo de filme (1889), a primeira câmera de bolso (1912) e o filme colorido moderno (1935).

O último grande invento da Kodak foi a fotografia digital, em 1975. Mas como os lucros da empresa dependiam da venda de filmes, seus executivos não deram importância a ela. Foi um erro fatal, pois a tecnologia se tornou incrivelmente popular e, quando a empresa decidiu olhar para ela, as japonesas já dominavam o mercado.

Em 1999, foi lançado o Kyocera VP-210, o primeiro celular com câmera capaz de tirar fotos, que tinham resolução de 0,11 megapixel (o iPhone 15 tira fotos de 48 megapixels). E isso nos traz de volta ao dilema atual.

 

Realidade alternativa

As fotografias nos celulares se tornaram tão realistas e detalhadas que o próprio negócio de câmeras fotográficas entrou em colapso. Elas continuam existindo, mas hoje praticamente só profissionais as utilizam, pois sabem como aproveitar todos os recursos daqueles equipamentos para fotografias realmente diferenciadas.

Os recursos de IA do Pixel 8 fazem parte de uma nova versão do Google Fotos, o aplicativo de edição e publicação de fotos da empresa, que é nativo nos smartphones Android, mas também pode ser baixado para iPhones. Isso significa que, em tese, outros aparelhos poderão ganhar esses recursos em breve, desde que, claro, tenham capacidade de processamento para isso.

A alteração de fotografias sempre existiu, mesmo antes dos softwares de edição de imagem. Entretanto fazer isso era difícil, exigindo equipamentos e programas caros e muita habilidade técnica. Além disso, as fotos editadas eram apresentadas como tal, sem a pretensão de levar quem as visse a acreditar que fossem reais (salvo exceções, claro)..

O que se propõe agora é que isso seja feito de maneira muito fácil, por qualquer pessoa, sem nenhum custo adicional e em equipamentos vendidos aos milhões. Isso levanta algumas questões éticas.

A primeira delas é que as pessoas podem passar a se tornar intolerantes com a própria realidade. O mundo deixaria de ser o que é, para ser o que gostariam. Isso é perigosíssimo como ferramenta para enganarem outros indivíduos e até a si mesmas.

A sociedade já experimenta, há anos, um crescimento de problemas de saúde mental, especialmente entre adolescentes, devido a fotos de colegas com corpos “perfeitos” (pela terceira vez, as aspas). Isso acontece graças a filtros com inteligência artificial em redes sociais, especialmente Instagram e TikTok, que fazem coisas como afinar o nariz, engrossar os lábios, diminuir os quadris e alterar a cor da pele. O que se observa mais recentemente são adolescentes insatisfeitos com seus corpos não pelo que veem em amigos, mas pelo que veem em suas próprias versões digitais.

Há um outro aspecto que precisa ser considerado nesses recursos de alteração de imagens, que são os processos de desinformação. Muito provavelmente veremos grupos que já se beneficiam das fake news usando intensamente essa facilidade para convencer seu público com mentiras cada vez mais críveis.

Hoje esses recursos ainda estão toscos demais para um convencimento completo. Mas é uma questão de pouco tempo até que eles se aproximem da perfeição.

Não tenham dúvidas: quando estiver disponível, as pessoas usarão intensamente essa tecnologia, estando imbuídas de boas intensões ou de outras não tão nobres assim. Quem será responsabilizado quando começarem a surgir problemas disso?

Assim como acontece com as redes sociais, as desenvolvedoras se furtam disso, dizendo que apenas oferecem um bom recurso, e as pessoas que fazem maus usos deles. Em tese, isso é verdade. Mas alegar inocência dessa forma chega a ser indecente! É como entregar uma arma carregada na mão de uma criança e torcer para que nada de ruim aconteça.

Chegamos ao mundo em que a ilusão se sobrepõe à realidade, mas não estamos prontos para lidar com isso.

 

Entregador dorme sobre seus jornais, em imagem tirada em 1935 – Foto: City of Toronto Archives/Creative Commons

Reação da mídia ao ChatGPT pode favorecer as fake news

By | Tecnologia | No Comments

Nas últimas semanas, diversas empresas de comunicação impediram que seus conteúdos continuassem sendo usados para alimentar o ChatGPT. Elas argumentam –com razão– que seus produtos têm valor e que não estão sendo remuneradas pela melhoria que proporcionam involuntariamente à plataforma geradora de textos por inteligência artificial da OpenAI.

Entre os que decidiram promover o bloqueio, estão os jornais americanos The New York Times e The Washington Post, o britânico The Guardian, a rede de TV CNN, as agências de notícias Reuters e Bloomberg, além de diversos veículos europeus. Até a gigante de e-commerce Amazon decidiu fechar a porta para esse robô.

Apesar de seus argumentos legítimos, essa decisão pode favorecer a desinformação em um futuro breve. Os sistemas de inteligência artificial generativa tornaram-se um enorme sucesso, e as pessoas devem usá-los cada vez mais. Em uma situação extrema em que todos os produtores de bons conteúdos os neguem a essas plataformas, elas poderiam ficar restritas a sites dedicados a fake news e outros tipos de conteúdo de baixa qualidade para “aprender o que dizer” aos seus usuários.

Nesse cenário, o público poderia passar a consumir e a replicar o lixo desinformativo, em uma escala ainda maior que a já vista nos últimos anos. Seria terrível para o jornalismo –que luta para combater isso– e para a sociedade como um todo.


Veja esse artigo em vídeo:


Eu já vi uma história parecida antes. Quando foi criado, em 2002, o Google Notícias gerou protestos entre veículos de comunicação do mundo todo, que acusavam a empresa de se apropriar de sua produção para criar um concorrente. O Google Notícias sempre se defendeu, dizendo que fazia um “uso justo” de pequenos trechos dos veículos e que sempre enviava os leitores que clicassem nos seus links para a fonte da notícia.

Diante das reclamações, o Google criou um recurso para que os veículos impedissem que seu conteúdo fosse usado no Notícias. O problema é que isso também tirava os veículos do buscador, o que não era nada interessante para eles. Eventualmente as partes chegaram a acordos que permitiram que esse conteúdo continuasse sendo usado, enquanto o Google criava mecanismos de apoio ao jornalismo no mundo. Movimentos semelhantes também aconteceram com as principais redes socais.

No caso atual, há algumas diferenças significativas. Pela natureza da inteligência artificial generativa, ela sempre cria textos inéditos, a cada pedido dos usuários. Não há remuneração, referência e sequer um link para as fontes que foram usadas para o sistema escrever aquilo. Consequentemente não há nenhum ganho para os autores.

“Certamente as inteligências artificiais não produziriam o conteúdo que elas são capazes sem serem alimentadas com o conteúdo criado por humanos, que não autorizaram isso e que não estão sendo remunerados por isso”, explica Marcelo Cárgano, advogado de Direito Digital e de Proteção de Dados do Abe Advogados. “A grande questão, no final, é essa!”

No dia 6, 26 organizações do mercado editorial, inclusive a brasileira ANJ (Associação Nacional de Jornais), publicaram o documento “Princípios Globais para a Inteligência Artificial”. Ele traz regras que consideram essenciais para a prática do jornalismo frente ao avanço da inteligência artificial, cobrando o desenvolvimento ético da tecnologia e o respeito às propriedades intelectuais dos veículos.

Outra fonte de informação ameaçada pela inteligência artificial é a enciclopédia digital Wikipedia. Pela natureza mais perene de seus milhões de verbetes, as pessoas poderiam fazer perguntas a plataformas de IA ao invés de consultar suas páginas, o que já vem preocupando seus editores. Suprema ironia, uma das maiores fontes para o ChatGPT é a própria Wikipedia.

 

Atualidade e ética

Além da questão da falta de remuneração pelo uso de conteúdos alheios, há ainda o temor de que as plataformas de inteligência artificial acabem substituindo a Wikipedia e o próprio jornalismo.

Esse questionamento surgiu, na quarta passada, em uma mesa de debates da qual participei na Semana da Imprensa, promovida pelo jornal Joca, na ESPM (Escola Superior de Propaganda e Marketing). O evento explica o jornalismo para crianças e adolescentes, o público do veículo.

Os participantes foram unânimes em negar essa possibilidade. O primeiro motivo é que esses sistemas, a despeito de seus melhores esforços, são imprecisos, cometendo muitos erros pela falta de uma verificação humana. Outro problema é que suas bases estão sempre desatualizadas (o ChatGPT só conhece fatos até setembro de 2021). Por fim, mas não menos importante, essas ferramentas não possuem qualquer iniciativa, ética ou transparência, essenciais a qualquer produto informativo.

“A função dos veículos de comunicação é particularmente importante para a democracia”, explica Cárgano, fazendo referência ao papel do jornalismo de promover debates críticos para a sociedade. “Mas eles também são empresas e têm que gerar lucro para sua própria viabilidade econômica”, acrescenta.

Toda essa confusão deriva do impacto que essa tecnologia já apresenta sobre pessoas e empresas. Ele é enorme, mas ainda pouco compreendido. Enquanto isso, todos buscam caminhos para aproveitar seus incríveis recursos, sem cair em possíveis armadilhas que podem surgir dela.

A decisão de impedir as plataformas de inteligência artificial de aprender com a sua produção pode ser ironicamente um “tiro no pé” do jornalismo. Se elas forem entregues a fontes de baixa qualidade, podem se tornar poderosas ferramentas de fake news, que fustigam os jornalistas e a própria imprensa como pilar que é de uma sociedade desenvolvida.

É preciso uma conscientização dos diferentes atores nesse processo. Do lado dos usuários, eles devem entender que a IA não é uma ferramenta que substitui o jornalismo ou mesmo um buscador, pois ela não garante a verdade no que produz. As empresas de inteligência artificial devem, por sua vez, melhorar ainda mais sua tecnologia, para corrigir as imperfeições existentes, e cuidar para não canibalizar suas próprias fontes, o que poderia, a médio prazo, inviabilizar seu próprio negócio.

As empresas de comunicação têm um papel fundamental na solução desse imbróglio. Obviamente elas precisam defender seus interesses comerciais, mas sem que isso crie riscos ainda inexistentes para o próprio negócio. Devem buscar uma compensação justa das plataformas de IA.

Vivemos em um mundo em que a verdade perde força diante de narrativas distorcidas por diferentes grupos de poder. Aqueles que a buscam deve se unir e somar as novas tecnologias às suas metodologias editoriais consagradas. Se forem bem-sucedidos nisso, todos ganharão!

 

Crianças participam em atividade de aula de robótica em sua escola - Foto: Arno Mikkor/Creative Commons

Pensamento computacional em crianças e jovens ajuda a formar melhores cidadãos

By | Educação | No Comments

Em uma famosa entrevista em 1995, Steve Jobs disse que “todos neste país deveriam aprender a programar um computador, pois isto ensina a pensar.” O cofundador da Apple foi visionário, pois dominar a tecnologia se tornou crucial em um mundo imerso nela. A explosão no debate e aplicações de inteligência artificial reacendeu o tema, pois fica cada vez mais claro que ela pode colocar pessoas e empresas em um patamar superior àquelas que não se aproveitam de seus recursos.

Mas o pensamento computacional transcende programar computadores. Na verdade, hoje podemos fazer usos incríveis das máquinas sem escrever uma linha de código. Essa maneira de raciocinar envolve a capacidade analítica de resolver qualquer tipo de problema, de identificar padrões, de modelar processos. Ela aprimora nossa capacidade de aprender e de pensar criativa e criticamente, mesmo sem nada digital.

Nas últimas décadas, muitas escolas tentaram implantar computadores no cotidiano escolar em iniciativas muitas vezes improdutivas. Até pouco tempo, muitas ainda tinham “aulas de informática” sobre Windows e Word. Isso já erra por segregar a “informática” a uma aula, ao invés de encará-la de maneira transversal nas disciplinas.

Agora nos aproximamos do momento em que as escolas precisarão implantar a Política Nacional de Educação Digital, que estabelece diretrizes e metas para a promoção da educação digital, instituída no dia 11 de janeiro pela lei 14.533/23. Resta saber se as escolas estão preparadas para isso.


Veja esse artigo em vídeo:


Não podemos esquecer que muitas dessas instituições no país não têm infraestrutura para isso, carecendo de computadores e acesso à Internet. Mas esse trabalho pode começar mesmo sem o lado digital.

“Se a gente trabalha isso desde cedo nas escolas, com crianças e jovens, a gente consegue uma geração que sabe pensar de um jeito melhor, mais estruturado”, explica Cristina Diaz, diretora da UpMat Educacional, empresa que atua na educação básica a partir de conteúdos de matemática e pensamento computacional. Para ela, as crianças que desenvolvem essas habilidades desde cedo têm mais chance de criar um gosto pelo aprendizado, que levarão para o resto da vida.

Uma resolução do MEC (Ministério da Educação), de 4 de outubro do ano passado, determina que, a partir do mês que vem, as escolas passem a ensinar computação. A lei de janeiro detalha como isso deve ser feito, considerando a inclusão digital da sociedade, a educação digital nas escolas, as ações de capacitação do mercado de trabalho e o incentivo à inovação, à pesquisa e ao desenvolvimento.

Se isso já não bastasse, o lançamento do ChatGPT em novembro passado provocou um enorme debate sobre como a inteligência artificial impacta as atividades escolares, com professores e alunos usando a ferramenta sem preparo. Coincidentemente, na quinta passada, a Unesco (Organização das Nações Unidas para Educação, Ciência e Cultura) publicou orientações sobre o uso da inteligência artificial na educação e na pesquisa. Nelas, o órgão sugere que a IA não seja usada antes dos 13 anos de idade.

Diaz não acredita que a inteligência artificial deixará as pessoas menos inteligentes ou preguiçosas, um temor que vem sendo ventilado por muita gente. O motivo é simples: “para manusear esse tipo de tecnologia, a gente vai ter que aprender coisas mais sofisticadas, uma leitura crítica, a utilizar competências superiores”, afirma.

De fato, uma ferramenta tão poderosa como a inteligência artificial generativa oferece os seus maiores benefícios àqueles que sabem tirar proveito dela, com perguntas inteligentes. Infelizmente, a recíproca também é válida.

Como diz um ditado americano, “se entra lixo, sai lixo”.

 

Aliada da educação

Ao contrário do que muitos temem, a tecnologia digital –e a inteligência artificial particularmente– não ameaça a educação ou o papel do professor. Pelo contrário, pode ser uma incrível aliada no processo, se bem usada.

Em uma palestra há quatro meses, Salman Khan, fundador e CEO da Khan Academy, uma organização que oferece educação gratuita pela Internet, demonstrou uma ferramenta de IA generativa que auxilia professores e alunos. Nela, é possível ver, no caso dos estudantes, a máquina não lhes dando respostas prontas e ajudando-os a pensar na solução dos problemas. Para os professores, a ferramenta ajuda no planejamento de aulas mais engajadoras. Como disse Khan, para os alunos, a IA atua como um tutor, enquanto, para os professores, age como um assistente.

Os professores, as escolas e as políticas educacionais precisam se modernizar para absorver essas mudanças aceleradas da sociedade. Ainda temos um sistema educacional conteudista, com uma quantidade de informação tão grande, que pode desestimular o aluno a querer aprender mais.

Isso se reflete nos péssimos resultados do Brasil nas diferentes avaliações internacionais de eficiência educacional. Nossos estudantes, na média, sabem muito pouco de linguagem, ciências e matemática. Essa última é particularmente maltratada em nosso país, cujas últimas gerações parecem não gostar dela por definição.

Mas como ser um bom cidadão em uma sociedade profundamente digital sem uma boa base de pensamento computacional?

Engana-se quem acha que isso impacta apenas habilidades ligadas às Exatas. Um pensamento computacional limitado afeta diretamente o senso crítico do indivíduo. Em um mundo em que redes sociais e smartphones se transformaram em ferramentas de dominação ideológica pelas infames fake news, nada é mais necessário e determinante para a criação de um cidadão consciente, com sua mente livre.

“As escolas já estão reconhecendo a sensação de que não tem para onde escapar, e não porque é uma demanda da lei, mas porque é uma demanda da sociedade, das crianças, das famílias, da vida”, acrescenta Diaz. “Ninguém fala em outra coisa: o mundo do trabalho depende disso!”

Pais e escolas precisam se unir para que as crianças sejam incentivadas a desenvolver seu pensamento computacional. A matemática e o raciocínio lógico não podem continuar sendo encarados como “coisas chatas”, pois são os alunos que dominam esses recursos que escreverão o futuro de um mundo melhor para si e para todos os demais.

 

Tom Cruise viveu pela segunda vez o intrépido piloto da Marinha dos EUA Pete Mitchell, em “Top Gun: Maverick” (2022) - Foto: divulgação

Inteligência artificial pode mandar “Top Gun” para o museu

By | Tecnologia | No Comments

Em 1986, plateias do mundo todo prenderam a respiração diante das acrobacias aéreas de Tom Cruise nas telas de cinema em “Top Gun”. Ele repetiu a dose em “Maverick”, a segunda maior bilheteria de 2022, rendendo US$ 1,4 bilhão, logo atrás de “Avatar 2”. Agora a inteligência artificial pode fazer essas peripécias virarem peças de museu, ao tornar pilotos de caça obsoletos e desnecessários.

Duas notícias recentes, uma do The New York Times e outra do The Washington Post, revelam planos dos militares de usar essa tecnologia em novas gerações de aviões e de drones. Ela seria capaz de tomar decisões mais rápidas e precisas que os pilotos, até os mais experientes.

A ideia é controversa. Muito se tem debatido sobre a substituição das mais diversas categorias profissionais por robôs, considerando o impacto social dessa mudança. Mas o que se propõe agora é uma máquina tomar decisões que efetivamente visam a morte de pessoas.

Diversos aspectos éticos são levantados nessa hora. Os próprios pilotos veem isso com ressalva, e não apenas porque podem perder seu emprego daqui um tempo. Afinal, uma máquina pode decidir sobre a vida ou a morte de um ser humano? E se isso realmente acontecer no controle de aviões de combate, quanto faltará para vermos robôs policiando nossas ruas e tomando as mesmas decisões letais por sua conta na vizinhança?


Veja esse artigo em vídeo:


Não estamos falando da atual geração de drones militares, que, apesar de úteis, são bem limitados. Um bom exemplo do que vem por aí é o veículo aéreo não tripulado experimental XQ-58A, conhecido como “Valkyrie”, da Força Aérea americana. Ele, se parece muito mais a um caça furtivo futurista, apesar de ser bem menor que os aviões de combate. É impulsionado por um motor de foguete e é capaz de voar de um lado ao outro da China, carregando munições poderosas.

Mas seu grande diferencial é o controle por inteligência artificial, podendo tomar decisões sozinho, apesar de os militares afirmarem que só executará ações letais se autorizado por um ser humano. Ele pode voar diferentes tipos de missões, inclusive apoiando pilotos em seus caças, aumentando o sucesso e preservando suas vidas.

Como sempre, uma guerra não se ganha apenas com os melhores soldados, mas também com a melhor tecnologia. Mas até agora a decisão de matar sempre recaiu sobre os primeiros. O que pode estar diante de nossos olhos é o surgimento de armas que tomem essa decisão seguindo seus critérios, um ponto sensível para os EUA, pelo seu histórico de ataques ilegais com drones convencionais que mataram civis.

Diante disso, o general Mark Milley, principal conselheiro militar do presidente americano, Joe Biden, afirmou que os EUA manterão “humanos à frente da tomada de decisões”. Ele recentemente conclamou forças armadas de outros países a adotar o mesmo padrão ético.

Nesse ponto, caímos em um outro aspecto crítico desse avanço. Países que adotem essas “boas práticas” poderiam ficar em desvantagem diante de outras potências militares e tecnológicas não tão “comprometidas”, com o maior temor recaindo sobre a China. Como a guerra é, por definição, algo “sujo”, seguir as regras poderia então criar uma desvantagem catastrófica.

Outra mudança trazida pela IA ao tabuleiro armamentista é a entrada de novas empresas fornecedoras de equipamentos. No caso da Força Aérea americana, dois nomes surgem quando pensamos na indústria de caças: a Lockheed Martin e a Boeing. Esses casamentos comerciais são tão antigos e poderosos que sua tecnologia jamais chega, por exemplo, a países menores ou –pior– a grupos guerrilheiros.

Com a pulverização de drones com IA relativamente baratos, muitas outras empresas passam a disputar esses bilionários orçamentos. O “Valkyrie”, produzido pela Kratos (fundada em 1994) custa cerca de US$ 7 milhões. Pode parecer muito, mas é bem menos que os US$ 80 milhões de um F-35 Lightning II, da Lockheed Martin. Outros modelos podem custar ainda menos, na casa de US$ 3 milhões.

O receio é que esses fabricantes passem depois a oferecer tecnologia militar de ponta a terroristas e ditadores. E aí o medo de maus usos pela China vira “café pequeno”.

 

Campo de testes

O poder da inteligência artificial contra exércitos poderosos está sendo colocado à prova na invasão da Ucrânia. Seu exército vem usando drones bem mais simples que os citados, mas que já contam com recursos de IA, para atacar tropas russas. Mesmo quando essas aeronaves perdem o contato com seus pilotos remotos, devido aos sistemas de interferência do inimigo, ainda completam sua missão por conta própria.

De fato, a Ucrânia vem se tornando um frutífero campo de testes desses armamentos, que vêm sendo produzidos aos milhares. Além de poderem refinar seus equipamentos em situações reais de combate, os fabricantes podem fazer testes que dificilmente podem acontecer em um país que não esteja em guerra.

Os militares sabem que a inteligência artificial toma decisões erradas. Basta ver as falhas –algumas fatais– de carros autônomos nos últimos anos. Mesmo a tecnologia militar sempre sendo muito mais refinada e cara que a civil, não há garantias quanto a sua precisão. E há outros aspectos a serem considerados.

O primeiro é que a IA pode ser excelente em decisões a partir de padrões conhecidos, mas pode se confundir bastante diante do desconhecido e do inesperado, algo que permeia qualquer campo de batalha. Além disso, máquinas não possuem uma bússola moral, que norteia algumas das melhores decisões de um soldado.

É inevitável pensar no filme RoboCop (1987), em que um policial dado como morto é praticamente transformado em um robô. Apesar de ser obrigado a seguir diretivas em seu sistema, o que o tornava realmente eficiente era a humanidade que sobreviveu em seu cérebro. Isso lhe permitia vencer robôs de combate mais poderosos.

Tudo isso me faz lembrar da Guerra do Golfo, que aconteceu entre 1990 e 1991, quando os americanos invadiram o Iraque. Os militares invasores exterminavam o inimigo de longe, quase sem entrar em combate. Na época, um especialista criticou “soldados que querem matar, mas não querem morrer”.

A inteligência artificial pode potencializar isso. É claro que ninguém quer morrer e todos querem vencer um conflito, de preferência logo. Mas quem ganha algo com isso, além da indústria armamentista? Se a Rússia tivesse essa tecnologia, talvez a Ucrânia tivesse deixado de existir em poucas semanas dessa nefasta invasão atual.

Esse é um dos casos em que a inteligência artificial nunca deveria ser usada. Mas seria uma ilusão pueril acreditar que isso não acontecerá. Talvez o futuro da guerra pertença mesmo às máquinas autônomas. Só espero que isso não aconteça também em policiais-robôs nas ruas de nossos bairros.

 

O consumidor não se contente mais com um bom produto, querendo agora uma ótima experiência - Foto: Drazen Zigic/Creative Commons

Quando todo produto precisa se tornar digital, as empresas precisam aprender a correr riscos

By | Tecnologia | No Comments

A inteligência artificial está em toda parte! A essa altura, não é novidade. Dois estudos divulgados na quarta (16) pela IBM reforçam isso e como um número crescente de executivos a consideram um diferencial de negócios, abandonando o aspecto de “curiosidade tecnológica”. Ainda assim, empresas enfrentam dificuldades para adotá-la, por falta de experiência ou de apetite por correr riscos.

Outra que também poderia estar mais bem posicionada em nossas vidas se houvesse mais investimento é o 5G, que acaba de completar um ano de operação no Brasil. Segundo números apresentados pela Ericsson na mesma quarta, o país já atingiu 11,4 milhões de usuários dessa geração da telefonia móvel em 329 municípios. Mas os principais benefícios que ela traz não aparecem, porque as operadoras concentram sua comunicação na oferta de maior velocidade, sem fazer as necessárias atualizações em suas redes e em seus modelos de negócios.

Esse cenário traz desafios inéditos aos gestores de companhias de todos setores e portes. O consumidor fica mais exigente pelas ofertas de uma alta concorrência, e agora busca experiências e personalização que transcendem as propostas originais dos produtos. Com isso, toda oferta precisa se tornar um produto digital.

A boa notícia é que a tecnologia está muito mais acessível, seja pela facilidade de uso, seja pelo preço. Mas para dar certo, os profissionais precisam de atitude para fazer os movimentos necessários.


Veja esse artigo em vídeo:


Segundo o estudo da IBM “Sete apostas”, a previsão de Marc Andreessen está se tornando realidade: em um artigo de 2011 no The Wall Street Journal, o pioneiro da Internet disse que “o software estava comendo o mundo”. E está mesmo: ele controla de celulares a carros, de aspiradores de pó a robôs industriais. E agora “a inteligência artificial está comendo o software”.

Com isso, os melhores executivos estão desenvolvendo uma mentalidade de engenharia de produto. Eles entendem que a adoção da tecnologia é fundamental para o sucesso, pois os clientes esperam uma ótima experiência digital qualquer que seja o produto ou serviço oferecido.

Curiosamente, nada disso é novo. Software embarcado em produtos e até a inteligência artificial fazem parte do cotidiano de pessoas e de empresas há anos. A diferença é que, desde o fim do ano passado, com o lançamento do ChatGPT, a IA deixou de ser algo obscuro e restrito a poucos profissionais de TI para ser democratizada para qualquer cidadão.

“O ChatGPT capturou o momento em que a experiência se conectou à tecnologia”, afirma Marco Kalil, líder da IBM Consulting no Brasil. Para ele, a digitalização de produtos e o uso da IA como ferramenta de negócios são um caminho sem volta. “As pessoas que souberem aplicar a inteligência artificial nos negócios, realmente priorizando a experiência, terão mais sucesso que os outros, sem dúvida alguma.”

Já no estudo “Tomada de decisão do CEO na era da IA”, também da IBM, 60% dos CEOs entrevistados no Brasil disseram que a computação em nuvem é fundamental para a conquista de resultados nos próximos três anos, enquanto 56% deles confiam na IA. Apesar disso, 41% sentem dificuldade de obter ideias a partir dos dados que têm, com 61% afirmando que a qualidade e a origem desses dados são a principal barreira para adoção da inteligência artificial.

 

Garantindo seu bônus

Incluir inovações em qualquer negócio implica algum nível de risco, pelo simples fato de se sair da zona de conforto. Por isso, muitos executivos, apesar de serem conscientes da necessidade de inovação, resistem a ela, para não ameaçar seus bônus de fim de ano.

Mas a inovação se tornou condição para se manter no mercado, e não apenas as já citadas. Outras apostas do estudo da IBM são a sustentabilidade e o metaverso.

Segundo a pesquisa, muitos executivos ainda veem sustentabilidade e lucros como incompatíveis, indicando uma visão míope de gestão. Já o metaverso deve ser encarado como uma ferramenta que amplie possibilidades do mundo físico, ao invés de substituí-lo. Em ambos os casos, criar experiências com benefícios tangíveis para clientes internos e externos diminui as barreiras para sua adoção.

De fato, não dá para dissociar inovação de experiência. No caso do 5G, a base de usuários brasileiros já poderia ser maior, mas isso não acontece porque o público não vê as incríveis possibilidades da tecnologia, achando que se trata apenas de uma Internet mais rápida. Se for só para isso, preferem esperar.

Sim, a velocidade é muito maior e a latência é muito menor que a do 4G. Isso é necessário para produtos como veículos autônomos, telemedicina, educação a distância e automação industrial disruptivas, cidades inteligentes e entretenimento revolucionário, especialmente em games e transmissões ao vivo interativas.

Mas tudo depende da criação de um ecossistema de provedores de serviços que, por sua vez, precisam que as operadoras de telefonia modernizem sua infraestrutura. Isso permitirá, por exemplo, o “fatiamento da rede”, que entrega conexões diferentes seguindo a necessidade do cliente, podendo até variar de acordo com o momento. Também é necessário que ofereçam APIs, mecanismos para que os desenvolvedores criem aplicações que tirem o máximo proveito dos recursos da rede. Os modelos de negócios também devem ser atualizados, para que o usuário deixe de ser cobrado por franquias e passe a ser cobrado pelos serviços que usa.

“As operadoras já entenderam que o caminho passa por oferecer serviços fornecidos por outras empresas”, explica Marcos Scheffer, vice-presidente de redes da Ericsson para América Latina. Mas, segundo ele, há um processo a ser cumprido e, no momento, as teles estão cuidando da ampliação da cobertura.

“Na hora que você conecta tecnologia com o interesse do usuário, é fantástico”, exclama Kalil. Para o executivo, está na hora de as empresas colocarem essas tecnologias como protagonistas, e não como meras ferramentas. “Nessa hora, o negócio vai mudar”, conclui.

Sei que tudo é investimento –às vezes, muito dinheiro. Além disso, o mercado brasileiro costuma ser impiedoso com aqueles que falham. Essa combinação é mortífera para a inovação, pois os gestores tendem a escolher o caminho seguro e menos inovador.

O problema é que, dessa forma, a empresa perde a chance de se descolar da concorrência e os clientes amargam produtos limitados e experiências ruins. Precisamos aprender a correr riscos com inteligência!


Vídeo relacionado – íntegra da entrevista com Marco Kalil, líder da IBM Consulting no Brasil:

 

 

Metrô de São Paulo lotado após fracasso de “big techs” que revolucionariam a mobilidade urbana - Foto: Wilfredor / Creative Commons

Como as big techs querem substituir instituições da sociedade por tecnologia

By | Tecnologia | No Comments

Todos nós usamos produtos do Google, da Meta, da Apple e de outras “big techs”. De fato, eles facilitam enormemente a nossa vida e ainda são rotulados como “grátis”.

Sabemos que não há nada de graça nisso. A explicação tradicional é que pagamos por eles com nossos dados, que permitem que essas empresas ganhem dinheiro, por exemplo, nos entregando anúncios hiperpersonalizados. É o chamado “capitalismo de vigilância”.

Mas a ascensão da inteligência artificial e a guerra aberta que as “big techs” travam contra qualquer forma de limitação de suas atividades, como estamos vendo no Brasil no embate contra o “PL das Fake News”, revela que esse controle que elas têm sobre nós é muito mais complexo, a ponto de que muita gente as defende nesses casos. E a tentativa de regulação da inteligência artificial fará nosso fracasso em impor limites razoáveis às redes sociais parecer algo pífio.

O que essas empresas realmente desejam é uma liberdade não-regulada para, entre outras coisas, substituir instituições da sociedade em áreas como saúde, educação, transporte ou segurança por soluções tecnológicas que, segundo elas, superariam a “ineficiência” do que temos hoje. Ao ocupar um espaço tradicionalmente sob cuidados do Estado, alcançariam um poder inimaginável, muito maior que o atual.

Eles só não dizem que tudo nessa vida tem um custo. Esse não será pago com publicidade em nossos celulares. Então “como essa conta fecha”?


Veja esse artigo em vídeo:


O avanço da inteligência artificial é inevitável e muito bem-vindo: ela tem o potencial de oferecer à sociedade benefícios até então inimagináveis. Mas isso significará que entregaremos muitas de nossas escolhas às máquinas, que decidirão o que elas acreditam ser o melhor para cada um de nós.

Em uma sociedade já encharcada de algoritmos, eles passam a controlar muito de nossa vida, de maneiras que nem percebemos. Nós não temos a menor ideia de quais são suas regras que decidem cada vez mais por nós. Diante de tanto poder, a falta de transparência das “big techs” e de explicabilidade de seus produtos se torna inaceitável e perigoso para nossas vidas e para a democracia. É justamente isso que essas empresas lutam para manter, pois, se soubermos detalhadamente o funcionamento de seus algoritmos, elas perdem o poder que têm sobre os cidadãos.

Tudo isso vale para os algoritmos atuais, bem conhecidos e controlados pelas “big techs”. A inteligência artificial torna esse debate ainda mais importante, pois nem seus criadores entendem completamente as novas estratégias criadas pelas máquinas para solucionar problemas.

Se essas companhias lograrem criar a chamada “inteligência artificial geral”, aquela que não se limita mais a tarefas específicas e passa a se comportar de maneira semelhante à mente humana, tomando decisões sobre qualquer assunto, a situação pode ficar realmente dramática.

Imagine um sistema como esse que tenha assumido, com nosso consentimento, decisões críticas sobre a saúde pública. Em nome de deixar todo o sistema mais “eficiente”, ele pode passar a privilegiar cirurgias com mais chance de sucesso ou lucrativas, em detrimento das mais difíceis ou com menos ganhos. Mas todos merecem a chance de serem tratados, mesmo quem tem baixa possibilidade de sucesso. Essa é a visão humana de um médico, que uma máquina que acha que o fim justifica os meios pode ignorar.

Agora multiplique esses riscos acrescentando, na equação, segurança pública, educação e até economia de um país.

 

Nem sempre dá certo

O discurso do Vale do Silício enaltece o inegável poder transformador da tecnologia. É praticamente impossível viver hoje sem smartphones, buscadores ou redes sociais. Mas seus gurus adoram perpetuar as histórias de sucesso, enquanto ignoram os fracassos. E eles muitas vezes acontecem quando se tenta substituir uma instituição social por uma tecnologia.

Podemos pensar, como exemplo, no caso da Uber. Conceitualmente acho sua proposta muito interessante, mas ela parece “estar fazendo água”, particularmente no Brasil. Vocês devem se lembrar como a empresa chegou prometendo revolucionar a mobilidade urbana, como um substituto vantajoso ao transporte público, com suas corridas baratas e a possibilidade de se ganhar dinheiro dirigindo.

Foi um sucesso instantâneo: muita gente chegou a vender seu carro! Mas, para aquilo ser possível, a empresa queimava milhões de dólares em subsídios. Quando os investidores se cansaram de perder dinheiro e exigiram lucros, o modelo ruiu, com a consequente queda enorme na qualidade do serviço, que agora sentimos.

Porém o mais educativo desse exemplo é mostrar que nunca se propôs resolver o verdadeiro problema social, no caso as deficiências no transporte público. Substituía-se uma “gestão governamental ineficiente” por uma “solução tecnológica mágica”, cujo verdadeiro objetivo era sedimentar a dominância da empresa em seu setor. Quando a realidade bateu à porta, ficamos sem nada!

O grande desafio da nossa geração é tomar consciência de que somos cada vez mais dependentes da tecnologia e das empresas que as criam. Elas têm suas próprias agendas e narrativas de como estão melhorando e até “salvando” o mundo com seus produtos. Mas às vezes a sua necessidade de lucrar chega antes de salvarem qualquer coisa.

Não nos enganemos: como qualquer outra empresa, seu objetivo real é aumentar seus lucros, e, a princípio, não há nada de errado nisso. Mas esse objetivo não pode ser atingido às custas do desmantelamento das instituições da sociedade e dos mecanismos de proteção dos interesses da população.

Não estou propondo a interrupção do avanço tecnológico: ele é essencial para melhorarmos nossas vidas. Mas precisamos parar de acreditar candidamente que a tecnologia resolverá todos nossos problemas e melhorará magicamente a sociedade. Temos que ter consciência de como isso será feito e qual será o verdadeiro o custo social que pagaremos.

Tudo isso deve acontecer preservando os legítimos interesses das pessoas, o que muitas vezes conflitam com os dessas empresas. É por essas e outras que elas precisam ser reguladas. Elas não podem ser mais poderosas que os governos eleitos no mundo todo, nem mesmo substituir suas instituições.

 

Cena de “O Exterminador do Futuro” (1984), em que máquinas inteligentes querem exterminar a humanidade - Foto: reprodução

Qual será a próxima vítima da inteligência artificial?

By | Tecnologia | No Comments

No dia 13, o sindicato dos atores de Hollywood se juntou à greve do sindicato dos roteiristas dos EUA, que acontece desde maio. É a primeira vez em 63 anos que as duas organizações cruzam os braços ao mesmo tempo, o que já impacta a produção de filmes e séries. Entre reivindicações mais convencionais, como melhores condições de trabalho e salários, os dois grupos preocupam-se com o impacto que a inteligência artificial terá em suas profissões.

Já debati longamente, nesse mesmo espaço, sobre a substituição de profissionais por essa tecnologia. Mas esse caso é emblemático porque são as primeiras grandes entidades trabalhistas que colocam isso na pauta de reivindicações para seus patrões.

É curioso porque, no atual estágio de desenvolvimento da inteligência artificial, não se vislumbra que ela substitua consistentemente atores ou roteiristas em grandes produções, como filmes ou séries. Isso não quer dizer que, com o avanço galopante de sua evolução, não possa acontecer em algum momento. Portanto, a reivindicação dos sindicatos visa uma proteção futura, contra um concorrente digital implacável que ainda está por vir.

O que me preocupa, no presente, são empresas de todos os setores que possam estar se preparando para usar a IA, do jeito que está, para substituir trabalhadores de “níveis mais baixos da cadeia alimentar”, mesmo quando isso resulte em produtos ou atendimentos piores para os consumidores. Aqueles dispostos a cortar custos de forma dramática, irresponsável e impensada representam um perigo muito maior que a tecnologia em si.

Como dizem por aí, “isso é tão Black Mirror!”


Veja esse artigo em vídeo:


Não me interpretem mal! Sou um entusiasta da inteligência artificial bem usada, e entendo que esse movimento não tem volta. E nem deveria ter: quando aplicada de forma consciente e responsável, a IA traz inegáveis benefícios a empresas e a indivíduos. Nós mesmos já somos muito beneficiados em nosso cotidiano, em incontáveis aplicativos em nosso celular, que só existem graças a ela.

Mas a inteligência artificial não é uma panaceia. E isso fica claro com o popularíssimo ChatGPT, lançado em novembro e que provocou uma explosão de discussões e de uso da IA, além de uma corrida para empresas demonstrarem que estão nesse barco. Depois do frisson criado pela sua capacidade de manter conversas consistentes sobre qualquer assunto, as pessoas começaram a perceber que muito do que ele fala são verdadeiras bobagens. A despeito dos melhores esforços de seus desenvolvedores, ainda é uma ferramenta sem compromisso com a verdade.

Mas isso não impede que pessoas e empresas usem a plataforma como um oráculo. Gestores vêm confiando em respostas da plataforma para oferecer serviços. Alguns chegam a alimentar o sistema com dados sigilosos de seus clientes, uma calamidade se considerarmos que a ferramenta não promete nenhuma segurança nisso.

Da mesma forma, algumas pessoas têm usado o ChatGPT para funções para as quais não foi desenvolvido, como “fazer terapia” com um sistema incapaz de desenvolver empatia ou que sequer sabe realmente o que está falando: todas essas plataformas simplesmente encadeiam palavras seguindo análises estatísticas a partir de uma gigantesca base de informações com a qual foram “treinadas”.

O problema não é, portanto, usar a tecnologia, e sim usar mal uma coisa boa! Se o objetivo for somente economizar custos, essa é uma “economia porca” que resulta em uma queda dramática na entrega ao público.

 

Exterminador do Futuro

No dia 18, James Cameron, diretor e roteirista de sucessos como “Avatar” (2009) e “Titanic” (1997), deu uma entrevista à rede de TV canadense CTV News, afirmando que a inteligência artificial não é capaz de produzir roteiros. “Não acredito que uma mente desencarnada, que apenas regurgita o que outras mentes vivas disseram sobre a vida que tiveram, sobre amor, sobre mentira, sobre medo, sobre mortalidade, tenha algo que vá comover o público”, disse.

Há um ponto essencial na fala de Cameron, que também foi diretor e roteirista de “O Exterminador do Futuro” (1984), em que máquinas inteligentes tentam eliminar a humanidade: precisamos entender que a inteligência artificial não é realmente criativa!

Ela apenas agrupa padrões e estilos para suas criações, mas não tem algo essencial a qualquer artista: a subjetividade. A nossa história de vida faz com que os padrões que aprendemos sejam inspiração para nossa criatividade, e não uma limitação. A máquina, por outro lado, fica restrita a eles, sendo incapaz de alterá-los.

Mas eu não me iludo: o que puder ser automatizado será. Funções cujos trabalhadores atuam de forma previsível, seguindo regras muito estritas, já estão sendo substituídas por robôs. Em situações como essas, a máquina desempenha as tarefas de maneira mais rápida, eficiente e barata. A qualidade das entregas ao cliente pode até melhorar!

Nos demais casos, a inteligência artificial não deveria ser usada como uma ferramenta para substituir profissionais, e sim para torná-los mais eficientes em suas atividades, oferecendo-lhes sugestões e informações que jamais conseguiriam ter sozinhos, pelas suas limitações humanas.

Em outra frente, o Google está testando, com alguns jornais, um sistema baseado em inteligência artificial capaz de escrever textos a partir de informações que lhe forem apresentadas. Em um comunicado, a empresa disse que “essa ferramenta não pretende e não pode substituir o papel essencial que os jornalistas têm em reportar, criar e verificar os fatos”, devendo ser usado como um apoio a esses profissionais, liberando seu tempo para tarefas mais nobres. Resta saber se, uma vez lançado, o produto não será usado por editores para enxugar mais as já minguadas redações, mesmo que isso resulte em publicações suscetíveis a erros e menos criativas.

Na mesma entrevista, Cameron explicou que, sobre os roteiros, “nunca é uma questão de quem os escreveu, mas de serem boas histórias”. Só faltou definir, de maneira inequívoca, o que é “boa”. Alguns filmes têm roteiros escritos por humanos que são muito ruins. Para escrever aquilo, talvez a inteligência artificial bastasse.

Isso vale para roteiristas, atores, jornalistas e qualquer profissional que se sinta ameaçado pela tecnologia. A melhor proteção que podem ter contra os robôs é fazer melhor que o que eles são capazes de entregar.

Nós, como clientes de todos esses serviços, também temos um papel importante: não podemos aceitar que produtos ruins nos sejam empurrados. Muitos gestores tentarão usar esses recursos assim! Com isso, perderemos nós e os profissionais, todos vítimas dessa “tecnoganância”. Isso não pode passar e muito menos se normalizar.

 

Cena do filme “RoboCop” (1987), em que um policial dado como morto ganha um corpo e uma consciência digitais - Foto: reprodução

IA pode brilhar na segurança, mas suas falhas podem ser catastróficas

By | Tecnologia | No Comments

Pegue qualquer lista dos maiores problemas das grandes cidades e a segurança sempre estará nas primeiras posições. Não é para menos: nos últimos anos, a escalada da violência chegou a níveis insustentáveis em todo Brasil. Diante disso, precisamos usar os recursos disponíveis para tentar resolver o problema. A digitalização de nossas vidas e a inteligência artificial podem ajudar muito nisso, mas precisamos estar preparados para lidar com as consequências de suas imprecisões.

Quanto mais crítica for uma aplicação, menos tolerante a falhas ela é. Isso quer dizer que o sistema não pode sair do ar nunca e as informações oferecidas por ele ou suas decisões devem ser precisas. E infelizmente a tecnologia não chegou a esse nível de excelência inquestionável.

Uma coisa é alguém fazer um trabalho escolar ou um relatório profissional com erros grosseiros por ter acreditado cegamente em alguma bobagem dita pelo ChatGPT. É verdade que podem acabar reprovando na disciplina ou perdendo o emprego por isso, duas coisas ruins. Mas isso não se compara a ser confundido pela máquina com um criminoso, e assim acabar sendo preso ou –pior– morto.

Por isso, apesar de a tecnologia ser muito bem-vinda no combate à criminalidade, os agentes de segurança pública precisam estar preparados para lidar com os resultados dessa colaboração e seus potenciais erros.


Veja esse artigo em vídeo:


Nesse cenário, é bastante ilustrativo o projeto da Prefeitura de São Paulo de unir diversos serviços municipais que hoje não trabalham integrados, como a Defesa Civil, o SAMU, a CET e a Guarda Civil Metropolitana, além das polícias Civil e Militar, Metrô e CPTM. Batizado de Smart Sampa, ele prevê ainda a adição de 20 mil câmeras na cidade, especialmente em pontos sensíveis e de maior criminalidade, que se somarão a outras 20 mil já existentes.

A princípio, a ideia parece muito boa, especialmente porque os diferentes órgãos da administração podem funcionar melhor ao compartilharem suas informações. A exemplo de outras grandes cidades no mundo, como Nova York, a tecnologia desempenha papel central nesse processo. Ironicamente aí começam a surgir os problemas.

O ponto mais delicado da proposta é o uso de reconhecimento facial. Essa tecnologia tem avançado incrivelmente, mas não o suficiente para evitar uma quantidade inaceitável de erros, particularmente entre pessoas negras. Isso acontece porque a inteligência artificial aprende a diferenciar rostos a partir de uma enorme quantidade de fotografias, mas proporcionalmente há muito mais amostras de brancos que de negros nesse “treinamento”. Diferentes estudos apontam que os erros de reconhecimento de pessoas brancas giram em torno de 1%, enquanto de negras ultrapassa os 30%, especialmente mulheres negras.

Por isso, a proposta original do Smart Sampa, que previa “rastrear uma pessoa suspeita, monitorando todos os seus movimentos e atividades, por características como cor, face, roupas, forma do corpo, aspectos físicos etc.”, precisou ser alterada. Monitorar alguém pela sua cor é ilegal!

O projeto prevê que qualquer problema identificado pela plataforma seja confirmado por um agente humano treinado antes de emitir qualquer alerta, o que é, sem dúvida, um ponto positivo para minimizar injustiças. Mas a ideia de rastrear alguém que o algoritmo ache suspeito, ainda cruzando com dados de redes sociais dos cidadãos, lembra algumas das piores sociedades da ficção científica.

 

Sem escapatória

No filme “Minority Report: a Nova Lei” (2002), as autoridades sabiam continuamente onde cada cidadão estava. Além disso, um sistema que combinava tecnologia com aspectos místicos, conseguia prever assassinatos antes que acontecessem. Dessa forma, a polícia prendia os “prováveis criminosos” antes de cometerem o crime.

Sim, as pessoas eram presas antes de terem cometido qualquer crime, apenas porque a plataforma tinha convicção de que o cometeriam! E para a polícia isso era suficiente.

O sistema parecia infalível e, de fato, os assassinatos acabaram. Os “prováveis criminosos” eram condenados a viver o resto de seus dias em uma espécie de coma induzido. O problema é que o sistema não só era falho, como ainda podia ser manipulado para “tirar de circulação” pessoas indesejáveis para os poderosos. Quando isso é revelado, o sistema é desativado e todos os condenados são libertados.

Como se pode ver, quando uma tecnologia tem o poder de levar alguém à prisão ou decidir sobre sua vida ou morte, nenhuma falha é aceitável. Ainda aproveitando a ficção para ilustrar o caso, temos a cena de RoboCop (1987) em que o robô de segurança ED-209, durante uma demonstração, identifica corretamente que um voluntário lhe apontava uma arma. Mas ele falha em reconhecer que a pessoa a joga ao chão logo depois, e acaba metralhando a vítima diante dos presentes.

Por isso, é assustador ver os motivos que desclassificaram a empresa vencedora do primeiro pregão do Smart Sampa. No dia 7 de junho, técnicos da Prefeitura foram verificar se ela estava apta ao serviço. Pelas regras, deveria ter mil câmeras operando com reconhecimento facial, mas só havia 347, das quais apenas 147 estavam online. Segundo o relatório dos técnicos, o responsável argumentou que “todo mundo tem problemas de Internet” e que “horário de almoço é complicado, muita gente fazendo download impacta no link de Internet mesmo”.

Esse amadorismo e falta de comprometimento é algo que jamais poderia pairar sobre um sistema de segurança pública, podendo colocar em xeque toda sua credibilidade! É por essas e outras que cidades importantes ao redor do mundo, como San Francisco (EUA), baniram o uso de reconhecimento facial em plataformas assim.

Alguns grupos querem reduzir esse debate a uma questão ideológica, como vem se tornando um padrão no Brasil há alguns anos. Mas essa não é uma questão ideológica e sim tecnológica!

Em um famoso artigo de 2018, Brad Smith, presidente da Microsoft, questionou qual papel esse tipo de tecnologia deve ter na sociedade, a despeito de todos os benefícios que traga. Segundo ele, “parece mais sensato pedir a um governo eleito que regule as empresas do que pedir a empresas não eleitas que regulem tal governo”.

Como em um bom episódio da série “Black Mirror”, o problema não está necessariamente na tecnologia em si, mas em usos errados dela. Câmeras e inteligência artificial darão poderes sobre-humanos às forças de segurança, com enorme poder de detecção de crimes e contravenções. Mas ela também pode maximizar vieses e falhas humanas da força policial, como o racismo.

Sem dúvida, podem ser ferramentas valiosíssimas no combate à criminalidade galopante. Mas em uma sociedade assustada e que clama por segurança rápida, despontam como soluções “mágicas” para políticos que buscam votos fáceis. Mas a coisa não funciona assim e, se não for implantada com cuidados técnicos e éticos, pode ainda ampliar outros problemas sociais existentes.

É necessário entender que, mesmo que o sistema evite 100 mortes, não é aceitável que 10 vítimas inocentes sejam condenadas ou mortas por erros da plataforma. Se houver um único erro, o sistema não é bom o suficiente para ser usado! Mas parece que pouca gente se preocupa com isso, no melhor estilo de “o fim justifica os meios”.

No final, a solução recai sobre o ser humano. Os agentes de segurança precisam ser treinados para lidar com possíveis falhas técnicas. Precisam aprender a dosar suas ações e abordagens feitas a partir de informações que podem estar erradas.

Resta saber se esses profissionais estão preparados para isso. Diante de diversas ações desastrosas e mortíferas que vemos nas ruas brasileiras o tempo todo, não estão! A solução desse outro problema é essencial e deveria acontecer antes da implantação da tecnologia. Mas isso, por si só, já renderia outro artigo.

 

A imagem de Elis Regina foi recriada digitalmente para dueto com sua filha, Maria Rita, em comercial da Volkswagen - Foto: reprodução

Não podemos mais acreditar no que nossos olhos veem

By | Tecnologia | No Comments

São Tomé ficou famoso por dizer que precisava “ver para crer” que Jesus havia ressuscitado. Seu pedido está associado ao fato de que, de todos os nossos sentidos, a visão é o que transmite mais segurança e confiabilidade. Se vemos algo acontecendo diante de nós, nosso cérebro entende aquilo como verdadeiro. Mas o avanço tecnológico, capaz de criar imagens falsas cada vez mais críveis, coloca isso em xeque e dispara alguns alertas.

Na segunda passada, o comercial “Gerações”, criado em comemoração aos 70 anos da Volkswagen no Brasil, provocou polêmica ao colocar a cantora Elis Regina (morta em 1982) cantando ao lado da filha Maria Rita. Elis aparece no filme dirigindo um antigo modelo de Kombi (que deixou de ser produzida no Brasil em 2013), enquanto a filha aparece ao volante de uma ID.Buzz, furgão elétrico recém-lançado, chamado de “Nova Kombi”.

Muitas pessoas questionaram o uso da imagem de Elis em algo que nunca fez (ou que pelo menos não há nenhum registro): cantar “Como Nossos Pais” enquanto dirige uma Kombi. O debate é válido, mas não me preocupo tanto com o uso da tecnologia dessa forma. Afinal, os produtores do comercial nunca propuseram enganar o público para que achasse que Elis estivesse viva e jovem.

O que me deixa tenso é o uso dessa tecnologia por pessoas inescrupulosas para deliberadamente distorcerem a realidade e enganar as massas para seu benefício. Quando isso acontecer, talvez nossos olhos já não sejam mais suficientes para nos garantir o que é verdadeiro.


Veja esse artigo em vídeo:


Para viabilizar o dueto entre Elis Regina e Maria Rita, a agência AlmapBBDO trabalhou com duas tecnologias: o “deep fake” e o “deep dub”. Elas já existem há alguns anos, mas a qualidade do que criam vem crescendo exponencialmente.

O primeiro “mapeia” os rostos de uma pessoa que é gravada em vídeo e o de quem efetivamente aparecerá na imagem final. Com isso, o sistema recria o vídeo com o segundo rosto no lugar do primeiro, fazendo exatamente os movimentos da pessoa original. Na peça da Volkswagen, a atriz Ana Rios gravou as cenas dirigindo a Kombi e fazendo movimentos típicos de Elis Regina. Quando o sistema trocou seu rosto pelo da cantora, é como se ela mesma estivesse lá.

Como a voz usada era de uma gravação da própria Elis, entrou em cena o “deep dub”. Sua função é modificar imagens já criadas para que exista um perfeito sincronismo entre a voz e o movimento dos lábios.

Apesar de o comercial ter agradado pela sua criatividade, sensibilidade e uso inteligente da tecnologia, muita gente o criticou por usar a inteligência artificial para criar imagens inéditas de alguém que já morreu. Mas não se trata de violação do direito de imagem. Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propaganda e Marketing), explica que, quando alguém morre, esse direito passa a seus herdeiros.

“Mas é sempre importante considerar que eventualmente o próprio falecido não tivesse a intenção de participar post-mortem de atividades com sua imagem”, acrescenta Crespo. Ele explica que, nesse caso, a pessoa deve manifestar explicitamente sua contrariedade ainda em vida.

A publicidade se vale desde sempre de imagens de pessoas famosas que já se foram, com fotos ou filmagens antigas para montagens, e até o uso de atores maquiados para se parecer aos falecidos. A diferença agora é o uso da tecnologia para tornar tudo muito realista.

 

Limites éticos

De toda forma, o debate em torno do comercial foi interessante para se questionar se há um limite ético e moral para o uso dessa tecnologia, com pessoas vivas ou mortas.

Da mesma forma que devemos ver isso cada vez mais em produções audiovisuais, devemos estar preparados para encarar uma avalanche de “deep fakes” criados com o objetivo de prejudicar outras pessoas. Isso tampouco é novo, mas, como explica Crespo, “ficará mais difícil, a olho nu, detectar o que é verdadeiro e o que é uma construção baseada em inteligência artificial”, restando aos peritos identificar as falsificações. “O desafio, daqui pra frente, é que será mais comum ver esse tipo de debate na Justiça, com discussões sobre vídeos”, acrescenta.

Muitos profissionais estão preocupados que categorias inteiras desapareçam graças a essas tecnologias. É o caso dos dubladores. Seu trabalho artístico envolve fazer as falas traduzidas combinarem, tanto quanto possível, com o movimento dos lábios do ator no idioma original.

Agora as plataformas de inteligência artificial podem “aprender a voz” dos atores para recriá-la em qualquer idioma. Dessa forma, seria possível ter, por exemplo, Tom Hanks falando não apenas seu idioma nativo (o inglês), como também português, alemão, russo ou japonês, sem nenhum sotaque e com os lábios no vídeo perfeitamente sincronizados com sua fala em todos os idiomas.

De certa forma, isso ofereceria um produto mais interessante para o público e a produção das versões internacionais ficaria muito mais barata e rápida para os estúdios. Mas também significaria o fim da categoria dos dubladores. Esse não é um problema tecnológico, e sim social, e os países precisam se debruçar sobre um tema trabalhista sem precedentes.

No último dia 13, o músico Paul McCartney revelou que a voz de John Lennon havia sido extraída e aperfeiçoada por inteligência artificial a partir de uma antiga gravação. Nesse caso, a tecnologia não sintetizou nada, mas foi usada para captar a voz de John. Isso permitirá que, até o fim do ano, o mundo conheça uma nova música dos Beatles, apesar de Lennon ter sido assassinado em 1980 e de George Harrison ter morrido em 2001. Além de Paul, Ringo Starr também está vivo.

Por tudo isso, esse debate é válido e necessário. A tecnologia está madura e será cada vez mais usada, tanto em atividades lícitas quando na prática de crimes. Nosso desafio é sermos capazes de identificar o que é verdadeiro e o que é falso, e, nesse caso, se se trata de um uso legítimo, como no comercial da Volkswagen.

Uma educação de qualidade para todos fica ainda mais necessária para que as pessoas desenvolvam um senso crítico apurado. Ela é a melhor ferramenta que temos para fugir de arapucas digitais que coloquem em nosso caminho. Infelizmente esse é um investimento de longo prazo, enquanto a tecnologia avança de maneira galopante.

 

Imagem: composição por Paulo Silvestre

Chamamos de “magia” muitas coisas que simplesmente não entendemos

By | Tecnologia | No Comments

Em 1985, eu e três amigos começamos a nos interessar por computadores, em uma época em que pouquíssimas pessoas sabiam o que eles eram ou para que serviam. Fomos a uma pioneira “escola de computação” no bairro para saber se poderíamos aprender mais sobre aquilo. A recepcionista nos levou a um TK-85 (um pequeno computador como o da imagem) e digitou o seguinte programa:

 

10 PRINT "Qual é o seu nome?"
20 INPUT nome$
30 PRINT "Olá, " + nome$ + "."
40 END

 

Quando ela rodou aquele código “espantoso”, a tela da TV preto-e-branco exibiu “Qual o seu nome?” Cada um de nós digitou o seu, ao que a máquina respondeu (para mim) “Olá, Paulo.”

Assombro geral com a “inteligência” do computador! Suficiente para aqueles pré-adolescentes se matricularem no cursinho de BASIC.

Não é preciso ser um programador para perceber que aquilo era algo extremamente simples. Mas para quem nunca tinha tocado em um computador (1985, lembra?), foi o suficiente para abrir as portas que me permitiram, a partir dali, olhar para o digital como forma de ampliar meus horizontes, procurando entender o que acontece no mundo dos bits.

O ser humano tem medo do desconhecido, porque não o pode controlar. Mesmo que algo aconteça incontestavelmente diante de seus olhos, se não compreender o fenômeno com o que sabe, recai sobre obra do divino ou –pior– vira “bruxaria”. Por conta disso, muitas mulheres e homens geniais foram, ao longo da história, calados, presos ou mortos por suas ideias, mesmo as mais benéficas à humanidade.

Por outro lado, quando adquirimos conhecimento, qualquer coisa, mesmo aquelas até então tidas como mágicas, deixa o campo do desconhecido e passa a ser uma ferramenta sob nosso domínio. E de tempos em tempos, uma nova tecnologia disruptiva surge para “testar a nossa fé”.

A bola da vez é a inteligência artificial, que já está revolucionando muitos negócios, mas igualmente desperta medo, pois o cidadão médio não consegue entender como ela funciona. Para ficar ainda mais confuso, temos pesquisadores e executivos da própria área revelando publicamente restrições a ela.

Talvez exista exagero nesses temores; talvez não. A dúvida se dá porque essa, que é uma das mais poderosas tecnologias já criadas, ainda seja majoritariamente incompreendida pela massa, que a vê, portanto, como “mágica”.

Precisamos desmistificar a IA, assim como qualquer outra tecnologia. Essa é a melhor maneira de tirarmos bom proveito do que ela pode nos oferecer, enquanto escapamos de eventuais armadilhas. Não quer dizer que teremos que ser todos programadores ou cientistas de dados: entendermos o que é, como funciona e para que serve já ajudará muito!

 

PS: tenho até hoje o meu TK-85 (foto a seguir), testemunha daquele momento histórico do nascimento da microinformática no país, nos anos 1980.

Foto: Paulo Silvestre

Foto: Paulo Silvestre

 


Vídeo relacionado:

Joan, protagonista do primeiro episódio da sexta temporada de “Black Mirror”, surta por causa de um mau uso da IA - Foto: divulgação

“Black Mirror” explica ludicamente os riscos da inteligência artificial

By | Tecnologia | No Comments

Em uma sociedade polarizada pelo poder descontrolado dos algoritmos das redes sociais, cresce o debate se a inteligência artificial vai exterminar ou salvar a humanidade. Como costuma acontecer com esses extremismos, a verdade provavelmente fica em algum lugar no meio do caminho. Agora a sexta temporada da série “Black Mirror”, que estreou na Netflix na última quinta (15), surge com uma explicação lúdica de como essa tecnologia pode ser incrível ou devastadora, dependendo apenas de como será usada.

A icônica série, criada em 2011 pelo britânico Charlie Brooker, é conhecida pelas suas perturbadoras críticas ao mau uso de tecnologias. Sem correr risco de “dar spoiler”, o primeiro episódio da nova temporada (“A Joan É Péssima”) concentra-se na inteligência artificial generativa, mas guarda espaço para apontar outros abusos do mundo digital pela sociedade. Sobra até para a própria Netflix, a vilã do episódio!

Como fica claro na história, o poder da inteligência artificial cresce de maneira que chega a ser assustador, alimentando as teorias pessimistas ao redor dela. Se até especialistas se pegam questionando como essas plataformas estão “aprendendo”, para uma pessoa comum isso é praticamente incompreensível, algo ainda no campo da ficção científica.

Mas é real e está a nossa volta, começando pelos nossos smartphones.


Veja esse artigo em vídeo:


Como acontece em tantos episódios de “Black Mirror”, algo dá muito errado. E a culpa não é do digital, mas de como ele é usado por seres humanos movidos por sentimentos ou interesses condenáveis. A lição é que, quanto mais poderosa for a tecnologia, mais incríveis serão os benefícios que ele pode trazer, mas também maiores os riscos associados à sua desvirtuação.

É nesse ponto que estamos com a inteligência artificial. Mas ela não estraga a vida da protagonista do episódio sozinha: tem a “ajuda” de celulares (que estão captando continuamente o que dizemos e fazemos), dos algoritmos das plataformas de streaming (que nos dizem o que assistir), da “ditadura das curtidas”, do sucesso de discursos de ódio e até de instalarmos aplicativos sem lermos seus termos de uso.

A indústria de tecnologia costumava ser regida pela “Lei de Moore”, uma referência a Gordon Moore, um dos fundadores da Intel. Em um artigo em 1965, ele previu que a quantidade de circuitos em chips dobraria a cada 18 meses, pelo mesmo custo. Em 1975, reviu sua previsão para 12 meses. Hoje, o poder da inteligência artificial –que é software, mas depende de um processamento gigantesco– dobra a cada três meses.

O “problema” é que nossa capacidade humana não cresce no mesmo ritmo. E quando não conseguimos acompanhar uma evolução, ela pode nos atropelar. Essa é a gênese de muitos desses problemas, pois tanto poder à disposição pode fazer com que as pessoas deixem cuidados de lado e até passem por cima de limites morais.

É como diz o ditado: “quem nunca comeu melado, quando come, se lambuza!”

 

Faça a coisa certa

Na quarta, participei do AI Forum 2023, promovido pela IBM e pela MIT Sloan Review Brasil. As palestras demonstraram o caminho desse avanço da inteligência artificial e de como ela está se tornando uma ferramenta essencial para empresas de qualquer setor.

De fato, com tantos recursos incríveis que novas plataformas movidas pela IA oferecem aos negócios, fica cada vez mais difícil para uma empresa se manter relevante no mercado sem usar essa tecnologia. É como procurar emprego hoje sem saber usar a Internet ou um smartphone. Por mais experiente e qualificado em outras áreas que se seja, não haveria chance de ser contratado, porque esses pontos fortes seriam facilmente suplantados por outros candidatos que dominassem esses recursos.

Um estudo recém-divulgado pela IBM mostra que, se em 2016 58% dos executivos das empresas estavam familiarizados com a IA tradicional, agora em 2023 83% deles conhecem a IA generativa. Além disso, cerca de dois terços se sentem pressionados a acelerar os investimentos na área, que devem quadruplicar em até três anos.

A mesma pesquisa aponta que o principal fator que atravanca essas decisões é a falta de confiança na tecnologia, especialmente em aspectos de cibersegurança, privacidade e precisão. Outros problemas levantados foram a dificuldade de as decisões tomadas pela IA generativa serem facilmente explicadas, a falta de garantia de segurança e ética, a possibilidade de a tecnologia propagar preconceitos existentes e a falta de confiança nas respostas fornecidas pela IA generativa.

Conversei no evento com Marcela Vairo, diretora de Automação, Dados e IA da IBM (a íntegra da entrevista pode ser vista no vídeo abaixo). Para ela, três premissas devem ser consideradas para que a inteligência artificial nos ajude efetivamente, resolvendo essas preocupações.

A primeira delas é que as aplicações movidas por IA devem ser construídas para tornar as pessoas mais inteligentes e produtivas, e não para substituí-las. Deve existir também um grande cuidado e respeito com os dados dos clientes, que pertencem apenas a eles e não podem ser compartilhados em outra plataforma ou com outros clientes. E por fim, as aplicações devem ser transparentes, para que as pessoas entendam por que elas estão tomando uma determinada decisão e de onde ela veio, o que também ajuda a combater os possíveis vieses que a IA desenvolva.

O que precisamos entender é que essa corrida tecnológica está acontecendo! Não sejamos inocentes em achar que ela será interrompida pelo medo do desconhecido. Os responsáveis por esse desenvolvimento devem incluir travas para que seus sistemas não saiam do controle, garantindo essas premissas.

O que nos leva de volta a “Black Mirror”: tampouco podemos ser inocentes em achar que todos os executivos da indústria serão éticos e preocupados em fazer a coisa certa. É por isso que a inteligência artificial precisa ser regulamentada urgentemente, para pelo menos termos a tranquilidade de continuar usufruindo de seus benefícios incríveis sem o risco de sermos dominados pela máquina.

E no final, sempre temos que ter uma tomada para puxar e desligar a coisa toda se ela sair completamente dos trilhos.


Íntegra de entrevista com Marcela Vairo (IBM):

Neo luta contra o Agente Smith em “Matrix Revolutions” (2003): mundo digital criado para iludir a humanidade - Foto: divulgação

Se deixarmos, a inteligência artificial escolherá o próximo presidente

By | Tecnologia | No Comments

Nas eleições de 2018, eu disse que o presidente eleito naquele ano seria o que usasse melhor as redes sociais, e isso aconteceu. Em 2022, antecipei a guerra das fake news, que iludiram o eleitorado. Para o pleito de 2026, receio que a tecnologia digital ocupe um espaço ainda maior em nossas decisões, dessa vez pelo uso irresponsável da inteligência artificial.

Não estou dizendo que a IA escolherá por sua conta qual é o melhor candidato. A despeito de um medo difuso de que máquinas inteligentes nos exterminem, isso não deve acontecer porque, pelo menos no seu estágio atual, elas não têm iniciativa ou vontade própria: fazem apenas o que lhes pedimos. Os processos não são iniciados por elas. Temos que cuidar para que isso continue dessa forma.

Ainda assim, a inteligência artificial generativa, que ganhou as ruas no ano passado e que tem no ChatGPT sua maior estrela, atingiu um feito memorável: dominou a linguagem, não apenas para nos entender, mas também para produzir textos, fotos, vídeos, músicas muito convincentes.

Tudo que fazemos passa pela linguagem! Não só para nos comunicar, mas nossa cultura e até nosso desenvolvimento como espécie depende dela. Se agora máquinas com capacidades super-humanas também dominam esse recurso, podemos ser obrigados a enfrentar pessoas inescrupulosas que as usem para atingir seus objetivos, a exemplo do que foi feito com as redes sociais e com as fake news.


Veja esse artigo em vídeo:


A inteligência artificial não sai das manchetes há seis meses. Mesmo com tanta informação, as pessoas ainda não sabem exatamente como funciona e o que pode ser feito com ela. E isso é um risco, pois se tornam presas daquele que entendem.

É aí que mora o perigo para as eleições (e muito mais), com o uso dessa tecnologia para iludir e convencer. “No Brasil, as próximas eleições presidenciais serão daqui a três anos, e a tecnologia estará ainda mais avançada”, afirma Diogo Cortiz, professor da PUC-SP e especialista em IA. “A gente vai partir para um discurso não só textual, mas também com vídeo, som, fotografias ultrarrealistas, que farão ser muito difícil separar o real do que é sintético”, explica.

Não nos iludamos: vai acontecer! Esse é o capítulo atual do jogo em que estamos há uma década, em que a tecnologia digital é usada como ferramenta de convencimento. E, como sempre, ela não é ruim intrinsicamente, mas, se não houver nenhuma forma de controle, pessoas, empresas, partidos políticos podem abusar desses recursos para atingir seus fins, até de maneira criminosa.

Entretanto, não somos vítimas indefesas. Da mesma que esses indivíduos não deveriam fazer esses usos indecentes da tecnologia para nos manipular, cabe a cada um de nós usá-la conscientemente. Por mais que pareça mágica ao responder a nossos anseios de maneira tão convincente, ela erra, e muito! Por isso, não podemos pautar decisões importantes no que a IA nos entrega sem verificar essas informações.

O ser humano sempre teve medo de ficar preso em um mundo de ilusões. O filósofo e matemático grego Platão (428 a.C. – 348 a.C.) antecipou isso em seu “Mito da Caverna”. Nos dias atuais, o assunto permeia a ficção, como na série de filmes “Matrix”, curiosamente um mundo falso criado por máquinas para iludir a humanidade.

 

Intimidade com a máquina

Há um outro aspecto que precisamos considerar. Assim como a IA primitiva das redes sociais identifica nossos gostos, desejos e medos para nos apresentar pessoas e conteúdos que nos mantenham em nossa zona de conforto, as plataformas atuais também podem coletar e usar essa informação para se tornarem ainda mais realistas.

Hoje vivemos no chamado “capitalismo de vigilância”, em que nossa atenção e nosso tempo são capturados pelas redes sociais, que os comercializa como forma eficientíssima de vender desde quinquilharias a políticos.

Com a inteligência artificial, a atenção pode ser substituída nessa função pela intimidade. “Eu vejo vários níveis de consequência disso: sociais, cognitivos e psicológicos”, afirma Cortiz, que tem nesse assunto um dos pontos centrais de suas pesquisas atuais. “Se a pessoa começar a projetar um valor muito grande para essa relação com a máquina e desvalorizar a relação com o humano, a gente tem um problema, porque essa intimidade é de uma via só: o laço não existe.”

“O cérebro funciona quimicamente, buscando o menor consumo com o maior benefício”, explica Victoria Martínez, gerente de negócios e data science da empresa de tecnologia Red Hat para a América Latina. Para ela, uma das coisas que nos define como humanos é nossa capacidade de pensar coisas distintas, e não podemos perder isso pela comodidade da IA. E alerta do perigo implícito de crianças e adolescentes usarem essa tecnologia na escola, entregando trabalhos sem saber como foram feitos. “É muito importante aprender o processo, pois, para automatizarmos algo, precisamos entender o que estamos fazendo”, acrescenta.

A qualidade do que a inteligência artificial nos entrega cresce de maneira exponencial. É difícil assimilarmos isso. Assim pode chegar um momento em que não saberemos se o que nos é apresentado é verdade ou mentira, e, no segundo caso, se isso aconteceu por uma falha dos algoritmos ou porque eles foram usados maliciosamente.

Isso explica, pelo menos em parte, tantos temores em torno do tema. Chegamos a ver em março mais de mil de pesquisadores, especialistas e até executivos de empresas do setor pedindo que essas pesquisas sejam desaceleradas.

É por isso que precisamos ampliar o debate em torno da regulação dessa tecnologia. Não como um cabresto que impedirá seu avanço, mas como mecanismos para, pelo menos, tentar garantir responsabilidade e transparência de quem desenvolve essas plataformas e direitos e segurança para quem as usa.

Isso deve ser feito logo, e não apenas depois que o caos se instale, como aconteceu com as redes sociais. Agora, no meio do turbilhão, vemos como está sendo difícil regulamentá-las, graças aos interesses dos que se beneficiam dessa situação.

“Por enquanto, nós temos o controle”, afirma Martínez. “Então espero que a democracia não seja dominada por uma máquina.”

É verdade, mas temos que nos mexer. E que isso seja feito pelas nossas aspirações, e não porque algo deu muito errado!