inteligência artificial

Para o CEO da OpenAI, Sam Altman, devemos chegar à IA Geral nos próximos anos: agentes são um possível caminho - Foto: reprodução

Líderes da IA começam nova corrida tecnológica

By | Tecnologia | No Comments

A disputa para dominar a inteligência artificial anda tão acirrada, que se parece cada vez mais a uma corrida de cavalos, em que o ganhador vence “por um nariz”. Agora foi dada a largada para um novo páreo, o dos agentes de IA, e os principais nomes dessa indústria já estão na pista!

Isso não quer dizer que os agentes sejam uma novidade: eles já existem há anos em nossas vidas pessoais e profissionais. Mas até agora são soluções prontas dos fabricantes. Criar o próprio agente é uma tarefa complexa e que exige conhecimentos técnicos. O que Microsoft, OpenAI, Google e Anthropic prometem agora é tornar essa tarefa tão simples quanto conversar com um chatbot, como já nos acostumamos.

Um agente é um sistema que usa a IA para realizar tarefas específicas de maneira autônoma, com pouca ou nenhuma dependência de um ser humano. Ele age de maneira contínua, monitorando o ambiente e analisando dados para tomar decisões seguindo o que lhe foi pedido. Isso é bem diferente de um uso da IA generativa, como conversas com o ChatGPT, em que, por mais incríveis que seus resultados sejam, são atividades pontuais e totalmente dependentes da interação com o usuário.

Essas empresas agora prometem unir o melhor desses dois mundos, de modo que qualquer pessoa possa criar agentes sofisticados de maneira tão simples, quanto pedir que o chatbot escreva um texto. Ainda que isso não vá acontecer imediatamente, a simples abertura desse caminho pode ser realmente revolucionária.


Veja esse artigo em vídeo:


A Microsoft saiu na frente nessa nova etapa, com o lançamento do Copilot Studio. Ele permite criar agentes de IA com relativa facilidade, expandindo as funcionalidades do Copilot ao integrá-lo a bases de dados empresariais, gerando respostas a partir dessas informações, considerando cada contexto específico. Esses agentes podem ser distribuídos para pessoas dentro e fora da organização.

Já a Anthropic, startup de IA ligada ao Google e à Amazon, anunciou recentemente uma abordagem inusitada para sua plataforma Claude, batizada de “uso do computador”. Ainda na fase de testes, ela inova ao adaptar a IA para o uso de sistemas existentes, e não o contrário. Ela pode, por exemplo, assumir o controle de um computador como se fosse o usuário, para realizar tarefas de acordo com o que aparece na tela, até mesmo usando vários programas.

A OpenAI, que continua sendo a estrela mais brilhante do setor com seu ChatGPT, obviamente não quer ficar para trás. A empresa anunciou a versão de testes de um produto para desenvolvedores semelhante à solução da Anthropic. Ela deve ser liberada em janeiro.

O Google também “está dando seus pulos”. A empresa promete novidades na área de agentes ainda nesse ano! Vale lembrar que a empresa impressionou muita gente em 2019, quando ninguém ainda falava de IA generativa, com o lançamento do Google Duplex. Ele permite que o usuário peça que o Assistente realize tarefas simples, com a possibilidade de fazer ligações telefônicas, para, por exemplo, reservar uma mesa de restaurante, interagindo com atendentes humanos. Essas conversas são tão impressionantes, que muita gente se incomodou quando descobria que estava falando com um robô, e não com outra pessoa.

Os agentes que já estão disponíveis em nosso cotidiano se diferenciam de automações convencionais justamente pelas características da IA, especialmente de continuar funcionando se algo não sai como o esperado. Eles também melhoram com o uso, aprendendo coisas novas.

 

O futuro é dos agentes

Nas empresas, os agentes vêm sendo usados cada vez mais no atendimento automatizado a clientes. Eles também são muito úteis ao identificar movimentos do mercado e propor ações mais assertivas para as equipes comerciais, além de ajudar em negociações e de propor ideias aos gestores. Eles também são bastante usados pelo RH, em processo de contratação e até de demissão de profissionais.

Em nosso cotidiano pessoal, os agentes estão em nossos smartphones (no Google Assistente e na Siri) e em alto-falantes inteligentes, como o Amazon Echo. Nesse último, a Alexa pode, entre outras coisas, identificar compras recorrentes e auxiliar em novos pedidos, quando necessário. Relógios inteligentes e outros dispositivos podem monitorar a nossa saúde, e até eletrodomésticos, como aspiradores de pó robôs, realizam tarefas da casa de forma autônoma e cada vez melhor.

Quando a nova geração de agentes sair da fase de testes e chegar ao cidadão comum, ela poderá ampliar seus poderes consideravelmente. As pessoas não ficarão mais restritas aos agentes criados pelos fabricantes dos equipamentos.

Isso permitirá a definição de regras complexas, que combinarão recursos e informações de diferentes serviços aos que o usuário tem acesso. Por exemplo, será possível tirar automaticamente dinheiro de uma aplicação financeira que esteja com baixa rentabilidade para comprar ações de uma empresa com boas perspectivas.

É praticamente um consenso entre especialistas que os agentes representam o futuro da IA. Eles não apenas se tornarão mais diversificados e poderosos, como também serão mais fáceis de se criar. Além disso, veremos cada vez mais soluções complexas resultantes da combinação de vários agentes trabalhando em conjunto.

Muita gente acredita que esse seja o caminho para a Inteligência Artificial Geral (IAG), o “Santo Graal” dessa tecnologia. Quando (e se) estiver disponível, ela tomará decisões de maneira autônoma (ou seja, sem necessidade de comandos de alguém), sobre qualquer assunto e de maneira adaptável. É basicamente como nosso cérebro funciona, mas a IAG terá sobre nós a vantagem de analisar, com velocidade sobre-humana, uma quantidade de dados gigantesca, para tomar decisões mais assertivas.

Ainda existe muita especulação se chegaremos a isso algum dia. Especialistas de alto nível afirmam que a IAG é um conceito teórico inatingível. As big techs apostam fortemente no sucesso, dizendo que isso acontecerá ainda nessa década. Mas não podemos esquecer que elas têm interesses comerciais em afirmações como essas.

Qualquer que seja esse desfecho, devemos nos manter atentos às oportunidades que essa tecnologia oferece, apropriando-nos do que ela pode nos oferecer de bom e nos mantendo vigilantes contra eventuais armadilhas que desenvolvimentos descuidados e usos pouco éticos possam colocar em nosso caminho.

Esse é um trabalho de educação digital importantíssimo, envolvendo empresas, instituições de ensino, governos e outros atores da sociedade civil. As pessoas precisam entender e se apropriar conscientemente da IA e seus agentes, e isso deve chegar a todos.

 

IA pode agravar situação de pessoas já marginalizadas digitalmente - Foto: Freepik/Creative Commons

A desigualdade social faz com que a mesma IA que impulsiona carreiras tire empregos

By | Tecnologia | No Comments

A inteligência artificial pode maximizar nossas habilidades, mas também amplia contradições de nosso tempo. Isso aparece com muita força no âmbito profissional.

Já se tornou quase um mantra do mercado dizer que as pessoas que não abraçarem essa tecnologia perderão os empregos para colegas que o fizerem, e é verdade. Mas ironicamente quem a usar também pode ir para o olho da rua, se não fizer isso direito.

Cria-se então uma zona de contato bastante estreita, entre um “superpoder” para voar aos céus da carreira e a queda em um abismo profissional resultante de uma má educação no uso da IA. E esse não é um mero exercício intelectual. Ela já aumenta, agora mesmo, as vantagens de muitos profissionais e empresas. Do outro lado, vemos cerca de 14% da população brasileira sem qualquer acesso à Internet.

Surgem alguns dilemas sociais profundos. Talvez algumas pessoas gostariam de simplesmente não usar essa tecnologia, e esse seria um direito legítimo. Mas ainda dá para se almejar isso? Na ponta oposta, outras desejariam aproveitá-la, mas estão completamente alijadas desses recursos. Como lhes garantir isso, que já se configura como um direito fundamental?

Quem está no topo da pirâmide social deve parar de olhar para a sociedade como se todos estivessem na mesma situação frente à IA. Existe uma muralha a ser transposta para que se tenha pelo menos algum acesso digital, mas o presente nos empurra para uma desigualdade ainda mais ostensiva. Esse é o dilema que precisa ser solucionado.


Veja esse artigo em vídeo:


Estudo da consultoria Gallup divulgado em outubro indicou que 45% dos profissionais que usam a IA disseram que ela melhorou sua produtividade e eficiência, 26% se disseram mais criativos e inovadores e 23% apontaram melhora nas suas entregas. Apesar disso, 67% dos profissionais entrevistados disseram que nunca usaram a IA no trabalho, e apenas 4% fazem isso diariamente.

Infelizmente o “buraco é mais embaixo”. A pesquisa TIC Domicílios 2023, publicada em novembro passado pelo Cetic.br, órgão de pesquisas ligado ao CGI.br (Comitê Gestor da Internet no Brasil), indicou que, apesar de os 156 milhões de usuários de Internet representarem um recorde de brasileiros conectados, 29,4 milhões de pessoas nunca ficaram online em nosso país.

É importante ressaltar que não basta apenas dar acesso à Internet e à IA: é preciso ensinar as pessoas a fazerem bom uso desses recursos. O levantamento do Cetic.br apontou uma clara correlação entre o uso da Internet e os graus de educação e de renda: dos 29,4 milhões de pessoas desconectadas no Brasil, 24 milhões têm apenas até o Ensino Fundamental e 17 milhões são das classes D ou E.

Os pesquisadores apontaram que o pleno aproveitamento das oportunidades online depende ainda da qualidade da conexão e de dispositivos adequados. Ele é maior entre quem fica online tanto pelo computador quanto pelo smartphone, frente aos que se conectam só por dispositivos móveis. E se 99% dos domicílios da classe A têm computador, isso acontece apenas em 11% dos das classes D e E.

Para se colocar isso na devida perspectiva, é preciso entender que a inteligência artificial generativa não se trata de só mais uma tecnologia, como tantas outras que são lançadas a todo momento. Ela efetivamente oferece a possibilidade de se ampliar as capacidades de qualquer um que esteja disposto a fazer um uso consciente dela.

Mas tanto poder também guarda armadilhas.

 

Benefícios e riscos

A IA generativa embute recursos muito bem-vindos. Certamente o que a distingue de todo o resto é a capacidade de nos entender e dar suas respostas em linguagem natural, como se estivéssemos falando com outra pessoa. Além disso, ela é capaz de processar quantidades imensuráveis de informação para encontrar respostas e padrões. Por fim, ela efetivamente aprende e melhora com o uso.

Essa combinação a torna extremamente poderosa e flexível. Mas nesse funcionamento quase mágico, reside um de seus maiores riscos.

Quando o ChatGPT foi lançado e assombrou o mundo há dois anos, muitos diziam que ele poderia gerar uma “geração de preguiçosos”. Passado esse breve período, esse medo pode estar se concretizando em algumas pessoas.

Assim como uma simples calculadora agiliza as operações matemáticas que fazemos, mas não nos dispensa de sabermos como realizá-las, a inteligência artificial, por mais incrível e eficiente que seja, não pode tirar de nós a compreensão do que está sendo feito e principalmente as decisões que tomemos a partir desses resultados.

Além disso, as entregas em si da IA generativa normalmente têm uma qualidade mediana (na melhor das hipóteses), sofrendo de repetições e estilos limitados. E há ainda o maior de seus problemas: as “alucinações”, quando, diante de não saber o que dizer, entrega absurdos como se fossem verdades, sem qualquer ressalva.

Outra grave falha é a privacidade dos dados, pois essas plataformas podem aprender e depois replicar para estranhos informações confidenciais que usemos com elas. E isso flerta com outro conhecido problema dessa tecnologia: a violação de direitos autorais de conteúdos usados durantes suas etapas de treinamento.

Entre os que já usam a IA profissionalmente, a maioria se descuida em pelo menos um desses problemas, quando não em todos. É nessa hora que a IA deixa de ser uma poderosa aliada e passa a ser uma ameaça. Apesar de serem falhas intrínsecas da tecnologia, os riscos vêm da má utilização pelas pessoas. A revolução da IA invadiu nossas vidas sem manual de instrução, e por isso usos indevidos aparecem a toda hora.

Pior que isso são aqueles que terceirizam sua criatividade e decisões para os robôs: esses profissionais se colocam na posição de dispensáveis. Afinal, se eles não acrescentam nada sobre o que a IA faz, então basta a máquina para fazer o trabalho!

Antes vistos em obras de ficção científica, esses agora são dilemas da vida real! As pessoas precisam ser educadas não apenas para aproveitar os incríveis benefícios da IA, mas também para não cair em suas armadilhas.

Empresas, escolas, mídia, governo devem cuidar disso, mas não podem esquecer daqueles que já são marginalizados digitais. Caso contrário, teremos, em bem pouco tempo, uma “casta” com “superpoderes da IA” e uma massa de pessoas cada vez mais inabilitadas profissionalmente pela mesma tecnologia.

 

Ilustração oficial anuncia os vencedores do Prêmio Nobel de Física de 2024: John Hopfield e Geoffrey Hinton - Foto: reprodução

A IA poderá curar o câncer, mas não podemos ignorar seus riscos pelos benefícios

By | Tecnologia | No Comments

A inteligência artificial já transformou o mundo, e esse processo está apenas engatinhando. Suas potencialidades beiram o inimaginável e devemos nos apropriar de todos esses recursos. Ainda assim, temos que cuidar para que isso não se torne um ópio que turve nossa compreensão dos riscos que ela também embute, mas vejo isso já acontecendo de forma preocupante.

Constato esse problema em pesquisadores, parte da imprensa, grandes empresários e outros líderes da sociedade, que abraçam a IA de maneira inconsequente, como se tudo dela fosse bom para a humanidade. Essas pessoas adotam um discurso deslumbrado e intransigente, criticando aqueles que propõem um debate equilibrado sobre benefícios e riscos da IA.

No dia 8, a Academia Real das Ciências da Suécia concedeu o Prêmio Nobel de Física a Geoffrey Hinton, da Universidade de Toronto (Canadá), e a John Hopfield, da Universidade de Princeton (EUA), pelos seus trabalhos pioneiros com redes neurais artificiais e com machine learning, bases da IA. Essa turma correu para incensar a vitória dessa tecnologia, escondendo que, apesar de ser considerado o “padrinho da IA”, Hinton também é um forte crítico ao seu desenvolvimento descuidado.

A defesa inabalável da IA é criadora e criatura de um profundo processo de desordem informacional que beneficia as empresas do setor. Não é um fenômeno novo: há muitos anos, as big techs manipulam a opinião pública em favor das redes sociais. Com isso, mesmo diante dos seus evidentes problemas, uma parcela significativa da população ainda as apoia irrestritamente por seus inegáveis benefícios, mas ignorando os igualmente óbvios prejuízos.

Falhamos ao impedir que essa desinformação favorável às redes sociais criasse raízes tão profundas, que impediram que essas plataformas evoluíssem de maneira mais benéfica à humanidade. Não podemos repetir o erro com a inteligência artificial!


Veja esse artigo em vídeo:


Além de comemorar o reconhecimento de seu trabalho pelo Nobel, Hinton aproveitou a entrevista que concedeu logo após o anúncio de sua vitória para reforçar essas preocupações. E já no segundo minuto de sua fala, criticou Sam Altman, CEO da OpenAI (criadora do ChatGPT), por, segundo ele, “estar muito menos preocupado com a segurança que com os lucros”, algo que classificou como “lamentável”.

Para ele, as transformações pela IA serão comparáveis às da Revolução Industrial, com a diferença que, em vez de superar as pessoas na força física, superará na força intelectual. “Isso trará aumentos brutais na produtividade, mas também temos de nos preocupar com uma série de possíveis consequências ruins, particularmente com a ameaça de que essas coisas saiam do controle”, disse.

Em maio do ano passado, Hinton se demitiu do Google para, segundo ele, poder criticar livremente os caminhos da IA e a disputa sem limites entre as big techs, o que poderia criar “algo realmente perigoso”. Ao The New York Times, disse na época estar arrependido por ter contribuído com isso. E na entrevista do dia 8, disse que, apesar disso, teria feito tudo de novo, pois, na época, não podia prever esses riscos no futuro.

Hinton comemorou o prêmio na sede do Google, junto com ex-colegas e ex-alunos, entre eles Ilya Sutskever, ex-cientista-chefe da OpenAI que tentou demitir, sem sucesso, Sam Altman no ano passado. E o local escolhido é emblemático, demonstrando como a ciência no setor depende umbilicalmente dos recursos das big techs para financiar suas milionárias pesquisas.

Não há nenhum problema na colaboração de corporações e cientistas, muito pelo contrário: se bem conduzida, isso pode trazer grandes benefícios à humanidade. Deve-se apenas ter cuidado para que isso não se distorça para gerar apenas lucros irresponsáveis, como pode estar acontecendo com a IA.

 

Alterações da realidade

Para que as empresas lucrem mais, a opinião pública precisa ser convencida de que tudo está bem, e que suas decisões são tomadas para o bem comum. E os diferentes atores sociais mencionados anteriormente têm um papel essencial nisso.

É o caso de Bill Gates, que vem, há meses, dando incontáveis entrevistas e palestras sobre como a IA tornará o mundo um lugar melhor para todos. Lançou até uma série na Netflix (muito bem-feita), chamada “O Futuro de Bill Gates”, onde reforça a ideia.

O fundador da Microsoft, maior investidora da OpenAI, afirma repetidamente que a IA permitirá que as pessoas trabalhem menos dias na semana. Em tese, isso poderia acontecer, porém o mais provável é que, com o aumento de produtividade, gestores demitam em massa, com os remanescentes trabalhando todos os dias da semana.

Em 2021, pesquisadores da Universidade de Cambridge (Reino Unido) publicaram um estudo que explicava mecanismos de ataque à capacidade da população de adquirir conhecimento. E uma das principais ameaças são as pessoas que disseminam desinformação, divididas em dois grupos. O primeiro, batizado de “adversários”, deliberadamente manipula informações, promove ataques ou incita seguidores para confundir ou enganar a população para atingir seus objetivos. O segundo, os “trapalhões”, de maneira inocente e até bem-intencionada, espalha essas bobagens, como acontece naquele grupo da família no WhatsApp.

Pelas suas informações privilegiadas, é muito mais provável que Gates e Altman sejam “adversários”, e não “trapalhões”. Nesses últimos, estão aqueles que usam a IA de maneira pouco crítica, achando que ela é uma grande assistente, quando, na verdade, em breve podem perder seu emprego para ela, pelo uso limitado que fazem.

No final das contas, o excesso de informação sobre a IA, a polarização da sociedade e o papel dos “adversários” e dos “trapalhões” podem atrapalhar profundamente o desenvolvimento de bons usos da IA, pois a população pode adquirir uma visão pouco crítica sobre essa tecnologia. Assim como aconteceu as redes sociais, muito mais que as pessoas, as grandes beneficiadas desse processo são a big techs.

Hinton afirma categoricamente que não se sabe como evitar os riscos criados pela IA. Por isso, ele afirma que mais pesquisas independentes sobre isso são urgentes. Caso contrário, esse processo de degradação cognitiva seguirá seu curso, até que eventualmente seja tarde demais e seus temores se concretizem.

Temos que nos apropriar de tudo de bom que a IA nos oferece, e não é pouca coisa. Mas não podemos ser deslumbrados inconsequentes diante disso.

 

Gilson Magalhães, novo diretor-geral da Red Hat Latin America, se apresenta no Summit Connect, em São Paulo, no dia 8 - Foto: Red Hat

Muitos querem “ganhar na loteria” com a IA, mas poucos fazem o necessário para isso

By | Tecnologia | No Comments

A inteligência artificial generativa está prestes a completar dois anos de mercado. Desde o lançamento do ChatGPT, em 30 de novembro de 2022, ela vem redefinindo o mundo com uma velocidade nunca vista, não só pelos 100 milhões de usuários nos seus primeiros dois meses, mas pela avalanche de aplicações que prometem facilitar as mais diversas tarefas. Porém, apesar dessa euforia, não há milagre nisso, e poucas pessoas entendem como tirar o proveito máximo dela.

“Eu tenho convicção de que a tecnologia atual, que ainda é incipiente, é o embrião de uma nova civilização”, proclamou Gilson Magalhães, novo diretor-geral na América Latina da Red Hat, a maior empresa de software open source do mundo. “É preciso ter muita atenção a essa tecnologia, porque ela é de altíssimo impacto, e vai crescer progressivamente, trazendo novos insumos”, acrescentou, durante o Red Hat Summit Connect, principal evento da empresa no país, que aconteceu no dia 8, em São Paulo.

Mas ainda há muito mais entusiasmo que conhecimento em torno da IA. Tanto que um estudo recente da consultoria Gartner indicou que metade das iniciativas com essa tecnologia se limita a ferramentas de produtividade para as equipes, enquanto 30% agem nos processos. Implantações para verdadeiramente transformar o negócio, o que indicaria seu uso mais robusto, acontecem em apenas 20% dos casos.

Magalhães deixa bastante claro: as pessoas querem “mágica” da IA, mas não funciona assim. Como qualquer outra tecnologia, os resultados vêm com informação e trabalho.

É um cenário semelhante aos primórdios de outras tecnologias que transformaram dramaticamente o mundo: a Internet comercial e os smartphones. Nem em seus sonhos mais loucos, os responsáveis por esses lançamentos poderiam imaginar o que surgiria daquilo! Não obstante, cá estamos, com vidas profundamente digitalizadas.

Cabe a essa geração aprender a usar a inteligência artificial de maneira construtiva, segura e ética, criando utilizações que talvez hoje se pareceriam mesmo com mágica.


Veja esse artigo em vídeo:


“Nós precisamos organizar nossa vida, mas temos tantas tarefas diárias, cuidar da agenda, da saúde, dos filhos, da família, e as pessoas estão vivendo mais”, propõe Sandra Vaz, diretora-sênior de Alianças e Canais da Red Hat Latin America. “A inteligência artificial será a nossa grande parceira para que possamos ter mais produtividade e tomar decisões melhores frente à nossa concorrência”, acrescenta.

Há um caminho a ser percorrido. As empresas precisam substituir a euforia por conhecimento, capacitar suas equipes e envolver as pessoas na adoção da IA.

“Todo esse tema de IA Generativa ainda tem uma compreensão baixa no mercado”, explica Thiago Araki, diretor-sênior de Tecnologia da Red Hat Latin America. Ele explica que as empresas começam a entender que não haverá uma IA que resolverá todos os problemas, que serão necessários trabalhar com diferentes modelos. “Então ainda não temos projetos muito avançados, porque é tudo muito novo”, conclui.

Mesmo com tudo isso, cresce no mercado um consenso de que profissionais e empresas que adotem conscientemente a inteligência artificial construirão uma vantagem enorme sobre seus concorrentes. Mas isso dependerá não apenas de bons algoritmos, mas também de bons dados, um tema tratado de maneira displicente em uma parcela assustadoramente grande de empresas.

O problema começa por diferentes departamentos coletarem suas próprias informações, sem compartilhá-las com o resto da empresa. Não raro, esses dados são redundantes –e pior, conflitantes– com os de outros departamentos. O problema se agrava por metodologia frágeis para sua captura e atualização.

Mesmo com o mais incrível algoritmo, a IA trará respostas ruins se for alimentada com informações de baixa qualidade.

 

A era dos agentes

Apesar de já existirem literalmente milhares de aplicações impulsionadas pela inteligência artificial generativa, automatizando tarefas bem específicas, a maioria das pessoas continua usando ferramentas não-especializadas, como o próprio ChatGPT ou o Gemini, do Google. Mas isso tende a mudar, com a ascensão dos agentes.

Eles são sistemas baseados em IA autônomos ou semiautônomos, criados para realizar tarefas específicas, a partir de interações com o usuário ou o ambiente. Eles podem aprender e se refinar com o uso, e funcionam a partir de dados selecionados.

Magalhães acredita que a inteligência artificial não evoluirá para um supercérebro eletrônico, capaz de realizar qualquer coisa, como se vê na ficção científica. Ao invés disso, ele aposta no surgimento de incontáveis agentes aprimorando nossa capacidade de realizar virtualmente qualquer tarefa.

Naturalmente, existirão agentes oferecidos prontos por empresas, melhorando a eficiência de seus produtos. Mas já se pode criar os próprios agentes usando plataformas como o ChatGPT.

Talvez isso ainda pareça ficção científica ou no mínimo algo nada trivial para a maioria das pessoas. Mas o recurso já está disponível e deve ser, pelo menos, aprendido. Afinal, houve uma época em que o Google também era uma novidade, e hoje ele está totalmente integrado à vida de todos nós!

Apesar de ser uma discussão tecnológica, as empresas falham também quando esquecem de incluir as pessoas. Outro estudo do Gartner indica que apenas 14% dos líderes de RH estão envolvidos em conversas sobre IA. É um grande erro, pois, com isso, as pessoas não se sentem parte da jornada da IA na organização.

Tudo isso pode parecer uma exigência um tanto opressora para muita gente, que gostaria de continuar levando uma vida sem IA. São escolhas! É preciso entender que, a médio prazo, isso pode realmente custar a competitividade profissional e até a se demorar mais tempo para fazer as mesmas coisas que seus amigos.

“É um desafio para todos, não tenho como dizer que é um caminho fácil”, afirma Magalhães. “A minha recomendação é: ‘não se afaste da IA’”, conclui.

Como costumo sempre dizer, diante da IA, não podemos ser nem deslumbrados, achando que ela fará tudo sozinha por nós, nem resistentes, rejeitando-a a qualquer custo. Com seu avanço galopante, ela realmente não é mágica, mas pode ajudar de maneira surpreendente a qualquer um que resolva dar os passos necessários para um uso consciente de todo esse poder.


Veja a íntegra em vídeo da entrevista com Gilson Magalhães, novo diretor-geral da Red Hat Latin America:

 

O historiador Yuval Noah Harari, para quem robôs que imitam humanos ameaçam a democracia - Foto: Ciaran McCrickard/Creative Commons

Robôs que fingem ser humanos ameaçam a democracia

By | Tecnologia | No Comments

Desde que o austríaco Fritz Lang levou o robô Maria para as telas, no cultuado “Metropolis” (1927), máquinas fingindo ser pessoas vêm sendo exploradas pela ficção. Ainda que de maneira bem diferente de livros e filmes, nunca estivemos tão perto de isso acontecer, com profundos impactos sociais.

Considerado um expoente do expressionismo alemão, o filme retrata um futuro distópico, que curiosamente se passa em 2020. Nele, governantes que temem uma revolução popular usam uma máquina que falsifica a verdadeira Maria, uma mulher carismática e que prega paz e esperança, para semear o caos entre os trabalhadores.

Na nossa realidade, os robôs mais avançados não têm corpos, mas enganam ao se comportarem como humanos. Eles transmitem ideias de maneira muito convincente, falando como nós. E isso pode transformar a sociedade mais que a Maria de Lang.

No mês, passado, Yuval Noah Harari argumentou em um artigo que a capacidade de a inteligência artificial convencer pessoas melhora à medida que esses sistemas se parecem mais com seres humanos. Como explica o historiador e filósofo israelense, a democracia depende de diálogo, e debates nacionais só se tornaram e se mantêm viáveis graças a tecnologias da informação, como os jornais e a TV.

Logo, qualquer mudança tecnológica pode impactar o diálogo e, consequentemente, a democracia. O irônico é que passamos agora, com a IA, pela maior transformação em décadas, mas seu impacto no diálogo não se dá por ampliar a troca de ideias, mas por ser uma ferramenta excepcional de manipulação das massas.

A pergunta que surge é: até onde esses “falsos humanos” podem prejudicar nossa capacidade de fazer escolhas conscientes sobre o que realmente é melhor para nós?


Veja esse artigo em vídeo:


Pudemos comprovar isso no primeiro turno das eleições, que aconteceu nesse domingo. Seguindo o padrão dos pleitos anteriores, os candidatos com propostas sensatas perderam espaço para quem se apresentou como “antissistema” ou que, no mínimo, propôs grandes mudanças, por mais que fossem esdrúxulas.

Esses candidatos entenderam algo que as redes sociais descobriram há alguns anos: as pessoas curtem, comentam e compartilham o que lhes desperta sentimentos nada nobres, como ódio, ganância e medo. Como vivem de engajamento, seus algoritmos promovem ativamente esses conteúdos. Esses políticos souberam se apropriar de tal recurso, agindo nesses sentimentos, para que aparecessem mais em nosso cotidiano.

Justamente aí a inteligência artificial pode ter um efeito nefasto. Apesar de depender de comandos humanos para funcionar, ela identifica padrões com eficiência sobre-humana, incluindo o que desperta aqueles sentimentos no eleitorado. Com tal informação, essa tecnologia produz para os políticos o material necessário para que se mantenham em evidência com o apoio das redes sociais.

A velha máxima do “falem bem ou mal, mas falem de mim” ganha nova dimensão. No deserto de ideias resultante, além das redes sociais, os outros candidatos e a própria imprensa acabam fazendo o jogo sujo dos “valentões”, que sequestram o tempo e a atenção das pessoas. Nesse vazio, cresce quem simplesmente aparece mais.

Nas minhas viagens pelo mundo, comprovei que a saúde de uma democracia estava ligada à qualidade de sua imprensa, que usa a tecnologia para informar, defender e fortalecer a população. O “problema” é que sua ferramenta é a verdade, que normalmente é muito menos atraente que as mentiras excitantes dos candidatos.

Dessa forma, os políticos atuam na corrosão da confiança das pessoas na imprensa. Por mais que ela faça um bom trabalho, seu papel na preservação da sociedade se enfraquece, pois sua mensagem agora ressoa menos no público. E as redes sociais, que viabilizam isso tudo, se isentam candidamente de qualquer responsabilidade.

Não é de se estranhar, portanto, que 47% dos brasileiros se recusem a consumir qualquer notícia. O número é do Digital News Report 2024, publicado em junho pelo Instituto Reuters e pela Universidade de Oxford. Em 2023, esse índice era de 41%.

 

Às favas com a verdade!

Inicialmente, acreditava-se que as pessoas eram manipuladas pelo convencimento dos algoritmos das redes sociais. E ainda que isso seja verdade para uma parcela muito significativa da população, sabe-se que o mecanismo é mais complexo que isso.

As pessoas acreditam no que lhes convier! Por mais absurda que seja a tese lançada por um político, muita gente não apenas compra a ideia, como ativamente a distribui por todos os meios que dispuser. A imprensa que mostra a falcatrua passa a ser vista como uma inimiga a ser desacreditada e silenciada.

Mas a eleição de 2022 ampliou a deterioração tecnológica da democracia, que se consolidou nesse primeiro turno, especialmente em cidades como São Paulo, onde a campanha se limitou à sarjeta. O que se observa agora são pessoas espalhando informações que sabem ser falsas, pois seus valores se alinham com os do candidato mentiroso. A verdade passa a ser um incômodo descartável, em um gigantesco “o fim justifica os meios”. Não se dão nem mais ao trabalho de acreditar!

A IA já se presta a fornecer a inteligência para isso. “Quando nos envolvemos em um debate político com um bot que se faz passar por humano, perdemos duas vezes”, escreveu Harari, que explica: “É inútil perdermos tempo tentando mudar as opiniões de um bot de propaganda, que simplesmente não está aberto à persuasão. E quanto mais conversamos com o bot, mais revelamos sobre nós mesmos, tornando mais fácil para o bot aprimorar seus argumentos e influenciar nossas opiniões.”

Quando a Internet foi criada, acreditava-se que ela ajudaria a disseminar a verdade. As redes sociais enterraram essa utopia. Com a avalanche de inutilidades e de mentiras que trouxeram, a atenção das pessoas tornou-se um recurso escasso. Na consequente batalha por ela, não vence quem dialoga, mas quem vocifera mais alto o que a turba insana e insatisfeita deseja.

O voto é substituído pela curtida e o debate perde espaço para o algoritmo. Enquanto algumas das melhores mentes do mundo atuam para humanizar os robôs, o resultado de seu trabalho ironicamente ameaça uma das características mais humanas que temos: a capacidade de dialogar e evoluir com isso.

O desafio dessa geração é reverter esse processo. Mas enquanto as empresas que criam as redes sociais e as plataformas de inteligência artificial não assumirem verdadeiramente a sua responsabilidade nesse processo, a dobradinha de robôs e políticos sujos triunfará.

 

David Furlonger, VP do Gartner: “a IA é uma disrupção combinatória, não perca tempo tentando separá-la” - Foto: Paulo Silvestre

Euforia e desconhecimento empacam avanços da IA

By | Tecnologia | No Comments

A essa altura, ninguém diria que a inteligência artificial não passa de uma tendência incerta: seu uso cresce sem parar entre profissionais diversos, nos mais variados segmentos do mercado. Porém enquanto os investimentos nessa tecnologia avançam exponencialmente, executivos reclamam dos seus resultados. Isso vem muitas vezes de uma combinação de euforia e de desconhecimentos sobre a IA.

Durante a conferência Gartner CIO & IT Executive, que aconteceu em São Paulo na semana passada, especialistas da consultoria demonstraram isso em números. Segundo levantamento desse ano, 47% dos CIOs no mundo disseram que suas iniciativas corporativas de IA não atingiram seus objetivos. Ainda assim, 87% deles planejam investir mais nessa tecnologia em 2025. No Brasil esse índice chega a 92%!

As expectativas são altas e crescentes. Segundo o Gartner, em 2022, apenas 18% dos executivos de negócios acreditavam que a IA impactaria significativamente sua indústria. No ano seguinte, esse índice cresceu para 21%, saltando para 59% em 2024 e devendo chegar aos 74% até o fim do ano!

Apesar disso, são poucos os que parecem ter apetite para criar usos disruptivos com ela. Segundo a consultoria, metade das iniciativas com IA se concentram em ferramentas de produtividade para as equipes, enquanto 30% agem nos processos. Propostas para verdadeiramente transformar o negócio são apenas 20% dos casos.

Para melhorar esse quadro, as empresas devem parar de ver a inteligência artificial apenas como uma mera ferramenta digital capaz de dar respostas quase mágicas. Ela precisa ser encarada como uma tecnologia disruptiva para o negócio. E isso também exige estudo, planejamento e envolvimento profundo das diferentes equipes da empresa, que muitas vezes se dividem entre o medo e o deslumbramento com a IA.


Veja esse artigo em vídeo:


“A IA é uma disrupção combinatória, não perca tempo tentando separá-la”, disse na conferência David Furlonger, vice-presidente do Gartner. “Em vez disso, crie uma inteligência artificial estratégica”, sugeriu.

Ele trouxe previsões envolvendo a IA para os próximos anos, surpreendendo pelas suas abrangências e intensidades. A maior parte envolvia pessoas, como um risco de desenvolvimento de vício e vínculos emocionais com a IA, seu uso em convencimento, eliminação de níveis hierárquicos e uso da IA em decisões de alto nível nos negócios.

Outro ponto destacado é o consumo de energia. Apesar de usarmos alegremente o ChatGPT e afins, poucas pessoas têm consciência da brutal capacidade de processamento e de energia que ele consome. Cada resposta que ele nos dá, seria suficiente para fazer uma lâmpada elétrica piscar. Considerando que o ChatGPT cria algo como 500 milhões de respostas por dia, poderíamos dizer grosseiramente que seu consumo seria suficiente para as necessidades energéticas de uma cidade de médio porte.

Furlonger sugeriu que as empresas devem considerar até a geração de sua própria energia (ou parte dela), para atender as necessidades da IA. Segundo ele, até 2027, as maiores empresas do mundo devem transferir US$ 500 bilhões em iniciativas assim.

Em outra fala, Henrique Cecci, diretor-sênior de Pesquisa do Gartner, disse que muitos países não se beneficiam mais da IA por limitações energéticas. Segundo ele, o consumo desses datacenters deve dobrar nos próximos cinco anos. “E não dá para aumentar a capacidade energética de um dia para o outro”, lembrou.

Esse é só uma das despesas associadas ao uso da inteligência artificial. E o custo é justamente uma das maiores ameaças ao sucesso dessa tecnologia. Levantamentos do Gartner indicam que mais da metade das organizações estão desistindo de seus projetos de IA por erros na estimativa de investimentos necessários.

Ironicamente o principal foco nas iniciativas de uso da IA generativa, segundo a consultoria, é a redução de custos dos negócios.

 

IA sob ataque

Outro aspecto que as empresas precisam investir mais é a cibersegurança. A inteligência artificial traz inegáveis benefícios aos negócios, mas ela também abre sérias brechas na sua proteção.

Furlonger destacou os riscos associados aos agentes de inteligência artificial. Eles são sistemas criados para realizar tarefas específicas, e seu uso vem crescendo, até pelo incentivo dos desenvolvedores dessas plataformas. Mas os agentes podem ser enganados por pessoas de fora ou de dentro da organização. Segundo ele, até 2028, um quarto das falhas de segurança digitais podem estar associadas a eles.

Para Oscar Isaka, analista-diretor-sênior do Gartner, “100% de segurança só existe quando há 0% de funcionalidade”. Ele diz que o profissional de cibersegurança moderno deve ser capaz de explicar claramente os riscos para os diferentes públicos. “Vivemos uma batalha contra a desinformação, que desorienta todos”, acrescentou.

Felizmente a mesma inteligência artificial pode ajudar no combate a esses males. Furlonger afirmou que, até 2028, 48% dos CIOs trabalharão com “anjos da guarda digitais”, que automaticamente vasculharão a totalidade das ações dos agentes, identificando e bloqueando ataques. Essa é uma tarefa que os humanos não conseguirão desempenhar sozinhos.

E por falar em tarefas dos humanos, ele também mencionou o impacto da IA nas lideranças alta e média das empresas. Segundo o executivo, até 2026, 20% das empresas usarão IA para eliminar níveis hierárquicos, demitindo mais da metade dos gerentes atuais. Além disso, essa tecnologia será cada vez mais usada para os conselheiros das companhias exigirem melhores resultados do corpo de executivos.

Nenhuma dessas mudanças é trivial, mas já estão acontecendo em passo acelerado. As empresas tentam encontrar o seu caminho, muitas vezes “construindo o avião da IA em pleno voo”. E isso vem causando tantas decepções com resultados.

O melhor a se fazer, portanto, é investir em pessoas e em planejamento. A tecnologia funcionará muito melhor, qualquer que seja sua aplicação, com esses investimentos no lugar. De nada adianta termos sistemas revolucionários, se não soubermos obter resultados palpáveis deles, contornando seus inevitáveis riscos.

 

Brasileiros ficam na 44ª posição do indicador que mede as nações mais felizes do mundo – Foto: Tomaz Silva/Agência Brasil

Aceleração do mundo digital ameaça a alegria das pessoas

By | Jornalismo, Tecnologia | No Comments

O brasileiro se gabava de ser o povo mais feliz do mundo. Éramos acolhedores até com estranhos e levávamos a vida de forma leve e bem-humorada, mesmo diante de adversidades do cotidiano. Vivíamos na orgulhosa pátria das chuteiras, do samba, do suor e da cerveja. Mas olhando a nossa volta, parece que isso ficou no passado. Muitas coisas explicam essa queda, mas algo sorrateiro tem um papel decisivo nesse entristecimento: a aceleração descontrolada de nossas vidas pelo meio digital.

Segundo o Relatório de Felicidade Mundial 2024, organizado pela consultoria Gallup, pela Universidade de Oxford e pela ONU, lançado em março, o Brasil amarga uma melancólica 44ª posição no indicador de nações felizes, de um total de 143, logo depois da Nicarágua e da Guatemala. Pelo sétimo ano seguido, o país mais feliz do mundo foi a Finlândia. Aliás, o norte da Europa domina a lista, com as primeiras posições completadas por Dinamarca, Islândia e Suécia.

Cada um sabe “onde aperta seu calo”. Entre outras questões, os brasileiros ficaram tristes pela violência, pela corrupção, pela política suja, pelo acesso precário a serviços básicos e pela instabilidade econômica, que leva a um medo constante de perder o emprego. Mas o nosso profundo apreço pelas redes sociais semeou em nós uma permanente insatisfação, que nos torna ansiosos e substitui muitos bons valores por insanas e contínuas buscas, como riqueza fácil com “jogos de tigrinhos” e afins.

Não dá para ser feliz enquanto se estiver insatisfeito! Obviamente temos que buscar nosso crescimento, mas precisamos resgatar o controle de nossas vidas, valorizando aquilo que verdadeiramente nos faz avançar. As redes sociais nos estimulam o tempo todo, de uma maneira que nosso cérebro não mais consegue lidar com tanta informação. Enquanto não percebermos como somos manipulados digitalmente, não sairemos desse quadro desolador.


Veja esse artigo em vídeo:


O Relatório de Felicidade Mundial considera diversos aspectos para definir a felicidade de um povo. Entre eles, estão o PIB per capita, o apoio de parentes e amigos, a expectativa de vida ao nascer, a liberdade de se fazer escolhas, a generosidade com o próximo e a percepção de corrupção. Essa última é onde o Brasil aparece pior, mas também vamos mal em liberdade de se fazer escolhas e na expectativa de vida.

A situação se agrava entre os brasileiros mais jovens. Segundo o estudo, se considerarmos só as pessoas com até 30 anos, o país despenca para a 60ª posição. Por outro lado, se computarmos apenas as com mais de 60, saltamos para a 37ª.

Diante disso é inevitável comparar o índice de felicidade com o de uso das redes sociais. De acordo com a versão mais recente do Digital Global Overview Report, publicado anualmente pela consultoria We Are Social, somos os vice-campeões mundiais em tempo online, com uma média diária de 9 horas e 13 minutos, dos quais 3 horas e 37 minutos são dedicados a redes socias. Em comparação, os dinamarqueses têm uma média diária online de 5 horas e 8 minutos e apenas 1 hora e 50 minutos nas redes sociais. A Finlândia não integrou essa pesquisa.

Não é mera coincidência que os mais jovens, que se informam menos por fontes confiáveis e são mais suscetíveis aos algoritmos de relevância, sejam os mais tristes. As sociedades descobriram que, para vender qualquer coisa, de um produto a um político, é preciso acelerar ainda mais a vida, soterrando o senso crítico.

Nesse cenário resultante de estresse, desesperança e cansaço coletivo, as pessoas aproveitam seu pouco tempo livre com diversão rasa, o que reforça a alienação. Rejeita-se tudo que convide a uma leitura crítica da vida.

 

“Pensar dá trabalho”

Fica fácil entender então por que 47% dos brasileiros deliberadamente se recusam a consumir notícias. O número é do Digital News Report 2024, publicado em junho pelo Instituto Reuters e pela Universidade de Oxford. Em 2023, esse índice era de 41%.

O estudo sugere que essa rejeição se deve à percepção de que “só há notícia ruim”. E apenas 43% dos brasileiros confiam no noticiário, o mesmo índice do ano passado, o pior já registrado (há uma década, era 62%). Se serve de consolo, os brasileiros são os que mais confiam nas notícias entre os seis países latino-americanos pesquisados.

Talvez a grande ironia para os que tentam “resistir ao noticiário” é que os mesmos assuntos ruins continuam os impactando, porém a partir de fontes pouco ou nada confiáveis, como WhatsApp ou Telegram. E assim esse conteúdo chega com uma carga emocional ainda mais pesada que se sua origem fosse o noticiário profissional.

Do outro lado, os que mais confiam no jornalismo são justamente os finlandeses, aqueles que também são os mais felizes do mundo, e que integram o grupo de populações menos influenciadas pelas redes sociais.

A informação que processamos em apenas uma semana hoje é muito maior que a que uma pessoa culta era exposta ao longo de toda sua vida no século XVIII. É verdade que o ser humano se adapta a tudo, mas o nosso cérebro tem seus limites. Quando são desrespeitados, entramos em colapso, daí as atuais ansiedade e depressão.

A inteligência artificial infelizmente tende a agravar isso, em um processo batizado de “hipersuasão” pelo filósofo italiano Luciano Floridi, um dos maiores nomes da filosofia da informação. Para ele, a IA já é usada para identificar nossos desejos e medos, e, a partir deles, produzir conteúdos que nos aceleram e nos convencem cada vez mais sobre qualquer tema. E isso ficará pior com o tempo. Tanto que, em janeiro, o Fórum Econômico Mundial em Davos classificou a desinformação impulsionada pela IA como a maior ameaça à humanidade nos próximos anos.

Podemos comprovar isso nas campanhas eleitorais desse ano. Seguindo o padrão dos pleitos anteriores, os candidatos que trazem propostas sensatas ficam muito atrás daqueles que se apresentam como “antissistema”, que “lacram” e acirram os ânimos. Tragicamente eles vencem sem oferecer nada concreto, apenas uma excitação vazia.

Chegamos a um ponto em que parece não haver saída. Governantes não se movimentam para melhorar esse quadro, pois se beneficiam dessa aceleração. As escolas não se posicionam, até por pressão de pais “acelerados”, preocupados com o vestibular e contra professores que insistam em oferecer a seus filhos visões de mundo mais amplas que as de dentro de casa.

Por isso, por mais que sejamos vítimas disso, sua solução recai sobre nossos ombros. E isso é terrível, porque a aceleração do meio digital nos retira os meios para sequer percebermos que ela existe! Somos arrastados a querer sempre mais, porém nunca chegaremos lá, e assim retroalimentamos o sistema que nos massacra.

Não há outro caminho! Temos que pisar no freio e nos questionar se desejaremos continuar fazendo parte dessa roda viva ou se resgataremos o controle sobre nós mesmos. E nesse caso, precisaremos eliminar nossa submissão digital.

 

Adriana Aroulho, presidente da SAP Brasil, fala durante a abertura do SAP Now 2024, em São Paulo – Foto: Paulo Silvestre

IA só entregará a prometida transformação, se o investimento for feito com consciência

By | Tecnologia | No Comments

A “corrida da inteligência artificial” está prestes a completar dois anos, com executivos buscando maneiras de usar essa tecnologia para levar seus negócios a um patamar de produtividade inédito. Mas esse aspecto quase messiânico da IA tem decepcionado muitos deles, que não vêm colhendo os frutos esperados de seus investimentos.

A culpa não é da IA, e sim de implantações feitas sem planejamento. Em um estudo de julho de 2023, pesquisadores da consultoria McKinsey concluíram que, embora 89% das grandes empresas no mundo já tivessem projetos com IA em curso, apenas 31% haviam aumentado as receitas e 25% diminuído os custos como esperado. Outro levantamento, essa da consultoria Gartner, do segundo trimestre de 2023, indicou que 64% dos CEOs não achavam que existia exageros sobre a IA, mas 53% dos CIOs não tinham certeza se estavam preparados para mitigar os riscos associados a ela.

A implantação responsável da IA teve destaque durante o SAP Now, evento anual da subsidiária brasileira da gigante alemã de software, que aconteceu na semana passada, em São Paulo. Apesar de a inteligência artificial generativa ganhar os holofotes, seu uso consciente permeou a fala das lideranças da empresa.

Essa tecnologia efetivamente traz ganhos de produtividade antes inimagináveis a profissionais em diferentes funções e de diversos setores da economia. Porém os seres humanos precisam se manter no controle do processo. Isso demanda o desenvolvimento de novas habilidades nas equipes, criando também exigências inéditas para os gestores.

Não é de se estranhar, portanto, que ainda se observe desperdícios na implantação de uma tecnologia tão revolucionária. Sem um olhar responsável, criterioso e ético, além de capacitação dos times, a IA pode ser mesmo decepcionante.


Veja esse artigo em vídeo:


“Você não traz inovação, IA, transformação para a nuvem, se você não trouxer valor para o negócio”, explicou no evento Cristina Palmaka, presidente da SAP América Latina e Caribe. “Seja a criação de novos modelos, seja aumento de produtividade, eficiência, todo o tema de segurança, o apetite está atrelado a ter um caso de negócios que justifique o investimento”, acrescentou.

Em outras palavras, antes de pensar em investir desbragadamente em inteligência artificial, deve-se saber qual é o ganho para o negócio que ela trará, qual é o problema a ser resolvido. Parece óbvio, mas nem sempre isso é seguido pelos gestores: no estudo do Gartner, 65% dos entrevistados disseram usar dados para justificar uma decisão já tomada, normalmente pela pessoa mais bem-paga na organização.

“Nosso posicionamento é de ‘business AI’: a gente não quer ser mais uma alternativa de tecnologia, como o ChatGPT, porque o insumo deles é a informação que está aí, pela Internet”, afirmou no SAP Now Adriana Aroulho, presidente da SAP Brasil, reforçando o seu posicionamento corporativo. “A nossa inteligência artificial faz uso dos dados do próprio negócio, pois a gente quer a inteligência artificial resolvendo problemas de negócios reais”, justificou.

Pouco antes, na abertura do evento, a executiva havia destacado a importância de que a IA de aplicações corporativas siga três R (em inglês): “Relevant” (relevante), “Reliable” (confiável) e “Responsible” (responsável). Eles endereçam um dos grandes problemas que muitas empresas enfrentam nas suas atuais implantações de inteligência artificial: a baixa confiabilidade nas respostas oferecidas pelas plataformas, incluindo as chamadas “alucinações”.

De fato, estima-se que pelo menos 3% de todas as respostas dadas por sistemas públicos, como o ChatGPT e o Gemini, contenham imprecisões leves ou severas. Isso acontece porque eles sempre respondem algo aos questionamentos do usuário, mesmo quando não sabem o que dizer. Além disso, por usarem informações públicas da Internet, isso diminui a relevância de suas respostas para os negócios.

Soluções corporativas de IA da SAP e de outras empresas, como IBM e Red Hat, mitigam esse risco por se focarem em dados do próprio cliente, aumentando sua relevância e a sua confiabilidade.

 

O R de “responsável”

O “terceiro R”, o da responsabilidade, depende mais das pessoas que das máquinas. Afinal, a tecnologia é agnóstica, e fará tudo que lhe for pedido.

“A gente entende que a decisão é sempre do humano: a IA automatiza, mas é o cliente que faz a pergunta”, lembrou Aroulho. Para ela, as empresas não podem perder de vista a ética quando usam a IA, e precisam capacitar suas equipes para usos conscientes. “À medida que a inteligência artificial vai automatizando, a gente vai melhorando também, porque temos que fazer a pergunta certa”, detalhou.

“Alguns especialistas dizem que a inteligência artificial generativa se assemelha ao descobrimento do fogo, da eletricidade e à criação da Internet, no que tange à evolução da espécie humana, e eu não acho que seja exagero”, sugeriu no palco do SAP Now Matheus Souza, Chief Innovation Officer da SAP América Latina e Caribe.

Concordo com ele! Mas estou certo de que muitos de nossos ancestrais primitivos queimaram a mão tentando dominar o fogo. Mesmo hoje, ainda sofremos acidentes com ele, porém proporcionalmente pouco, pois aprendemos como usá-lo.

Estamos na aurora da inteligência artificial. Apesar de suas pesquisas já terem mais de 70 anos, apenas agora empresas e profissionais têm acesso amplo a seus recursos, seja pelo grande poder de processamento disponível, seja pela atenção que ela ganhou com o lançamento do ChatGPT.

Mas apesar de seu apelo irresistível, executivos e gestores de pessoas devem abraçá-la do jeito certo. Se não souberem que problemas a IA resolverá, e se suas equipes não estiverem à vontade e preparadas para isso, sua adoção pode ser decepcionante.

Na atual intersecção da tecnologia com os negócios, essas decisões não podem mais se restringir a aspectos de um ou do outro. Como explicou Palmaka, essa inovação não deve servir apenas para aquilo que se faz hoje, mas também para aquilo que será feito no futuro.

Com tanto poder em jogo, não há espaço para amadorismo.

 

Policial espanhola atende mulher no programa VioGén, que calcula o risco de ocorrências de violência de gênero - Foto: reprodução

O que acontecerá quando alguém morrer por um erro de inteligência artificial

By | Tecnologia | No Comments

O uso da inteligência artificial continua avançando nas mais diversas atividades, trazendo sensíveis ganhos de produtividade em automação de tarefas e no apoio à tomada de decisões. Ainda assim, ela está longe de ser perfeita, mas muitos usuários parecem não se preocupar com isso, pois seus eventuais erros causam prejuízos mínimos. Em algumas funções, entretanto, essas falhas podem levar a enormes transtornos, até mesmo à morte de alguém.

Duas perguntas surgem imediatamente disso: como evitar que uma tragédia dessas aconteça, e quem responderá por isso nesse caso.

A inteligência artificial é fabulosa para encontrar padrões, que permitem que ela tome suas decisões. Esses padrões dependem, entretanto, da qualidade dos dados usados para seu treinamento. Se os dados forem limitados ou cheios de viés, isso comprometerá seriamente a eficiência da plataforma.

Esse é um dos motivos por que a tomada de decisões críticas, por mais que seja auxiliada pela inteligência artificial, deve continuar em mãos humanas, pelo menos no estágio atual da tecnologia.

Algumas pessoas argumentam que isso contrariaria o próprio propósito de se usar a IA. Mas ignorar essa responsabilidade é como entregar uma decisão de vida ou morte para um estagiário eficiente. Talvez algum dia ele tenha estofo para algo tão sério e possa responder por isso, mas, por enquanto, não está preparado para tal.

Nada disso é especulação: já está acontecendo!


Veja esse artigo em vídeo:


Por exemplo, a polícia espanhola usa um sistema chamado VioGén para determinar estatisticamente riscos de ocorrência de violência de gênero. Em 2022, Lobna Hemid foi morta em casa pelo seu marido, depois de dar queixa na delegacia por ter sido insultada e surrada por ele com um pedaço de madeira, diante dos quatro filhos de 6 a 12 anos. Toda a vizinhança tinha ouvido seus gritos.

Não havia sido a primeira vez que o marido, Bouthaer el Banaisati, a havia espancado nos dez anos de casamento. Ainda assim, o VioGén calculou que ela corria pouco risco. O policial aceitou a decisão da máquina e a mandou para casa. Sete semanas depois, Bouthaer a esfaqueou várias vezes no peito e depois se suicidou.

Segundo o Ministério do Interior da Espanha, há 92 mil casos ativos de violência contra mulher no país. O VioGén calculou que 83% dessas vítimas tinham risco baixo ou insignificante de serem atacadas novamente pelo agressor. E o caso de Lobna não é único: desde 2007, 247 mulheres foram mortas depois de serem analisadas pelo sistema, 55 delas com riscos classificados como insignificantes ou baixos.

Os policiais têm autonomia de ignorar a sugestão da plataforma, devido a indícios que observem. Mas em 95% dos casos, eles apenas aceitam a sugestão.

A máquina não pode ser responsabilizada pelo erro de julgamento, por mais que esteja diretamente ligada a essas mortes. Mas então quem reponde por isso? Os policiais que acreditaram no VioGén? O fabricante da plataforma?

No momento, ninguém! As autoridades argumentam que, apesar de imperfeito, o VioGén efetivamente diminuiu a violência contra mulheres. Mas isso não importa para Lobna, que engrossou as estatísticas de agressões fatais contra mulheres e de erros policiais grosseiros causados por decisões auxiliadas por uma máquina.

 

No Brasil

Oficialmente, não há casos assim no Brasil, mas diferentes sistemas de IA já causam severos erros policiais e jurídicos no país.

Assim como acontece em outras nações, muitas pessoas já foram presas por aqui por erros em sistemas de reconhecimento facial por câmeras públicas ou de policiais. A maioria das vítimas são pessoas negras e mulheres, pois as bases de dados usadas para seu treinamento têm muito mais fotos de homens brancos.

Isso reforça ainda mais a já conhecida e aviltante discriminação policial contra negros. E por mais que essas vítimas acabem sendo soltas quando o erro é descoberto, passar alguns dias “gratuitamente” na cadeia é inadmissível!

E nem estou falando nos casos em que a polícia já chega atirando no “suspeito”.

Em outro caso, há o sistema de vigilância pública da prefeitura de São Paulo, o Smart Sampa, que usa IA para evitar crimes. Sua proposta original, que previa “rastrear uma pessoa suspeita, monitorando todos os seus movimentos e atividades, por características como cor, face, roupas, forma do corpo, aspectos físicos etc.”, teve que ser alterada, pois monitorar alguém pela cor é ilegal. Mas a redação era emblemática!

A Justiça também tenta encontrar caminhos seguros para um uso produtivo da IA. Mas casos de erros graves dificultam essa aprovação.

Por exemplo, o Conselho Nacional de Justiça (CNJ) investiga o caso do juiz Jefferson Ferreira Rodrigues, que negou indenização a uma servidora pública, quando era titular da 2ª Vara Cível e Criminal de Montes Claros (MG). Sua sentença incluía jurisprudências inexistentes criadas pelo ChatGPT. Ele admitiu o erro, mas o classificou como um “mero equívoco” devido à “sobrecarga de trabalho que recai sobre os ombros dos juízes”. Ele ainda atribuiu o erro a um “assessor de confiança”.

Esses são apenas exemplos de por que não se pode confiar cegamente nas decisões de plataformas de inteligência artificial. É muito diferente de dizer que elas não devem ser usadas, pois devem: podem trazer grandes benefícios aos nosso cotidiano!

A decisão sempre deve ser de humanos, que são responsáveis por qualquer falha da plataforma, especialmente em casos críticos. E mesmo que um sistema evite 100 mortes, não é aceitável que 10 inocentes sejam condenados ou mortos por erros da plataforma. Se houver um único erro assim, ela não é boa o suficiente para uso!

Por fim, é preciso criar legislações que também responsabilizem os fabricantes por essas falhas. Caso contrário, seu marketing continuará “batendo o bumbo” quando algo dá muito certo, e “tirando o corpo fora” se algo der errado, jogando a culpa aos seres humanos. A inteligência artificial deve trabalhar para nós, e não o contrário!

 

O CEO da Microsoft, Satya Nadella, apresenta a linha de computadores Copilot+, em evento da empresa em maio - Foto: reprodução

Mais que chips, novos computadores e celulares funcionam com nossos dados

By | Tecnologia | No Comments

Nos últimos meses, a corrida pelo domínio do mercado da inteligência artificial pariu novos computadores e celulares. Equipamentos da Microsoft, Google e Apple trazem recursos antes inimagináveis, que podem facilitar muito nosso cotidiano. Para que funcionem, são empurrados por processadores poderosos, mas precisam de outro componente vital: dados, muitos dados… nossos dados!

A IA depende de quantidades colossais de informações para que funcione bem. Essa nova geração de máquinas traz esse poder para a realidade de cada usuário, mas, para isso, precisam coletar vorazmente nossas informações. E isso faz sentido: se quisermos que a IA responda perguntas sobre nós mesmos, ela precisa nos conhecer.

É um caminho sem volta! Essa coleta crescerá gradativamente, trazendo resultados cada vez mais surpreendentes. Precisamos entender que nada disso é grátis. Isso leva a um patamar inédito um processo iniciado há cerca de 15 anos com as redes sociais e que ficou conhecido como “capitalismo de vigilância”: para usarmos seus serviços, as big techs coletam e usam nossas informações para nos vender todo tipo de quinquilharia e, em última instância, nos manipular.

O histórico de desrespeito dessas empresas com seus clientes joga contra elas. Queremos os benefícios da inteligência artificial, e isso pode ser feito de maneira ética e legal, mas qual garantia temos de que esses problemas não ficarão ainda maiores?


Veja esse artigo em vídeo:


Não temos essa garantia! As big techs primam pela falta de transparência em seus negócios, e lutam com unhas e dentes contra qualquer tentativa de legislação que coloque seu modelo em risco. Elas foram bem-sucedidas nesse processo, ao travar a criação de leis, inclusive no Brasil, que lhes atribuísse alguma responsabilidade por promoverem conteúdos nocivos aos indivíduos e à sociedade. O único lugar que conseguiu criar alguma regra assim foi a Europa. Agora, com a ascensão da IA, as big techs tentam repetir esse movimento para essa tecnologia.

É importante deixar claro que não sou contra a inteligência artificial: muito pelo contrário! Como pesquisador, reconheço os incríveis benefícios que traz. Mas como diz o ditado, não existe almoço grátis. Precisamos saber quanto estamos pagando!

Entre as novidades, estão os notebooks Copilot+, criados pela Microsoft e lançados por diferentes fabricantes, como Samsung, Dell e Lenovo. Entre outros recursos, eles trazem o Recall, que permite que pesquisemos qualquer coisa que já fizemos no computador. Para isso, ele registra todas as nossas atividades a cada poucos segundos. Essas máquinas também executam localmente diversas atividades de IA generativa que normalmente são executadas na Internet, como no ChatGPT.

O Apple Intelligence, pacote de serviços de IA da empresa para seus novos iPhones, iPads e Macs, cria uma camada de assistência inteligente que combina os dados do usuário distribuídos em múltiplos aplicativos. Muito disso acontece no próprio aparelho, mas há operações que dependem da “nuvem”. A Apple garante que ninguém, nem seus próprios funcionários, tem acesso a esses dados.

O Google AI, pacote de IA do gigante de buscas, oferece recursos interessantes, como um identificador de golpes telefônicos. Mas, para isso, precisa ouvir todas as chamadas de áudio que fizermos. Outro recurso permite que façamos perguntas sobre fotos que tenhamos tirado, às quais ele também tem acesso. A empresa disse que seus funcionários podem eventualmente analisar as perguntas, “para melhorar o produto e sua segurança”.

Todos os fabricantes demonstram grande preocupação com a segurança das informações pessoais, afirmando que tudo é criptografado e que nem eles mesmos têm acesso a isso. Mas a informática sempre mostrou que mesmo o melhor cadeado pode ser aberto por mentes malignas habilidosas.

 

“Raio-X da alma”

Todos esses novos sistemas têm uma incrível capacidade de criar relações e identificar padrões pelos cruzamentos de dados das mais diversas fontes e naturezas. Isso lhes permite compreender quem somos, nossas crenças, desejos, medos, como pensamos, criando um verdadeiro “raio-X de nossa alma”, com informações de valor inestimável para empresas, governos e até criminosos.

É curioso que, até pouco atrás, éramos mais preocupados com a nossa privacidade. Não compartilhávamos dados sem que soubéssemos (pelo menos em tese) o que seria feito deles. Eram pouquíssimas informações e elas não eram cruzadas entre si.

As redes sociais mudaram isso, com a ideia de que nossas informações também lhes pertencem, podendo fazer o que quiserem com elas para seu benefício. E elas fazem, mesmo quando isso prejudica seus usuários.

Um exemplo emblemático de proteção dos usuários aconteceu no início de julho, quando a Autoridade Nacional de Proteção de Dados (ANPD) proibiu a Meta (empresa dona do Facebook, Instagram e WhatsApp) de usar os dados dos brasileiros para treinar seus modelos de inteligência artificial. Infelizmente algo assim é muito raro!

Mesmo que não exista nenhum problema de privacidade, precisamos entender que essas máquinas inauguram um novo tipo de dependência e até de relação entre nós e a tecnologia. Quem assistiu ao filme “Ela” (2013), dirigido por Spike Jonze e estrelado por Joaquin Phoenix e Scarlett Johansson, sabe como isso funciona.

Na história, Theodore (Phoenix) se apaixona por Samantha (a voz de Johansson), o sistema operacional de seu computador e smartphone, movido por uma aparente inteligência artificial geral. Ela sabia tudo sobre ele, e usava essa informação para lhe facilitar a vida. Mas com o tempo, ele se viu em um inusitado relacionamento desequilibrado com uma máquina!

É por isso que, ao aceitarmos usar os incríveis recursos desses novos equipamentos, precisamos estar conscientes de como estaremos nos expondo para isso. Por mais bem-intencionadas que os fabricantes sejam (e há ressalvas nisso em muitos casos), existem riscos potenciais com os quais teremos que aprender a conviver.

Assim como qualquer outro serviço que exista graças à inteligência artificial, os fabricantes precisam assumir responsabilidades durante o desenvolvimento, algo que os já citados dizem fazer. Eles também dever ser responsabilizados se algo der errado durante seu uso, um risco bastante considerável, mas isso eles não aceitam.

É um mundo totalmente novo que se descortina diante de nós. As relações entre empresas, governos, instituições e pessoas precisam ser repensadas diante disso tudo. Caso contrário, clientes e cidadãos podem ficar em uma situação muito precária.

 

Sam Altman, CEO da OpenAI, durante o Fórum Econômico Mundial 2024, que aconteceu em Davos (Suíça), em janeiro - Foto: reprodução

Quem deve ser o “dono” da inteligência artificial?

By | Tecnologia | No Comments

A inteligência artificial generativa é uma tecnologia diferente de tudo criado antes dela. Ao contrário de ferramentas mecânicas ou digitais, que nos ajudam a realizar melhor as mais diversas tarefas, ela se propõe a “entregar o trabalho pronto”. Se por um lado isso é realmente incrível, por outro exige que sejamos muito criteriosos sobre o criador das plataformas que usarmos e sobre suas produções.

Tudo porque essa tecnologia pode efetivamente, a longo prazo, alterar a maneira como pensamos e encaramos o mundo! O problema é que as pessoas não têm consciência disso, e usam essas plataformas despreocupadamente.

Não proponho que os responsáveis por esses sistemas tenham uma motivação maquiavélica de domínio do mundo. Mas as respostas da IA generativa não apenas trazem o conteúdo das fontes usadas em seu treinamento: também refletem a maneira de falar, a cultura e até os valores dos países que mais contribuíram para tal treino. No momento, isso cabe à Europa Ocidental e principalmente aos Estados Unidos, pelo simples fato de a maior parte do conteúdo na Internet ter essas nações como origem.

Isso pode mudar em pouco tempo! Países do Oriente, especialmente a China, investem pesadamente e com regras muito mais frouxas para criarem suas próprias inteligências artificiais generativas, treinadas com seu conteúdo e sua visão de mundo.

No último dia 25, Sam Altman, cofundador e CEO da OpenAI (criadora do ChatGPT), publicou um artigo no The Washington Post (reproduzido em português no Estadão) questionando qual país deve controlar o futuro da IA. Apesar do tom desbragadamente ufanista em favor dos Estados Unidos, ele faz provocações válidas.

Afinal, a nação que dominar a IA dominará o mundo! E isso não pode ser ignorado.


Veja esse artigo em vídeo:


Não concordo com tudo que Altman escreve em sua publicação, a começar pelo seu ímpeto em apresentar os Estados Unidos como um defensor ilibado da liberdade e dos direitos individuais. Sim, isso faz parte dos valores fundamentais daquele país, mas repetidos escândalos de espionagem digital de seus governos e de abusos de poder econômico de empresas americanas, por manipulação e usos indevidos de dados de seus clientes, desqualificam essa premissa de Altman.

Por outro lado, obviamente os Estados Unidos e principalmente a Europa estão muito mais bem-posicionados na defesa da democracia e de liberdades individuais que nações autoritárias, como a China e a Rússia. E a primeira vem forte na corrida da IA.

“Estamos diante de uma escolha estratégica sobre o tipo de mundo em que viveremos”, escreveu Altman. Considerando o poder sem precedentes de influência e até de dominação cultural que a IA generativa cria, essa é uma preocupação legítima. “O ditador russo Vladimir Putin avisa que o país que vencer a corrida da IA ‘se tornará o governante do mundo’, e a China diz que pretende se tornar o líder global em IA até 2030”, completa.

Ele adverte que, se isso acontecer, empresas do mundo todos seriam obrigadas a compartilhar os dados de seus usuários, o que criaria formas de espionagem e recursos para armas cibernéticas sofisticadas. Novamente o temor é válido, mas, em alguma escala, isso já vem sendo feito com as big techs americanas.

O CEO da OpenAI elenca pontos que considera essenciais para se manter a liderança na inteligência artificial: segurança cibernética, infraestrutura física robusta, investimento substancial em capital humano, diplomacia comercial para a IA, e normas para o desenvolvimento seguro dessa tecnologia. É interessante notar que, nesse ponto, ele defende que se conceda mais protagonismo para países do sul global, tradicionalmente deixados para trás nas decisões econômicas e tecnológicas.

Mas isso implica em trazer a China para a mesa.

 

Dominação pela IA

Desde a Antiguidade, as nações mais avançadas dominam as outras. A Grécia, apesar de ter sido anexada ao Império Romano, influenciou fortemente a cultura do invasor, até em seus deuses! No século XIX, a Inglaterra difundiu suas ideias, seguida pela França. E desde o fim da 2ª Guerra Mundial, o Ocidente é fortemente influenciado pelos Estados Unidos.

O principal mecanismo da dominação cultural dos Estados Unidos é o cinema, a televisão e a música. Basta olhar ao redor e ver como nos vestimos, comemos e até nos comportamos.

A IA pode levar a dominação cultural a um patamar inédito, ao incorporarmos suas respostas diretamente e sem filtros a nossas ações. De uma tacada só, passamos a consumir e a disseminar conceitos e valores de outro país.

A própria interface dessas plataformas favorece isso. Pela primeira vez na história, algo que não é humano consegue conversar consistente e convincentemente, como se fosse outra pessoa. Isso favorece a antropomorfização da IA, ou seja, passamos a atribuir características humanas a uma máquina, e assim absorvemos o que ela nos dá de maneira ainda mais direta, sem questionamentos.

De uma forma bastante ampla e talvez nociva, a IA pode nos aproximar da “aldeia global” do filósofo canadense Marshall McLuhan, que propôs em 1962 o fim de fronteiras geográficas e culturais. Ele acreditava que isso aconteceria pela influência dos meios de comunicação, o que aconteceu apenas timidamente. Agora, com a IA, isso pode finalmente acontecer, com o que tem de bom e de ruim.

Altman sabe disso! Seu artigo defende abertamente que os Estados Unidos liderem uma coalização internacional para manter sua hegemonia contra a ascensão de valores de nações autoritárias, graças à IA.

Para aqueles, como nós, que estão muito mais em posição de dominados que de dominadores, esse alerta serve para entendermos como a nova ordem mundial será construída nos próximos anos.

Qualquer que seja o vencedor dessa corrida, é preciso que existam leis em todos os países que exijam responsabilização no uso e desenvolvimento da inteligência artificial, seja pelas empresas, pelos governos e pelos usuários. Não podemos repetir o erro cometido com as redes sociais, que racharam a sociedade ao meio por não se sentirem responsáveis pelo que acontece em suas páginas.

Quanto a nós, resta investirmos pesadamente em letramento digital das pessoas, para que elas possam aproveitar consciente e criativamente os recursos dessa incrível tecnologia, tentando evitar tal dominação cultural. E essa não é uma tarefa fácil!

 

IA pode ampliar capacidades de profissionais de diversas áreas, mas apenas 21% dos brasileiros a usam - Foto: Freepik/Creative Commons

Inteligência artificial pode ampliar abismo social no Brasil

By | Tecnologia | No Comments

Cresce o consenso de que a inteligência artificial pode oferecer um grande salto de produtividade para profissionais das mais diferentes áreas. Ironicamente isso pode ampliar o abismo social no Brasil. Somos um país em que pouca gente tem acesso a essa tecnologia, o que pode fazer com que a produtividade dos profissionais mais bem preparados se distancie ainda mais da dos menos capacitados.

Uma pesquisa da Genial/Quaest, divulgada na semana passada, indica que apenas 21% dos brasileiros já usaram alguma ferramenta de inteligência artificial. A grande maioria deles está entre pessoas com curso superior e em classes sociais mais altas.

São os mesmos indivíduos que já têm um acesso mais amplo e de melhor qualidade a equipamentos eletrônicos e à Internet. Em um mundo profundamente digital, isso representa um inegável ganho competitivo.

Ainda há muita gente sem acesso a elementos essenciais de bem-estar no Brasil, como saneamento básico e eletricidade. Assim, preocupar-se com isso pode parecer luxo e até futilidade. Mas se encararmos a Internet e a inteligência artificial como as ferramentas de transformação social que são, entenderemos por que devem ser incluídas no pacote civilizatório que precisa ser oferecido a todos os cidadãos.

O abismo digital que reforça o social é um problema de décadas em nosso país, que não dá sinais de melhoria. A popularização dos smartphones, que poderia indicar um aspecto positivo, não resolve verdadeiramente o déficit digital da população.


Veja esse artigo em vídeo:


“A desigualdade social no Brasil se revela na diferença entre escolas públicas e privadas no acesso a computadores e Internet, por exemplo, e saltou aos olhos na pandemia, quando as crianças e jovens mais pobres não tinham como ter aulas online, por não terem computador ou acesso à internet em casa”, explica Felipe Nunes, fundador da Quaest. “O resultado da pesquisa é mais um dado dessa desigualdade.”

De fato, quando as escolas estavam fechadas por conta do Covid-19, mesmo as públicas ofereciam aulas online. Mas muitos alunos não conseguiam aproveitar bem esse recurso, porque não tinham computador em casa, e a experiência na tela pequena dos smartphones não era tão boa. Outros problemas enfrentados eram os pacotes de dados limitados e a residência ter apenas um aparelho, que precisava ser compartilhado entre todos os membros, para suas atividades diárias.

A pesquisa da Genial/Quaest também indica forte correlação do uso da IA com as faixas etárias, pendendo para os mais jovens: 33% dos brasileiros entre 16 e 34 anos já usaram a inteligência artificial, contra 19% entre 35 e 59 anos, e apenas 6% entre os que tem 60 ou mais.

A criação de textos é, de longe, a aplicação mais conhecida, tendo sido usada por 48% dos brasileiros que já aproveitaram a IA, seguido pela organização de arquivos (18%) e geração de imagens (16%). Sobre a percepção sobre os resultados, 76% dos usuários acharam a experiência positiva, 19% disseram que foi regular, e apenas 3% não gostaram.

Entre os usuários, 46% acharam que a IA é uma oportunidade para a humanidade, enquanto 37% a viram como uma ameaça e 17% não souberam o que dizer sobre isso. Há também medos em relação à IA, como ela ser usada para aumentar a desinformação (apontado por 82% das pessoas), para tornar grupos perigosos mais poderosos (81%), controle da população por governos autoritários (80%), manipulação da opinião pública (76%) e justamente piora na desigualdade social (76%).

Esses números sobre medos são expressivos, ainda mais se considerarmos que a maioria acha a IA uma oportunidade, com ampla vantagem para os que a veem como positiva. Mas uma coisa é sentir os benefícios da tecnologia em seu cotidiano, outra é entender os riscos que ela oferece.

“A IA é um campo imenso de possibilidades, que ainda estamos longe de compreender inteiramente”, explica Nunes. “Acredito que todo mundo tem atualmente apenas uma pequena ideia do que está por vir”, afirma.

 

Inclusão digital

Segundo a edição mais recente da TIC Domicílios, pesquisa sobre o uso de tecnologia nas residências no país, divulgada em agosto de 2023 pelo Cetic.br, 29,4 milhões de brasileiros não têm acesso à Internet, sendo 17,2 milhões deles das classes DE e 10,3 milhões na classe C.

O acesso feito exclusivamente pelo smartphone acontece em 58% da população conectada, mas esse número chega a 87% no caso da classe DE. Isso impacta diretamente as habilidades digitais dos usuários. Por exemplo, 71% das pessoas que estão online pelo computador e pelo smartphone verificam se uma informação que receberam é verdadeira, contra apenas 37% das conectadas apenas pelos celulares.

Dar acesso à Internet e à inteligência artificial é, portanto, cada vez mais crítico para o desenvolvimento pessoal e profissional do indivíduo. Mas é preciso também melhorar o nível do letramento digital das pessoas, para que façam um uso verdadeiramente positivo desses recursos tão poderosos.

Isso está se tornando um direito humano, considerando a digitalização galopante de nossas vidas e como esses recursos melhoram praticamente todas as atividades em que são usados. Governos, escolas, empresas e outros membros da sociedade civil precisam se engajar para a oferta de acesso à tecnologia, mas também para sua compreensão e domínio consciente e ético.

Caso contrário, veremos a inteligência artificial empurrando ainda mais para o fundo aqueles que já ocupam uma posição mais baixa na sociedade. Afinal, não é essa tecnologia que roubará seus empregos, e sim aquelas pessoas que estiverem se apropriando e usando melhor seus recursos.

 

Mark Zuckerberg, CEO da Meta: empresa quer usar dados de seus usuários para treinar sua IA - Foto: Anthony Quintano/Creative Commons

O que está por trás da proibição da Meta usar dados dos usuários para treinar sua IA

By | Tecnologia | No Comments

Na terça passada (2), a Autoridade Nacional de Proteção de Dados (ANPD) tomou a decisão de mais visibilidade e impacto da sua existência de cinco anos: proibiu a Meta (empresa dona do Facebook, Instagram e WhatsApp) de usar os dados dos usuários para treinar seus modelos de inteligência artificial. É a primeira vez que o órgão age contra uma big tech, em um movimento que impacta todos os internautas do país.

Segundo a ANPD, a maneira como a empresa está usando esses dados violaria a Lei Geral de Proteção de Dados (LGPD). O ineditismo da medida não se dá apenas pela sua abrangência, mas também por tratar de algo ligado à IA, uma área que empresas, governos e usuários ainda tentam compreender toda sua enorme complexidade.

Mas eventuais lacunas nesse entendimento não podem ser usadas por empresas para abusar de seus usuários e do mercado. Como não há legislação sobre a IA definida na maioria dos países, práticas como a da Meta levantam muitos questionamentos.

Afinal, os usuários podem ficar em risco ou serem expostos com isso? Esse comportamento configura um abuso de poder econômico? Não seria melhor as pessoas decidirem compartilhar os seus dados, ao invés de isso acontecer sem seu consentimento e até conhecimento? Se nossos dados são tão valiosos para as big techs criarem produtos que lhes rendem bilhões de dólares, não deveríamos ser remunerados por eles? E acima de tudo, será que as pessoas sequer entendem esse mundo em acelerada transformação diante de seus olhos?

É um terreno pantanoso! Por isso, qualquer que seja o desfecho da decisão da ANPD, o debate em torno dela já oferece um grande ganho para a sociedade.


Veja esse artigo em vídeo:

 


A Meta atualizou a política de privacidade de seus serviços para usar as informações de todos os posts públicos dos usuários, feitos de agora em diante e também no passado. Mas as pessoas não viram a nova regra ou, se viram, não leram ou sequer entenderam. E, como de costume, aceitaram, pois essa é uma condição para continuar usando esses produtos que se tornaram centrais em suas vidas.

As pessoas não esperam que seus posts sejam usados para treinar uma IA. Por conta disso e por entender que o formulário para os usuários se oporem a coleta de seus dados ser de difícil acesso, exigindo que a pessoa vença nove etapas, a ANPD anulou a atualização da política e determinou que a coleta seja interrompida imediatamente.

A Meta pode ser multada em R$ 50 mil por dia em que não cumprir a determinação. E vale dizer que a companhia enfrenta uma proibição semelhante na Europa.

Obviamente, a empresa reclamou! Em nota, disse estar desapontada com a decisão da ANPD, e que eles são mais transparentes no treinamento de sua IA que muitas outras empresas. Afirma ainda que a proibição seria um retrocesso para a inovação e a para a competividade no desenvolvimento de IA, podendo atrasar a chegada de seus benefícios para os brasileiros.

A Meta quer usar os textos, imagens, áudios e vídeos dos posts de seus usuários porque os modelos de linguagem amplos (da sigla em inglês LLM), que viabilizam plataformas de inteligência artificial generativa, como o ChatGPT, dependem de quantidades gigantescas de informações para serem treinados. Sem isso, são incapazes de dar respostas de qualidade.

Os posts nas redes sociais são uma fonte suculenta desse tipo de informação, mas sua coleta pode trazer riscos aos usuários. “É possível pensar em clonagem de voz e vídeo por IA para enganar familiares, amigos e colegas, ou mesmo extorsão por meio de deepfakes”, explica Marcelo Cárgano, advogado especialista em direito digital do Abe Advogados.

Segundo ele, esse uso dos dados pode ainda levar a uma “discriminação algorítmica”, quando os sistemas determinam que grupos selecionados serão desfavorecidos em processos como ofertas de crédito, emprego ou serviços públicos. “E em regimes autoritários, dados pessoais podem alimentar sistemas de IA preditiva comportamental, aumentando a vigilância e a repressão sobre a população”, adverte.

 

Pedir para entrar ou para sair?

Nesse caso, a Meta fez o chamado “opt-out” com seus usuários. Ou seja, assumiu que todos aceitariam que seus dados fossem coletados. Quem não quisesse bastaria pedir para sair. O problema é que, como a ANPD corretamente apontou, as pessoas nem sabem que seus dados estão sendo coletados, não entendem isso e o processo para se oporem à coleta é muito difícil, o que, na prática, pode fazer com que muita gente ceda seus dados sem assim desejar.

Do ponto de vista de privacidade e respeito às pessoas, o processo deveria ser o contrário: um “opt-in”. Nesse caso, os usuários precisariam conscientemente permitir que a empresa fizesse sua coleta, antes que isso começasse. Mas a Meta não adotou esse caminho porque obviamente pouquíssimas pessoas topariam.

Não quer dizer que dados pessoais não possam ser usados para o treinamento de um modelo de IA. Mas as boas práticas indicam que o usuário seja avisado previamente e aceite cedê-los conscientemente. Além disso, a informação deve ser anonimizada.

E é importante que esse consentimento seja dado antes de a coleta ser iniciada, pois, uma vez que a informação é incorporada ao modelo, é virtualmente impossível removê-la individualmente. Mas a LGPD determina que, mesmo que alguém conceda acesso a seus dados, se decidir que não mais aceita, a informação deve ser apagada.

Por fim, há a polêmica de que os usuários sejam eventualmente remunerados por seus dados, essenciais para a criação de um produto bilionário. “Um sistema amplo de remuneração de dados pessoais não me parece tão prático ou desejável, porque eles geralmente são valiosos para empresas quando são massificados”, explica Cárgano. “Isso pode tornar difícil para um indivíduo conseguir negociar um preço justo, se é que isso existe, para seus próprios dados”, conclui.

Como se vê, há mais dúvidas que consensos no uso de nossas informações para treinamento de modelos de IA. Ainda haverá muito ranger de dentes e aplausos em torno da decisão da ANPD. Mas temos que ter em mente também que muitas outras empresas estão fazendo exatamente o mesmo que a Meta, e precisam ser identificadas.

De todo jeito, tudo isso está servindo para a sociedade debater a questão. No final das contas, o que mais precisamos é que as big techs sejam mais transparentes e respeitem seus clientes, dois pontos em que elas historicamente falham feio!

 

Para a futurista Amy Webb, não devemos estar preparados para tudo, mas estar preparados para qualquer coisa - Foto: Paulo Silvestre

Superciclo tecnológico atual só faz sentido se gestores mantiverem o foco no cliente

By | Tecnologia | No Comments

Desde o arado, novas tecnologias transformam indivíduos e a sociedade como um todo, oferecendo-lhes maneiras de melhorar o que já fazem ou descobrindo novas possibilidades. Algumas promovem mudanças tão profundas e prolongadas que geram um “superciclo tecnológico”. Estamos vivenciando a aurora de mais um deles, protagonizado pela inteligência artificial. Mas ela não está sozinha na transformação!

Isso pode variar muito na forma, mas uma verdade é imutável: os benefícios para as pessoas são sempre mais importantes que a tecnologia em si. Aqueles que querem surfar nessa onda, ao invés de serem tragados por ela, não podem perder isso de vista, especialmente em um mundo tão volátil e ao mesmo tempo tão poderoso, graças à própria tecnologia.

Isso se reforça pelo fato de o intervalo entre os superciclos e sua duração ficarem cada vez menores. Por exemplo, tivemos a Revolução Industrial, que começou ainda no século XVIII e durou cerca de 200 anos. Depois vieram outros, como os superciclos da eletricidade, da química, da computação, da Internet e da mobilidade.

Se suas durações e os intervalos entre eles eram medidos em séculos, agora não chegam a uma década! Isso não os torna menos importantes, mas os faz mais intensos.

Nesse cenário crescentemente complexo, nem sempre há tempo para se apropriar de todas as novidades. Portanto, um dos principais desafios de gestores públicos e privados é não se deixar seduzir pelo brilho próprio da tecnologia, limitando-se a ela, e sim usá-la para transformar a vida das pessoas.


Veja esse artigo em vídeo:


Na quinta passada, a futurista americana Amy Webb abordou a capacidade de transformação social do superciclo tecnológico atual, durante a palestra mais aguardada da Febraban Tech, o principal evento de tecnologia bancária da América Latina, que aconteceu em São Paulo de terça à quinta.

Webb, que também é professora da Universidade de Nova York (EUA), explicou que essa é a primeira vez que um superciclo não é motivado por uma única tecnologia, e sim pela combinação de três: inteligência artificial, sensores por toda parte e biotecnologia. “Não são três superciclos separados, e sim um superciclo que combina as três tecnologias”, afirmou. “Isso vai reformar a existência humana!”

Disso deriva uma classe de produtos impulsionados pela chamada “Geração Aumentada por Recuperação de Dados” (da sigla em inglês RAG). Ela combina recursos sofisticados para extrair a informação que o usuário quiser de diferentes bancos de dados e serviços, apresentando-a de uma maneira facilmente compreensível graças à IA generativa.

Isso reforça os produtos com “tecnologia de propósito geral”, ou seja, que podem ser usados para funções muito distintas, algumas nem previstas no momento de seu lançamento. Por isso, chega a ser surpreendente os problemas enfrentados pela Alexa, um produto da Amazon que reinou nessas categorias nos anos de uma IA primitiva, mas que agora não está conseguindo fazer frente ao avanço do ChatGPT.

“Essa combinação entre o transacional e a IA generativa, não importa em qual dispositivo, em qual comunicador, em qual fornecedor, é a curva evolutiva da IA, que permeará tudo”, afirma Thiago Viola, diretor de inteligência artificial, dados e automação da IBM Brasil. Segundo ele, “se você simplesmente responde, sem integrar com um serviço, você faz o que a gente chama de IA parcial”, e aí se deixa de oferecer ao cliente o valor agregado de produtividade.

 

Assistente digital permanente

As tecnologias que compõem o superciclo tecnológico atual devem, portanto, ser usadas para oferecer uma assistência digital automática, permanente e cada vez mais personalizada às pessoas. E as empresas precisam assumir o seu papel nisso.

“Vejo essa tecnologia sendo usada para mudar a forma como uma empresa interage com seus clientes ou parceiros, gerando novos tipos de produtos e serviços digitais”, sugere o britânico Matthew Candy, diretor global de IA generativa na IBM Consulting, que também participou da Febraban Tech.

Ele explica que as empresas não podem fazer isso se limitando a um único modelo de IA (como o GPT), devendo criar experiências únicas e ajustadas às necessidades de seus clientes, pela combinação de vários pequenos modelos próprios. “Como vou conseguir uma diferenciação competitiva quando todos os meus concorrentes têm acesso e fazem a mesma coisa que eu, com o mesmo material”, questiona Candy.

Tudo isso pode parecer muito distante, como uma obra de ficção científica. Mas o superciclo atual está diante de nós, impondo suas incríveis oportunidades e apresentando novos desafios, não apenas tecnológicos, mas também éticos e de governança. Isso também impulsiona gestores a ousar em seus movimentos, mas sem desprezar os cuidados com segurança e privacidade dos dados dos clientes.

Em um mundo em que a inteligência artificial está cada vez mais integrada a nossas vidas, até no que vestimos, a personalização se torna um fator crítico de sucesso. Para isso ser possível, usuários concedem acesso cada vez mais irrestrito a suas informações, o que garante um enorme poder às organizações. Sem uma governança madura em seus processos, isso pode desequilibrar o relacionamento entre empresas e seus clientes, o que pode parecer tentador, mas, a longo prazo, é ruim para todos.

Gestores de tecnologia e de negócios devem, portanto, manter um olho na operação e outro na inovação. Em um ambiente de competição complexa, concentrar-se em qualquer dos lados dessa equação, diminuindo o outro, pode ser um erro fatal. Se prestarem muita atenção à operação, podem ser atropelados por concorrentes mais ousados; se privilegiarem apenas a inovação, podem construir sistemas frágeis ética e tecnologicamente.

Como disse Web em sua palestra, “nosso objetivo não deve ser estarmos preparados para tudo, mas estarmos preparados para qualquer coisa”. A diferença parece sutil, mas é enorme!

Em outras palavras, ninguém tem recursos para antecipar todas as possibilidades de seu negócio, mas precisamos estar abertos e prontos para abraçar criativa e cuidadosamente o imprevisto. Esse é o caminho para o sucesso e para relações mais saudáveis nesse superciclo tecnológico.

 

Tim Cook, CEO da Apple: empresa adiará recursos de IA na União Europeia por causa de lei - Foto: Christophe Licoppe/Creative Commons

Ética não pode ser um luxo ou um item opcional nas plataformas de IA

By | Tecnologia | No Comments

Na sexta (21), a Apple anunciou que adiará na Europa o lançamento dos recursos de inteligência artificial para suas plataformas, apresentados no início do mês. A empresa culpou a Lei dos Mercados Digitais (DMA, na sigla em inglês), criada para evitar abusos das big techs, pela sua decisão, e não deu um prazo para que esses recursos cheguem ao continente.

Alguns europeus podem ficar irritados com a Apple; outros, com a lei. Mas essas regras existem justamente porque as gigantes de tecnologia abusam do poder que têm sobre seus usuários há décadas, criando relações comerciais desequilibradas, francamente desfavoráveis aos clientes.

A decisão da Apple de adiar a liberação desses recursos na Europa e sua oferta no resto do mundo é emblemática, e podemos aprender algo com ela. Em nota oficial, ela disse estar preocupada que os requisitos da DMA comprometam a integridade dos produtos, colocando em risco a privacidade e a segurança dos dados. Oras, se as regras de uma lei que determina boas práticas comerciais e de concorrência ameaçam um serviço, ele não me parece maduro para ser lançado em qualquer mercado.

Isso precisa ser observado em todos os produtos, mas é particularmente importante nos que usam a inteligência artificial. Essa tecnologia é tão poderosa, que, ainda que esteja em seus estágios iniciais, já transforma nossas vidas e o cotidiano de empresas. Nesse cenário, aspectos éticos e de governança são fundamentais para que a sociedade se desenvolva com a IA, evitando que ela aumente ainda mais a concentração de poder nas mãos de poucos grupos.


Veja esse artigo em vídeo:


A Apple já foi multada em março em €1,8 bilhão (cerca de R$ 10,5 bilhões) por infringir a DMA. No caso, o Spotify moveu um processo alegando práticas anticompetitivas pela Apple exigir de que os aplicativos para o iPhone e o iPad sejam instalados exclusivamente a partir da App Store, com a empresa ficando com 30% das transações na sua plataforma. Talvez por isso esteja ressabiada agora.

Graças à DMA, ela agora permite lojas de aplicativos de terceiros, o Google alterou o Android para usuários escolherem seu navegador e buscador, e a Meta concorda que outros serviços conversem com o WhatsApp e o Messenger. A Microsoft já aceita que os usuários desativem o Bing no Windows, e a Amazon solicita o consentimento dos clientes para personalização de anúncios. Por fim, o TikTok permite que os usuários baixem todos seus dados na plataforma. Mas tudo isso só vale para os europeus!

A inteligência artificial traz essas preocupações a um patamar inédito. A partir do momento em que essa tecnologia pode influenciar decisivamente nosso cotidiano e até nossas ações, é preciso entender como ela funciona. A opacidade dos algoritmos, que já causou muita dor de cabeça nas redes sociais, não pode se sentir confortável com a IA.

“A gente já tem uma dinâmica de inteligência artificial muito madura dentro das empresas, mas o tema de governança tem que ser antecipado”, explica Thiago Viola, diretor de inteligência artificial, dados e automação da IBM Brasil. Segundo ele, os gestores precisam adotar a IA com fortes padrões éticos, transparência e explicabilidade, ou seja, permitir aos usuários saberem como a IA foi construída e entenderem como ela tomou cada decisão.

No Brasil, o Congresso analisa o Projeto de Lei 2338/23, que teve uma nova versão de seu texto liberada na semana passada. Em vários pontos, ele se inspira na Lei da Inteligência Artificial, aprovada pelo Parlamento Europeu em março. E os conceitos de transparência, explicabilidade e rastreabilidade aparecem em toda parte.

Viola está certo: as questões éticas nunca devem ser colocadas de lado por interesses comerciais. Agora, com a ascensão galopante da IA, esses temas gritam para gestores, desenvolvedores e usuários. Mas se é assim, por que tantas empresas só parecem atentar a isso quando são obrigadas por força de lei?

 

Conflito de interesses

Precisamos entender que vivemos hoje uma reedição da “corrida do ouro” patrocinada pela inteligência artificial. Quem dominar essa tecnologia mais que seus concorrentes conseguirá um posicionamento determinante no mercado, especialmente porque, nesse caso, alguns meses à frente nessa etapa inicial podem significar uma liderança consolidada por muitos anos.

Diante disso, as empresas do setor, de startups a big techs, querem experimentar, ajustar e correr o quanto puderem agora, de preferência livres de qualquer restrição. Se algo der errado, pode-se considerar isso como justificáveis danos colaterais do processo de inovação supostamente inadiável.

Por conta da entrada em vigor da DMA, em março, conversei sobre isso com Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). “Empresas têm liberdade para oferecer seus produtos e serviços da maneira que considerarem mais estratégica, mas essa liberdade é limitada por leis que procuram prevenir práticas que restrinjam a concorrência”, explicou. E segundo ele, “a questão central é se os benefícios imediatos para os consumidores superam os potenciais prejuízos a longo prazo decorrentes de práticas anticompetitivas”.

Em um mundo capitalista selvagem, a busca incessante pelo lucro e a meritocracia de pessoas e empresas parecem valores  inalienáveis. Mas essa é uma distorção de realidade, como ironicamente o próprio mercado ajuda a desmistificar.

Um cenário de segurança jurídica ajuda muito a própria inovação, especialmente as mais vultosas e de mais impacto social. Basta ver que uma das indústrias mais regulamentadas que há –a farmacêutica– vive de inovação. E ainda que elas não pipoquem a cada mês como nas big techs, são mais duradouras e rentáveis a longo prazo.

Viola adverte que a governança precisa ser levada muito a sério pelas empresas quando se fala de IA, pois problemas associados a ela inevitavelmente acontecerão. “Se você tiver cultura, pessoas e ferramental preparados, o seu padrão de ação é muito mais rápido, mas se você não entende e não sabe o que está acontecendo, isso durará dias, semanas, e cairá na Internet”, explica.

Não proponho, de forma alguma, que a inovação seja desacelerada. Mas já passou da hora de as empresas entenderem que ela precisa ser realizada com ética, sem relaxamentos. Hoje as pessoas ainda estão deslumbradas com a inteligência artificial, despreocupadas com assumirem, como suas, sugestões vindas de uma caixa-preta, da qual nada sabem.

Mas à medida que essas decisões se tornarem mais frequentes e críticas em seu cotidiano, e problemas graves acontecerem por essa falta de transparência, a “lua de mel” acabará.  Ninguém continua usando algo pouco confiável. Se a falta de transparência das empresas com a IA levar a isso, todo esse poder será questionado.


Assista à íntegra em vídeo da conversa com Thiago Viola: