Policial espanhola atende mulher no programa VioGén, que calcula o risco de ocorrências de violência de gênero - Foto: reprodução

O que acontecerá quando alguém morrer por um erro de inteligência artificial

By | Tecnologia | No Comments

O uso da inteligência artificial continua avançando nas mais diversas atividades, trazendo sensíveis ganhos de produtividade em automação de tarefas e no apoio à tomada de decisões. Ainda assim, ela está longe de ser perfeita, mas muitos usuários parecem não se preocupar com isso, pois seus eventuais erros causam prejuízos mínimos. Em algumas funções, entretanto, essas falhas podem levar a enormes transtornos, até mesmo à morte de alguém.

Duas perguntas surgem imediatamente disso: como evitar que uma tragédia dessas aconteça, e quem responderá por isso nesse caso.

A inteligência artificial é fabulosa para encontrar padrões, que permitem que ela tome suas decisões. Esses padrões dependem, entretanto, da qualidade dos dados usados para seu treinamento. Se os dados forem limitados ou cheios de viés, isso comprometerá seriamente a eficiência da plataforma.

Esse é um dos motivos por que a tomada de decisões críticas, por mais que seja auxiliada pela inteligência artificial, deve continuar em mãos humanas, pelo menos no estágio atual da tecnologia.

Algumas pessoas argumentam que isso contrariaria o próprio propósito de se usar a IA. Mas ignorar essa responsabilidade é como entregar uma decisão de vida ou morte para um estagiário eficiente. Talvez algum dia ele tenha estofo para algo tão sério e possa responder por isso, mas, por enquanto, não está preparado para tal.

Nada disso é especulação: já está acontecendo!


Veja esse artigo em vídeo:


Por exemplo, a polícia espanhola usa um sistema chamado VioGén para determinar estatisticamente riscos de ocorrência de violência de gênero. Em 2022, Lobna Hemid foi morta em casa pelo seu marido, depois de dar queixa na delegacia por ter sido insultada e surrada por ele com um pedaço de madeira, diante dos quatro filhos de 6 a 12 anos. Toda a vizinhança tinha ouvido seus gritos.

Não havia sido a primeira vez que o marido, Bouthaer el Banaisati, a havia espancado nos dez anos de casamento. Ainda assim, o VioGén calculou que ela corria pouco risco. O policial aceitou a decisão da máquina e a mandou para casa. Sete semanas depois, Bouthaer a esfaqueou várias vezes no peito e depois se suicidou.

Segundo o Ministério do Interior da Espanha, há 92 mil casos ativos de violência contra mulher no país. O VioGén calculou que 83% dessas vítimas tinham risco baixo ou insignificante de serem atacadas novamente pelo agressor. E o caso de Lobna não é único: desde 2007, 247 mulheres foram mortas depois de serem analisadas pelo sistema, 55 delas com riscos classificados como insignificantes ou baixos.

Os policiais têm autonomia de ignorar a sugestão da plataforma, devido a indícios que observem. Mas em 95% dos casos, eles apenas aceitam a sugestão.

A máquina não pode ser responsabilizada pelo erro de julgamento, por mais que esteja diretamente ligada a essas mortes. Mas então quem reponde por isso? Os policiais que acreditaram no VioGén? O fabricante da plataforma?

No momento, ninguém! As autoridades argumentam que, apesar de imperfeito, o VioGén efetivamente diminuiu a violência contra mulheres. Mas isso não importa para Lobna, que engrossou as estatísticas de agressões fatais contra mulheres e de erros policiais grosseiros causados por decisões auxiliadas por uma máquina.

 

No Brasil

Oficialmente, não há casos assim no Brasil, mas diferentes sistemas de IA já causam severos erros policiais e jurídicos no país.

Assim como acontece em outras nações, muitas pessoas já foram presas por aqui por erros em sistemas de reconhecimento facial por câmeras públicas ou de policiais. A maioria das vítimas são pessoas negras e mulheres, pois as bases de dados usadas para seu treinamento têm muito mais fotos de homens brancos.

Isso reforça ainda mais a já conhecida e aviltante discriminação policial contra negros. E por mais que essas vítimas acabem sendo soltas quando o erro é descoberto, passar alguns dias “gratuitamente” na cadeia é inadmissível!

E nem estou falando nos casos em que a polícia já chega atirando no “suspeito”.

Em outro caso, há o sistema de vigilância pública da prefeitura de São Paulo, o Smart Sampa, que usa IA para evitar crimes. Sua proposta original, que previa “rastrear uma pessoa suspeita, monitorando todos os seus movimentos e atividades, por características como cor, face, roupas, forma do corpo, aspectos físicos etc.”, teve que ser alterada, pois monitorar alguém pela cor é ilegal. Mas a redação era emblemática!

A Justiça também tenta encontrar caminhos seguros para um uso produtivo da IA. Mas casos de erros graves dificultam essa aprovação.

Por exemplo, o Conselho Nacional de Justiça (CNJ) investiga o caso do juiz Jefferson Ferreira Rodrigues, que negou indenização a uma servidora pública, quando era titular da 2ª Vara Cível e Criminal de Montes Claros (MG). Sua sentença incluía jurisprudências inexistentes criadas pelo ChatGPT. Ele admitiu o erro, mas o classificou como um “mero equívoco” devido à “sobrecarga de trabalho que recai sobre os ombros dos juízes”. Ele ainda atribuiu o erro a um “assessor de confiança”.

Esses são apenas exemplos de por que não se pode confiar cegamente nas decisões de plataformas de inteligência artificial. É muito diferente de dizer que elas não devem ser usadas, pois devem: podem trazer grandes benefícios aos nosso cotidiano!

A decisão sempre deve ser de humanos, que são responsáveis por qualquer falha da plataforma, especialmente em casos críticos. E mesmo que um sistema evite 100 mortes, não é aceitável que 10 inocentes sejam condenados ou mortos por erros da plataforma. Se houver um único erro assim, ela não é boa o suficiente para uso!

Por fim, é preciso criar legislações que também responsabilizem os fabricantes por essas falhas. Caso contrário, seu marketing continuará “batendo o bumbo” quando algo dá muito certo, e “tirando o corpo fora” se algo der errado, jogando a culpa aos seres humanos. A inteligência artificial deve trabalhar para nós, e não o contrário!

 

O CEO da Microsoft, Satya Nadella, apresenta a linha de computadores Copilot+, em evento da empresa em maio - Foto: reprodução

Mais que chips, novos computadores e celulares funcionam com nossos dados

By | Tecnologia | No Comments

Nos últimos meses, a corrida pelo domínio do mercado da inteligência artificial pariu novos computadores e celulares. Equipamentos da Microsoft, Google e Apple trazem recursos antes inimagináveis, que podem facilitar muito nosso cotidiano. Para que funcionem, são empurrados por processadores poderosos, mas precisam de outro componente vital: dados, muitos dados… nossos dados!

A IA depende de quantidades colossais de informações para que funcione bem. Essa nova geração de máquinas traz esse poder para a realidade de cada usuário, mas, para isso, precisam coletar vorazmente nossas informações. E isso faz sentido: se quisermos que a IA responda perguntas sobre nós mesmos, ela precisa nos conhecer.

É um caminho sem volta! Essa coleta crescerá gradativamente, trazendo resultados cada vez mais surpreendentes. Precisamos entender que nada disso é grátis. Isso leva a um patamar inédito um processo iniciado há cerca de 15 anos com as redes sociais e que ficou conhecido como “capitalismo de vigilância”: para usarmos seus serviços, as big techs coletam e usam nossas informações para nos vender todo tipo de quinquilharia e, em última instância, nos manipular.

O histórico de desrespeito dessas empresas com seus clientes joga contra elas. Queremos os benefícios da inteligência artificial, e isso pode ser feito de maneira ética e legal, mas qual garantia temos de que esses problemas não ficarão ainda maiores?


Veja esse artigo em vídeo:


Não temos essa garantia! As big techs primam pela falta de transparência em seus negócios, e lutam com unhas e dentes contra qualquer tentativa de legislação que coloque seu modelo em risco. Elas foram bem-sucedidas nesse processo, ao travar a criação de leis, inclusive no Brasil, que lhes atribuísse alguma responsabilidade por promoverem conteúdos nocivos aos indivíduos e à sociedade. O único lugar que conseguiu criar alguma regra assim foi a Europa. Agora, com a ascensão da IA, as big techs tentam repetir esse movimento para essa tecnologia.

É importante deixar claro que não sou contra a inteligência artificial: muito pelo contrário! Como pesquisador, reconheço os incríveis benefícios que traz. Mas como diz o ditado, não existe almoço grátis. Precisamos saber quanto estamos pagando!

Entre as novidades, estão os notebooks Copilot+, criados pela Microsoft e lançados por diferentes fabricantes, como Samsung, Dell e Lenovo. Entre outros recursos, eles trazem o Recall, que permite que pesquisemos qualquer coisa que já fizemos no computador. Para isso, ele registra todas as nossas atividades a cada poucos segundos. Essas máquinas também executam localmente diversas atividades de IA generativa que normalmente são executadas na Internet, como no ChatGPT.

O Apple Intelligence, pacote de serviços de IA da empresa para seus novos iPhones, iPads e Macs, cria uma camada de assistência inteligente que combina os dados do usuário distribuídos em múltiplos aplicativos. Muito disso acontece no próprio aparelho, mas há operações que dependem da “nuvem”. A Apple garante que ninguém, nem seus próprios funcionários, tem acesso a esses dados.

O Google AI, pacote de IA do gigante de buscas, oferece recursos interessantes, como um identificador de golpes telefônicos. Mas, para isso, precisa ouvir todas as chamadas de áudio que fizermos. Outro recurso permite que façamos perguntas sobre fotos que tenhamos tirado, às quais ele também tem acesso. A empresa disse que seus funcionários podem eventualmente analisar as perguntas, “para melhorar o produto e sua segurança”.

Todos os fabricantes demonstram grande preocupação com a segurança das informações pessoais, afirmando que tudo é criptografado e que nem eles mesmos têm acesso a isso. Mas a informática sempre mostrou que mesmo o melhor cadeado pode ser aberto por mentes malignas habilidosas.

 

“Raio-X da alma”

Todos esses novos sistemas têm uma incrível capacidade de criar relações e identificar padrões pelos cruzamentos de dados das mais diversas fontes e naturezas. Isso lhes permite compreender quem somos, nossas crenças, desejos, medos, como pensamos, criando um verdadeiro “raio-X de nossa alma”, com informações de valor inestimável para empresas, governos e até criminosos.

É curioso que, até pouco atrás, éramos mais preocupados com a nossa privacidade. Não compartilhávamos dados sem que soubéssemos (pelo menos em tese) o que seria feito deles. Eram pouquíssimas informações e elas não eram cruzadas entre si.

As redes sociais mudaram isso, com a ideia de que nossas informações também lhes pertencem, podendo fazer o que quiserem com elas para seu benefício. E elas fazem, mesmo quando isso prejudica seus usuários.

Um exemplo emblemático de proteção dos usuários aconteceu no início de julho, quando a Autoridade Nacional de Proteção de Dados (ANPD) proibiu a Meta (empresa dona do Facebook, Instagram e WhatsApp) de usar os dados dos brasileiros para treinar seus modelos de inteligência artificial. Infelizmente algo assim é muito raro!

Mesmo que não exista nenhum problema de privacidade, precisamos entender que essas máquinas inauguram um novo tipo de dependência e até de relação entre nós e a tecnologia. Quem assistiu ao filme “Ela” (2013), dirigido por Spike Jonze e estrelado por Joaquin Phoenix e Scarlett Johansson, sabe como isso funciona.

Na história, Theodore (Phoenix) se apaixona por Samantha (a voz de Johansson), o sistema operacional de seu computador e smartphone, movido por uma aparente inteligência artificial geral. Ela sabia tudo sobre ele, e usava essa informação para lhe facilitar a vida. Mas com o tempo, ele se viu em um inusitado relacionamento desequilibrado com uma máquina!

É por isso que, ao aceitarmos usar os incríveis recursos desses novos equipamentos, precisamos estar conscientes de como estaremos nos expondo para isso. Por mais bem-intencionadas que os fabricantes sejam (e há ressalvas nisso em muitos casos), existem riscos potenciais com os quais teremos que aprender a conviver.

Assim como qualquer outro serviço que exista graças à inteligência artificial, os fabricantes precisam assumir responsabilidades durante o desenvolvimento, algo que os já citados dizem fazer. Eles também dever ser responsabilizados se algo der errado durante seu uso, um risco bastante considerável, mas isso eles não aceitam.

É um mundo totalmente novo que se descortina diante de nós. As relações entre empresas, governos, instituições e pessoas precisam ser repensadas diante disso tudo. Caso contrário, clientes e cidadãos podem ficar em uma situação muito precária.

 

O apresentador Silvio Santos, que faleceu na manhã desse sábado - Foto: Palácio do Planalto/Creative Commons

Por que nunca mais haverá alguém como Silvio Santos no mundo

By | Jornalismo | No Comments

O que dizer de Silvio Santos depois que tudo parece já ter sido dito desde a sua morte, na manhã de sábado? Ícone da televisão, apresentador brilhante, comunicador do povo, empresário nato, generoso, visionário, às vezes polêmico… Sobram substantivos e adjetivos para descrevê-lo, e todos parecem ter sido usados. Decidi então explicar por que nunca mais haverá alguém como ele no mundo.

Silvio Santos levou com ele mais que seu carisma e sua sagacidade: encerrou uma era da comunicação que não pode ser reproduzida. Ele foi um caso único que reuniu a espontaneidade de apresentadores capazes de conquistar o país, como Chacrinha, Hebe Camargo, Fausto Silva e Gugu Liberato, com uma visão empresarial que consolidou a própria televisão no país, ao lado de magnatas como Assis Chateubriand e Roberto Marinho.

Esses nomes tornaram-se símbolos desse meio de comunicação, que reinou soberano no mundo todo por décadas. Até pouco tempo atrás, a televisão era o primeiro eletrodoméstico que o brasileiro comprava para uma casa nova, antes mesmo que a geladeira! Mas isso ficou no passado, assim como o poder dessas personalidades.

Silvio Santos foi criador e criatura de um cenário social e tecnológico que nunca mais acontecerá. Por isso, procurar um sucessor para o que ele representou é uma tarefa inócua. Mas podemos olhar para seus acertos e seus erros, e aprender como melhorar a mídia televisiva e digital, para que realmente atenda aos anseios e necessidades do público, algo de que precisamos muito.


Veja esse artigo em vídeo:


O meio digital fragmentou a mídia e diluiu o poder da televisão. Ela ainda é o principal meio de comunicação, abocanhando uma gorda fatia publicitária, mas não ocupa mais o espaço determinante na vida das pessoas que já teve. Com isso, mesmo suas mais importantes estrelas do entretenimento e do jornalismo não conseguem reunir uma multidão de fãs e criar uma poderosa marca pessoal, como outrora acontecia.

Ironicamente essa influência não foi transferida para os grandes nomes do meio digital. Nessa mídia, a concorrência e a pulverização da audiência são absurdas, fazendo com que mesmo seus destaques não se tornem conhecidos do grande público. É verdade que existem nomes muito populares, como Luciano Huck e Felipe Neto, mas eles nunca atingiram a abrangência e a aprovação de pessoas de todas as classes sociais e de todas as regiões do país, até se tornarem ícones da comunicação.

Tudo isso impede que surja outra figura midiática com a envergadura de Silvio Santos no Brasil e em qualquer lugar do mundo. Apesar de sua inegável capacidade de criar conexão com as pessoas, provavelmente mesmo ele não conseguiria repetir seu sucesso hoje, pois o público está mais exigente, buscando opções que sejam muito alinhadas a seus valores. E há muitas delas!

Silvio Santos floresceu em um ambiente de poucas opções, em que a TV era a grande unificadora nacional, retroalimentando a popularidade que conseguia. Isso permitiu que ele saísse da posição de camelô e chegasse às mais altas rodas do poder econômico e político do país.

Isso culminou com uma candidatura-relâmpago à presidência da República, em 1989, a primeira com voto direto para presidente depois da ditadura militar. Silvio Santos foi convencido a entrar na disputa a poucos dias do primeiro turno, saltando para o topo das pesquisas de intenção de voto instantaneamente! Mas sua candidatura acabou impugnada pelo Tribunal Superior Eleitoral (TSE) por falhas na inscrição.

Três décadas depois, a televisão, que já foi o maior cabo eleitoral do país, perdeu essa posição para as redes sociais, usadas pelos candidatos para angariar votos manipulando os algoritmos para controlar corações e mentes dos eleitores.

 

Vamos sorrir e cantar

A despeito de alguns erros empresariais e de posturas inadequadas para os padrões atuais, Silvio Santos deixa para as gerações futuras de comunicadores e de empresários de todos os setores algumas lições importantes. E a maior delas é certamente a preocupação de se conectar ao público de uma maneira espontânea a afável, com uma linguagem que todos podiam entender e até se identificar, sempre com alegria.

Ele era um homem de negócios focado no lucro, mas isso nunca o desviou de criar produtos que atendessem às necessidades de seus clientes e fossem fáceis de entender e de gostar, seja na televisão ou fora dela. Além disso, possuía um senso social bem desenvolvido, o que fazia com que, entre outras coisas, cuidasse muito bem dos profissionais de suas companhias.

Como empresário, ele buscava a inovação e corria riscos. Isso se manifestava não apenas em programas diversificados, mas também em negócios que iam muito além da TV e do entretenimento, como bancos e cosméticos. Nem sempre dava certo, mas era resiliente e bem assessorado para tomar novos rumos diante de adversidades.

Silvio Santos também construiu possivelmente a marca pessoal mais valiosa do país, com seu nome se tornando sinônimo de credibilidade, carisma e diversão para milhões de brasileiros. Fez isso com sua coerência ao longo de décadas, aparecendo como o rosto de seus negócios de entretenimento, algo em que muito acreditava. Não por acaso, ele se tornou uma das pessoas mais imitadas do Brasil.

O apresentador também sempre foi dono de seu destino. Apesar de seu programa ter surgido na TV Paulista, depois incorporada pela Globo, criou sua própria emissora para que pudesse fazer os programas que quisesse, sem depender da aprovação de ninguém.

Nesse sentido, mesmo não sendo mais possível replicar seu sucesso e sua importância social, o legado que ele deixa ainda pode inspirar muita gente. Especificamente no mundo da mídia, eles podem ser muito valiosos em um momento em que grandes marcas lutam sofregamente para se manterem relevantes para um público em constante mudança e com concorrentes inovadores surgindo a todo momento.

O desafio de seus gestores será encontrar novas formas de construir esse tipo de relação com o público, em um mundo cada vez mais diversificado e fragmentado. A música-tema de seu programa dizia que “do mundo não se leva nada”, e isso valeu até para Silvio Santos. Mas como ele mostrou, podemos deixar muita coisa nele se fizermos um bom trabalho e cuidarmos genuinamente das pessoas.

 

Maria Juvelina de Oliveira Monteiro lidera fila para sacar em terminal Atmo, em supermercado de Oeiras do Pará - Foto: Paulo Silvestre

Na terra do “dinheiro vivo”, digitalização facilita o cotidiano

By | Tecnologia | No Comments

Enquanto as pessoas das grandes metrópoles usam cada vez menos notas e moedas, nos rincões do Brasil, o “dinheiro vivo” é ainda quem manda. Seja por questões culturais ou pela dificuldade de se fazer transações eletrônicas, a população desses locais prefere andar com maços de notas para as necessidades de seu cotidiano.

Para isso, precisam fazer saques, algo simples nos grandes centros urbanos, mas um transtorno em locais em que a agência bancária ou o caixa eletrônico mais próximo fica a horas de viagem. Ironicamente, nesses casos, os recursos digitais podem facilitar muito a vida de quem quer sentir o dinheiro na mão.

Na semana passada, pude ver isso de perto em Oeiras do Pará, município de 33 mil habitantes no interior daquele Estado. Lá, em muitos casos, a dificuldade é conseguir dinheiro para sacar. Apesar de a cidade possuir uma agência do Banco do Estado do Pará e um caixa eletrônico do Bradesco, pode acontecer de o dinheiro simplesmente acabar neles, e demorar dias para ser reposto.

A empresa TecBan encontrou uma solução criativa para o problema, com seu terminal Atmo, que poderia ser definido como um “Banco24Horas sem dinheiro”. Instalado em mesas de estabelecimentos comerciais, ele permite que os clientes saquem benefícios sociais e valores de suas contas, recebendo o dinheiro do caixa de onde a máquina estiver instalada. A TecBan deposita esses valores na conta do lojista no mesmo dia e, ao final do mês, ainda o bonifica com um adicional por cada transação realizada.

Parece uma solução simples, e de certa forma é mesmo. Mas esse uso da tecnologia digital promove uma grande mudança no cotidiano das pessoas e das empresas.


Veja esse artigo em vídeo:


É difícil alguém que vive em cidades como São Paulo ou Rio de Janeiro, onde pagamentos são feitos por aproximação de smartphones, compreender a dimensão disso tudo. Mas onde a Internet é precária e a vida é pouco digital, o dinheiro na mão é sinônimo de confiança.

O Pix colocou o Brasil na vice-liderança global de transações instantâneas, atrás apenas da Índia. Segundo o Banco Central, 5,28 bilhões de Pix movimentaram R$ 2,18 trilhões em junho. No primeiro trimestre, ele respondeu por 43% das transações, contra apenas 2% das feitas em dinheiro, 15% do cartão de crédito e 13% no débito.

Para entender melhor o abismo entre o “Brasil do Pix” e o do “dinheiro vivo”, precisamos olhar além da Internet ruim típica do segundo. Instalar uma agência bancária ou mesmo um caixa eletrônico exige um grande investimento de infraestrutura e de logística. Mesmo que existam, sua manutenção é cara.

“O Brasil é muito grande, e a logística, em alguns locais, é bem complicada”, explica Rodrigo Rocha Maranini, gerente de produtos e canais de distribuição do Banco24Horas. A maior dificuldade é o transporte do dinheiro para abastecer esses locais, uma operação complexa. No caso de Oeiras do Pará, ele chega de avião na cidade de Curralinho, e depois precisa viajar mais duas horas de barco, o que não acontece em todos os dias.

Há também o risco de problemas operacionais, que tornam o caixa inoperante até que um técnico venha de outra cidade, o que pode demorar dias. “Então a maneira que a gente encontrou para atender a população foi o Atmo”, acrescenta Maranini.

Antes disso, lojistas já faziam informalmente esse tipo de “serviço de saque”, mas cobravam por isso. Por exemplo, se o cliente quiser sacar R$ 400, ele faz uma compra inexistente no estabelecimento no valor de R$ 430, e o dono fica com a diferença.

Outra prática comum é entregar seu cartão e sua senha a uma pessoa que viaje a outra cidade, normalmente com os cartões de dezenas de pessoas, para sacar o dinheiro e trazer ao final do dia. Além de arriscado, também é cobrada uma taxa.

Do lado do lojista, o Atmo resolve o problema de ter que se viajar com o dinheiro do dia para depositá-lo na conta da empresa. “Ficava muito dinheiro na loja”, explica, Thalita Santana Pereira, responsável pelas lojas da rede de supermercados Solzão, que têm Atmos instalados. “Agora não tem mais esse problema.”

 

Dinheiro na cidade

Os lojistas também apontam a vantagem de o dinheiro ficar na cidade e até no seu estabelecimento. “Antes deixavam parte do dinheiro em outro lugar”, afirma Kledson Pantógena Pereira, dono da Farmácia Popular, em Oeiras do Pará, que também tem um Atmo. Ele sente que, com o terminal, oferece um serviço: “é bom ser útil!”

O Pará possui uma agência bancária para cada 16 mil habitantes, o 15º Estado no país nesse índice. Em São Paulo, por exemplo, há uma agência para cada 9 mil. Além disso, segundo o Cetic.br (órgão de pesquisa ligado ao Comitê Gestor da Internet no Brasil), o Pará tem o menor percentual da população conectada à Internet no Brasil.

Maria Juvelina de Oliveira Monteiro, vendedora de açaí em Oeiras do Pará, tem celular, mas não faz Pix porque tem medo de que algo dê errado: “aí dá uma dor de cabeça, meu filho!” Ela recebe Bolsa Família e o salário do marido falecido, e saca o dinheiro todo no Atmo do supermercado Solzão da cidade assim que ele chega. “Gosto de sacar aqui, porque, em outros lugares, às vezes não tem dinheiro”, explica.

Os benefícios sociais, como o Bolsa Família e o Seguro Defeso (pago a pescadores impedidos de trabalhar na época de reprodução dos peixes), são muito importantes para a população dessas regiões. Segundo o Ministério do Desenvolvimento e Assistência Social, Família e Combate à Fome, 8.692 famílias de Oeiras do Pará recebem o Bolsa Família, com um valor médio de R$ 434 por mês.

Tudo isso configura um mundo muito diferente do “Brasil do Pix”. São pessoas que sacam, de uma só vez, todo dinheiro que têm, para poder pagar suas contas e comprar o que precisam, sem ter que se deslocar, às vezes longas distâncias, gastando um dia todo, para fazer isso.

Como se pode ver, mesmo onde o “dinheiro vivo” impera, os recursos digitais podem fazer uma grande diferença, se usados com criatividade.

 

Sam Altman, CEO da OpenAI, durante o Fórum Econômico Mundial 2024, que aconteceu em Davos (Suíça), em janeiro - Foto: reprodução

Quem deve ser o “dono” da inteligência artificial?

By | Tecnologia | No Comments

A inteligência artificial generativa é uma tecnologia diferente de tudo criado antes dela. Ao contrário de ferramentas mecânicas ou digitais, que nos ajudam a realizar melhor as mais diversas tarefas, ela se propõe a “entregar o trabalho pronto”. Se por um lado isso é realmente incrível, por outro exige que sejamos muito criteriosos sobre o criador das plataformas que usarmos e sobre suas produções.

Tudo porque essa tecnologia pode efetivamente, a longo prazo, alterar a maneira como pensamos e encaramos o mundo! O problema é que as pessoas não têm consciência disso, e usam essas plataformas despreocupadamente.

Não proponho que os responsáveis por esses sistemas tenham uma motivação maquiavélica de domínio do mundo. Mas as respostas da IA generativa não apenas trazem o conteúdo das fontes usadas em seu treinamento: também refletem a maneira de falar, a cultura e até os valores dos países que mais contribuíram para tal treino. No momento, isso cabe à Europa Ocidental e principalmente aos Estados Unidos, pelo simples fato de a maior parte do conteúdo na Internet ter essas nações como origem.

Isso pode mudar em pouco tempo! Países do Oriente, especialmente a China, investem pesadamente e com regras muito mais frouxas para criarem suas próprias inteligências artificiais generativas, treinadas com seu conteúdo e sua visão de mundo.

No último dia 25, Sam Altman, cofundador e CEO da OpenAI (criadora do ChatGPT), publicou um artigo no The Washington Post (reproduzido em português no Estadão) questionando qual país deve controlar o futuro da IA. Apesar do tom desbragadamente ufanista em favor dos Estados Unidos, ele faz provocações válidas.

Afinal, a nação que dominar a IA dominará o mundo! E isso não pode ser ignorado.


Veja esse artigo em vídeo:


Não concordo com tudo que Altman escreve em sua publicação, a começar pelo seu ímpeto em apresentar os Estados Unidos como um defensor ilibado da liberdade e dos direitos individuais. Sim, isso faz parte dos valores fundamentais daquele país, mas repetidos escândalos de espionagem digital de seus governos e de abusos de poder econômico de empresas americanas, por manipulação e usos indevidos de dados de seus clientes, desqualificam essa premissa de Altman.

Por outro lado, obviamente os Estados Unidos e principalmente a Europa estão muito mais bem-posicionados na defesa da democracia e de liberdades individuais que nações autoritárias, como a China e a Rússia. E a primeira vem forte na corrida da IA.

“Estamos diante de uma escolha estratégica sobre o tipo de mundo em que viveremos”, escreveu Altman. Considerando o poder sem precedentes de influência e até de dominação cultural que a IA generativa cria, essa é uma preocupação legítima. “O ditador russo Vladimir Putin avisa que o país que vencer a corrida da IA ‘se tornará o governante do mundo’, e a China diz que pretende se tornar o líder global em IA até 2030”, completa.

Ele adverte que, se isso acontecer, empresas do mundo todos seriam obrigadas a compartilhar os dados de seus usuários, o que criaria formas de espionagem e recursos para armas cibernéticas sofisticadas. Novamente o temor é válido, mas, em alguma escala, isso já vem sendo feito com as big techs americanas.

O CEO da OpenAI elenca pontos que considera essenciais para se manter a liderança na inteligência artificial: segurança cibernética, infraestrutura física robusta, investimento substancial em capital humano, diplomacia comercial para a IA, e normas para o desenvolvimento seguro dessa tecnologia. É interessante notar que, nesse ponto, ele defende que se conceda mais protagonismo para países do sul global, tradicionalmente deixados para trás nas decisões econômicas e tecnológicas.

Mas isso implica em trazer a China para a mesa.

 

Dominação pela IA

Desde a Antiguidade, as nações mais avançadas dominam as outras. A Grécia, apesar de ter sido anexada ao Império Romano, influenciou fortemente a cultura do invasor, até em seus deuses! No século XIX, a Inglaterra difundiu suas ideias, seguida pela França. E desde o fim da 2ª Guerra Mundial, o Ocidente é fortemente influenciado pelos Estados Unidos.

O principal mecanismo da dominação cultural dos Estados Unidos é o cinema, a televisão e a música. Basta olhar ao redor e ver como nos vestimos, comemos e até nos comportamos.

A IA pode levar a dominação cultural a um patamar inédito, ao incorporarmos suas respostas diretamente e sem filtros a nossas ações. De uma tacada só, passamos a consumir e a disseminar conceitos e valores de outro país.

A própria interface dessas plataformas favorece isso. Pela primeira vez na história, algo que não é humano consegue conversar consistente e convincentemente, como se fosse outra pessoa. Isso favorece a antropomorfização da IA, ou seja, passamos a atribuir características humanas a uma máquina, e assim absorvemos o que ela nos dá de maneira ainda mais direta, sem questionamentos.

De uma forma bastante ampla e talvez nociva, a IA pode nos aproximar da “aldeia global” do filósofo canadense Marshall McLuhan, que propôs em 1962 o fim de fronteiras geográficas e culturais. Ele acreditava que isso aconteceria pela influência dos meios de comunicação, o que aconteceu apenas timidamente. Agora, com a IA, isso pode finalmente acontecer, com o que tem de bom e de ruim.

Altman sabe disso! Seu artigo defende abertamente que os Estados Unidos liderem uma coalização internacional para manter sua hegemonia contra a ascensão de valores de nações autoritárias, graças à IA.

Para aqueles, como nós, que estão muito mais em posição de dominados que de dominadores, esse alerta serve para entendermos como a nova ordem mundial será construída nos próximos anos.

Qualquer que seja o vencedor dessa corrida, é preciso que existam leis em todos os países que exijam responsabilização no uso e desenvolvimento da inteligência artificial, seja pelas empresas, pelos governos e pelos usuários. Não podemos repetir o erro cometido com as redes sociais, que racharam a sociedade ao meio por não se sentirem responsáveis pelo que acontece em suas páginas.

Quanto a nós, resta investirmos pesadamente em letramento digital das pessoas, para que elas possam aproveitar consciente e criativamente os recursos dessa incrível tecnologia, tentando evitar tal dominação cultural. E essa não é uma tarefa fácil!

 

IA pode ampliar capacidades de profissionais de diversas áreas, mas apenas 21% dos brasileiros a usam - Foto: Freepik/Creative Commons

Inteligência artificial pode ampliar abismo social no Brasil

By | Tecnologia | No Comments

Cresce o consenso de que a inteligência artificial pode oferecer um grande salto de produtividade para profissionais das mais diferentes áreas. Ironicamente isso pode ampliar o abismo social no Brasil. Somos um país em que pouca gente tem acesso a essa tecnologia, o que pode fazer com que a produtividade dos profissionais mais bem preparados se distancie ainda mais da dos menos capacitados.

Uma pesquisa da Genial/Quaest, divulgada na semana passada, indica que apenas 21% dos brasileiros já usaram alguma ferramenta de inteligência artificial. A grande maioria deles está entre pessoas com curso superior e em classes sociais mais altas.

São os mesmos indivíduos que já têm um acesso mais amplo e de melhor qualidade a equipamentos eletrônicos e à Internet. Em um mundo profundamente digital, isso representa um inegável ganho competitivo.

Ainda há muita gente sem acesso a elementos essenciais de bem-estar no Brasil, como saneamento básico e eletricidade. Assim, preocupar-se com isso pode parecer luxo e até futilidade. Mas se encararmos a Internet e a inteligência artificial como as ferramentas de transformação social que são, entenderemos por que devem ser incluídas no pacote civilizatório que precisa ser oferecido a todos os cidadãos.

O abismo digital que reforça o social é um problema de décadas em nosso país, que não dá sinais de melhoria. A popularização dos smartphones, que poderia indicar um aspecto positivo, não resolve verdadeiramente o déficit digital da população.


Veja esse artigo em vídeo:


“A desigualdade social no Brasil se revela na diferença entre escolas públicas e privadas no acesso a computadores e Internet, por exemplo, e saltou aos olhos na pandemia, quando as crianças e jovens mais pobres não tinham como ter aulas online, por não terem computador ou acesso à internet em casa”, explica Felipe Nunes, fundador da Quaest. “O resultado da pesquisa é mais um dado dessa desigualdade.”

De fato, quando as escolas estavam fechadas por conta do Covid-19, mesmo as públicas ofereciam aulas online. Mas muitos alunos não conseguiam aproveitar bem esse recurso, porque não tinham computador em casa, e a experiência na tela pequena dos smartphones não era tão boa. Outros problemas enfrentados eram os pacotes de dados limitados e a residência ter apenas um aparelho, que precisava ser compartilhado entre todos os membros, para suas atividades diárias.

A pesquisa da Genial/Quaest também indica forte correlação do uso da IA com as faixas etárias, pendendo para os mais jovens: 33% dos brasileiros entre 16 e 34 anos já usaram a inteligência artificial, contra 19% entre 35 e 59 anos, e apenas 6% entre os que tem 60 ou mais.

A criação de textos é, de longe, a aplicação mais conhecida, tendo sido usada por 48% dos brasileiros que já aproveitaram a IA, seguido pela organização de arquivos (18%) e geração de imagens (16%). Sobre a percepção sobre os resultados, 76% dos usuários acharam a experiência positiva, 19% disseram que foi regular, e apenas 3% não gostaram.

Entre os usuários, 46% acharam que a IA é uma oportunidade para a humanidade, enquanto 37% a viram como uma ameaça e 17% não souberam o que dizer sobre isso. Há também medos em relação à IA, como ela ser usada para aumentar a desinformação (apontado por 82% das pessoas), para tornar grupos perigosos mais poderosos (81%), controle da população por governos autoritários (80%), manipulação da opinião pública (76%) e justamente piora na desigualdade social (76%).

Esses números sobre medos são expressivos, ainda mais se considerarmos que a maioria acha a IA uma oportunidade, com ampla vantagem para os que a veem como positiva. Mas uma coisa é sentir os benefícios da tecnologia em seu cotidiano, outra é entender os riscos que ela oferece.

“A IA é um campo imenso de possibilidades, que ainda estamos longe de compreender inteiramente”, explica Nunes. “Acredito que todo mundo tem atualmente apenas uma pequena ideia do que está por vir”, afirma.

 

Inclusão digital

Segundo a edição mais recente da TIC Domicílios, pesquisa sobre o uso de tecnologia nas residências no país, divulgada em agosto de 2023 pelo Cetic.br, 29,4 milhões de brasileiros não têm acesso à Internet, sendo 17,2 milhões deles das classes DE e 10,3 milhões na classe C.

O acesso feito exclusivamente pelo smartphone acontece em 58% da população conectada, mas esse número chega a 87% no caso da classe DE. Isso impacta diretamente as habilidades digitais dos usuários. Por exemplo, 71% das pessoas que estão online pelo computador e pelo smartphone verificam se uma informação que receberam é verdadeira, contra apenas 37% das conectadas apenas pelos celulares.

Dar acesso à Internet e à inteligência artificial é, portanto, cada vez mais crítico para o desenvolvimento pessoal e profissional do indivíduo. Mas é preciso também melhorar o nível do letramento digital das pessoas, para que façam um uso verdadeiramente positivo desses recursos tão poderosos.

Isso está se tornando um direito humano, considerando a digitalização galopante de nossas vidas e como esses recursos melhoram praticamente todas as atividades em que são usados. Governos, escolas, empresas e outros membros da sociedade civil precisam se engajar para a oferta de acesso à tecnologia, mas também para sua compreensão e domínio consciente e ético.

Caso contrário, veremos a inteligência artificial empurrando ainda mais para o fundo aqueles que já ocupam uma posição mais baixa na sociedade. Afinal, não é essa tecnologia que roubará seus empregos, e sim aquelas pessoas que estiverem se apropriando e usando melhor seus recursos.

 

George Kurtz, fundador e CEO da CrowdStrike, empresa responsável pelo “apagão cibernético” da sexta - Foto: Seb Daly/Creative Commons

Apagão cibernético na sexta escancara como dependemos de uma frágil trama digital

By | Tecnologia | No Comments

Não foi um ataque terrorista, nem uma elaborada ação de hackers mercenários. O “apagão cibernético” que deixou o mundo em pânico na sexta (19) aconteceu pela prosaica falha na atualização do software de uma única empresa. Mas ele serviu para escancarar quão frágil é a infraestrutura digital em que depositamos nossas vidas.

O que podemos aprender com esse problema titânico?

A crise demonstrou que confiamos muito nos sistemas que gerenciam os serviços que usamos, e como as empresas estão pouco preparadas para continuar operando diante de uma falha crítica, mesmo resultando de um problema simplório, como nesse caso.

Ele aconteceu por um dos maiores benefícios do mundo moderno, que é a de termos serviços digitais constantemente atualizados e operando na “nuvem”. Apesar de trazer benefícios inegáveis em custos e em (ironicamente) estabilidade, essa configuração também pode fazer uma falha desastrosa se espalhar rapidamente, como nesse caso.

E pensar que a Internet nasceu em 1969 por encomenda de militares americanos, que queriam uma rede descentralizada, em que, se alguns computadores fossem destruídos por um ataque soviético, os outros continuariam funcionando. Agora a pane de sexta esclareceu que atacar a infraestrutura digital é a forma mais rápida e eficiente de submeter qualquer nação, algo explorável em guerras e chantagens.

O “apagão” nos lembrou também que apesar de acharmos que a Internet é algo etéreo, ela depende de fazendas de servidores, que consomem quantidades absurdas de energia. Além disso, intermináveis cabos físicos transmitem um volume colossal de dados, até mesmo cruzando oceanos pelos seus leitos.

Nesse cenário, quando se pensa em um conflito entre nações, sabotar a produção dessa energia ou literalmente cortar os cabos submarinos pode fazer o inimigo entrar em colapso instantaneamente. E essas estratégias são bem reais!


Veja esse artigo em vídeo:


Diante de tantas preocupações, governos e empresas tentam se proteger. Então como o apagão de sexta aconteceu de maneira tão devastadora?

O problema recai sobre uma atualização de rotina de um componente do software Falcon Sensor, da empresa americana de segurança cibernética CrowdStrike. Para proteger um computador contra, por exemplo, um vírus, ele precisa ser mais poderoso que o invasor. Assim é instalado nas camadas mais internas do sistema operacional, sendo carregado antes que qualquer malware, que poderia sabotar a sua execução.

Uma falha no código da atualização desse módulo na sexta gerou uma instabilidade no Windows, o mais usado em servidores no mundo todo. Com isso, o sistema operacional da Microsoft caía em uma tela azul, que para o equipamento para evitar problemas maiores, como a corrupção de dados. Como o Falcon é uma das primeiras coisas executadas quando o computador é ligado, ele travava irremediavelmente!

Com isso, milhares de empresas e instituições clientes da CrowdStrike ficaram de joelhos. A Microsoft estima que 8,5 milhões de computadores tenham sido afetados, o que parece muito, mas representa “apenas” 1% das instalações do Windows.

O problema foi rapidamente identificado e corrigido, para evitar mais vítimas. Mas apesar de o módulo defeituoso ter sido distribuído online, a correção precisa ser feita em cada computador, por um profissional de TI, em um processo penosamente lento.

A resiliência cibernética das empresas e instituições, a sua capacidade de prevenir, resistir e se recuperar de um problema digital, além de continuar operando caso o pior aconteça, foi posta à prova e falhou miseravelmente. Elas dependem umbilicalmente de seus sistemas, e pararam de funcionar ou operaram de maneira muito precária.

O mercado não perdoou a CrowdStrike. Criada há 13 anos e com quase 8.500 funcionários, seu valor de mercado derreteu mais de US$ 12 bilhões na sexta. George Kurtz, fundador e atual CEO da empresa, perdeu sozinho US$ 338 milhões.

 

Guerra cibernética

Apesar de enormes, os prejuízos causados pelo “apagão cibernético” de sexta seriam apenas uma pequena amostra do que aconteceria no caso de uma guerra cibernética entre grandes potências. E os já citados cabos submarinos seriam alvos preferenciais.

Repousarem no leito de oceanos não lhes garante proteção. Pelo contrário: torna sua defesa difícil, diante de frotas especializadas em cortá-los e grampeá-los. Estados Unidos, Rússia, China e possivelmente outros países possuem embarcações para essas sabotagens.

Segundo a empresa TeleGeography, existem mais de 600 cabos submarinos ativos ou planejados, estendendo-se por 1,4 milhão de quilômetros. Muitos têm a espessura de uma mangueira, mas transferem 200 terabytes por segundo. Os Estados Unidos e a Europa são conectados por apenas 17 deles. Por isso, isolá-los não seria tão difícil.

Todo ano, 100 cabos são danificados no mundo por acidentes navais ou atividade sísmica. Em compensação, reconstruir essa infraestrutura é algo lento e caríssimo, pois há apenas 60 barcos capazes de fazer isso no globo.

Sem eles, ficaríamos sem buscadores, redes sociais e quase tudo em nossos smartphones e computadores. Mas esse prejuízo ainda seria pequeno diante do enfrentado por empresas e instituições, paralisando o comércio, a indústria, os serviços e o mercado financeiro globais, provocando uma recessão sem precedentes.

Felizmente o que aconteceu na sexta foi apenas um “bug de computador”. Devemos encarar isso como um treinamento para algo mais grave que eventualmente aconteça. Não como uma visão apocalíptica, mas como o despertar para boas práticas que, no final das contas, melhorarão nosso uso da Internet. A segurança e a redundância devem estar na essência da vida digital e devemos ter sempre alternativas para crises.

Somos uma sociedade de dados, e essa é uma realidade inescapável. Por isso, um uso ético desse ativo fundamental e um cuidado rigoroso com a infraestrutura física e lógica são absolutamente críticos.

Que a crise gerada pela CrowdStrike sirva pelo menos para esse aprendizado, e que eventuais paralisações futuras aconteçam apenas por causa de uma possível tradução de seu nome –“greve geral”– e não por outro colapso na Internet.

 

Empresas analisam como seguramos e digitamos em nossos celulares para confirmar nossa identidade - Foto: Shurkin Son/Creative Commons

Em um mundo com menos dinheiro físico, tecnologia vai além de garantir transações

By | Tecnologia | No Comments

No mundo todo, as pessoas cada vez mais trocam notas de dinheiro e moedas por meios eletrônicos de pagamento. Os brasileiros seguem essa tendência, e o estrondoso sucesso do Pix é o exemplo mais reluzente disso. Nesse cenário, a tecnologia digital ocupa um espaço que vai muito além de garantir as transações: ela viabiliza segurança, combate o crime e até promove a inclusão social.

Alguns podem dizer que os problemas decorrentes da digitalização dos meios de pagamento são um preço a se pagar pelos benefícios que isso traz. Pode ser verdade, mas isso não pode ser usado como desculpa para descuidos, pois os prejuízos para pessoas e empresas podem ser devastadores. E ninguém deveria passar por isso!

“Se as pessoas perderem a fé na segurança do seu meio de pagamento, eles vão parar de usá-lo e voltarão a usar dinheiro”, explicou-me Andrew Reiskind, Chief Data Officer da Mastercard, durante uma visita que fiz na semana passada ao laboratório da inovação da empresa, localizado em Nova York (EUA).

A solução não é simples e cabe a todos os envolvidos. Empresas, governos, universidades a até os usuários têm seus papeis para que a experiência de pagamentos digitais aumente seus benefícios e reduza seus riscos.

Algumas velhas preocupações ganham nova roupagem, enquanto outras surgem. A inteligência artificial e a computação quântica despontam como poderosas novidades. Enquanto isso, a ética e a experiência do cliente ganham ainda mais importância.

Uma coisa é clara: não há atalhos nesse processo, e aqueles que não se ajustarem às novas exigências podem ser fortemente penalizados pelo mercado.


Veja esse artigo em vídeo:


Os números do Pix dão a dimensão das transações digitais no Brasil. Segundo o Banco Central, em junho, o Brasil tinha 165,8 milhões de usuários cadastrados na sua plataforma. Em maio, foram realizadas 5,2 bilhões de transações, que movimentaram R$ 2,1 trilhões. O Pix representou 43% das transações no primeiro trimestre, contra 15% dos cartões de crédito, 13% dos de débito, 5% dos boletos e apenas 1% da TED. Com esse vigor, o país terminou 2023 na segunda posição global em transações instantâneas, atrás apenas da Índia.

Em contrapartida, os saques em dinheiro vivo nos caixas eletrônicos e agências bancárias caem ano após ano. Em 2012, os brasileiros sacaram R$ 3,9 trilhões; em 2022, esse valor foi de R$ 2,1 trilhões, o mesmo que o Pix movimentou só em maio.

Infelizmente a bandidagem também está trabalhando com força no mundo digital. O Brasil se converteu em um paraíso para golpistas, e o próprio Pix tornou-se uma de suas ferramentas preferidas, pela instantaneidade das transferências.

O golpe mais comum consiste em se passarem por outras pessoas, enganando familiares e amigos para que façam transferências. Uma vez que elas acontecem, os fraudadores passam os valores para outras contas, com o Pix. Isso impede que os bancos rastreiem o caminho do dinheiro. Assim essas instituições não se sentem obrigadas a devolver o dinheiro, e seus clientes via de regra amargam o prejuízo.

“É muito fácil fingir ser alguém ou comprar uma identidade roubada na Dark Web”, explica Chris Reid, vice-presidente executivo de soluções de identidade da Mastercard. Por isso, a gigante de meios de pagamento investe fortemente em tecnologias que tentam garantir a identidade do usuário, desde biometria até análise de comportamentos, como a forma com que a pessoa interage com seu smartphone. “Depois de 10 usos do seu dispositivo, é quase impossível alguém replicar como você o segura e como digita nele”, acrescenta.

 

O real valor do celular para o crime

Enquanto esses recursos não são amplamente disseminados, os criminosos aproveitam as deficiências de segurança dos smartphones e dos aplicativos de instituições financeiras para “limpar a conta” de vítimas. Por isso, esses aparelhos se tornaram o item mais roubado no Brasil desde o ano passado.

O problema ficou tão grave que, no último Google I/O, evento global de desenvolvedores da empresa, que acontece sempre em maio, ela anunciou novidades de segurança para o sistema operacional Android inspiradas nos crimes brasileiros. Entre eles, estão o bloqueio automático do celular se ele for retirado abruptamente da mão do usuário (como nos roubos pelas “gangues de bicicleta”), a criação de uma área escondida e protegida por senha para os aplicativos sensíveis, proteção contra “reset de fábrica” e autenticação aprimorada.

A digitalização do dinheiro e da própria vida exige também comportamentos mais transparentes e éticos das empresas no uso dos dados de seus clientes e na adoção de uma inteligência artificial responsável. No último dia 2, tivemos um movimento emblemático nesse sentido, quando a Autoridade Nacional de Proteção de Dados (ANPD) proibiu a Meta (empresa dona do Facebook, Instagram e WhatsApp) de usar os dados dos usuários para treinar seus modelos de inteligência artificial.

“Os dados dos indivíduos não nos pertencem, não pertencem ao banco”, afirma Reiskind. “Eles não são uma mercadoria, são um direito humano e, portanto, devemos tratá-los bem!”

O executivo lembra também que as empresas devem estar atentas para que seus dados e sua IA não desenvolvam vieses que possam prejudicar os clientes. Ele cita, como exemplo, empresas que não querem fazer negócios com pessoas que vivem em áreas de muita criminalidade. Mas, segundo Reiskind, a tecnologia deve ser usada para garantir serviços mesmo nesses casos, pois nem todos que vivem ali são criminosos, e merecem respeito.

A boa notícia é que o mesmo avanço exponencial que viabiliza soluções como o Pix também permite que mais pessoas tenham acesso legítimo a recursos como esses. Abrir uma conta corrente ou aprovar transações de cartão de crédito para esses indivíduos marginalizados pelo local em que vivem significa muito mais que uma transação: pode representar um importante fator de inclusão social.

Dessa forma, empresas que abusarem dos dados de seus clientes ou não trabalharem de forma mais justa com o público podem, aos poucos, perder mercado e manchar sua reputação. É preciso sempre criar serviços incríveis, mas também devem fazer o certo socialmente, sem comprometer a segurança.


Veja a entrevista em vídeo com Andrew Reiskind, Chief Data Officer da Mastercard:

 

Mark Zuckerberg, CEO da Meta: empresa quer usar dados de seus usuários para treinar sua IA - Foto: Anthony Quintano/Creative Commons

O que está por trás da proibição da Meta usar dados dos usuários para treinar sua IA

By | Tecnologia | No Comments

Na terça passada (2), a Autoridade Nacional de Proteção de Dados (ANPD) tomou a decisão de mais visibilidade e impacto da sua existência de cinco anos: proibiu a Meta (empresa dona do Facebook, Instagram e WhatsApp) de usar os dados dos usuários para treinar seus modelos de inteligência artificial. É a primeira vez que o órgão age contra uma big tech, em um movimento que impacta todos os internautas do país.

Segundo a ANPD, a maneira como a empresa está usando esses dados violaria a Lei Geral de Proteção de Dados (LGPD). O ineditismo da medida não se dá apenas pela sua abrangência, mas também por tratar de algo ligado à IA, uma área que empresas, governos e usuários ainda tentam compreender toda sua enorme complexidade.

Mas eventuais lacunas nesse entendimento não podem ser usadas por empresas para abusar de seus usuários e do mercado. Como não há legislação sobre a IA definida na maioria dos países, práticas como a da Meta levantam muitos questionamentos.

Afinal, os usuários podem ficar em risco ou serem expostos com isso? Esse comportamento configura um abuso de poder econômico? Não seria melhor as pessoas decidirem compartilhar os seus dados, ao invés de isso acontecer sem seu consentimento e até conhecimento? Se nossos dados são tão valiosos para as big techs criarem produtos que lhes rendem bilhões de dólares, não deveríamos ser remunerados por eles? E acima de tudo, será que as pessoas sequer entendem esse mundo em acelerada transformação diante de seus olhos?

É um terreno pantanoso! Por isso, qualquer que seja o desfecho da decisão da ANPD, o debate em torno dela já oferece um grande ganho para a sociedade.


Veja esse artigo em vídeo:

 


A Meta atualizou a política de privacidade de seus serviços para usar as informações de todos os posts públicos dos usuários, feitos de agora em diante e também no passado. Mas as pessoas não viram a nova regra ou, se viram, não leram ou sequer entenderam. E, como de costume, aceitaram, pois essa é uma condição para continuar usando esses produtos que se tornaram centrais em suas vidas.

As pessoas não esperam que seus posts sejam usados para treinar uma IA. Por conta disso e por entender que o formulário para os usuários se oporem a coleta de seus dados ser de difícil acesso, exigindo que a pessoa vença nove etapas, a ANPD anulou a atualização da política e determinou que a coleta seja interrompida imediatamente.

A Meta pode ser multada em R$ 50 mil por dia em que não cumprir a determinação. E vale dizer que a companhia enfrenta uma proibição semelhante na Europa.

Obviamente, a empresa reclamou! Em nota, disse estar desapontada com a decisão da ANPD, e que eles são mais transparentes no treinamento de sua IA que muitas outras empresas. Afirma ainda que a proibição seria um retrocesso para a inovação e a para a competividade no desenvolvimento de IA, podendo atrasar a chegada de seus benefícios para os brasileiros.

A Meta quer usar os textos, imagens, áudios e vídeos dos posts de seus usuários porque os modelos de linguagem amplos (da sigla em inglês LLM), que viabilizam plataformas de inteligência artificial generativa, como o ChatGPT, dependem de quantidades gigantescas de informações para serem treinados. Sem isso, são incapazes de dar respostas de qualidade.

Os posts nas redes sociais são uma fonte suculenta desse tipo de informação, mas sua coleta pode trazer riscos aos usuários. “É possível pensar em clonagem de voz e vídeo por IA para enganar familiares, amigos e colegas, ou mesmo extorsão por meio de deepfakes”, explica Marcelo Cárgano, advogado especialista em direito digital do Abe Advogados.

Segundo ele, esse uso dos dados pode ainda levar a uma “discriminação algorítmica”, quando os sistemas determinam que grupos selecionados serão desfavorecidos em processos como ofertas de crédito, emprego ou serviços públicos. “E em regimes autoritários, dados pessoais podem alimentar sistemas de IA preditiva comportamental, aumentando a vigilância e a repressão sobre a população”, adverte.

 

Pedir para entrar ou para sair?

Nesse caso, a Meta fez o chamado “opt-out” com seus usuários. Ou seja, assumiu que todos aceitariam que seus dados fossem coletados. Quem não quisesse bastaria pedir para sair. O problema é que, como a ANPD corretamente apontou, as pessoas nem sabem que seus dados estão sendo coletados, não entendem isso e o processo para se oporem à coleta é muito difícil, o que, na prática, pode fazer com que muita gente ceda seus dados sem assim desejar.

Do ponto de vista de privacidade e respeito às pessoas, o processo deveria ser o contrário: um “opt-in”. Nesse caso, os usuários precisariam conscientemente permitir que a empresa fizesse sua coleta, antes que isso começasse. Mas a Meta não adotou esse caminho porque obviamente pouquíssimas pessoas topariam.

Não quer dizer que dados pessoais não possam ser usados para o treinamento de um modelo de IA. Mas as boas práticas indicam que o usuário seja avisado previamente e aceite cedê-los conscientemente. Além disso, a informação deve ser anonimizada.

E é importante que esse consentimento seja dado antes de a coleta ser iniciada, pois, uma vez que a informação é incorporada ao modelo, é virtualmente impossível removê-la individualmente. Mas a LGPD determina que, mesmo que alguém conceda acesso a seus dados, se decidir que não mais aceita, a informação deve ser apagada.

Por fim, há a polêmica de que os usuários sejam eventualmente remunerados por seus dados, essenciais para a criação de um produto bilionário. “Um sistema amplo de remuneração de dados pessoais não me parece tão prático ou desejável, porque eles geralmente são valiosos para empresas quando são massificados”, explica Cárgano. “Isso pode tornar difícil para um indivíduo conseguir negociar um preço justo, se é que isso existe, para seus próprios dados”, conclui.

Como se vê, há mais dúvidas que consensos no uso de nossas informações para treinamento de modelos de IA. Ainda haverá muito ranger de dentes e aplausos em torno da decisão da ANPD. Mas temos que ter em mente também que muitas outras empresas estão fazendo exatamente o mesmo que a Meta, e precisam ser identificadas.

De todo jeito, tudo isso está servindo para a sociedade debater a questão. No final das contas, o que mais precisamos é que as big techs sejam mais transparentes e respeitem seus clientes, dois pontos em que elas historicamente falham feio!

 

Para a futurista Amy Webb, não devemos estar preparados para tudo, mas estar preparados para qualquer coisa - Foto: Paulo Silvestre

Superciclo tecnológico atual só faz sentido se gestores mantiverem o foco no cliente

By | Tecnologia | No Comments

Desde o arado, novas tecnologias transformam indivíduos e a sociedade como um todo, oferecendo-lhes maneiras de melhorar o que já fazem ou descobrindo novas possibilidades. Algumas promovem mudanças tão profundas e prolongadas que geram um “superciclo tecnológico”. Estamos vivenciando a aurora de mais um deles, protagonizado pela inteligência artificial. Mas ela não está sozinha na transformação!

Isso pode variar muito na forma, mas uma verdade é imutável: os benefícios para as pessoas são sempre mais importantes que a tecnologia em si. Aqueles que querem surfar nessa onda, ao invés de serem tragados por ela, não podem perder isso de vista, especialmente em um mundo tão volátil e ao mesmo tempo tão poderoso, graças à própria tecnologia.

Isso se reforça pelo fato de o intervalo entre os superciclos e sua duração ficarem cada vez menores. Por exemplo, tivemos a Revolução Industrial, que começou ainda no século XVIII e durou cerca de 200 anos. Depois vieram outros, como os superciclos da eletricidade, da química, da computação, da Internet e da mobilidade.

Se suas durações e os intervalos entre eles eram medidos em séculos, agora não chegam a uma década! Isso não os torna menos importantes, mas os faz mais intensos.

Nesse cenário crescentemente complexo, nem sempre há tempo para se apropriar de todas as novidades. Portanto, um dos principais desafios de gestores públicos e privados é não se deixar seduzir pelo brilho próprio da tecnologia, limitando-se a ela, e sim usá-la para transformar a vida das pessoas.


Veja esse artigo em vídeo:


Na quinta passada, a futurista americana Amy Webb abordou a capacidade de transformação social do superciclo tecnológico atual, durante a palestra mais aguardada da Febraban Tech, o principal evento de tecnologia bancária da América Latina, que aconteceu em São Paulo de terça à quinta.

Webb, que também é professora da Universidade de Nova York (EUA), explicou que essa é a primeira vez que um superciclo não é motivado por uma única tecnologia, e sim pela combinação de três: inteligência artificial, sensores por toda parte e biotecnologia. “Não são três superciclos separados, e sim um superciclo que combina as três tecnologias”, afirmou. “Isso vai reformar a existência humana!”

Disso deriva uma classe de produtos impulsionados pela chamada “Geração Aumentada por Recuperação de Dados” (da sigla em inglês RAG). Ela combina recursos sofisticados para extrair a informação que o usuário quiser de diferentes bancos de dados e serviços, apresentando-a de uma maneira facilmente compreensível graças à IA generativa.

Isso reforça os produtos com “tecnologia de propósito geral”, ou seja, que podem ser usados para funções muito distintas, algumas nem previstas no momento de seu lançamento. Por isso, chega a ser surpreendente os problemas enfrentados pela Alexa, um produto da Amazon que reinou nessas categorias nos anos de uma IA primitiva, mas que agora não está conseguindo fazer frente ao avanço do ChatGPT.

“Essa combinação entre o transacional e a IA generativa, não importa em qual dispositivo, em qual comunicador, em qual fornecedor, é a curva evolutiva da IA, que permeará tudo”, afirma Thiago Viola, diretor de inteligência artificial, dados e automação da IBM Brasil. Segundo ele, “se você simplesmente responde, sem integrar com um serviço, você faz o que a gente chama de IA parcial”, e aí se deixa de oferecer ao cliente o valor agregado de produtividade.

 

Assistente digital permanente

As tecnologias que compõem o superciclo tecnológico atual devem, portanto, ser usadas para oferecer uma assistência digital automática, permanente e cada vez mais personalizada às pessoas. E as empresas precisam assumir o seu papel nisso.

“Vejo essa tecnologia sendo usada para mudar a forma como uma empresa interage com seus clientes ou parceiros, gerando novos tipos de produtos e serviços digitais”, sugere o britânico Matthew Candy, diretor global de IA generativa na IBM Consulting, que também participou da Febraban Tech.

Ele explica que as empresas não podem fazer isso se limitando a um único modelo de IA (como o GPT), devendo criar experiências únicas e ajustadas às necessidades de seus clientes, pela combinação de vários pequenos modelos próprios. “Como vou conseguir uma diferenciação competitiva quando todos os meus concorrentes têm acesso e fazem a mesma coisa que eu, com o mesmo material”, questiona Candy.

Tudo isso pode parecer muito distante, como uma obra de ficção científica. Mas o superciclo atual está diante de nós, impondo suas incríveis oportunidades e apresentando novos desafios, não apenas tecnológicos, mas também éticos e de governança. Isso também impulsiona gestores a ousar em seus movimentos, mas sem desprezar os cuidados com segurança e privacidade dos dados dos clientes.

Em um mundo em que a inteligência artificial está cada vez mais integrada a nossas vidas, até no que vestimos, a personalização se torna um fator crítico de sucesso. Para isso ser possível, usuários concedem acesso cada vez mais irrestrito a suas informações, o que garante um enorme poder às organizações. Sem uma governança madura em seus processos, isso pode desequilibrar o relacionamento entre empresas e seus clientes, o que pode parecer tentador, mas, a longo prazo, é ruim para todos.

Gestores de tecnologia e de negócios devem, portanto, manter um olho na operação e outro na inovação. Em um ambiente de competição complexa, concentrar-se em qualquer dos lados dessa equação, diminuindo o outro, pode ser um erro fatal. Se prestarem muita atenção à operação, podem ser atropelados por concorrentes mais ousados; se privilegiarem apenas a inovação, podem construir sistemas frágeis ética e tecnologicamente.

Como disse Web em sua palestra, “nosso objetivo não deve ser estarmos preparados para tudo, mas estarmos preparados para qualquer coisa”. A diferença parece sutil, mas é enorme!

Em outras palavras, ninguém tem recursos para antecipar todas as possibilidades de seu negócio, mas precisamos estar abertos e prontos para abraçar criativa e cuidadosamente o imprevisto. Esse é o caminho para o sucesso e para relações mais saudáveis nesse superciclo tecnológico.

 

Tim Cook, CEO da Apple: empresa adiará recursos de IA na União Europeia por causa de lei - Foto: Christophe Licoppe/Creative Commons

Ética não pode ser um luxo ou um item opcional nas plataformas de IA

By | Tecnologia | No Comments

Na sexta (21), a Apple anunciou que adiará na Europa o lançamento dos recursos de inteligência artificial para suas plataformas, apresentados no início do mês. A empresa culpou a Lei dos Mercados Digitais (DMA, na sigla em inglês), criada para evitar abusos das big techs, pela sua decisão, e não deu um prazo para que esses recursos cheguem ao continente.

Alguns europeus podem ficar irritados com a Apple; outros, com a lei. Mas essas regras existem justamente porque as gigantes de tecnologia abusam do poder que têm sobre seus usuários há décadas, criando relações comerciais desequilibradas, francamente desfavoráveis aos clientes.

A decisão da Apple de adiar a liberação desses recursos na Europa e sua oferta no resto do mundo é emblemática, e podemos aprender algo com ela. Em nota oficial, ela disse estar preocupada que os requisitos da DMA comprometam a integridade dos produtos, colocando em risco a privacidade e a segurança dos dados. Oras, se as regras de uma lei que determina boas práticas comerciais e de concorrência ameaçam um serviço, ele não me parece maduro para ser lançado em qualquer mercado.

Isso precisa ser observado em todos os produtos, mas é particularmente importante nos que usam a inteligência artificial. Essa tecnologia é tão poderosa, que, ainda que esteja em seus estágios iniciais, já transforma nossas vidas e o cotidiano de empresas. Nesse cenário, aspectos éticos e de governança são fundamentais para que a sociedade se desenvolva com a IA, evitando que ela aumente ainda mais a concentração de poder nas mãos de poucos grupos.


Veja esse artigo em vídeo:


A Apple já foi multada em março em €1,8 bilhão (cerca de R$ 10,5 bilhões) por infringir a DMA. No caso, o Spotify moveu um processo alegando práticas anticompetitivas pela Apple exigir de que os aplicativos para o iPhone e o iPad sejam instalados exclusivamente a partir da App Store, com a empresa ficando com 30% das transações na sua plataforma. Talvez por isso esteja ressabiada agora.

Graças à DMA, ela agora permite lojas de aplicativos de terceiros, o Google alterou o Android para usuários escolherem seu navegador e buscador, e a Meta concorda que outros serviços conversem com o WhatsApp e o Messenger. A Microsoft já aceita que os usuários desativem o Bing no Windows, e a Amazon solicita o consentimento dos clientes para personalização de anúncios. Por fim, o TikTok permite que os usuários baixem todos seus dados na plataforma. Mas tudo isso só vale para os europeus!

A inteligência artificial traz essas preocupações a um patamar inédito. A partir do momento em que essa tecnologia pode influenciar decisivamente nosso cotidiano e até nossas ações, é preciso entender como ela funciona. A opacidade dos algoritmos, que já causou muita dor de cabeça nas redes sociais, não pode se sentir confortável com a IA.

“A gente já tem uma dinâmica de inteligência artificial muito madura dentro das empresas, mas o tema de governança tem que ser antecipado”, explica Thiago Viola, diretor de inteligência artificial, dados e automação da IBM Brasil. Segundo ele, os gestores precisam adotar a IA com fortes padrões éticos, transparência e explicabilidade, ou seja, permitir aos usuários saberem como a IA foi construída e entenderem como ela tomou cada decisão.

No Brasil, o Congresso analisa o Projeto de Lei 2338/23, que teve uma nova versão de seu texto liberada na semana passada. Em vários pontos, ele se inspira na Lei da Inteligência Artificial, aprovada pelo Parlamento Europeu em março. E os conceitos de transparência, explicabilidade e rastreabilidade aparecem em toda parte.

Viola está certo: as questões éticas nunca devem ser colocadas de lado por interesses comerciais. Agora, com a ascensão galopante da IA, esses temas gritam para gestores, desenvolvedores e usuários. Mas se é assim, por que tantas empresas só parecem atentar a isso quando são obrigadas por força de lei?

 

Conflito de interesses

Precisamos entender que vivemos hoje uma reedição da “corrida do ouro” patrocinada pela inteligência artificial. Quem dominar essa tecnologia mais que seus concorrentes conseguirá um posicionamento determinante no mercado, especialmente porque, nesse caso, alguns meses à frente nessa etapa inicial podem significar uma liderança consolidada por muitos anos.

Diante disso, as empresas do setor, de startups a big techs, querem experimentar, ajustar e correr o quanto puderem agora, de preferência livres de qualquer restrição. Se algo der errado, pode-se considerar isso como justificáveis danos colaterais do processo de inovação supostamente inadiável.

Por conta da entrada em vigor da DMA, em março, conversei sobre isso com Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). “Empresas têm liberdade para oferecer seus produtos e serviços da maneira que considerarem mais estratégica, mas essa liberdade é limitada por leis que procuram prevenir práticas que restrinjam a concorrência”, explicou. E segundo ele, “a questão central é se os benefícios imediatos para os consumidores superam os potenciais prejuízos a longo prazo decorrentes de práticas anticompetitivas”.

Em um mundo capitalista selvagem, a busca incessante pelo lucro e a meritocracia de pessoas e empresas parecem valores  inalienáveis. Mas essa é uma distorção de realidade, como ironicamente o próprio mercado ajuda a desmistificar.

Um cenário de segurança jurídica ajuda muito a própria inovação, especialmente as mais vultosas e de mais impacto social. Basta ver que uma das indústrias mais regulamentadas que há –a farmacêutica– vive de inovação. E ainda que elas não pipoquem a cada mês como nas big techs, são mais duradouras e rentáveis a longo prazo.

Viola adverte que a governança precisa ser levada muito a sério pelas empresas quando se fala de IA, pois problemas associados a ela inevitavelmente acontecerão. “Se você tiver cultura, pessoas e ferramental preparados, o seu padrão de ação é muito mais rápido, mas se você não entende e não sabe o que está acontecendo, isso durará dias, semanas, e cairá na Internet”, explica.

Não proponho, de forma alguma, que a inovação seja desacelerada. Mas já passou da hora de as empresas entenderem que ela precisa ser realizada com ética, sem relaxamentos. Hoje as pessoas ainda estão deslumbradas com a inteligência artificial, despreocupadas com assumirem, como suas, sugestões vindas de uma caixa-preta, da qual nada sabem.

Mas à medida que essas decisões se tornarem mais frequentes e críticas em seu cotidiano, e problemas graves acontecerem por essa falta de transparência, a “lua de mel” acabará.  Ninguém continua usando algo pouco confiável. Se a falta de transparência das empresas com a IA levar a isso, todo esse poder será questionado.


Assista à íntegra em vídeo da conversa com Thiago Viola:

 

Rotuladores de dados realizam um trabalho essencial para a IA, porém estressante e mal pago - Foto: Drazen Zigic/Creative Commons

Para nos beneficiarmos da IA, uma multidão ameaça a própria saúde mental por trocados

By | Tecnologia | No Comments

Não cansamos de nos deslumbrar com as capacidades da inteligência artificial generativa. Quando foi apresentado no dia 13 de maio, o GPT-4o, versão mais recente do “cérebro” do ChatGPT, parecia mágico, com suas capacidades cognitivas refinadas e conversas bem-humoradas. Mas ironicamente, apesar de essa data estar associada à lei que formalizou o fim da escravidão no Brasil, o “milagre da IA” das grandes empresas de tecnologia depende de um trabalho muitas vezes estressante e mal remunerado, feito por uma multidão de pessoas subcontratadas em países pobres.

Conhecidos como “data taggers” (ou “rotuladores de dados”), esses trabalhadores desempenham o papel crucial de ajudar os modelos de IA no que eles não conseguem distinguir por conta própria, de modo que, a partir daquela informação, eles saibam decidir corretamente. Por exemplo, em um conjunto de fotos, o que é um gato, um tigre, um leão e um cachorro? Um texto está com linguagem jornalística, publicitária ou acadêmica? Uma foto apresenta uma mulher amamentando, um nu artístico ou não passa de pornografia?

São sutilezas fáceis para uma pessoa entender, mas impossíveis para uma plataforma digital ainda destreinada. Mas depois que o rotulador de dados explica o que cada coisa é para a máquina, ela passa a ser capaz de identificar padrões para que tome boas decisões no futuro.

Como se pode ver, as respostas da IA dependem desse trabalho para serem adequadas. E como a humanidade usa cada vez mais esses sistemas, o descuido com o processo e com as pessoas nessa etapa pode trazer impactos significativos em tudo que fazemos. Portanto, se essas pessoas atuarem em condições degradantes, podemos estar confiando nosso futuro a uma forma de precarização de trabalho que pode trazer perigosos impactos para todos.


Veja esse artigo em vídeo:


A IA precisa de uma quantidade brutal de dados na fase de seu treinamento para que funcione. Só assim ela consegue identificar padrões e criar vínculos entre elementos de informação para que tire suas conclusões depois. Nem todos esses dados passam por um processo de rotulação por humanos, mas os que passam são fundamentais para que o sistema desenvolva uma base sobre a qual trabalhará.

A rotulação pode ser feita por cientistas de dados ou profissionais especializados. Isso resulta em um modelo mais preciso, porém custa mais e demora para ser concluído. O custo e a qualidade podem cair com um serviço terceirizado, e caem muito mais no modelo de “crowdsourcing”. E esse último formato tem sido escolhido pelas big techs para rotular as bases de dados colossais de suas plataformas de IA. Com ele, a classificação de dados é transformada em uma infinidade de microtarefas.

Você certamente já participou, sem saber, de inúmeras delas, quando precisou comprovar que era um ser humano. Essa tecnologia se chama reCAPTCHA, na qual ajudamos plataformas a identificar elementos em fotos ou palavras digitalizadas. Com isso, estamos rotulando dados para o sistema, que compara nossas respostas com a de muitos outros usuários para ter uma informação de qualidade.

Mas dizermos que partes de uma foto têm semáforos não é suficiente para treinar uma base como a que faz um ChatGPT funcionar. Para isso, um exército de pessoas subcontratadas por empresas especializadas realiza milhões dessas microtarefas.

Elas não têm contato com outros indivíduos, trabalhando de casa e gerenciadas por um software. Tudo isso pode prejudicar a qualidade das entregas. Assim algumas técnicas são usadas para compensar isso e minimizar problemas, como interfaces intuitivas, a busca de um consenso na rotulação de vários profissionais para um mesmo conteúdo e uma auditoria dos rótulos, que verifica sua precisão.

Esses trabalhadores normalmente são pouco qualificados e vivem em países pobres, como Quênia ou Índia, recebendo apenas de US$ 1 a US$ 2 por hora. Pessoas nos EUA ou na Europa Ocidental não aceitam tão pouco. Mas, apesar de ser aviltante nessas regiões, esse valor pode ser significativo nas partes mais pobres do globo.

E aí reside uma perversidade no sistema. Quando precisam que alguma informação seja rotulada por um americano, por exemplo, a plataforma paga muito mais pela mesma tarefa. Por isso, muitos trabalhadores de países pobres tentam enganar o sistema sobre onde estão. Se são descobertos, suas contas são bloqueadas e podem até ficar sem receber seu pagamento.

 

Saúde mental comprometida

Eventualmente esses trabalhadores precisam rotular textos ou imagens com violência, discurso de ódio e elementos grotescos. Por isso, podem desenvolver problemas como ansiedade, depressão e estresse pós-traumático. Uma exposição prolongada a esses conteúdos pode levar ainda a uma perda de sensibilidade e de empatia.

Além dos óbvios e graves problemas para a saúde mental desses trabalhadores, a exposição contínua a dados tóxicos pode comprometer a qualidade das entregas, introduzindo vieses e discriminação nos modelos. E isso pode depois se propagar em uma sociedade que cada vez mais confia nas informações oferecidas pela IA.

As empresas que gerenciam essas plataformas precisam, portanto, oferecer suporte psicológico a esses trabalhadores e mecanismos para que eles indiquem se algo está mal. Mas isso normalmente não acontece. As big techs, por sua vez, não se importam em forçar que isso seja seguido pelas empresas que contratam.

É irônico que um negócio multibilionário tenha na sua base uma legião de anônimos trabalhando em condições tão degradantes. A sociedade deve pressionar as gigantes da tecnologia para que criem políticas de trabalho éticas e transparentes envolvendo os rotuladores de dados, e que determinem que as empresa que lhes prestem serviços cumpram essas regras. E em tempos em que se discutem leis para reger a inteligência artificial, inclusive no Brasil, esse tema não pode ficar de fora.

Sabemos que preocupações sociais nem sempre provocam mudanças em processos de produção, especialmente quando isso impactará nos seus custos. Mas se não for por isso, as empresas deveriam, pelo menos, entender que essa precarização da mão de obra implicará em produtos piores para seus clientes.

Quanto a nós, os usuários de toda essa “magia” da inteligência artificial, precisamos entender e não esquecer que, quando conversamos com o ChatGPT, aquelas respostas incríveis só são possíveis porque alguém lhe disse o que cada coisa é.

 

O primeiro-ministro indiano, Narendra Modi (direita), manteve o cargo, após as “eleições da IA” - Foto: Governo da Índia/Creative Commons

Índia inaugura novo jeito de fazer campanha eleitoral, com apoio da IA

By | Tecnologia | No Comments

O resultado das eleições sempre esteve ligado ao uso das tecnologias da época. A TV era fundamental para a vitória até 2018, quando foi suplantada pelas redes sociais, críticas para definir os pleitos desde então. Mas agora elas podem perder esse posto para a inteligência artificial. E a Índia, que acabou de realizar a maior eleição do mundo, demonstrou como dominar essa tecnologia ficou essencial para os candidatos.

A IA na política não se resume a criar deep fakes para desmoralizar adversários ou se valer do ChatGPT para compor peças publicitárias, legítimas ou falsas. Como alguns candidatos indianos demonstraram, ela pode desenvolver canais inovadores e personalizados com os eleitores. E isso parece até uma boa ideia!

Se a IA fornecesse a atenção que nenhum candidato humano conseguisse dar, atendendo cada cidadão individualmente, isso poderia até fortalecer a democracia. Mas o problema do uso da IA na política é o mesmo do seu uso em qualquer atividade: abusos de seus recursos para produzir resultados imprecisos, imorais e ilegais, para assim, mais que convencer, manipular multidões e vencer uma eleição.

No final, a IA maximiza a índole de quem a usa. E infelizmente a classe política tem sido pródiga em apresentar pessoas com uma moral rasteira, dispostas a pisotear a ética e usar todos os recursos para vencer. Por isso, devemos olhar para o que aconteceu na Índia e aprender algo com aquilo. Se um bom uso da IA pode fortalecer a democracia, seu mau uso pode colocá-la em seríssimo risco!


Veja esse artigo em vídeo:


Por décadas, os candidatos brasileiros com mais tempo na TV iam para o segundo turno das eleições. Isso mudou em 2018, quando Geraldo Alckmin, que tinha 5 minutos e 32 segundos (quase metade do tempo total do horário eleitoral gratuito), amargou uma quarta posição, enquanto Jair Bolsonaro, com apenas 8 segundos, foi eleito presidente.

Ele ganhou porque percebeu, antes e melhor que todos, que as redes sociais haviam se tornado o canal mais eficiente de disseminação de ideias e de manipulação de mentes. E não se tratava apenas de fazer um bom uso dos recursos técnicos, mas de se alterar o jeito de se fazer a própria política, com apoio de algoritmos, fake news e discursos que parecem falar aos anseios de cada um, e não aos de toda a sociedade.

Agora a inteligência artificial promete levar a “política digital” a patamares inimagináveis. O pleito indiano foi um laboratório que deve ser observado pela população, pela mídia, por autoridades eleitorais e pelos políticos, pelo seu tamanho gigantesco e pela disseminação da tecnologia entre os cidadãos.

Em janeiro, o Fórum Econômico Mundial classificou a desinformação potencializada pela inteligência artificial como um dos maiores desafios do mundo nos próximos anos. No caso da Índia, o relatório a classificou como um risco maior que o de doenças infecciosas ou atividades econômicas ilícitas.

E de fato, muito do que se esperava de ruim se materializou nessa campanha, como uma enxurrada de fake news e de deep fakes para se atacar adversários. Mas foram vistos também o uso extensivo de hologramas de políticos (inclusive de lideranças falecidas) em comícios, sintetização de áudios e vídeos de candidatos para responder, em tempo real, a dúvidas de eleitores, e a inteligência artificial analisando quantidades colossais de dados de usuários (muitos coletados ilegalmente) para apoiar a decisão de campanhas.

A IA generativa foi amplamente usada não apenas para gerar instantaneamente as respostas e o audiovisual, mas também para fazer com que o avatar do candidato falasse na língua de cada eleitor, chamando-o pelo nome. Isso é importante em um país como a Índia, que tem 23 idiomas oficiais e mais de 400 dialetos.

Se as redes sociais foram eficientes em desinformar as pessoas, a inteligência artificial agora pode encantar (e até iludir) os eleitores.

 

Mentiras cada vez mais críveis

Especialistas temem que essa tecnologia convença cada vez mais as pessoas sobre os que os candidatos quiserem, pelos conteúdos personalizados e visualmente convincentes. Além disso, muita gente pode acreditar que está realmente falando com o candidato, ao invés de seu avatar.

Há ainda outro aspecto a ser considerado: por mais que os modelos de IA sejam bem treinados para sintetizar respostas às perguntas de cada eleitor individualmente, eles podem “alucinar” e repassar informações completamente erradas ao público.

No Brasil, o Congresso não ajuda ao travar projetos de lei que poderiam organizar o uso dessas tecnologias nas eleições. As autoridades eleitorais tentam, por sua vez, impedir que esses problemas aconteçam no país, definindo regras claras para a eleição municipal desse ano, incluindo contra abusos da inteligência artificial. Ao assumir a presidência do Tribunal Superior Eleitoral (TSE) no dia 3, a ministra Cármen Lúcia fez um discurso enfatizando a responsabilidade das redes sociais no problema e o combate que fará aos usos indevidos das tecnologias digitais na desinformação.

Não será uma tarefa fácil! Três dias depois, Meta (dona do Facebook, Instagram e WhatsApp), Google (dono do YouTube), Microsoft, TikTok e Kwai aderiram ao Programa de Combate à Desinformação do Supremo Tribunal Federal (STF). O X, que se tornou um dos principais canais de fake news, não mandou representantes.

Ainda que a IA ofereça campanhas muito eficientes por uma fração do custo necessário para se obter os mesmos resultados de maneira convencional, esses recursos podem custar milhões de reais para um candidato. Isso desequilibra ainda mais a eleição entre os concorrentes ricos e os pobres.

A Índia demonstrou as incríveis oportunidades e os enormes problemas do uso da inteligência artificial em uma eleição. Regras são necessárias para disciplinar essa prática, mas bandidos são conhecidos por infringi-las, portanto não são suficientes.

Não podemos ser ingênuos! Esperar que as plataformas digitais tomem todos os devidos cuidados nas eleições é como esperar que a raposa cuide do galinheiro. E achar que todos os candidatos farão um bom uso desses recursos é como entregar as galinhas –ou seja, os eleitores– diretamente para a raposa.

É hora de aproveitar o que há de bom e redobrar a atenção para os usos nocivos da IA! É assim que a política será feita de agora em diante.

 

Theodore e Samantha (o sistema operacional do celular em seu bolso), em cena do filme “Ela” (2013) Foto: reprodução

Empresas querem que acreditemos que a inteligência artificial é humana

By | Tecnologia | No Comments

A nossa interação com diferentes plataformas de inteligência artificial fica cada vez mais parecida com conversas que temos com outras pessoas. Em alguns casos, nossos cérebros podem ser enganados para crer que estão interagindo com outros indivíduos, por mais que saibam que não é verdade. Não é por acaso: as big techs querem que nos relacionemos com esses produtos de maneira mais “humana” possível. Mas longe de ser apenas um recurso para melhorar sua usabilidade, isso levanta questionamentos éticos e até de produtividade.

Ao longo da nossa evolução, aprimoramos a capacidade de atribuirmos características humanas ao que não é. Fazemos isso com animais de estimação, objetos, fenômenos da natureza e até a deuses. É o que chamamos de antropomorfismo. Por exemplo, dizemos que “o cachorro é muito inteligente”, “o carro está nervoso”, “a chuva está chorando” e representamos divindades com corpos e emoções humanas.

Isso é importante, porque facilita a nossa compreensão e interação, especialmente com aquilo com que não somos familiarizados. Além disso, com essa prática, criamos vínculos e até sentimos empatia pelo que não é humano.

Isso explica, pelo menos parcialmente, o ChatGPT ter atingido 100 milhões de usuários em apenas dois meses, o que o tornou o produto de mais rápida adoção da história. Antropomorfizar a inteligência artificial nos deixa à vontade para usá-la intensamente e para acreditar em suas respostas, às vezes além do que deveríamos.

Porém atribuir capacidades que esses sistemas não têm pode atrapalhar a nossa compreensão sobre o que realmente eles são e o que podemos fazer com a inteligência artificial. Corremos o risco de acabar atribuindo responsabilidades que as máquinas não possuem, enquanto ignoramos quem fizer usos indevidos de todo esse poder. Por isso, precisamos usar a IA como ela realmente é.


Veja esse artigo em vídeo:


Para deixar mais claros os efeitos do antropomorfismo, podemos comparar como nos relacionamos com a IA com o que sempre fizemos com os buscadores, que existem há quase três décadas. O Google, maior exemplo deles, tenta responder a todas as nossas perguntas desde 1998, quando foi lançado. E faz isso com uma eficiência incrível, sendo mais confiável que qualquer plataforma de inteligência artificial generativa do momento. Nem por isso, nós atribuímos características humanas a ele.

Como já debati nesse espaço, o mais incrível da inteligência artificial generativa não é o que ela nos diz, mas o simples fato de ser capaz de conversar conosco, como se fosse outra pessoa! Isso facilita o seu uso e amenta a credibilidade de suas respostas, mesmo quando ela nos diz alguma bobagem, as chamadas “alucinações” da IA.

Quando lançou o GPT-4o, no dia 13, a OpenAI dobrou essa aposta! Essa nova versão do “cérebro” do ChatGPT fala conosco com uma fluidez ainda mais impressionante, e é capaz de analisar, ao mesmo tempo, texto, voz, áudios e imagens, em tempo real, “enxergando” (olha a antropomorfização!) e analisando o que filmamos como celular.

Para reforçar ainda mais essa projeção, a empresa sugeriu que estaríamos nos aproximando do visto no filme “Ela” (2013), dirigido por Spike Jonze e estrelado por Joaquin Phoenix e Scarlett Johansson. Na história, Theodore (Phoenix) se apaixona por Samantha (a voz de Johansson), o sistema operacional de seu computador e smartphone, movido por uma aparente inteligência artificial geral.

Sam Altman, CEO da OpenAI, disse que “Ela” é seu filme preferido. Ele tentou contratar Johansson para dar voz ao GPT-4o, mas ela recusou a oferta. Não satisfeito, ele lançou o produto com uma voz muito parecida com a dela, o que lhe rendeu um processo da atriz. Aquela voz deixou de ser oferecida na plataforma.

Se tudo isso parece ficção científica demais, uma pesquisa publicada no ano passado na JAMA, a revista da Associação Médica Americana, indicou que pacientes consideraram empáticas quase dez vezes mais respostas dadas por um chatbot em relação às de médicos humanos. Na verdade, os pacientes sentiram alguma empatia do médico em apenas 5% das consultas, o que não deixa de ser uma informação importante por si só.

As pessoas querem se sentir acolhidas! Será que chegamos a um ponto em que as máquinas serão mais eficientes que humanos nessa tarefa?

 

A máquina perfeita de convencimento

O filósofo italiano e professor de Oxford Luciano Floridi, considerado uma das maiores autoridades nos campos da filosofia e da ética da informação, publicou um artigo nesse ano em que afirma que a inteligência artificial cria os mecanismos do que ele chama de “hiperpersuasão”. Resumidamente, essas plataformas ofereceriam um enorme poder para se convencer qualquer pessoa sobre qualquer coisa.

Segundo o pesquisador, isso se dá graças à já incrível e crescente capacidade de a máquina coletar e processar dados dos indivíduos, identificando padrões de comportamentos, preferências e vulnerabilidades, para manipular opiniões e comportamentos. Além disso, a inteligência artificial generativa pode produzir todo tipo de conteúdo com alta qualidade e cada vez mais parecida ao gerado por humanos.

Para ele, tecnologias persuasivas são tecnologias de poder. Já experimentamos isso com as redes sociais, e a esse processo deve se intensificar muito com a IA, não apenas pela tecnologia em si, mas por usos indevidos de grupos políticos e econômicos.

Para minimizar esses riscos, Floridi afirma que é necessária uma melhor proteção legal e ética da privacidade, contra os usos persuasivos da IA. E curiosamente, diante do fato de que esses usos nocivos acontecerão, ele sugere que a “hiperpersuasão” seja pluralista. Em outras palavras, usos positivos desse recurso poderão “compensar” os maus usos, trazendo também visões complementares do mundo. É mais ou menos o que acontece desde sempre com a mídia, mas agora aplicado à inteligência artificial.

Uma população em que todos os membros fossem muito educados e engajados ajudaria a resolver esse problema. Devemos perseguir sempre isso, mas entendo que seja uma utopia.

Isso nos leva então de volta ao antropomorfismo. Precisamos usar a IA como ela realmente é. Ela certamente atua como um agente social, no sentido em que promove transformações em nosso mundo, mas não é um agente moral, pois não tem autonomia e capacidade de escolher o que fará. Atribuir característica humanas à máquina pode distorcer essa realidade, isentando criminosos que fazem maus usos dela, e responsabilizando a máquina.

E isso não faz sentido algum!

 

Zumbis da série “Walking Dead”: as redes sociais podem nos transformar em uma versão digital dessas criaturas - Foto: reprodução

Ansiedade algorítmica cria zumbis que trabalham de graça para redes sociais

By | Tecnologia | No Comments

“Responda aos comentários dos fãs para ajudar a aumentar o engajamento com a sua conta”. Nessa semana, o Facebook me conclamou (de novo) a interagir ainda mais com outras pessoas, como se isso fosse fazer uma grande diferença na minha vida.

Como a principal rede do Mark Zuckerberg definitivamente não me entrega tal valor, dei de ombros. Mas muita gente não consegue praticar esse desapego, seja no Facebook ou em outras redes sociais. E isso vem provocando uma crescente onda de ansiosos por não darem conta de todas as “tarefas” sugeridas pelos algoritmos, como se fossem necessárias para se destacar em uma vida dividida constantemente entre as redes sociais e suas atividades presenciais.

Por que nos permitimos seduzir (ou controlar) por esses sistemas? Quando deixamos de agradar genuína e desinteressadamente pessoas verdadeiras para satisfazer as demandas insaciáveis das plataformas? Como elas conseguem nos dominar de maneira tão intensa e, ao mesmo tempo, subliminar?

A única rede que me traz benefícios reais é o LinkedIn. Meu mestrado se focou na construção de uma verdadeira reputação digital nele, mas, durante a pandemia, eu me debrucei sobre essas inquietações. Decidi então deixar de produzir para os algoritmos, como um escravizado digital, ou seja, como esses sistemas nos veem.

Já passou da hora de pararmos de nos submetermos aos caprichos desse capitalismo de vigilância e recuperarmos o controle de nossas vidas. No formato atual, as pessoas se afogam em sua ansiedade algorítmica, enquanto trabalham gratuitamente, sem perceber, para as redes sociais.


Veja esse artigo em vídeo:


Mantenho uma produção consistente e cuidadosa no LinkedIn, que me traz contatos qualificados e oportunidades de negócios interessantes. Mas reconheço que, quando parei de criar atendendo as neuroses dos algoritmos, minhas métricas sofreram.

Não escondo isso e, de certa forma, me orgulho desse movimento. Percebi que não precisava impactar, com minhas publicações, dezenas de milhares de pessoas cujos motivos e desejos só os algoritmos conheciam, e que não rendiam nada palpável. Muito melhor é chegar a menos pessoas, mas com as quais possa fazer trocas verdadeiras e produtivas. Outro ganho –tão ou mais importante que essas conexões– é encontrar prazer e leveza em falar com seres humanos, e não com sistemas.

Não é uma tarefa simples. As redes sociais descobriram como reforçar nossa busca por prazeres imediatos, aparentemente exigindo pouco de nós. Afinal, atire a primeira pedra quem nunca publicou algo em uma rede social na expectativa de receber muitas curtidas e, quem sabe, comentários que afagassem seu ego.

Curtidas não pagam contas! Mas relacionamentos qualificados podem ajudar nisso.

A raiz da ansiedade algorítmica está em sabermos que nossas vidas são controladas por esses sistemas, mas não termos conhecimento sobre como eles funcionam. Dependemos deles para conseguirmos trabalho, diversão e até amor, mas seu funcionamento é uma caixa preta que nunca se abre para nós.

Como consequência, estamos sempre tentando descobrir seus segredos para nos dar bem ou, no jargão das redes, “hackear o sistema”. Lemos artigos, fazemos cursos, acreditamos em gurus, mas o fato é que só quem desenvolve os algoritmos sabe da verdade, e esse é o “ouro do bandido”, um segredo tão bem guardado quanto a fórmula da Coca-Cola.

E assim nos viciamos nas microdoses de dopamina que nós mesmos produzimos quando um post tem uma visibilidade maior que nossa própria média (por menor que seja). A partir disso, buscamos sofregamente repetir aquele sucesso fugaz, tentando replicar uma receita que não temos.

 

O mal da falta de transparência

A inteligência artificial reacendeu os debates em torno da importância da transparência nas decisões dos algoritmos, para que entendamos seus motivos, assim como a explicabilidade e a rastreabilidade do que fazem com nossos dados.

Nisso reside um perverso jogo de poder. As redes sociais jamais nos darão essas informações, pois no obscurantismo está seu ganho. A ansiedade que essa nossa ignorância nos causa faz com que atuemos como zumbis teleguiados por seus sistemas. Se soubéssemos de toda a verdade, só publicaríamos o que “dá certo”, e as redes perderiam o controle que têm sobre nós. Isso seria ruim para seus negócios!

Não há a mínima reciprocidade entre os algoritmos e as pessoas: eles sabem tudo sobre nós, mas não sabemos verdadeiramente nada sobre eles. Temos só suposições e lampejos desconexos do seu funcionamento. Por isso, deixamos de representar, em nossas publicações, quem verdadeiramente somos ou o que desejamos. Ao invés disso, tentamos adivinhar e atender o que os outros querem de nós, esperando sua aceitação e aprovação, como se dependêssemos delas.

Essa é uma tarefa inglória e o caminho para a ansiedade e a depressão. Em casos extremos, vemos influenciadores digitais se suicidando, inclusive no Brasil, diante de sua incapacidade de ter o mínimo controle sobre os resultados de seu trabalho.

A opacidade dos algoritmos os torna mais cruéis quando mudam seus parâmetros continuamente, para que as pessoas não os dominem por muito tempo. Com isso, alguém que estivesse conseguindo ganhos de uma boa visibilidade, poderia subitamente ser descartado, sem explicação ou aviso prévio, gerando mais ansiedade.

As empresas se defendem afirmando que seus algoritmos existem para que as experiências em suas plataformas sejam úteis e divertidas, e não para que viciem os usuários. Dizem ainda que o que nos é empurrado depende de nossas interações na própria rede. Essa explicação, ainda que verdadeira, é tão rasa, que chega a ser hipócrita com quem consome e com quem produz conteúdo praticamente às cegas.

Vale lembrar que, apesar de estarmos falando aqui de algoritmos de redes sociais, eles estão presentes em toda parte, tomando decisões que podem influenciar profundamente nossas vidas. Dois exemplos emblemáticos são as plataformas de recrutamento, que podem definir se conseguiremos um emprego ou não, e os sistemas policiais, que podem decidir se somos criminosos, condenando-nos à cadeia.

Precisamos entender que os algoritmos devem trabalhar para nós, e não o contrário. Mas é inocência acreditar que temos algum controle nessa relação: em maior ou menor escala, somos dominados por esses sistemas, que exercem seu poder impunemente, mesmo quando causam grandes prejuízos aos usuários.

Por isso, o melhor a se fazer é mandar os algoritmos às favas e sermos nós mesmos, como acontecia nos primórdios das redes sociais. Mas você consegue fazer isso hoje?