Paulo Silvestre

O apresentador Silvio Santos, que faleceu na manhã desse sábado - Foto: Palácio do Planalto/Creative Commons

Por que nunca mais haverá alguém como Silvio Santos no mundo

By | Jornalismo | No Comments

O que dizer de Silvio Santos depois que tudo parece já ter sido dito desde a sua morte, na manhã de sábado? Ícone da televisão, apresentador brilhante, comunicador do povo, empresário nato, generoso, visionário, às vezes polêmico… Sobram substantivos e adjetivos para descrevê-lo, e todos parecem ter sido usados. Decidi então explicar por que nunca mais haverá alguém como ele no mundo.

Silvio Santos levou com ele mais que seu carisma e sua sagacidade: encerrou uma era da comunicação que não pode ser reproduzida. Ele foi um caso único que reuniu a espontaneidade de apresentadores capazes de conquistar o país, como Chacrinha, Hebe Camargo, Fausto Silva e Gugu Liberato, com uma visão empresarial que consolidou a própria televisão no país, ao lado de magnatas como Assis Chateubriand e Roberto Marinho.

Esses nomes tornaram-se símbolos desse meio de comunicação, que reinou soberano no mundo todo por décadas. Até pouco tempo atrás, a televisão era o primeiro eletrodoméstico que o brasileiro comprava para uma casa nova, antes mesmo que a geladeira! Mas isso ficou no passado, assim como o poder dessas personalidades.

Silvio Santos foi criador e criatura de um cenário social e tecnológico que nunca mais acontecerá. Por isso, procurar um sucessor para o que ele representou é uma tarefa inócua. Mas podemos olhar para seus acertos e seus erros, e aprender como melhorar a mídia televisiva e digital, para que realmente atenda aos anseios e necessidades do público, algo de que precisamos muito.


Veja esse artigo em vídeo:


O meio digital fragmentou a mídia e diluiu o poder da televisão. Ela ainda é o principal meio de comunicação, abocanhando uma gorda fatia publicitária, mas não ocupa mais o espaço determinante na vida das pessoas que já teve. Com isso, mesmo suas mais importantes estrelas do entretenimento e do jornalismo não conseguem reunir uma multidão de fãs e criar uma poderosa marca pessoal, como outrora acontecia.

Ironicamente essa influência não foi transferida para os grandes nomes do meio digital. Nessa mídia, a concorrência e a pulverização da audiência são absurdas, fazendo com que mesmo seus destaques não se tornem conhecidos do grande público. É verdade que existem nomes muito populares, como Luciano Huck e Felipe Neto, mas eles nunca atingiram a abrangência e a aprovação de pessoas de todas as classes sociais e de todas as regiões do país, até se tornarem ícones da comunicação.

Tudo isso impede que surja outra figura midiática com a envergadura de Silvio Santos no Brasil e em qualquer lugar do mundo. Apesar de sua inegável capacidade de criar conexão com as pessoas, provavelmente mesmo ele não conseguiria repetir seu sucesso hoje, pois o público está mais exigente, buscando opções que sejam muito alinhadas a seus valores. E há muitas delas!

Silvio Santos floresceu em um ambiente de poucas opções, em que a TV era a grande unificadora nacional, retroalimentando a popularidade que conseguia. Isso permitiu que ele saísse da posição de camelô e chegasse às mais altas rodas do poder econômico e político do país.

Isso culminou com uma candidatura-relâmpago à presidência da República, em 1989, a primeira com voto direto para presidente depois da ditadura militar. Silvio Santos foi convencido a entrar na disputa a poucos dias do primeiro turno, saltando para o topo das pesquisas de intenção de voto instantaneamente! Mas sua candidatura acabou impugnada pelo Tribunal Superior Eleitoral (TSE) por falhas na inscrição.

Três décadas depois, a televisão, que já foi o maior cabo eleitoral do país, perdeu essa posição para as redes sociais, usadas pelos candidatos para angariar votos manipulando os algoritmos para controlar corações e mentes dos eleitores.

 

Vamos sorrir e cantar

A despeito de alguns erros empresariais e de posturas inadequadas para os padrões atuais, Silvio Santos deixa para as gerações futuras de comunicadores e de empresários de todos os setores algumas lições importantes. E a maior delas é certamente a preocupação de se conectar ao público de uma maneira espontânea a afável, com uma linguagem que todos podiam entender e até se identificar, sempre com alegria.

Ele era um homem de negócios focado no lucro, mas isso nunca o desviou de criar produtos que atendessem às necessidades de seus clientes e fossem fáceis de entender e de gostar, seja na televisão ou fora dela. Além disso, possuía um senso social bem desenvolvido, o que fazia com que, entre outras coisas, cuidasse muito bem dos profissionais de suas companhias.

Como empresário, ele buscava a inovação e corria riscos. Isso se manifestava não apenas em programas diversificados, mas também em negócios que iam muito além da TV e do entretenimento, como bancos e cosméticos. Nem sempre dava certo, mas era resiliente e bem assessorado para tomar novos rumos diante de adversidades.

Silvio Santos também construiu possivelmente a marca pessoal mais valiosa do país, com seu nome se tornando sinônimo de credibilidade, carisma e diversão para milhões de brasileiros. Fez isso com sua coerência ao longo de décadas, aparecendo como o rosto de seus negócios de entretenimento, algo em que muito acreditava. Não por acaso, ele se tornou uma das pessoas mais imitadas do Brasil.

O apresentador também sempre foi dono de seu destino. Apesar de seu programa ter surgido na TV Paulista, depois incorporada pela Globo, criou sua própria emissora para que pudesse fazer os programas que quisesse, sem depender da aprovação de ninguém.

Nesse sentido, mesmo não sendo mais possível replicar seu sucesso e sua importância social, o legado que ele deixa ainda pode inspirar muita gente. Especificamente no mundo da mídia, eles podem ser muito valiosos em um momento em que grandes marcas lutam sofregamente para se manterem relevantes para um público em constante mudança e com concorrentes inovadores surgindo a todo momento.

O desafio de seus gestores será encontrar novas formas de construir esse tipo de relação com o público, em um mundo cada vez mais diversificado e fragmentado. A música-tema de seu programa dizia que “do mundo não se leva nada”, e isso valeu até para Silvio Santos. Mas como ele mostrou, podemos deixar muita coisa nele se fizermos um bom trabalho e cuidarmos genuinamente das pessoas.

 

Maria Juvelina de Oliveira Monteiro lidera fila para sacar em terminal Atmo, em supermercado de Oeiras do Pará - Foto: Paulo Silvestre

Na terra do “dinheiro vivo”, digitalização facilita o cotidiano

By | Tecnologia | No Comments

Enquanto as pessoas das grandes metrópoles usam cada vez menos notas e moedas, nos rincões do Brasil, o “dinheiro vivo” é ainda quem manda. Seja por questões culturais ou pela dificuldade de se fazer transações eletrônicas, a população desses locais prefere andar com maços de notas para as necessidades de seu cotidiano.

Para isso, precisam fazer saques, algo simples nos grandes centros urbanos, mas um transtorno em locais em que a agência bancária ou o caixa eletrônico mais próximo fica a horas de viagem. Ironicamente, nesses casos, os recursos digitais podem facilitar muito a vida de quem quer sentir o dinheiro na mão.

Na semana passada, pude ver isso de perto em Oeiras do Pará, município de 33 mil habitantes no interior daquele Estado. Lá, em muitos casos, a dificuldade é conseguir dinheiro para sacar. Apesar de a cidade possuir uma agência do Banco do Estado do Pará e um caixa eletrônico do Bradesco, pode acontecer de o dinheiro simplesmente acabar neles, e demorar dias para ser reposto.

A empresa TecBan encontrou uma solução criativa para o problema, com seu terminal Atmo, que poderia ser definido como um “Banco24Horas sem dinheiro”. Instalado em mesas de estabelecimentos comerciais, ele permite que os clientes saquem benefícios sociais e valores de suas contas, recebendo o dinheiro do caixa de onde a máquina estiver instalada. A TecBan deposita esses valores na conta do lojista no mesmo dia e, ao final do mês, ainda o bonifica com um adicional por cada transação realizada.

Parece uma solução simples, e de certa forma é mesmo. Mas esse uso da tecnologia digital promove uma grande mudança no cotidiano das pessoas e das empresas.


Veja esse artigo em vídeo:


É difícil alguém que vive em cidades como São Paulo ou Rio de Janeiro, onde pagamentos são feitos por aproximação de smartphones, compreender a dimensão disso tudo. Mas onde a Internet é precária e a vida é pouco digital, o dinheiro na mão é sinônimo de confiança.

O Pix colocou o Brasil na vice-liderança global de transações instantâneas, atrás apenas da Índia. Segundo o Banco Central, 5,28 bilhões de Pix movimentaram R$ 2,18 trilhões em junho. No primeiro trimestre, ele respondeu por 43% das transações, contra apenas 2% das feitas em dinheiro, 15% do cartão de crédito e 13% no débito.

Para entender melhor o abismo entre o “Brasil do Pix” e o do “dinheiro vivo”, precisamos olhar além da Internet ruim típica do segundo. Instalar uma agência bancária ou mesmo um caixa eletrônico exige um grande investimento de infraestrutura e de logística. Mesmo que existam, sua manutenção é cara.

“O Brasil é muito grande, e a logística, em alguns locais, é bem complicada”, explica Rodrigo Rocha Maranini, gerente de produtos e canais de distribuição do Banco24Horas. A maior dificuldade é o transporte do dinheiro para abastecer esses locais, uma operação complexa. No caso de Oeiras do Pará, ele chega de avião na cidade de Curralinho, e depois precisa viajar mais duas horas de barco, o que não acontece em todos os dias.

Há também o risco de problemas operacionais, que tornam o caixa inoperante até que um técnico venha de outra cidade, o que pode demorar dias. “Então a maneira que a gente encontrou para atender a população foi o Atmo”, acrescenta Maranini.

Antes disso, lojistas já faziam informalmente esse tipo de “serviço de saque”, mas cobravam por isso. Por exemplo, se o cliente quiser sacar R$ 400, ele faz uma compra inexistente no estabelecimento no valor de R$ 430, e o dono fica com a diferença.

Outra prática comum é entregar seu cartão e sua senha a uma pessoa que viaje a outra cidade, normalmente com os cartões de dezenas de pessoas, para sacar o dinheiro e trazer ao final do dia. Além de arriscado, também é cobrada uma taxa.

Do lado do lojista, o Atmo resolve o problema de ter que se viajar com o dinheiro do dia para depositá-lo na conta da empresa. “Ficava muito dinheiro na loja”, explica, Thalita Santana Pereira, responsável pelas lojas da rede de supermercados Solzão, que têm Atmos instalados. “Agora não tem mais esse problema.”

 

Dinheiro na cidade

Os lojistas também apontam a vantagem de o dinheiro ficar na cidade e até no seu estabelecimento. “Antes deixavam parte do dinheiro em outro lugar”, afirma Kledson Pantógena Pereira, dono da Farmácia Popular, em Oeiras do Pará, que também tem um Atmo. Ele sente que, com o terminal, oferece um serviço: “é bom ser útil!”

O Pará possui uma agência bancária para cada 16 mil habitantes, o 15º Estado no país nesse índice. Em São Paulo, por exemplo, há uma agência para cada 9 mil. Além disso, segundo o Cetic.br (órgão de pesquisa ligado ao Comitê Gestor da Internet no Brasil), o Pará tem o menor percentual da população conectada à Internet no Brasil.

Maria Juvelina de Oliveira Monteiro, vendedora de açaí em Oeiras do Pará, tem celular, mas não faz Pix porque tem medo de que algo dê errado: “aí dá uma dor de cabeça, meu filho!” Ela recebe Bolsa Família e o salário do marido falecido, e saca o dinheiro todo no Atmo do supermercado Solzão da cidade assim que ele chega. “Gosto de sacar aqui, porque, em outros lugares, às vezes não tem dinheiro”, explica.

Os benefícios sociais, como o Bolsa Família e o Seguro Defeso (pago a pescadores impedidos de trabalhar na época de reprodução dos peixes), são muito importantes para a população dessas regiões. Segundo o Ministério do Desenvolvimento e Assistência Social, Família e Combate à Fome, 8.692 famílias de Oeiras do Pará recebem o Bolsa Família, com um valor médio de R$ 434 por mês.

Tudo isso configura um mundo muito diferente do “Brasil do Pix”. São pessoas que sacam, de uma só vez, todo dinheiro que têm, para poder pagar suas contas e comprar o que precisam, sem ter que se deslocar, às vezes longas distâncias, gastando um dia todo, para fazer isso.

Como se pode ver, mesmo onde o “dinheiro vivo” impera, os recursos digitais podem fazer uma grande diferença, se usados com criatividade.

 

Sam Altman, CEO da OpenAI, durante o Fórum Econômico Mundial 2024, que aconteceu em Davos (Suíça), em janeiro - Foto: reprodução

Quem deve ser o “dono” da inteligência artificial?

By | Tecnologia | No Comments

A inteligência artificial generativa é uma tecnologia diferente de tudo criado antes dela. Ao contrário de ferramentas mecânicas ou digitais, que nos ajudam a realizar melhor as mais diversas tarefas, ela se propõe a “entregar o trabalho pronto”. Se por um lado isso é realmente incrível, por outro exige que sejamos muito criteriosos sobre o criador das plataformas que usarmos e sobre suas produções.

Tudo porque essa tecnologia pode efetivamente, a longo prazo, alterar a maneira como pensamos e encaramos o mundo! O problema é que as pessoas não têm consciência disso, e usam essas plataformas despreocupadamente.

Não proponho que os responsáveis por esses sistemas tenham uma motivação maquiavélica de domínio do mundo. Mas as respostas da IA generativa não apenas trazem o conteúdo das fontes usadas em seu treinamento: também refletem a maneira de falar, a cultura e até os valores dos países que mais contribuíram para tal treino. No momento, isso cabe à Europa Ocidental e principalmente aos Estados Unidos, pelo simples fato de a maior parte do conteúdo na Internet ter essas nações como origem.

Isso pode mudar em pouco tempo! Países do Oriente, especialmente a China, investem pesadamente e com regras muito mais frouxas para criarem suas próprias inteligências artificiais generativas, treinadas com seu conteúdo e sua visão de mundo.

No último dia 25, Sam Altman, cofundador e CEO da OpenAI (criadora do ChatGPT), publicou um artigo no The Washington Post (reproduzido em português no Estadão) questionando qual país deve controlar o futuro da IA. Apesar do tom desbragadamente ufanista em favor dos Estados Unidos, ele faz provocações válidas.

Afinal, a nação que dominar a IA dominará o mundo! E isso não pode ser ignorado.


Veja esse artigo em vídeo:


Não concordo com tudo que Altman escreve em sua publicação, a começar pelo seu ímpeto em apresentar os Estados Unidos como um defensor ilibado da liberdade e dos direitos individuais. Sim, isso faz parte dos valores fundamentais daquele país, mas repetidos escândalos de espionagem digital de seus governos e de abusos de poder econômico de empresas americanas, por manipulação e usos indevidos de dados de seus clientes, desqualificam essa premissa de Altman.

Por outro lado, obviamente os Estados Unidos e principalmente a Europa estão muito mais bem-posicionados na defesa da democracia e de liberdades individuais que nações autoritárias, como a China e a Rússia. E a primeira vem forte na corrida da IA.

“Estamos diante de uma escolha estratégica sobre o tipo de mundo em que viveremos”, escreveu Altman. Considerando o poder sem precedentes de influência e até de dominação cultural que a IA generativa cria, essa é uma preocupação legítima. “O ditador russo Vladimir Putin avisa que o país que vencer a corrida da IA ‘se tornará o governante do mundo’, e a China diz que pretende se tornar o líder global em IA até 2030”, completa.

Ele adverte que, se isso acontecer, empresas do mundo todos seriam obrigadas a compartilhar os dados de seus usuários, o que criaria formas de espionagem e recursos para armas cibernéticas sofisticadas. Novamente o temor é válido, mas, em alguma escala, isso já vem sendo feito com as big techs americanas.

O CEO da OpenAI elenca pontos que considera essenciais para se manter a liderança na inteligência artificial: segurança cibernética, infraestrutura física robusta, investimento substancial em capital humano, diplomacia comercial para a IA, e normas para o desenvolvimento seguro dessa tecnologia. É interessante notar que, nesse ponto, ele defende que se conceda mais protagonismo para países do sul global, tradicionalmente deixados para trás nas decisões econômicas e tecnológicas.

Mas isso implica em trazer a China para a mesa.

 

Dominação pela IA

Desde a Antiguidade, as nações mais avançadas dominam as outras. A Grécia, apesar de ter sido anexada ao Império Romano, influenciou fortemente a cultura do invasor, até em seus deuses! No século XIX, a Inglaterra difundiu suas ideias, seguida pela França. E desde o fim da 2ª Guerra Mundial, o Ocidente é fortemente influenciado pelos Estados Unidos.

O principal mecanismo da dominação cultural dos Estados Unidos é o cinema, a televisão e a música. Basta olhar ao redor e ver como nos vestimos, comemos e até nos comportamos.

A IA pode levar a dominação cultural a um patamar inédito, ao incorporarmos suas respostas diretamente e sem filtros a nossas ações. De uma tacada só, passamos a consumir e a disseminar conceitos e valores de outro país.

A própria interface dessas plataformas favorece isso. Pela primeira vez na história, algo que não é humano consegue conversar consistente e convincentemente, como se fosse outra pessoa. Isso favorece a antropomorfização da IA, ou seja, passamos a atribuir características humanas a uma máquina, e assim absorvemos o que ela nos dá de maneira ainda mais direta, sem questionamentos.

De uma forma bastante ampla e talvez nociva, a IA pode nos aproximar da “aldeia global” do filósofo canadense Marshall McLuhan, que propôs em 1962 o fim de fronteiras geográficas e culturais. Ele acreditava que isso aconteceria pela influência dos meios de comunicação, o que aconteceu apenas timidamente. Agora, com a IA, isso pode finalmente acontecer, com o que tem de bom e de ruim.

Altman sabe disso! Seu artigo defende abertamente que os Estados Unidos liderem uma coalização internacional para manter sua hegemonia contra a ascensão de valores de nações autoritárias, graças à IA.

Para aqueles, como nós, que estão muito mais em posição de dominados que de dominadores, esse alerta serve para entendermos como a nova ordem mundial será construída nos próximos anos.

Qualquer que seja o vencedor dessa corrida, é preciso que existam leis em todos os países que exijam responsabilização no uso e desenvolvimento da inteligência artificial, seja pelas empresas, pelos governos e pelos usuários. Não podemos repetir o erro cometido com as redes sociais, que racharam a sociedade ao meio por não se sentirem responsáveis pelo que acontece em suas páginas.

Quanto a nós, resta investirmos pesadamente em letramento digital das pessoas, para que elas possam aproveitar consciente e criativamente os recursos dessa incrível tecnologia, tentando evitar tal dominação cultural. E essa não é uma tarefa fácil!

 

IA pode ampliar capacidades de profissionais de diversas áreas, mas apenas 21% dos brasileiros a usam - Foto: Freepik/Creative Commons

Inteligência artificial pode ampliar abismo social no Brasil

By | Tecnologia | No Comments

Cresce o consenso de que a inteligência artificial pode oferecer um grande salto de produtividade para profissionais das mais diferentes áreas. Ironicamente isso pode ampliar o abismo social no Brasil. Somos um país em que pouca gente tem acesso a essa tecnologia, o que pode fazer com que a produtividade dos profissionais mais bem preparados se distancie ainda mais da dos menos capacitados.

Uma pesquisa da Genial/Quaest, divulgada na semana passada, indica que apenas 21% dos brasileiros já usaram alguma ferramenta de inteligência artificial. A grande maioria deles está entre pessoas com curso superior e em classes sociais mais altas.

São os mesmos indivíduos que já têm um acesso mais amplo e de melhor qualidade a equipamentos eletrônicos e à Internet. Em um mundo profundamente digital, isso representa um inegável ganho competitivo.

Ainda há muita gente sem acesso a elementos essenciais de bem-estar no Brasil, como saneamento básico e eletricidade. Assim, preocupar-se com isso pode parecer luxo e até futilidade. Mas se encararmos a Internet e a inteligência artificial como as ferramentas de transformação social que são, entenderemos por que devem ser incluídas no pacote civilizatório que precisa ser oferecido a todos os cidadãos.

O abismo digital que reforça o social é um problema de décadas em nosso país, que não dá sinais de melhoria. A popularização dos smartphones, que poderia indicar um aspecto positivo, não resolve verdadeiramente o déficit digital da população.


Veja esse artigo em vídeo:


“A desigualdade social no Brasil se revela na diferença entre escolas públicas e privadas no acesso a computadores e Internet, por exemplo, e saltou aos olhos na pandemia, quando as crianças e jovens mais pobres não tinham como ter aulas online, por não terem computador ou acesso à internet em casa”, explica Felipe Nunes, fundador da Quaest. “O resultado da pesquisa é mais um dado dessa desigualdade.”

De fato, quando as escolas estavam fechadas por conta do Covid-19, mesmo as públicas ofereciam aulas online. Mas muitos alunos não conseguiam aproveitar bem esse recurso, porque não tinham computador em casa, e a experiência na tela pequena dos smartphones não era tão boa. Outros problemas enfrentados eram os pacotes de dados limitados e a residência ter apenas um aparelho, que precisava ser compartilhado entre todos os membros, para suas atividades diárias.

A pesquisa da Genial/Quaest também indica forte correlação do uso da IA com as faixas etárias, pendendo para os mais jovens: 33% dos brasileiros entre 16 e 34 anos já usaram a inteligência artificial, contra 19% entre 35 e 59 anos, e apenas 6% entre os que tem 60 ou mais.

A criação de textos é, de longe, a aplicação mais conhecida, tendo sido usada por 48% dos brasileiros que já aproveitaram a IA, seguido pela organização de arquivos (18%) e geração de imagens (16%). Sobre a percepção sobre os resultados, 76% dos usuários acharam a experiência positiva, 19% disseram que foi regular, e apenas 3% não gostaram.

Entre os usuários, 46% acharam que a IA é uma oportunidade para a humanidade, enquanto 37% a viram como uma ameaça e 17% não souberam o que dizer sobre isso. Há também medos em relação à IA, como ela ser usada para aumentar a desinformação (apontado por 82% das pessoas), para tornar grupos perigosos mais poderosos (81%), controle da população por governos autoritários (80%), manipulação da opinião pública (76%) e justamente piora na desigualdade social (76%).

Esses números sobre medos são expressivos, ainda mais se considerarmos que a maioria acha a IA uma oportunidade, com ampla vantagem para os que a veem como positiva. Mas uma coisa é sentir os benefícios da tecnologia em seu cotidiano, outra é entender os riscos que ela oferece.

“A IA é um campo imenso de possibilidades, que ainda estamos longe de compreender inteiramente”, explica Nunes. “Acredito que todo mundo tem atualmente apenas uma pequena ideia do que está por vir”, afirma.

 

Inclusão digital

Segundo a edição mais recente da TIC Domicílios, pesquisa sobre o uso de tecnologia nas residências no país, divulgada em agosto de 2023 pelo Cetic.br, 29,4 milhões de brasileiros não têm acesso à Internet, sendo 17,2 milhões deles das classes DE e 10,3 milhões na classe C.

O acesso feito exclusivamente pelo smartphone acontece em 58% da população conectada, mas esse número chega a 87% no caso da classe DE. Isso impacta diretamente as habilidades digitais dos usuários. Por exemplo, 71% das pessoas que estão online pelo computador e pelo smartphone verificam se uma informação que receberam é verdadeira, contra apenas 37% das conectadas apenas pelos celulares.

Dar acesso à Internet e à inteligência artificial é, portanto, cada vez mais crítico para o desenvolvimento pessoal e profissional do indivíduo. Mas é preciso também melhorar o nível do letramento digital das pessoas, para que façam um uso verdadeiramente positivo desses recursos tão poderosos.

Isso está se tornando um direito humano, considerando a digitalização galopante de nossas vidas e como esses recursos melhoram praticamente todas as atividades em que são usados. Governos, escolas, empresas e outros membros da sociedade civil precisam se engajar para a oferta de acesso à tecnologia, mas também para sua compreensão e domínio consciente e ético.

Caso contrário, veremos a inteligência artificial empurrando ainda mais para o fundo aqueles que já ocupam uma posição mais baixa na sociedade. Afinal, não é essa tecnologia que roubará seus empregos, e sim aquelas pessoas que estiverem se apropriando e usando melhor seus recursos.

 

George Kurtz, fundador e CEO da CrowdStrike, empresa responsável pelo “apagão cibernético” da sexta - Foto: Seb Daly/Creative Commons

Apagão cibernético na sexta escancara como dependemos de uma frágil trama digital

By | Tecnologia | No Comments

Não foi um ataque terrorista, nem uma elaborada ação de hackers mercenários. O “apagão cibernético” que deixou o mundo em pânico na sexta (19) aconteceu pela prosaica falha na atualização do software de uma única empresa. Mas ele serviu para escancarar quão frágil é a infraestrutura digital em que depositamos nossas vidas.

O que podemos aprender com esse problema titânico?

A crise demonstrou que confiamos muito nos sistemas que gerenciam os serviços que usamos, e como as empresas estão pouco preparadas para continuar operando diante de uma falha crítica, mesmo resultando de um problema simplório, como nesse caso.

Ele aconteceu por um dos maiores benefícios do mundo moderno, que é a de termos serviços digitais constantemente atualizados e operando na “nuvem”. Apesar de trazer benefícios inegáveis em custos e em (ironicamente) estabilidade, essa configuração também pode fazer uma falha desastrosa se espalhar rapidamente, como nesse caso.

E pensar que a Internet nasceu em 1969 por encomenda de militares americanos, que queriam uma rede descentralizada, em que, se alguns computadores fossem destruídos por um ataque soviético, os outros continuariam funcionando. Agora a pane de sexta esclareceu que atacar a infraestrutura digital é a forma mais rápida e eficiente de submeter qualquer nação, algo explorável em guerras e chantagens.

O “apagão” nos lembrou também que apesar de acharmos que a Internet é algo etéreo, ela depende de fazendas de servidores, que consomem quantidades absurdas de energia. Além disso, intermináveis cabos físicos transmitem um volume colossal de dados, até mesmo cruzando oceanos pelos seus leitos.

Nesse cenário, quando se pensa em um conflito entre nações, sabotar a produção dessa energia ou literalmente cortar os cabos submarinos pode fazer o inimigo entrar em colapso instantaneamente. E essas estratégias são bem reais!


Veja esse artigo em vídeo:


Diante de tantas preocupações, governos e empresas tentam se proteger. Então como o apagão de sexta aconteceu de maneira tão devastadora?

O problema recai sobre uma atualização de rotina de um componente do software Falcon Sensor, da empresa americana de segurança cibernética CrowdStrike. Para proteger um computador contra, por exemplo, um vírus, ele precisa ser mais poderoso que o invasor. Assim é instalado nas camadas mais internas do sistema operacional, sendo carregado antes que qualquer malware, que poderia sabotar a sua execução.

Uma falha no código da atualização desse módulo na sexta gerou uma instabilidade no Windows, o mais usado em servidores no mundo todo. Com isso, o sistema operacional da Microsoft caía em uma tela azul, que para o equipamento para evitar problemas maiores, como a corrupção de dados. Como o Falcon é uma das primeiras coisas executadas quando o computador é ligado, ele travava irremediavelmente!

Com isso, milhares de empresas e instituições clientes da CrowdStrike ficaram de joelhos. A Microsoft estima que 8,5 milhões de computadores tenham sido afetados, o que parece muito, mas representa “apenas” 1% das instalações do Windows.

O problema foi rapidamente identificado e corrigido, para evitar mais vítimas. Mas apesar de o módulo defeituoso ter sido distribuído online, a correção precisa ser feita em cada computador, por um profissional de TI, em um processo penosamente lento.

A resiliência cibernética das empresas e instituições, a sua capacidade de prevenir, resistir e se recuperar de um problema digital, além de continuar operando caso o pior aconteça, foi posta à prova e falhou miseravelmente. Elas dependem umbilicalmente de seus sistemas, e pararam de funcionar ou operaram de maneira muito precária.

O mercado não perdoou a CrowdStrike. Criada há 13 anos e com quase 8.500 funcionários, seu valor de mercado derreteu mais de US$ 12 bilhões na sexta. George Kurtz, fundador e atual CEO da empresa, perdeu sozinho US$ 338 milhões.

 

Guerra cibernética

Apesar de enormes, os prejuízos causados pelo “apagão cibernético” de sexta seriam apenas uma pequena amostra do que aconteceria no caso de uma guerra cibernética entre grandes potências. E os já citados cabos submarinos seriam alvos preferenciais.

Repousarem no leito de oceanos não lhes garante proteção. Pelo contrário: torna sua defesa difícil, diante de frotas especializadas em cortá-los e grampeá-los. Estados Unidos, Rússia, China e possivelmente outros países possuem embarcações para essas sabotagens.

Segundo a empresa TeleGeography, existem mais de 600 cabos submarinos ativos ou planejados, estendendo-se por 1,4 milhão de quilômetros. Muitos têm a espessura de uma mangueira, mas transferem 200 terabytes por segundo. Os Estados Unidos e a Europa são conectados por apenas 17 deles. Por isso, isolá-los não seria tão difícil.

Todo ano, 100 cabos são danificados no mundo por acidentes navais ou atividade sísmica. Em compensação, reconstruir essa infraestrutura é algo lento e caríssimo, pois há apenas 60 barcos capazes de fazer isso no globo.

Sem eles, ficaríamos sem buscadores, redes sociais e quase tudo em nossos smartphones e computadores. Mas esse prejuízo ainda seria pequeno diante do enfrentado por empresas e instituições, paralisando o comércio, a indústria, os serviços e o mercado financeiro globais, provocando uma recessão sem precedentes.

Felizmente o que aconteceu na sexta foi apenas um “bug de computador”. Devemos encarar isso como um treinamento para algo mais grave que eventualmente aconteça. Não como uma visão apocalíptica, mas como o despertar para boas práticas que, no final das contas, melhorarão nosso uso da Internet. A segurança e a redundância devem estar na essência da vida digital e devemos ter sempre alternativas para crises.

Somos uma sociedade de dados, e essa é uma realidade inescapável. Por isso, um uso ético desse ativo fundamental e um cuidado rigoroso com a infraestrutura física e lógica são absolutamente críticos.

Que a crise gerada pela CrowdStrike sirva pelo menos para esse aprendizado, e que eventuais paralisações futuras aconteçam apenas por causa de uma possível tradução de seu nome –“greve geral”– e não por outro colapso na Internet.

 

Empresas analisam como seguramos e digitamos em nossos celulares para confirmar nossa identidade - Foto: Shurkin Son/Creative Commons

Em um mundo com menos dinheiro físico, tecnologia vai além de garantir transações

By | Tecnologia | No Comments

No mundo todo, as pessoas cada vez mais trocam notas de dinheiro e moedas por meios eletrônicos de pagamento. Os brasileiros seguem essa tendência, e o estrondoso sucesso do Pix é o exemplo mais reluzente disso. Nesse cenário, a tecnologia digital ocupa um espaço que vai muito além de garantir as transações: ela viabiliza segurança, combate o crime e até promove a inclusão social.

Alguns podem dizer que os problemas decorrentes da digitalização dos meios de pagamento são um preço a se pagar pelos benefícios que isso traz. Pode ser verdade, mas isso não pode ser usado como desculpa para descuidos, pois os prejuízos para pessoas e empresas podem ser devastadores. E ninguém deveria passar por isso!

“Se as pessoas perderem a fé na segurança do seu meio de pagamento, eles vão parar de usá-lo e voltarão a usar dinheiro”, explicou-me Andrew Reiskind, Chief Data Officer da Mastercard, durante uma visita que fiz na semana passada ao laboratório da inovação da empresa, localizado em Nova York (EUA).

A solução não é simples e cabe a todos os envolvidos. Empresas, governos, universidades a até os usuários têm seus papeis para que a experiência de pagamentos digitais aumente seus benefícios e reduza seus riscos.

Algumas velhas preocupações ganham nova roupagem, enquanto outras surgem. A inteligência artificial e a computação quântica despontam como poderosas novidades. Enquanto isso, a ética e a experiência do cliente ganham ainda mais importância.

Uma coisa é clara: não há atalhos nesse processo, e aqueles que não se ajustarem às novas exigências podem ser fortemente penalizados pelo mercado.


Veja esse artigo em vídeo:


Os números do Pix dão a dimensão das transações digitais no Brasil. Segundo o Banco Central, em junho, o Brasil tinha 165,8 milhões de usuários cadastrados na sua plataforma. Em maio, foram realizadas 5,2 bilhões de transações, que movimentaram R$ 2,1 trilhões. O Pix representou 43% das transações no primeiro trimestre, contra 15% dos cartões de crédito, 13% dos de débito, 5% dos boletos e apenas 1% da TED. Com esse vigor, o país terminou 2023 na segunda posição global em transações instantâneas, atrás apenas da Índia.

Em contrapartida, os saques em dinheiro vivo nos caixas eletrônicos e agências bancárias caem ano após ano. Em 2012, os brasileiros sacaram R$ 3,9 trilhões; em 2022, esse valor foi de R$ 2,1 trilhões, o mesmo que o Pix movimentou só em maio.

Infelizmente a bandidagem também está trabalhando com força no mundo digital. O Brasil se converteu em um paraíso para golpistas, e o próprio Pix tornou-se uma de suas ferramentas preferidas, pela instantaneidade das transferências.

O golpe mais comum consiste em se passarem por outras pessoas, enganando familiares e amigos para que façam transferências. Uma vez que elas acontecem, os fraudadores passam os valores para outras contas, com o Pix. Isso impede que os bancos rastreiem o caminho do dinheiro. Assim essas instituições não se sentem obrigadas a devolver o dinheiro, e seus clientes via de regra amargam o prejuízo.

“É muito fácil fingir ser alguém ou comprar uma identidade roubada na Dark Web”, explica Chris Reid, vice-presidente executivo de soluções de identidade da Mastercard. Por isso, a gigante de meios de pagamento investe fortemente em tecnologias que tentam garantir a identidade do usuário, desde biometria até análise de comportamentos, como a forma com que a pessoa interage com seu smartphone. “Depois de 10 usos do seu dispositivo, é quase impossível alguém replicar como você o segura e como digita nele”, acrescenta.

 

O real valor do celular para o crime

Enquanto esses recursos não são amplamente disseminados, os criminosos aproveitam as deficiências de segurança dos smartphones e dos aplicativos de instituições financeiras para “limpar a conta” de vítimas. Por isso, esses aparelhos se tornaram o item mais roubado no Brasil desde o ano passado.

O problema ficou tão grave que, no último Google I/O, evento global de desenvolvedores da empresa, que acontece sempre em maio, ela anunciou novidades de segurança para o sistema operacional Android inspiradas nos crimes brasileiros. Entre eles, estão o bloqueio automático do celular se ele for retirado abruptamente da mão do usuário (como nos roubos pelas “gangues de bicicleta”), a criação de uma área escondida e protegida por senha para os aplicativos sensíveis, proteção contra “reset de fábrica” e autenticação aprimorada.

A digitalização do dinheiro e da própria vida exige também comportamentos mais transparentes e éticos das empresas no uso dos dados de seus clientes e na adoção de uma inteligência artificial responsável. No último dia 2, tivemos um movimento emblemático nesse sentido, quando a Autoridade Nacional de Proteção de Dados (ANPD) proibiu a Meta (empresa dona do Facebook, Instagram e WhatsApp) de usar os dados dos usuários para treinar seus modelos de inteligência artificial.

“Os dados dos indivíduos não nos pertencem, não pertencem ao banco”, afirma Reiskind. “Eles não são uma mercadoria, são um direito humano e, portanto, devemos tratá-los bem!”

O executivo lembra também que as empresas devem estar atentas para que seus dados e sua IA não desenvolvam vieses que possam prejudicar os clientes. Ele cita, como exemplo, empresas que não querem fazer negócios com pessoas que vivem em áreas de muita criminalidade. Mas, segundo Reiskind, a tecnologia deve ser usada para garantir serviços mesmo nesses casos, pois nem todos que vivem ali são criminosos, e merecem respeito.

A boa notícia é que o mesmo avanço exponencial que viabiliza soluções como o Pix também permite que mais pessoas tenham acesso legítimo a recursos como esses. Abrir uma conta corrente ou aprovar transações de cartão de crédito para esses indivíduos marginalizados pelo local em que vivem significa muito mais que uma transação: pode representar um importante fator de inclusão social.

Dessa forma, empresas que abusarem dos dados de seus clientes ou não trabalharem de forma mais justa com o público podem, aos poucos, perder mercado e manchar sua reputação. É preciso sempre criar serviços incríveis, mas também devem fazer o certo socialmente, sem comprometer a segurança.


Veja a entrevista em vídeo com Andrew Reiskind, Chief Data Officer da Mastercard:

 

Mark Zuckerberg, CEO da Meta: empresa quer usar dados de seus usuários para treinar sua IA - Foto: Anthony Quintano/Creative Commons

O que está por trás da proibição da Meta usar dados dos usuários para treinar sua IA

By | Tecnologia | No Comments

Na terça passada (2), a Autoridade Nacional de Proteção de Dados (ANPD) tomou a decisão de mais visibilidade e impacto da sua existência de cinco anos: proibiu a Meta (empresa dona do Facebook, Instagram e WhatsApp) de usar os dados dos usuários para treinar seus modelos de inteligência artificial. É a primeira vez que o órgão age contra uma big tech, em um movimento que impacta todos os internautas do país.

Segundo a ANPD, a maneira como a empresa está usando esses dados violaria a Lei Geral de Proteção de Dados (LGPD). O ineditismo da medida não se dá apenas pela sua abrangência, mas também por tratar de algo ligado à IA, uma área que empresas, governos e usuários ainda tentam compreender toda sua enorme complexidade.

Mas eventuais lacunas nesse entendimento não podem ser usadas por empresas para abusar de seus usuários e do mercado. Como não há legislação sobre a IA definida na maioria dos países, práticas como a da Meta levantam muitos questionamentos.

Afinal, os usuários podem ficar em risco ou serem expostos com isso? Esse comportamento configura um abuso de poder econômico? Não seria melhor as pessoas decidirem compartilhar os seus dados, ao invés de isso acontecer sem seu consentimento e até conhecimento? Se nossos dados são tão valiosos para as big techs criarem produtos que lhes rendem bilhões de dólares, não deveríamos ser remunerados por eles? E acima de tudo, será que as pessoas sequer entendem esse mundo em acelerada transformação diante de seus olhos?

É um terreno pantanoso! Por isso, qualquer que seja o desfecho da decisão da ANPD, o debate em torno dela já oferece um grande ganho para a sociedade.


Veja esse artigo em vídeo:

 


A Meta atualizou a política de privacidade de seus serviços para usar as informações de todos os posts públicos dos usuários, feitos de agora em diante e também no passado. Mas as pessoas não viram a nova regra ou, se viram, não leram ou sequer entenderam. E, como de costume, aceitaram, pois essa é uma condição para continuar usando esses produtos que se tornaram centrais em suas vidas.

As pessoas não esperam que seus posts sejam usados para treinar uma IA. Por conta disso e por entender que o formulário para os usuários se oporem a coleta de seus dados ser de difícil acesso, exigindo que a pessoa vença nove etapas, a ANPD anulou a atualização da política e determinou que a coleta seja interrompida imediatamente.

A Meta pode ser multada em R$ 50 mil por dia em que não cumprir a determinação. E vale dizer que a companhia enfrenta uma proibição semelhante na Europa.

Obviamente, a empresa reclamou! Em nota, disse estar desapontada com a decisão da ANPD, e que eles são mais transparentes no treinamento de sua IA que muitas outras empresas. Afirma ainda que a proibição seria um retrocesso para a inovação e a para a competividade no desenvolvimento de IA, podendo atrasar a chegada de seus benefícios para os brasileiros.

A Meta quer usar os textos, imagens, áudios e vídeos dos posts de seus usuários porque os modelos de linguagem amplos (da sigla em inglês LLM), que viabilizam plataformas de inteligência artificial generativa, como o ChatGPT, dependem de quantidades gigantescas de informações para serem treinados. Sem isso, são incapazes de dar respostas de qualidade.

Os posts nas redes sociais são uma fonte suculenta desse tipo de informação, mas sua coleta pode trazer riscos aos usuários. “É possível pensar em clonagem de voz e vídeo por IA para enganar familiares, amigos e colegas, ou mesmo extorsão por meio de deepfakes”, explica Marcelo Cárgano, advogado especialista em direito digital do Abe Advogados.

Segundo ele, esse uso dos dados pode ainda levar a uma “discriminação algorítmica”, quando os sistemas determinam que grupos selecionados serão desfavorecidos em processos como ofertas de crédito, emprego ou serviços públicos. “E em regimes autoritários, dados pessoais podem alimentar sistemas de IA preditiva comportamental, aumentando a vigilância e a repressão sobre a população”, adverte.

 

Pedir para entrar ou para sair?

Nesse caso, a Meta fez o chamado “opt-out” com seus usuários. Ou seja, assumiu que todos aceitariam que seus dados fossem coletados. Quem não quisesse bastaria pedir para sair. O problema é que, como a ANPD corretamente apontou, as pessoas nem sabem que seus dados estão sendo coletados, não entendem isso e o processo para se oporem à coleta é muito difícil, o que, na prática, pode fazer com que muita gente ceda seus dados sem assim desejar.

Do ponto de vista de privacidade e respeito às pessoas, o processo deveria ser o contrário: um “opt-in”. Nesse caso, os usuários precisariam conscientemente permitir que a empresa fizesse sua coleta, antes que isso começasse. Mas a Meta não adotou esse caminho porque obviamente pouquíssimas pessoas topariam.

Não quer dizer que dados pessoais não possam ser usados para o treinamento de um modelo de IA. Mas as boas práticas indicam que o usuário seja avisado previamente e aceite cedê-los conscientemente. Além disso, a informação deve ser anonimizada.

E é importante que esse consentimento seja dado antes de a coleta ser iniciada, pois, uma vez que a informação é incorporada ao modelo, é virtualmente impossível removê-la individualmente. Mas a LGPD determina que, mesmo que alguém conceda acesso a seus dados, se decidir que não mais aceita, a informação deve ser apagada.

Por fim, há a polêmica de que os usuários sejam eventualmente remunerados por seus dados, essenciais para a criação de um produto bilionário. “Um sistema amplo de remuneração de dados pessoais não me parece tão prático ou desejável, porque eles geralmente são valiosos para empresas quando são massificados”, explica Cárgano. “Isso pode tornar difícil para um indivíduo conseguir negociar um preço justo, se é que isso existe, para seus próprios dados”, conclui.

Como se vê, há mais dúvidas que consensos no uso de nossas informações para treinamento de modelos de IA. Ainda haverá muito ranger de dentes e aplausos em torno da decisão da ANPD. Mas temos que ter em mente também que muitas outras empresas estão fazendo exatamente o mesmo que a Meta, e precisam ser identificadas.

De todo jeito, tudo isso está servindo para a sociedade debater a questão. No final das contas, o que mais precisamos é que as big techs sejam mais transparentes e respeitem seus clientes, dois pontos em que elas historicamente falham feio!

 

Para a futurista Amy Webb, não devemos estar preparados para tudo, mas estar preparados para qualquer coisa - Foto: Paulo Silvestre

Superciclo tecnológico atual só faz sentido se gestores mantiverem o foco no cliente

By | Tecnologia | No Comments

Desde o arado, novas tecnologias transformam indivíduos e a sociedade como um todo, oferecendo-lhes maneiras de melhorar o que já fazem ou descobrindo novas possibilidades. Algumas promovem mudanças tão profundas e prolongadas que geram um “superciclo tecnológico”. Estamos vivenciando a aurora de mais um deles, protagonizado pela inteligência artificial. Mas ela não está sozinha na transformação!

Isso pode variar muito na forma, mas uma verdade é imutável: os benefícios para as pessoas são sempre mais importantes que a tecnologia em si. Aqueles que querem surfar nessa onda, ao invés de serem tragados por ela, não podem perder isso de vista, especialmente em um mundo tão volátil e ao mesmo tempo tão poderoso, graças à própria tecnologia.

Isso se reforça pelo fato de o intervalo entre os superciclos e sua duração ficarem cada vez menores. Por exemplo, tivemos a Revolução Industrial, que começou ainda no século XVIII e durou cerca de 200 anos. Depois vieram outros, como os superciclos da eletricidade, da química, da computação, da Internet e da mobilidade.

Se suas durações e os intervalos entre eles eram medidos em séculos, agora não chegam a uma década! Isso não os torna menos importantes, mas os faz mais intensos.

Nesse cenário crescentemente complexo, nem sempre há tempo para se apropriar de todas as novidades. Portanto, um dos principais desafios de gestores públicos e privados é não se deixar seduzir pelo brilho próprio da tecnologia, limitando-se a ela, e sim usá-la para transformar a vida das pessoas.


Veja esse artigo em vídeo:


Na quinta passada, a futurista americana Amy Webb abordou a capacidade de transformação social do superciclo tecnológico atual, durante a palestra mais aguardada da Febraban Tech, o principal evento de tecnologia bancária da América Latina, que aconteceu em São Paulo de terça à quinta.

Webb, que também é professora da Universidade de Nova York (EUA), explicou que essa é a primeira vez que um superciclo não é motivado por uma única tecnologia, e sim pela combinação de três: inteligência artificial, sensores por toda parte e biotecnologia. “Não são três superciclos separados, e sim um superciclo que combina as três tecnologias”, afirmou. “Isso vai reformar a existência humana!”

Disso deriva uma classe de produtos impulsionados pela chamada “Geração Aumentada por Recuperação de Dados” (da sigla em inglês RAG). Ela combina recursos sofisticados para extrair a informação que o usuário quiser de diferentes bancos de dados e serviços, apresentando-a de uma maneira facilmente compreensível graças à IA generativa.

Isso reforça os produtos com “tecnologia de propósito geral”, ou seja, que podem ser usados para funções muito distintas, algumas nem previstas no momento de seu lançamento. Por isso, chega a ser surpreendente os problemas enfrentados pela Alexa, um produto da Amazon que reinou nessas categorias nos anos de uma IA primitiva, mas que agora não está conseguindo fazer frente ao avanço do ChatGPT.

“Essa combinação entre o transacional e a IA generativa, não importa em qual dispositivo, em qual comunicador, em qual fornecedor, é a curva evolutiva da IA, que permeará tudo”, afirma Thiago Viola, diretor de inteligência artificial, dados e automação da IBM Brasil. Segundo ele, “se você simplesmente responde, sem integrar com um serviço, você faz o que a gente chama de IA parcial”, e aí se deixa de oferecer ao cliente o valor agregado de produtividade.

 

Assistente digital permanente

As tecnologias que compõem o superciclo tecnológico atual devem, portanto, ser usadas para oferecer uma assistência digital automática, permanente e cada vez mais personalizada às pessoas. E as empresas precisam assumir o seu papel nisso.

“Vejo essa tecnologia sendo usada para mudar a forma como uma empresa interage com seus clientes ou parceiros, gerando novos tipos de produtos e serviços digitais”, sugere o britânico Matthew Candy, diretor global de IA generativa na IBM Consulting, que também participou da Febraban Tech.

Ele explica que as empresas não podem fazer isso se limitando a um único modelo de IA (como o GPT), devendo criar experiências únicas e ajustadas às necessidades de seus clientes, pela combinação de vários pequenos modelos próprios. “Como vou conseguir uma diferenciação competitiva quando todos os meus concorrentes têm acesso e fazem a mesma coisa que eu, com o mesmo material”, questiona Candy.

Tudo isso pode parecer muito distante, como uma obra de ficção científica. Mas o superciclo atual está diante de nós, impondo suas incríveis oportunidades e apresentando novos desafios, não apenas tecnológicos, mas também éticos e de governança. Isso também impulsiona gestores a ousar em seus movimentos, mas sem desprezar os cuidados com segurança e privacidade dos dados dos clientes.

Em um mundo em que a inteligência artificial está cada vez mais integrada a nossas vidas, até no que vestimos, a personalização se torna um fator crítico de sucesso. Para isso ser possível, usuários concedem acesso cada vez mais irrestrito a suas informações, o que garante um enorme poder às organizações. Sem uma governança madura em seus processos, isso pode desequilibrar o relacionamento entre empresas e seus clientes, o que pode parecer tentador, mas, a longo prazo, é ruim para todos.

Gestores de tecnologia e de negócios devem, portanto, manter um olho na operação e outro na inovação. Em um ambiente de competição complexa, concentrar-se em qualquer dos lados dessa equação, diminuindo o outro, pode ser um erro fatal. Se prestarem muita atenção à operação, podem ser atropelados por concorrentes mais ousados; se privilegiarem apenas a inovação, podem construir sistemas frágeis ética e tecnologicamente.

Como disse Web em sua palestra, “nosso objetivo não deve ser estarmos preparados para tudo, mas estarmos preparados para qualquer coisa”. A diferença parece sutil, mas é enorme!

Em outras palavras, ninguém tem recursos para antecipar todas as possibilidades de seu negócio, mas precisamos estar abertos e prontos para abraçar criativa e cuidadosamente o imprevisto. Esse é o caminho para o sucesso e para relações mais saudáveis nesse superciclo tecnológico.

 

Tim Cook, CEO da Apple: empresa adiará recursos de IA na União Europeia por causa de lei - Foto: Christophe Licoppe/Creative Commons

Ética não pode ser um luxo ou um item opcional nas plataformas de IA

By | Tecnologia | No Comments

Na sexta (21), a Apple anunciou que adiará na Europa o lançamento dos recursos de inteligência artificial para suas plataformas, apresentados no início do mês. A empresa culpou a Lei dos Mercados Digitais (DMA, na sigla em inglês), criada para evitar abusos das big techs, pela sua decisão, e não deu um prazo para que esses recursos cheguem ao continente.

Alguns europeus podem ficar irritados com a Apple; outros, com a lei. Mas essas regras existem justamente porque as gigantes de tecnologia abusam do poder que têm sobre seus usuários há décadas, criando relações comerciais desequilibradas, francamente desfavoráveis aos clientes.

A decisão da Apple de adiar a liberação desses recursos na Europa e sua oferta no resto do mundo é emblemática, e podemos aprender algo com ela. Em nota oficial, ela disse estar preocupada que os requisitos da DMA comprometam a integridade dos produtos, colocando em risco a privacidade e a segurança dos dados. Oras, se as regras de uma lei que determina boas práticas comerciais e de concorrência ameaçam um serviço, ele não me parece maduro para ser lançado em qualquer mercado.

Isso precisa ser observado em todos os produtos, mas é particularmente importante nos que usam a inteligência artificial. Essa tecnologia é tão poderosa, que, ainda que esteja em seus estágios iniciais, já transforma nossas vidas e o cotidiano de empresas. Nesse cenário, aspectos éticos e de governança são fundamentais para que a sociedade se desenvolva com a IA, evitando que ela aumente ainda mais a concentração de poder nas mãos de poucos grupos.


Veja esse artigo em vídeo:


A Apple já foi multada em março em €1,8 bilhão (cerca de R$ 10,5 bilhões) por infringir a DMA. No caso, o Spotify moveu um processo alegando práticas anticompetitivas pela Apple exigir de que os aplicativos para o iPhone e o iPad sejam instalados exclusivamente a partir da App Store, com a empresa ficando com 30% das transações na sua plataforma. Talvez por isso esteja ressabiada agora.

Graças à DMA, ela agora permite lojas de aplicativos de terceiros, o Google alterou o Android para usuários escolherem seu navegador e buscador, e a Meta concorda que outros serviços conversem com o WhatsApp e o Messenger. A Microsoft já aceita que os usuários desativem o Bing no Windows, e a Amazon solicita o consentimento dos clientes para personalização de anúncios. Por fim, o TikTok permite que os usuários baixem todos seus dados na plataforma. Mas tudo isso só vale para os europeus!

A inteligência artificial traz essas preocupações a um patamar inédito. A partir do momento em que essa tecnologia pode influenciar decisivamente nosso cotidiano e até nossas ações, é preciso entender como ela funciona. A opacidade dos algoritmos, que já causou muita dor de cabeça nas redes sociais, não pode se sentir confortável com a IA.

“A gente já tem uma dinâmica de inteligência artificial muito madura dentro das empresas, mas o tema de governança tem que ser antecipado”, explica Thiago Viola, diretor de inteligência artificial, dados e automação da IBM Brasil. Segundo ele, os gestores precisam adotar a IA com fortes padrões éticos, transparência e explicabilidade, ou seja, permitir aos usuários saberem como a IA foi construída e entenderem como ela tomou cada decisão.

No Brasil, o Congresso analisa o Projeto de Lei 2338/23, que teve uma nova versão de seu texto liberada na semana passada. Em vários pontos, ele se inspira na Lei da Inteligência Artificial, aprovada pelo Parlamento Europeu em março. E os conceitos de transparência, explicabilidade e rastreabilidade aparecem em toda parte.

Viola está certo: as questões éticas nunca devem ser colocadas de lado por interesses comerciais. Agora, com a ascensão galopante da IA, esses temas gritam para gestores, desenvolvedores e usuários. Mas se é assim, por que tantas empresas só parecem atentar a isso quando são obrigadas por força de lei?

 

Conflito de interesses

Precisamos entender que vivemos hoje uma reedição da “corrida do ouro” patrocinada pela inteligência artificial. Quem dominar essa tecnologia mais que seus concorrentes conseguirá um posicionamento determinante no mercado, especialmente porque, nesse caso, alguns meses à frente nessa etapa inicial podem significar uma liderança consolidada por muitos anos.

Diante disso, as empresas do setor, de startups a big techs, querem experimentar, ajustar e correr o quanto puderem agora, de preferência livres de qualquer restrição. Se algo der errado, pode-se considerar isso como justificáveis danos colaterais do processo de inovação supostamente inadiável.

Por conta da entrada em vigor da DMA, em março, conversei sobre isso com Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). “Empresas têm liberdade para oferecer seus produtos e serviços da maneira que considerarem mais estratégica, mas essa liberdade é limitada por leis que procuram prevenir práticas que restrinjam a concorrência”, explicou. E segundo ele, “a questão central é se os benefícios imediatos para os consumidores superam os potenciais prejuízos a longo prazo decorrentes de práticas anticompetitivas”.

Em um mundo capitalista selvagem, a busca incessante pelo lucro e a meritocracia de pessoas e empresas parecem valores  inalienáveis. Mas essa é uma distorção de realidade, como ironicamente o próprio mercado ajuda a desmistificar.

Um cenário de segurança jurídica ajuda muito a própria inovação, especialmente as mais vultosas e de mais impacto social. Basta ver que uma das indústrias mais regulamentadas que há –a farmacêutica– vive de inovação. E ainda que elas não pipoquem a cada mês como nas big techs, são mais duradouras e rentáveis a longo prazo.

Viola adverte que a governança precisa ser levada muito a sério pelas empresas quando se fala de IA, pois problemas associados a ela inevitavelmente acontecerão. “Se você tiver cultura, pessoas e ferramental preparados, o seu padrão de ação é muito mais rápido, mas se você não entende e não sabe o que está acontecendo, isso durará dias, semanas, e cairá na Internet”, explica.

Não proponho, de forma alguma, que a inovação seja desacelerada. Mas já passou da hora de as empresas entenderem que ela precisa ser realizada com ética, sem relaxamentos. Hoje as pessoas ainda estão deslumbradas com a inteligência artificial, despreocupadas com assumirem, como suas, sugestões vindas de uma caixa-preta, da qual nada sabem.

Mas à medida que essas decisões se tornarem mais frequentes e críticas em seu cotidiano, e problemas graves acontecerem por essa falta de transparência, a “lua de mel” acabará.  Ninguém continua usando algo pouco confiável. Se a falta de transparência das empresas com a IA levar a isso, todo esse poder será questionado.


Assista à íntegra em vídeo da conversa com Thiago Viola:

 

Rotuladores de dados realizam um trabalho essencial para a IA, porém estressante e mal pago - Foto: Drazen Zigic/Creative Commons

Para nos beneficiarmos da IA, uma multidão ameaça a própria saúde mental por trocados

By | Tecnologia | No Comments

Não cansamos de nos deslumbrar com as capacidades da inteligência artificial generativa. Quando foi apresentado no dia 13 de maio, o GPT-4o, versão mais recente do “cérebro” do ChatGPT, parecia mágico, com suas capacidades cognitivas refinadas e conversas bem-humoradas. Mas ironicamente, apesar de essa data estar associada à lei que formalizou o fim da escravidão no Brasil, o “milagre da IA” das grandes empresas de tecnologia depende de um trabalho muitas vezes estressante e mal remunerado, feito por uma multidão de pessoas subcontratadas em países pobres.

Conhecidos como “data taggers” (ou “rotuladores de dados”), esses trabalhadores desempenham o papel crucial de ajudar os modelos de IA no que eles não conseguem distinguir por conta própria, de modo que, a partir daquela informação, eles saibam decidir corretamente. Por exemplo, em um conjunto de fotos, o que é um gato, um tigre, um leão e um cachorro? Um texto está com linguagem jornalística, publicitária ou acadêmica? Uma foto apresenta uma mulher amamentando, um nu artístico ou não passa de pornografia?

São sutilezas fáceis para uma pessoa entender, mas impossíveis para uma plataforma digital ainda destreinada. Mas depois que o rotulador de dados explica o que cada coisa é para a máquina, ela passa a ser capaz de identificar padrões para que tome boas decisões no futuro.

Como se pode ver, as respostas da IA dependem desse trabalho para serem adequadas. E como a humanidade usa cada vez mais esses sistemas, o descuido com o processo e com as pessoas nessa etapa pode trazer impactos significativos em tudo que fazemos. Portanto, se essas pessoas atuarem em condições degradantes, podemos estar confiando nosso futuro a uma forma de precarização de trabalho que pode trazer perigosos impactos para todos.


Veja esse artigo em vídeo:


A IA precisa de uma quantidade brutal de dados na fase de seu treinamento para que funcione. Só assim ela consegue identificar padrões e criar vínculos entre elementos de informação para que tire suas conclusões depois. Nem todos esses dados passam por um processo de rotulação por humanos, mas os que passam são fundamentais para que o sistema desenvolva uma base sobre a qual trabalhará.

A rotulação pode ser feita por cientistas de dados ou profissionais especializados. Isso resulta em um modelo mais preciso, porém custa mais e demora para ser concluído. O custo e a qualidade podem cair com um serviço terceirizado, e caem muito mais no modelo de “crowdsourcing”. E esse último formato tem sido escolhido pelas big techs para rotular as bases de dados colossais de suas plataformas de IA. Com ele, a classificação de dados é transformada em uma infinidade de microtarefas.

Você certamente já participou, sem saber, de inúmeras delas, quando precisou comprovar que era um ser humano. Essa tecnologia se chama reCAPTCHA, na qual ajudamos plataformas a identificar elementos em fotos ou palavras digitalizadas. Com isso, estamos rotulando dados para o sistema, que compara nossas respostas com a de muitos outros usuários para ter uma informação de qualidade.

Mas dizermos que partes de uma foto têm semáforos não é suficiente para treinar uma base como a que faz um ChatGPT funcionar. Para isso, um exército de pessoas subcontratadas por empresas especializadas realiza milhões dessas microtarefas.

Elas não têm contato com outros indivíduos, trabalhando de casa e gerenciadas por um software. Tudo isso pode prejudicar a qualidade das entregas. Assim algumas técnicas são usadas para compensar isso e minimizar problemas, como interfaces intuitivas, a busca de um consenso na rotulação de vários profissionais para um mesmo conteúdo e uma auditoria dos rótulos, que verifica sua precisão.

Esses trabalhadores normalmente são pouco qualificados e vivem em países pobres, como Quênia ou Índia, recebendo apenas de US$ 1 a US$ 2 por hora. Pessoas nos EUA ou na Europa Ocidental não aceitam tão pouco. Mas, apesar de ser aviltante nessas regiões, esse valor pode ser significativo nas partes mais pobres do globo.

E aí reside uma perversidade no sistema. Quando precisam que alguma informação seja rotulada por um americano, por exemplo, a plataforma paga muito mais pela mesma tarefa. Por isso, muitos trabalhadores de países pobres tentam enganar o sistema sobre onde estão. Se são descobertos, suas contas são bloqueadas e podem até ficar sem receber seu pagamento.

 

Saúde mental comprometida

Eventualmente esses trabalhadores precisam rotular textos ou imagens com violência, discurso de ódio e elementos grotescos. Por isso, podem desenvolver problemas como ansiedade, depressão e estresse pós-traumático. Uma exposição prolongada a esses conteúdos pode levar ainda a uma perda de sensibilidade e de empatia.

Além dos óbvios e graves problemas para a saúde mental desses trabalhadores, a exposição contínua a dados tóxicos pode comprometer a qualidade das entregas, introduzindo vieses e discriminação nos modelos. E isso pode depois se propagar em uma sociedade que cada vez mais confia nas informações oferecidas pela IA.

As empresas que gerenciam essas plataformas precisam, portanto, oferecer suporte psicológico a esses trabalhadores e mecanismos para que eles indiquem se algo está mal. Mas isso normalmente não acontece. As big techs, por sua vez, não se importam em forçar que isso seja seguido pelas empresas que contratam.

É irônico que um negócio multibilionário tenha na sua base uma legião de anônimos trabalhando em condições tão degradantes. A sociedade deve pressionar as gigantes da tecnologia para que criem políticas de trabalho éticas e transparentes envolvendo os rotuladores de dados, e que determinem que as empresa que lhes prestem serviços cumpram essas regras. E em tempos em que se discutem leis para reger a inteligência artificial, inclusive no Brasil, esse tema não pode ficar de fora.

Sabemos que preocupações sociais nem sempre provocam mudanças em processos de produção, especialmente quando isso impactará nos seus custos. Mas se não for por isso, as empresas deveriam, pelo menos, entender que essa precarização da mão de obra implicará em produtos piores para seus clientes.

Quanto a nós, os usuários de toda essa “magia” da inteligência artificial, precisamos entender e não esquecer que, quando conversamos com o ChatGPT, aquelas respostas incríveis só são possíveis porque alguém lhe disse o que cada coisa é.

 

O primeiro-ministro indiano, Narendra Modi (direita), manteve o cargo, após as “eleições da IA” - Foto: Governo da Índia/Creative Commons

Índia inaugura novo jeito de fazer campanha eleitoral, com apoio da IA

By | Tecnologia | No Comments

O resultado das eleições sempre esteve ligado ao uso das tecnologias da época. A TV era fundamental para a vitória até 2018, quando foi suplantada pelas redes sociais, críticas para definir os pleitos desde então. Mas agora elas podem perder esse posto para a inteligência artificial. E a Índia, que acabou de realizar a maior eleição do mundo, demonstrou como dominar essa tecnologia ficou essencial para os candidatos.

A IA na política não se resume a criar deep fakes para desmoralizar adversários ou se valer do ChatGPT para compor peças publicitárias, legítimas ou falsas. Como alguns candidatos indianos demonstraram, ela pode desenvolver canais inovadores e personalizados com os eleitores. E isso parece até uma boa ideia!

Se a IA fornecesse a atenção que nenhum candidato humano conseguisse dar, atendendo cada cidadão individualmente, isso poderia até fortalecer a democracia. Mas o problema do uso da IA na política é o mesmo do seu uso em qualquer atividade: abusos de seus recursos para produzir resultados imprecisos, imorais e ilegais, para assim, mais que convencer, manipular multidões e vencer uma eleição.

No final, a IA maximiza a índole de quem a usa. E infelizmente a classe política tem sido pródiga em apresentar pessoas com uma moral rasteira, dispostas a pisotear a ética e usar todos os recursos para vencer. Por isso, devemos olhar para o que aconteceu na Índia e aprender algo com aquilo. Se um bom uso da IA pode fortalecer a democracia, seu mau uso pode colocá-la em seríssimo risco!


Veja esse artigo em vídeo:


Por décadas, os candidatos brasileiros com mais tempo na TV iam para o segundo turno das eleições. Isso mudou em 2018, quando Geraldo Alckmin, que tinha 5 minutos e 32 segundos (quase metade do tempo total do horário eleitoral gratuito), amargou uma quarta posição, enquanto Jair Bolsonaro, com apenas 8 segundos, foi eleito presidente.

Ele ganhou porque percebeu, antes e melhor que todos, que as redes sociais haviam se tornado o canal mais eficiente de disseminação de ideias e de manipulação de mentes. E não se tratava apenas de fazer um bom uso dos recursos técnicos, mas de se alterar o jeito de se fazer a própria política, com apoio de algoritmos, fake news e discursos que parecem falar aos anseios de cada um, e não aos de toda a sociedade.

Agora a inteligência artificial promete levar a “política digital” a patamares inimagináveis. O pleito indiano foi um laboratório que deve ser observado pela população, pela mídia, por autoridades eleitorais e pelos políticos, pelo seu tamanho gigantesco e pela disseminação da tecnologia entre os cidadãos.

Em janeiro, o Fórum Econômico Mundial classificou a desinformação potencializada pela inteligência artificial como um dos maiores desafios do mundo nos próximos anos. No caso da Índia, o relatório a classificou como um risco maior que o de doenças infecciosas ou atividades econômicas ilícitas.

E de fato, muito do que se esperava de ruim se materializou nessa campanha, como uma enxurrada de fake news e de deep fakes para se atacar adversários. Mas foram vistos também o uso extensivo de hologramas de políticos (inclusive de lideranças falecidas) em comícios, sintetização de áudios e vídeos de candidatos para responder, em tempo real, a dúvidas de eleitores, e a inteligência artificial analisando quantidades colossais de dados de usuários (muitos coletados ilegalmente) para apoiar a decisão de campanhas.

A IA generativa foi amplamente usada não apenas para gerar instantaneamente as respostas e o audiovisual, mas também para fazer com que o avatar do candidato falasse na língua de cada eleitor, chamando-o pelo nome. Isso é importante em um país como a Índia, que tem 23 idiomas oficiais e mais de 400 dialetos.

Se as redes sociais foram eficientes em desinformar as pessoas, a inteligência artificial agora pode encantar (e até iludir) os eleitores.

 

Mentiras cada vez mais críveis

Especialistas temem que essa tecnologia convença cada vez mais as pessoas sobre os que os candidatos quiserem, pelos conteúdos personalizados e visualmente convincentes. Além disso, muita gente pode acreditar que está realmente falando com o candidato, ao invés de seu avatar.

Há ainda outro aspecto a ser considerado: por mais que os modelos de IA sejam bem treinados para sintetizar respostas às perguntas de cada eleitor individualmente, eles podem “alucinar” e repassar informações completamente erradas ao público.

No Brasil, o Congresso não ajuda ao travar projetos de lei que poderiam organizar o uso dessas tecnologias nas eleições. As autoridades eleitorais tentam, por sua vez, impedir que esses problemas aconteçam no país, definindo regras claras para a eleição municipal desse ano, incluindo contra abusos da inteligência artificial. Ao assumir a presidência do Tribunal Superior Eleitoral (TSE) no dia 3, a ministra Cármen Lúcia fez um discurso enfatizando a responsabilidade das redes sociais no problema e o combate que fará aos usos indevidos das tecnologias digitais na desinformação.

Não será uma tarefa fácil! Três dias depois, Meta (dona do Facebook, Instagram e WhatsApp), Google (dono do YouTube), Microsoft, TikTok e Kwai aderiram ao Programa de Combate à Desinformação do Supremo Tribunal Federal (STF). O X, que se tornou um dos principais canais de fake news, não mandou representantes.

Ainda que a IA ofereça campanhas muito eficientes por uma fração do custo necessário para se obter os mesmos resultados de maneira convencional, esses recursos podem custar milhões de reais para um candidato. Isso desequilibra ainda mais a eleição entre os concorrentes ricos e os pobres.

A Índia demonstrou as incríveis oportunidades e os enormes problemas do uso da inteligência artificial em uma eleição. Regras são necessárias para disciplinar essa prática, mas bandidos são conhecidos por infringi-las, portanto não são suficientes.

Não podemos ser ingênuos! Esperar que as plataformas digitais tomem todos os devidos cuidados nas eleições é como esperar que a raposa cuide do galinheiro. E achar que todos os candidatos farão um bom uso desses recursos é como entregar as galinhas –ou seja, os eleitores– diretamente para a raposa.

É hora de aproveitar o que há de bom e redobrar a atenção para os usos nocivos da IA! É assim que a política será feita de agora em diante.

 

Theodore e Samantha (o sistema operacional do celular em seu bolso), em cena do filme “Ela” (2013) Foto: reprodução

Empresas querem que acreditemos que a inteligência artificial é humana

By | Tecnologia | No Comments

A nossa interação com diferentes plataformas de inteligência artificial fica cada vez mais parecida com conversas que temos com outras pessoas. Em alguns casos, nossos cérebros podem ser enganados para crer que estão interagindo com outros indivíduos, por mais que saibam que não é verdade. Não é por acaso: as big techs querem que nos relacionemos com esses produtos de maneira mais “humana” possível. Mas longe de ser apenas um recurso para melhorar sua usabilidade, isso levanta questionamentos éticos e até de produtividade.

Ao longo da nossa evolução, aprimoramos a capacidade de atribuirmos características humanas ao que não é. Fazemos isso com animais de estimação, objetos, fenômenos da natureza e até a deuses. É o que chamamos de antropomorfismo. Por exemplo, dizemos que “o cachorro é muito inteligente”, “o carro está nervoso”, “a chuva está chorando” e representamos divindades com corpos e emoções humanas.

Isso é importante, porque facilita a nossa compreensão e interação, especialmente com aquilo com que não somos familiarizados. Além disso, com essa prática, criamos vínculos e até sentimos empatia pelo que não é humano.

Isso explica, pelo menos parcialmente, o ChatGPT ter atingido 100 milhões de usuários em apenas dois meses, o que o tornou o produto de mais rápida adoção da história. Antropomorfizar a inteligência artificial nos deixa à vontade para usá-la intensamente e para acreditar em suas respostas, às vezes além do que deveríamos.

Porém atribuir capacidades que esses sistemas não têm pode atrapalhar a nossa compreensão sobre o que realmente eles são e o que podemos fazer com a inteligência artificial. Corremos o risco de acabar atribuindo responsabilidades que as máquinas não possuem, enquanto ignoramos quem fizer usos indevidos de todo esse poder. Por isso, precisamos usar a IA como ela realmente é.


Veja esse artigo em vídeo:


Para deixar mais claros os efeitos do antropomorfismo, podemos comparar como nos relacionamos com a IA com o que sempre fizemos com os buscadores, que existem há quase três décadas. O Google, maior exemplo deles, tenta responder a todas as nossas perguntas desde 1998, quando foi lançado. E faz isso com uma eficiência incrível, sendo mais confiável que qualquer plataforma de inteligência artificial generativa do momento. Nem por isso, nós atribuímos características humanas a ele.

Como já debati nesse espaço, o mais incrível da inteligência artificial generativa não é o que ela nos diz, mas o simples fato de ser capaz de conversar conosco, como se fosse outra pessoa! Isso facilita o seu uso e amenta a credibilidade de suas respostas, mesmo quando ela nos diz alguma bobagem, as chamadas “alucinações” da IA.

Quando lançou o GPT-4o, no dia 13, a OpenAI dobrou essa aposta! Essa nova versão do “cérebro” do ChatGPT fala conosco com uma fluidez ainda mais impressionante, e é capaz de analisar, ao mesmo tempo, texto, voz, áudios e imagens, em tempo real, “enxergando” (olha a antropomorfização!) e analisando o que filmamos como celular.

Para reforçar ainda mais essa projeção, a empresa sugeriu que estaríamos nos aproximando do visto no filme “Ela” (2013), dirigido por Spike Jonze e estrelado por Joaquin Phoenix e Scarlett Johansson. Na história, Theodore (Phoenix) se apaixona por Samantha (a voz de Johansson), o sistema operacional de seu computador e smartphone, movido por uma aparente inteligência artificial geral.

Sam Altman, CEO da OpenAI, disse que “Ela” é seu filme preferido. Ele tentou contratar Johansson para dar voz ao GPT-4o, mas ela recusou a oferta. Não satisfeito, ele lançou o produto com uma voz muito parecida com a dela, o que lhe rendeu um processo da atriz. Aquela voz deixou de ser oferecida na plataforma.

Se tudo isso parece ficção científica demais, uma pesquisa publicada no ano passado na JAMA, a revista da Associação Médica Americana, indicou que pacientes consideraram empáticas quase dez vezes mais respostas dadas por um chatbot em relação às de médicos humanos. Na verdade, os pacientes sentiram alguma empatia do médico em apenas 5% das consultas, o que não deixa de ser uma informação importante por si só.

As pessoas querem se sentir acolhidas! Será que chegamos a um ponto em que as máquinas serão mais eficientes que humanos nessa tarefa?

 

A máquina perfeita de convencimento

O filósofo italiano e professor de Oxford Luciano Floridi, considerado uma das maiores autoridades nos campos da filosofia e da ética da informação, publicou um artigo nesse ano em que afirma que a inteligência artificial cria os mecanismos do que ele chama de “hiperpersuasão”. Resumidamente, essas plataformas ofereceriam um enorme poder para se convencer qualquer pessoa sobre qualquer coisa.

Segundo o pesquisador, isso se dá graças à já incrível e crescente capacidade de a máquina coletar e processar dados dos indivíduos, identificando padrões de comportamentos, preferências e vulnerabilidades, para manipular opiniões e comportamentos. Além disso, a inteligência artificial generativa pode produzir todo tipo de conteúdo com alta qualidade e cada vez mais parecida ao gerado por humanos.

Para ele, tecnologias persuasivas são tecnologias de poder. Já experimentamos isso com as redes sociais, e a esse processo deve se intensificar muito com a IA, não apenas pela tecnologia em si, mas por usos indevidos de grupos políticos e econômicos.

Para minimizar esses riscos, Floridi afirma que é necessária uma melhor proteção legal e ética da privacidade, contra os usos persuasivos da IA. E curiosamente, diante do fato de que esses usos nocivos acontecerão, ele sugere que a “hiperpersuasão” seja pluralista. Em outras palavras, usos positivos desse recurso poderão “compensar” os maus usos, trazendo também visões complementares do mundo. É mais ou menos o que acontece desde sempre com a mídia, mas agora aplicado à inteligência artificial.

Uma população em que todos os membros fossem muito educados e engajados ajudaria a resolver esse problema. Devemos perseguir sempre isso, mas entendo que seja uma utopia.

Isso nos leva então de volta ao antropomorfismo. Precisamos usar a IA como ela realmente é. Ela certamente atua como um agente social, no sentido em que promove transformações em nosso mundo, mas não é um agente moral, pois não tem autonomia e capacidade de escolher o que fará. Atribuir característica humanas à máquina pode distorcer essa realidade, isentando criminosos que fazem maus usos dela, e responsabilizando a máquina.

E isso não faz sentido algum!

 

Zumbis da série “Walking Dead”: as redes sociais podem nos transformar em uma versão digital dessas criaturas - Foto: reprodução

Ansiedade algorítmica cria zumbis que trabalham de graça para redes sociais

By | Tecnologia | No Comments

“Responda aos comentários dos fãs para ajudar a aumentar o engajamento com a sua conta”. Nessa semana, o Facebook me conclamou (de novo) a interagir ainda mais com outras pessoas, como se isso fosse fazer uma grande diferença na minha vida.

Como a principal rede do Mark Zuckerberg definitivamente não me entrega tal valor, dei de ombros. Mas muita gente não consegue praticar esse desapego, seja no Facebook ou em outras redes sociais. E isso vem provocando uma crescente onda de ansiosos por não darem conta de todas as “tarefas” sugeridas pelos algoritmos, como se fossem necessárias para se destacar em uma vida dividida constantemente entre as redes sociais e suas atividades presenciais.

Por que nos permitimos seduzir (ou controlar) por esses sistemas? Quando deixamos de agradar genuína e desinteressadamente pessoas verdadeiras para satisfazer as demandas insaciáveis das plataformas? Como elas conseguem nos dominar de maneira tão intensa e, ao mesmo tempo, subliminar?

A única rede que me traz benefícios reais é o LinkedIn. Meu mestrado se focou na construção de uma verdadeira reputação digital nele, mas, durante a pandemia, eu me debrucei sobre essas inquietações. Decidi então deixar de produzir para os algoritmos, como um escravizado digital, ou seja, como esses sistemas nos veem.

Já passou da hora de pararmos de nos submetermos aos caprichos desse capitalismo de vigilância e recuperarmos o controle de nossas vidas. No formato atual, as pessoas se afogam em sua ansiedade algorítmica, enquanto trabalham gratuitamente, sem perceber, para as redes sociais.


Veja esse artigo em vídeo:


Mantenho uma produção consistente e cuidadosa no LinkedIn, que me traz contatos qualificados e oportunidades de negócios interessantes. Mas reconheço que, quando parei de criar atendendo as neuroses dos algoritmos, minhas métricas sofreram.

Não escondo isso e, de certa forma, me orgulho desse movimento. Percebi que não precisava impactar, com minhas publicações, dezenas de milhares de pessoas cujos motivos e desejos só os algoritmos conheciam, e que não rendiam nada palpável. Muito melhor é chegar a menos pessoas, mas com as quais possa fazer trocas verdadeiras e produtivas. Outro ganho –tão ou mais importante que essas conexões– é encontrar prazer e leveza em falar com seres humanos, e não com sistemas.

Não é uma tarefa simples. As redes sociais descobriram como reforçar nossa busca por prazeres imediatos, aparentemente exigindo pouco de nós. Afinal, atire a primeira pedra quem nunca publicou algo em uma rede social na expectativa de receber muitas curtidas e, quem sabe, comentários que afagassem seu ego.

Curtidas não pagam contas! Mas relacionamentos qualificados podem ajudar nisso.

A raiz da ansiedade algorítmica está em sabermos que nossas vidas são controladas por esses sistemas, mas não termos conhecimento sobre como eles funcionam. Dependemos deles para conseguirmos trabalho, diversão e até amor, mas seu funcionamento é uma caixa preta que nunca se abre para nós.

Como consequência, estamos sempre tentando descobrir seus segredos para nos dar bem ou, no jargão das redes, “hackear o sistema”. Lemos artigos, fazemos cursos, acreditamos em gurus, mas o fato é que só quem desenvolve os algoritmos sabe da verdade, e esse é o “ouro do bandido”, um segredo tão bem guardado quanto a fórmula da Coca-Cola.

E assim nos viciamos nas microdoses de dopamina que nós mesmos produzimos quando um post tem uma visibilidade maior que nossa própria média (por menor que seja). A partir disso, buscamos sofregamente repetir aquele sucesso fugaz, tentando replicar uma receita que não temos.

 

O mal da falta de transparência

A inteligência artificial reacendeu os debates em torno da importância da transparência nas decisões dos algoritmos, para que entendamos seus motivos, assim como a explicabilidade e a rastreabilidade do que fazem com nossos dados.

Nisso reside um perverso jogo de poder. As redes sociais jamais nos darão essas informações, pois no obscurantismo está seu ganho. A ansiedade que essa nossa ignorância nos causa faz com que atuemos como zumbis teleguiados por seus sistemas. Se soubéssemos de toda a verdade, só publicaríamos o que “dá certo”, e as redes perderiam o controle que têm sobre nós. Isso seria ruim para seus negócios!

Não há a mínima reciprocidade entre os algoritmos e as pessoas: eles sabem tudo sobre nós, mas não sabemos verdadeiramente nada sobre eles. Temos só suposições e lampejos desconexos do seu funcionamento. Por isso, deixamos de representar, em nossas publicações, quem verdadeiramente somos ou o que desejamos. Ao invés disso, tentamos adivinhar e atender o que os outros querem de nós, esperando sua aceitação e aprovação, como se dependêssemos delas.

Essa é uma tarefa inglória e o caminho para a ansiedade e a depressão. Em casos extremos, vemos influenciadores digitais se suicidando, inclusive no Brasil, diante de sua incapacidade de ter o mínimo controle sobre os resultados de seu trabalho.

A opacidade dos algoritmos os torna mais cruéis quando mudam seus parâmetros continuamente, para que as pessoas não os dominem por muito tempo. Com isso, alguém que estivesse conseguindo ganhos de uma boa visibilidade, poderia subitamente ser descartado, sem explicação ou aviso prévio, gerando mais ansiedade.

As empresas se defendem afirmando que seus algoritmos existem para que as experiências em suas plataformas sejam úteis e divertidas, e não para que viciem os usuários. Dizem ainda que o que nos é empurrado depende de nossas interações na própria rede. Essa explicação, ainda que verdadeira, é tão rasa, que chega a ser hipócrita com quem consome e com quem produz conteúdo praticamente às cegas.

Vale lembrar que, apesar de estarmos falando aqui de algoritmos de redes sociais, eles estão presentes em toda parte, tomando decisões que podem influenciar profundamente nossas vidas. Dois exemplos emblemáticos são as plataformas de recrutamento, que podem definir se conseguiremos um emprego ou não, e os sistemas policiais, que podem decidir se somos criminosos, condenando-nos à cadeia.

Precisamos entender que os algoritmos devem trabalhar para nós, e não o contrário. Mas é inocência acreditar que temos algum controle nessa relação: em maior ou menor escala, somos dominados por esses sistemas, que exercem seu poder impunemente, mesmo quando causam grandes prejuízos aos usuários.

Por isso, o melhor a se fazer é mandar os algoritmos às favas e sermos nós mesmos, como acontecia nos primórdios das redes sociais. Mas você consegue fazer isso hoje?

 

Sameer Samat, diretor de produtos do Android, apresenta novidades de segurança do sistema durante o Google I/O 2024 - Foto: reprodução

Criminalidade brasileira transforma smartphones e inteligência artificial

By | Tecnologia | No Comments

A semana passada foi pródiga em lançamentos na área de tecnologia, fortemente impulsionados pela inteligência artificial. Em meio a tantas novidades, alguns recursos de cibersegurança me chamaram atenção, porque podem ajudar muito no combate à criminalidade digital no Brasil ou até foram explicitamente criados para atender a demandas de usuários de nosso país.

Na terça (14), o Google anunciou, durante seu evento anual Google I/O, um grande pacote de novidades na sua plataforma de inteligência artificial Gemini e no sistema operacional Android. No dia anterior, a OpenAI mostrou o novo cérebro do ChatGPT, o GPT-4o, que se aproxima incrivelmente da capacidade conversacional humana, incluindo reconhecimento em tempo real de texto, áudio e vídeo.

As referidas novidades de segurança fazem parte do novo Android. Uma delas automaticamente travará o smartphone no caso de roubo pelas infames “gangues de bicicleta”, que assombram os brasileiros, especialmente em São Paulo. A outra tentará identificar, em chamadas por voz, possíveis golpes, avisando imediatamente a vítima para que não acredite na mentira. A IA é o motor de ambos os recursos.

Fiquei feliz ao saber dessas funcionalidades! Tristemente, há anos o brasileiro se obriga a limitar o uso de tecnologias revolucionárias pela ação de criminosos. É o caso de restrições ao Pix, de andar com smartphones sem todos os aplicativos e até de não poder usar caixas eletrônicos de madrugada.

Já passa da hora de as big techs se envolverem na solução desses problemas!


Veja esse artigo em vídeo:


O nome do recurso contra as “gangues de bicicleta” é “Bloqueio de Proteção Contra Roubo” (“Theft Protection Lock”). Durante o Google I/O, Sameer Samat, diretor de produtos do Android, disse que esteve no Brasil no ano passado para conversar com a equipe local da empresa e com autoridades sobre essa modalidade de roubo, que faz um número assombroso de vítimas, especialmente para usar aplicativos bancários para desvio de valores e redes sociais para aplicar golpes em nome das vítimas.

Com a novidade, quando a IA do smartphone identificar uma mudança brusca de movimento, seguida de um padrão que indique um deslocamento por bicicleta, o smartphone será bloqueado. Essa identificação acontece por uma combinação de sensores do aparelho, inclusive do seu acelerômetro.

Já a ferramenta contra golpes telefônicos funciona com a inteligência artificial monitorando continuamente as conversas do usuário com alguém ligando de um número desconhecido, procurando por frases suspeitas. No palco do Google I/O, Dave Burke, vice-presidente de engenharia do Android, simulou uma conversa em que o interlocutor dizia ser funcionário do seu banco, sugerindo que ele transferisse seu dinheiro para outra conta por supostas atividades suspeitas na sua. Nesse momento, o aparelho tocou um alerta sonoro e a tela exibiu uma mensagem que dizia que “bancos nunca pedirão para transferir seu dinheiro para sua segurança.”

Outro recurso de segurança apresentado oculta mensagens e notificações com informações sensíveis, senhas ou autenticações em dois fatores. O objetivo é evitar que, no caso de o smartphone ser clonado ou de sua tela estar espelhada em outros dispositivos, criminosos tenham acesso a essas informações confidenciais.

Burke disse que as pessoas perderam mais de US$ 1 trilhão em golpes digitais no ano passado, em todo o mundo. Esse número astronômico faz sentido: apesar de os bandidos ainda poderem ser presos eventualmente, a chance de isso acontecer é muito menor que em assaltos a bancos, além de muito menos arriscados.

Esses novos recursos de segurança farão parte da versão 15 do sistema operacional Android, que deve ser lançada no final do ano, mas também devem chegar a smartphones com Android a partir da versão 10. Ainda não foi definida a data para essa atualização.

 

Proteção pela IA

Os golpes digitais crescem a olhos vistos: a toda hora, surge uma nova modalidade, aproveitando-se de falhas dos sistemas e especialmente da inocência e inexperiência dos usuários. E os smartphones são o principal canal para sua execução.

Os bancos ficam em uma situação bastante cômoda diante desse gravíssimo problema. Argumentam que a culpa é do seu cliente e raramente ressarcem os valores. Na verdade, a pessoa é a vítima e os aplicativos dos bancos fazem pouco para protegê-la. Essa postura se assemelha a dizer que o correntista seria culpado por fazer um saque no caixa em uma agência com um bandido lhe apontando uma arma para sua cabeça.

As autoridades tratam o problema como caso de polícia, mas isso é insuficiente para eliminá-lo pelo absurdo volume de ocorrências. Adotam também medidas paliativas, como impedir o uso de caixas eletrônicos de madrugada, pelos sequestros-relâmpago.

As big techs, particularmente o Google e a Apple, criadoras dos sistemas operacionais de todos os smartphones do mundo, há anos lançam recursos para minimizar o problema, mas eles também são claramente insuficientes. Os cibercriminosos conseguem superar muitas dessas barreiras tecnológicas, o que chega a ser assustador, considerando os milhões de dólares investidos no seu desenvolvimento desses recursos.

Agora a inteligência artificial desponta como uma esperança para equilibrar essa balança. De fato, ela consegue oferecer aos smartphones habilidades até então inimagináveis, em diversas atividades.

As big techs desempenham um papel absolutamente central na solução do cibercrime, pois ele acontece usando suas tecnologias e plataformas. Mas isso não desobriga as autoridades e os bancos de se empenharem muito mais na busca por saídas, assumindo a responsabilidade que têm na segurança do cidadão e dos próprios clientes. Jogar a culpa no outro é uma atitude preguiçosa e vergonhosa!

Já não é de hoje que os smartphones se tornaram o centro de nossas vidas, pois fazemos uma grande quantidade de atividades com eles. Sem segurança, todas essas ferramentas ficam comprometidas. Por isso, esses recursos agora anunciados são muito bem-vindos. Esperamos apenas que os cibercriminosas não consigam superar também essas proteções.

 

Matt Hicks, CEO da Red Hat, explica a integração entre inteligência artificial e open source - Foto: Paulo Silvestre

Open source fortalece confiança e pode popularizar inteligência artificial

By | Tecnologia | No Comments

A corrida pela inteligência artificial acontece não apenas entre as big techs, que buscam estabelecer a dominância nesse mercado bilionário, mas também entre profissionais e empresas que querem construir uma vantagem sobre seus concorrentes, pelo uso dessa tecnologia. Agora o open source, modelo de produção e distribuição em que qualquer um pode propor melhorias em softwares, chega com ideias que podem tornar a IA mais segura, fácil e profissional.

Desde que o ChatGPT a apresentou às massas há 18 meses, seu avanço acontece a passos largos. Mas apesar de algumas aplicações disponíveis parecerem mágicas em seus resultados, a IA ainda está engatinhando. Muitos dos usos que vêm sendo feitos dela são poucos profissionais e podem até expor dados sigilosos.

Em grande parte, isso acontece porque as pessoas usam ferramentas genéricas, construídas para respostas sobre qualquer assunto, como o próprio ChatGPT. O amadurecimento desse mercado passa, portanto, pela oferta de plataformas que permitam que as empresas criem e ajustem seus próprios modelos, adequados a necessidades específicas e com suas informações usadas de maneira segura.

Durante o Red Hat Summit, maior evento de open source do mundo, que aconteceu em Denver (EUA) na semana passada, a Red Hat, líder global de soluções nesse formato, apresentou o InstructLab, plataforma que propõe solucionar esses problemas. Ela permite que qualquer pessoa, mesmo sem conhecimento técnico, contribua com o desenvolvimento de modelos de IA para seus negócios.


Veja esse artigo em vídeo:


Construído sobre o LLM (modelo de linguagem ampla) Granite, da IBM, a plataforma sintetiza dados a partir de informações do cliente, mesmo em pequenas quantidades, tentando vencer um problema atual dos grandes LLMs, que exigem volumes colossais de informação para seu treinamento, e estão esbarrando na falta de novo conteúdo. Com a ação dos usuários, esse modelo sintético tende a ficar melhor por uma fração dos custos de um desenvolvimento tradicional, para aplicações específicas.

“Isso permite que comunidades de pessoas ensinem os LLMs a aprender da mesma forma que os humanos aprendem”, explica Matt Hicks, CEO da Red Hat. “Ao permitir a qualquer pessoa que contribua para um modelo e ajustá-lo de novas maneiras, podemos realmente desbloquear o potencial da especialização em um assunto.”

“Talvez seja isso que de fato popularizará nas empresas esse modelo que a população experimentou, mas aplicado ao seu negócio, combinado com seus dados, com as suas informações”, sugere Gilson Magalhães, presidente da Red Hat Brasil. “Isso é revolucionário!”

Explicando de maneira mais simples, as empresas continuam se beneficiando das informações e da capacidade de produção dos grandes LLMs, mas agora podem construir modelos especializados para suas necessidades, a partir de seus dados e das habilidades e do conhecimento de sua equipe. “A tecnologia entra, mas sem os talentos, sem as pessoas, jamais se alcançará a transformação como ela deve ser feita”, afirma Paulo Bonucci, diretor-geral da Red Hat Latin America.

“O mundo não será composto por um único modelo, e sim, cada vez mais, por modelos especializados”, explica Thiago Araki, diretor de tecnologia da Red Hat Latin America. “Ao invés de usar um modelo de forma genérica, para qualquer caso, teremos modelos pequenos para usos específicos, para cada negócio.”

O amadurecimento do mercado implica também nas empresas entenderem que são responsáveis ao usar decisões tomadas pela IA. “Já existem ferramentas que ajudam nessa auditoria, mas trabalhar com código aberto permite identificar como e por que essas decisões foram tomadas e com quais dados”, detalha Victoria Martínez Suárez, líder em inteligência artificial da Red Hat Latin America.

 

Questões regulatórias

Todos esses executivos, com quem conversei em Denver, afirmam ser necessária alguma forma de regulamentação da tecnologia, naturalmente em um sentido que não prejudique seu desenvolvimento, mas para proteger os usuários de abusos econômicos das big techs e para dar segurança jurídica ao mercado.

Bonucci acredita que a legislação ideal deveria ficar entre a Lei da Inteligência Artificial, aprovada no mês passada pela União Europeia, e a proposta americana. A primeira é um documento extenso e detalhado, construído principalmente sobre os diferentes níveis de risco que a inteligência artificial pode oferecer às pessoas, orientando seu uso. Já o modelo dos EUA delega a decisão sobre o que pode ou não ser feito às diferentes agências regulatórias já existentes.

“A rastreabilidade e a transparência são exigidas em alguns setores, em outros são recomendadas”, explica Martínez. “Ter isso claro é bom porque, em algum momento, essas informações podem ser solicitadas para qualquer problema que ocorra.”

No momento, o Congresso Nacional analisa o Projeto de Lei 2338/23, que guarda muita semelhança com a lei europeia. Os legisladores brasileiros têm o desafio de criar regras claras para evitar que se repita na IA o que se vê nas redes sociais, que gostam de não dar satisfações, e com isso vêm causando muitos danos a usuários e à sociedade como um todo. “A regulação é um princípio ocidental muito útil para garantir que empresas e pessoas não sejam massacradas por qualquer que seja o domínio”, afirma Magalhães. “Mas ela tem que ser sábia para proteger, sem inibir”.

Tudo isso se faz necessário para que essa tecnologia, que evolui de forma exponencial, deixe de ser uma curiosidade e passe a trazer benefícios claros para pessoas e companhias. Por mais que esteja ainda em seus estágios incipientes, precisamos compreender seu funcionamento e recursos.

“A proposta é trabalhar não tecnologia por tecnologia, e sim algo que vai trazer impacto ao negócio”, acrescenta Araki. “Não devemos usar IA generativa só porque está na moda, e sim fazer o uso disso quando tem algum sentido para o negócio.”

É incrível pensar que, há apenas 18 meses, quase ninguém falava de inteligência artificial. No ano passado, ficamos deslumbrados com suas possibilidades. Agora estamos encontrando novas formas de nos apropriarmos dela. Assim, para que, no ano que vem, ela nos traga ainda mais benefícios, esse debate precisa ser ampliado.


Clique nos links para assistir à íntegra em vídeo das entrevistas com os executivos acima: