segurança

David Furlonger, VP do Gartner: “a IA é uma disrupção combinatória, não perca tempo tentando separá-la” - Foto: Paulo Silvestre

Euforia e desconhecimento empacam avanços da IA

By | Tecnologia | No Comments

A essa altura, ninguém diria que a inteligência artificial não passa de uma tendência incerta: seu uso cresce sem parar entre profissionais diversos, nos mais variados segmentos do mercado. Porém enquanto os investimentos nessa tecnologia avançam exponencialmente, executivos reclamam dos seus resultados. Isso vem muitas vezes de uma combinação de euforia e de desconhecimentos sobre a IA.

Durante a conferência Gartner CIO & IT Executive, que aconteceu em São Paulo na semana passada, especialistas da consultoria demonstraram isso em números. Segundo levantamento desse ano, 47% dos CIOs no mundo disseram que suas iniciativas corporativas de IA não atingiram seus objetivos. Ainda assim, 87% deles planejam investir mais nessa tecnologia em 2025. No Brasil esse índice chega a 92%!

As expectativas são altas e crescentes. Segundo o Gartner, em 2022, apenas 18% dos executivos de negócios acreditavam que a IA impactaria significativamente sua indústria. No ano seguinte, esse índice cresceu para 21%, saltando para 59% em 2024 e devendo chegar aos 74% até o fim do ano!

Apesar disso, são poucos os que parecem ter apetite para criar usos disruptivos com ela. Segundo a consultoria, metade das iniciativas com IA se concentram em ferramentas de produtividade para as equipes, enquanto 30% agem nos processos. Propostas para verdadeiramente transformar o negócio são apenas 20% dos casos.

Para melhorar esse quadro, as empresas devem parar de ver a inteligência artificial apenas como uma mera ferramenta digital capaz de dar respostas quase mágicas. Ela precisa ser encarada como uma tecnologia disruptiva para o negócio. E isso também exige estudo, planejamento e envolvimento profundo das diferentes equipes da empresa, que muitas vezes se dividem entre o medo e o deslumbramento com a IA.


Veja esse artigo em vídeo:


“A IA é uma disrupção combinatória, não perca tempo tentando separá-la”, disse na conferência David Furlonger, vice-presidente do Gartner. “Em vez disso, crie uma inteligência artificial estratégica”, sugeriu.

Ele trouxe previsões envolvendo a IA para os próximos anos, surpreendendo pelas suas abrangências e intensidades. A maior parte envolvia pessoas, como um risco de desenvolvimento de vício e vínculos emocionais com a IA, seu uso em convencimento, eliminação de níveis hierárquicos e uso da IA em decisões de alto nível nos negócios.

Outro ponto destacado é o consumo de energia. Apesar de usarmos alegremente o ChatGPT e afins, poucas pessoas têm consciência da brutal capacidade de processamento e de energia que ele consome. Cada resposta que ele nos dá, seria suficiente para fazer uma lâmpada elétrica piscar. Considerando que o ChatGPT cria algo como 500 milhões de respostas por dia, poderíamos dizer grosseiramente que seu consumo seria suficiente para as necessidades energéticas de uma cidade de médio porte.

Furlonger sugeriu que as empresas devem considerar até a geração de sua própria energia (ou parte dela), para atender as necessidades da IA. Segundo ele, até 2027, as maiores empresas do mundo devem transferir US$ 500 bilhões em iniciativas assim.

Em outra fala, Henrique Cecci, diretor-sênior de Pesquisa do Gartner, disse que muitos países não se beneficiam mais da IA por limitações energéticas. Segundo ele, o consumo desses datacenters deve dobrar nos próximos cinco anos. “E não dá para aumentar a capacidade energética de um dia para o outro”, lembrou.

Esse é só uma das despesas associadas ao uso da inteligência artificial. E o custo é justamente uma das maiores ameaças ao sucesso dessa tecnologia. Levantamentos do Gartner indicam que mais da metade das organizações estão desistindo de seus projetos de IA por erros na estimativa de investimentos necessários.

Ironicamente o principal foco nas iniciativas de uso da IA generativa, segundo a consultoria, é a redução de custos dos negócios.

 

IA sob ataque

Outro aspecto que as empresas precisam investir mais é a cibersegurança. A inteligência artificial traz inegáveis benefícios aos negócios, mas ela também abre sérias brechas na sua proteção.

Furlonger destacou os riscos associados aos agentes de inteligência artificial. Eles são sistemas criados para realizar tarefas específicas, e seu uso vem crescendo, até pelo incentivo dos desenvolvedores dessas plataformas. Mas os agentes podem ser enganados por pessoas de fora ou de dentro da organização. Segundo ele, até 2028, um quarto das falhas de segurança digitais podem estar associadas a eles.

Para Oscar Isaka, analista-diretor-sênior do Gartner, “100% de segurança só existe quando há 0% de funcionalidade”. Ele diz que o profissional de cibersegurança moderno deve ser capaz de explicar claramente os riscos para os diferentes públicos. “Vivemos uma batalha contra a desinformação, que desorienta todos”, acrescentou.

Felizmente a mesma inteligência artificial pode ajudar no combate a esses males. Furlonger afirmou que, até 2028, 48% dos CIOs trabalharão com “anjos da guarda digitais”, que automaticamente vasculharão a totalidade das ações dos agentes, identificando e bloqueando ataques. Essa é uma tarefa que os humanos não conseguirão desempenhar sozinhos.

E por falar em tarefas dos humanos, ele também mencionou o impacto da IA nas lideranças alta e média das empresas. Segundo o executivo, até 2026, 20% das empresas usarão IA para eliminar níveis hierárquicos, demitindo mais da metade dos gerentes atuais. Além disso, essa tecnologia será cada vez mais usada para os conselheiros das companhias exigirem melhores resultados do corpo de executivos.

Nenhuma dessas mudanças é trivial, mas já estão acontecendo em passo acelerado. As empresas tentam encontrar o seu caminho, muitas vezes “construindo o avião da IA em pleno voo”. E isso vem causando tantas decepções com resultados.

O melhor a se fazer, portanto, é investir em pessoas e em planejamento. A tecnologia funcionará muito melhor, qualquer que seja sua aplicação, com esses investimentos no lugar. De nada adianta termos sistemas revolucionários, se não soubermos obter resultados palpáveis deles, contornando seus inevitáveis riscos.

 

O finlandês Mikko Hyppönen mostra um disquete para relembrar o início de sua carreira, no palco do Mind The Sec - Foto: reprodução

Segurança digital deveria ser ensinada na escola, desde a infância

By | Educação, Tecnologia | No Comments

Os smartphones sempre foram muito cobiçados pelos criminosos pelo seu alto valor e facilidade de negociação. De dois anos para cá, esse apetite cresceu muito, especialmente em São Paulo. Mas ironicamente os bandidos não estão interessados no aparelho, e sim nas diversas portas valiosas que ele abre para a vida da vítima, especialmente suas contas bancárias e cartões de crédito.

As pilhas de pessoas que tiveram todas as suas economias roubadas dessa forma escancaram como a cibersegurança deixou de ser uma preocupação corporativa e invadiu a vida de todos nós. As vítimas são cada vez mais jovens, incluindo crianças, o que indica que o tema deveria ser inserido nos currículos escolares, adequados à idade de cada aluno.

Os meliantes digitais espalham-se pela sociedade. As empresas preocupam-se com roubos de dados e invasões que paralisem suas atividades. As pessoas temem cair em golpes e que suas identidades sejam roubadas. E agora as crianças estão expostas a diferentes tipos de abusos online e a jogos que podem colocar as finanças de suas famílias em risco.

Ao educar crianças e adolescentes em cibersegurança, a sociedade prepara cidadãos menos suscetíveis aos ataques cada vez mais criativos e ousados do cibercrime. Os sistemas de segurança fazem bem o seu trabalho, por isso as pessoas passaram a ser o foco dos marginais. Então quanto mais cedo essa instrução for feita, melhor será a proteção de toda a sociedade.


Veja esse artigo em vídeo:


A criminalidade beneficia-se profundamente do meio digital. Até não muito tempo atrás, os criminosos assaltavam agências bancárias e carros-fortes, com um ganho razoável, mas com altíssimo risco de serem presos e até mortos! Com sua digitalização, agora eles praticam milhares de pequenos golpes, que lhes rendem ganhos maiores praticamente sem nenhum risco. E pessoas e empresas sem cultura de cibersegurança facilitam enormemente suas ações.

“O crime sempre esteve na vantagem, não tem regulação, não se preocupa com fazer alguma coisa errada e aparecer na mídia”, afirma Paulo Baldin, CISO e CTO da Flipside, empresa que organizou, na semana passada, o Mind The Sec, maior evento de cibersegurança da América Latina, em São Paulo. “Tudo o que eles fizerem está valendo e, quanto pior for o cenário, melhor para eles”, acrescenta.

“Quando olhamos para estatísticas internacionais, uma explicação para o motivo pelo qual o Brasil é tão atacado é a quantidade de sistemas antigos que ainda estão em uso”, diz o finlandês Mikko Hyppönen, uma das principais autoridades globais em cibersegurança e um dos principais palestrantes no Mind The Sec. “Você não pode proteger um sistema que não possa atualizar contra vulnerabilidades de segurança”, explica o especialista, que, em 2016, criou uma “lei” que indica que qualquer equipamento “inteligente” também é vulnerável.

“Hoje existe uma espécie de ‘miniguerra mundial cibernética’, com todos os países atacando uns aos outros”, sugere o chileno Gabriel Bergel, outra liderança global no setor presente no Mind The Sec. “O Brasil tem muita história nessa área, e a maior e mais madura comunidade de cibersegurança da região, mas, ao mesmo tempo, novos malwares e ransomwares são desenvolvidos aqui”, explica. Por isso, especialistas afirmam que o governo deve criar políticas modernas de combate ao crime digital.

A explosão dos usos da inteligência artificial torna o problema ainda mais grave, pois os bandidos estão usando essa tecnologia para ganhar escala e eficiência, tanto nas práticas de engenharia social (para enganar as vítimas), quanto no desenvolvimento de códigos maliciosos para infectar sistemas.

 

Não dá para se ter tudo

“Em cibersegurança, tudo é uma troca”, explica Hyppönen. Para ele, “quando privacidade e segurança entram em conflito, podemos querer ter as duas coisas, mas às vezes não dá!”

Até não muito tempo atrás, a segurança digital não costumava ir além de manter um bom antivírus, firewall e monitoramento de e-mails. Isso ficou no passado com o trabalho híbrido, que permite que funcionários trabalhem um dia no escritório e outro na praia, conectado em uma rede potencialmente insegura. Além disso, os sistemas corporativos, que costumavam ficar isolados nos servidores da empresa, hoje se conectam com plataformas de diversas fontes, como parceiros e clientes.

Por isso, a cibersegurança passa agora pelo que se chama de “observabilidade”, ou seja, monitorar continuamente sistemas e usuários para saber o que é um uso “normal” de cada um, para identificar rapidamente ações suspeitas e prevenir ataques.

“A triste verdade é que a defesa contra invasores avançados geralmente requer reunir grandes quantidades de telemetria, alertar em tempo real e responder rapidamente antes que um ataque possa ser concluído”, adverte o americano Alex Stamos, outro palestrante central do Mind The Sec. “Em redes corporativas, isso não precisa ter um grande impacto na privacidade pessoal, mas no caso de proteger grandes plataformas de consumidores ou nações inteiras, há um difícil equilíbrio entre proteger indivíduos de invasores e dos próprios protetores”, explica.

“Se eu implementar uma política que impacta a produtividade do usuário, isso acaba não sendo viável, porque impacta o negócio”, alerta Flavio Povoa, gerente de engenharia de sistemas da HPE Aruba Networking. “Eu preciso entender quem são esses usuários, com quem eles se comunicam, usar a IA para entender que tipo de dispositivo é esse e qual sua função na rede”, acrescenta.

Em um mundo em que tudo parece estar sendo potencializado pela inteligência artificial e onde os smartphones abrem portas para os serviços que usamos e até para nossos dados mais íntimos, não há mais espaço para pessoas e empresas trataram a segurança digital de forma displicente. Precisamos entender que a mesma tecnologia que nos facilita imensamente o cotidiano também apresenta riscos consideráveis.

Esse será o nosso cotidiano de agora em diante! O melhor que todos podem fazer é assumir e entender os riscos, criar mecanismos para se defender deles e estar preparado para encontrar saídas, caso o pior aconteça.

Ninguém está imune ao cibercrime! Quanto mais cedo aprendermos a lidar com ele, mas eficiente será a nossa resposta a esses novos desafios em nossas vidas.


Veja a íntegra em vídeo da entrevista com Paulo Baldin, CISO e CTO da Flipside:

 

Policial espanhola atende mulher no programa VioGén, que calcula o risco de ocorrências de violência de gênero - Foto: reprodução

O que acontecerá quando alguém morrer por um erro de inteligência artificial

By | Tecnologia | No Comments

O uso da inteligência artificial continua avançando nas mais diversas atividades, trazendo sensíveis ganhos de produtividade em automação de tarefas e no apoio à tomada de decisões. Ainda assim, ela está longe de ser perfeita, mas muitos usuários parecem não se preocupar com isso, pois seus eventuais erros causam prejuízos mínimos. Em algumas funções, entretanto, essas falhas podem levar a enormes transtornos, até mesmo à morte de alguém.

Duas perguntas surgem imediatamente disso: como evitar que uma tragédia dessas aconteça, e quem responderá por isso nesse caso.

A inteligência artificial é fabulosa para encontrar padrões, que permitem que ela tome suas decisões. Esses padrões dependem, entretanto, da qualidade dos dados usados para seu treinamento. Se os dados forem limitados ou cheios de viés, isso comprometerá seriamente a eficiência da plataforma.

Esse é um dos motivos por que a tomada de decisões críticas, por mais que seja auxiliada pela inteligência artificial, deve continuar em mãos humanas, pelo menos no estágio atual da tecnologia.

Algumas pessoas argumentam que isso contrariaria o próprio propósito de se usar a IA. Mas ignorar essa responsabilidade é como entregar uma decisão de vida ou morte para um estagiário eficiente. Talvez algum dia ele tenha estofo para algo tão sério e possa responder por isso, mas, por enquanto, não está preparado para tal.

Nada disso é especulação: já está acontecendo!


Veja esse artigo em vídeo:


Por exemplo, a polícia espanhola usa um sistema chamado VioGén para determinar estatisticamente riscos de ocorrência de violência de gênero. Em 2022, Lobna Hemid foi morta em casa pelo seu marido, depois de dar queixa na delegacia por ter sido insultada e surrada por ele com um pedaço de madeira, diante dos quatro filhos de 6 a 12 anos. Toda a vizinhança tinha ouvido seus gritos.

Não havia sido a primeira vez que o marido, Bouthaer el Banaisati, a havia espancado nos dez anos de casamento. Ainda assim, o VioGén calculou que ela corria pouco risco. O policial aceitou a decisão da máquina e a mandou para casa. Sete semanas depois, Bouthaer a esfaqueou várias vezes no peito e depois se suicidou.

Segundo o Ministério do Interior da Espanha, há 92 mil casos ativos de violência contra mulher no país. O VioGén calculou que 83% dessas vítimas tinham risco baixo ou insignificante de serem atacadas novamente pelo agressor. E o caso de Lobna não é único: desde 2007, 247 mulheres foram mortas depois de serem analisadas pelo sistema, 55 delas com riscos classificados como insignificantes ou baixos.

Os policiais têm autonomia de ignorar a sugestão da plataforma, devido a indícios que observem. Mas em 95% dos casos, eles apenas aceitam a sugestão.

A máquina não pode ser responsabilizada pelo erro de julgamento, por mais que esteja diretamente ligada a essas mortes. Mas então quem reponde por isso? Os policiais que acreditaram no VioGén? O fabricante da plataforma?

No momento, ninguém! As autoridades argumentam que, apesar de imperfeito, o VioGén efetivamente diminuiu a violência contra mulheres. Mas isso não importa para Lobna, que engrossou as estatísticas de agressões fatais contra mulheres e de erros policiais grosseiros causados por decisões auxiliadas por uma máquina.

 

No Brasil

Oficialmente, não há casos assim no Brasil, mas diferentes sistemas de IA já causam severos erros policiais e jurídicos no país.

Assim como acontece em outras nações, muitas pessoas já foram presas por aqui por erros em sistemas de reconhecimento facial por câmeras públicas ou de policiais. A maioria das vítimas são pessoas negras e mulheres, pois as bases de dados usadas para seu treinamento têm muito mais fotos de homens brancos.

Isso reforça ainda mais a já conhecida e aviltante discriminação policial contra negros. E por mais que essas vítimas acabem sendo soltas quando o erro é descoberto, passar alguns dias “gratuitamente” na cadeia é inadmissível!

E nem estou falando nos casos em que a polícia já chega atirando no “suspeito”.

Em outro caso, há o sistema de vigilância pública da prefeitura de São Paulo, o Smart Sampa, que usa IA para evitar crimes. Sua proposta original, que previa “rastrear uma pessoa suspeita, monitorando todos os seus movimentos e atividades, por características como cor, face, roupas, forma do corpo, aspectos físicos etc.”, teve que ser alterada, pois monitorar alguém pela cor é ilegal. Mas a redação era emblemática!

A Justiça também tenta encontrar caminhos seguros para um uso produtivo da IA. Mas casos de erros graves dificultam essa aprovação.

Por exemplo, o Conselho Nacional de Justiça (CNJ) investiga o caso do juiz Jefferson Ferreira Rodrigues, que negou indenização a uma servidora pública, quando era titular da 2ª Vara Cível e Criminal de Montes Claros (MG). Sua sentença incluía jurisprudências inexistentes criadas pelo ChatGPT. Ele admitiu o erro, mas o classificou como um “mero equívoco” devido à “sobrecarga de trabalho que recai sobre os ombros dos juízes”. Ele ainda atribuiu o erro a um “assessor de confiança”.

Esses são apenas exemplos de por que não se pode confiar cegamente nas decisões de plataformas de inteligência artificial. É muito diferente de dizer que elas não devem ser usadas, pois devem: podem trazer grandes benefícios aos nosso cotidiano!

A decisão sempre deve ser de humanos, que são responsáveis por qualquer falha da plataforma, especialmente em casos críticos. E mesmo que um sistema evite 100 mortes, não é aceitável que 10 inocentes sejam condenados ou mortos por erros da plataforma. Se houver um único erro assim, ela não é boa o suficiente para uso!

Por fim, é preciso criar legislações que também responsabilizem os fabricantes por essas falhas. Caso contrário, seu marketing continuará “batendo o bumbo” quando algo dá muito certo, e “tirando o corpo fora” se algo der errado, jogando a culpa aos seres humanos. A inteligência artificial deve trabalhar para nós, e não o contrário!

 

O CEO da Microsoft, Satya Nadella, apresenta a linha de computadores Copilot+, em evento da empresa em maio - Foto: reprodução

Mais que chips, novos computadores e celulares funcionam com nossos dados

By | Tecnologia | No Comments

Nos últimos meses, a corrida pelo domínio do mercado da inteligência artificial pariu novos computadores e celulares. Equipamentos da Microsoft, Google e Apple trazem recursos antes inimagináveis, que podem facilitar muito nosso cotidiano. Para que funcionem, são empurrados por processadores poderosos, mas precisam de outro componente vital: dados, muitos dados… nossos dados!

A IA depende de quantidades colossais de informações para que funcione bem. Essa nova geração de máquinas traz esse poder para a realidade de cada usuário, mas, para isso, precisam coletar vorazmente nossas informações. E isso faz sentido: se quisermos que a IA responda perguntas sobre nós mesmos, ela precisa nos conhecer.

É um caminho sem volta! Essa coleta crescerá gradativamente, trazendo resultados cada vez mais surpreendentes. Precisamos entender que nada disso é grátis. Isso leva a um patamar inédito um processo iniciado há cerca de 15 anos com as redes sociais e que ficou conhecido como “capitalismo de vigilância”: para usarmos seus serviços, as big techs coletam e usam nossas informações para nos vender todo tipo de quinquilharia e, em última instância, nos manipular.

O histórico de desrespeito dessas empresas com seus clientes joga contra elas. Queremos os benefícios da inteligência artificial, e isso pode ser feito de maneira ética e legal, mas qual garantia temos de que esses problemas não ficarão ainda maiores?


Veja esse artigo em vídeo:


Não temos essa garantia! As big techs primam pela falta de transparência em seus negócios, e lutam com unhas e dentes contra qualquer tentativa de legislação que coloque seu modelo em risco. Elas foram bem-sucedidas nesse processo, ao travar a criação de leis, inclusive no Brasil, que lhes atribuísse alguma responsabilidade por promoverem conteúdos nocivos aos indivíduos e à sociedade. O único lugar que conseguiu criar alguma regra assim foi a Europa. Agora, com a ascensão da IA, as big techs tentam repetir esse movimento para essa tecnologia.

É importante deixar claro que não sou contra a inteligência artificial: muito pelo contrário! Como pesquisador, reconheço os incríveis benefícios que traz. Mas como diz o ditado, não existe almoço grátis. Precisamos saber quanto estamos pagando!

Entre as novidades, estão os notebooks Copilot+, criados pela Microsoft e lançados por diferentes fabricantes, como Samsung, Dell e Lenovo. Entre outros recursos, eles trazem o Recall, que permite que pesquisemos qualquer coisa que já fizemos no computador. Para isso, ele registra todas as nossas atividades a cada poucos segundos. Essas máquinas também executam localmente diversas atividades de IA generativa que normalmente são executadas na Internet, como no ChatGPT.

O Apple Intelligence, pacote de serviços de IA da empresa para seus novos iPhones, iPads e Macs, cria uma camada de assistência inteligente que combina os dados do usuário distribuídos em múltiplos aplicativos. Muito disso acontece no próprio aparelho, mas há operações que dependem da “nuvem”. A Apple garante que ninguém, nem seus próprios funcionários, tem acesso a esses dados.

O Google AI, pacote de IA do gigante de buscas, oferece recursos interessantes, como um identificador de golpes telefônicos. Mas, para isso, precisa ouvir todas as chamadas de áudio que fizermos. Outro recurso permite que façamos perguntas sobre fotos que tenhamos tirado, às quais ele também tem acesso. A empresa disse que seus funcionários podem eventualmente analisar as perguntas, “para melhorar o produto e sua segurança”.

Todos os fabricantes demonstram grande preocupação com a segurança das informações pessoais, afirmando que tudo é criptografado e que nem eles mesmos têm acesso a isso. Mas a informática sempre mostrou que mesmo o melhor cadeado pode ser aberto por mentes malignas habilidosas.

 

“Raio-X da alma”

Todos esses novos sistemas têm uma incrível capacidade de criar relações e identificar padrões pelos cruzamentos de dados das mais diversas fontes e naturezas. Isso lhes permite compreender quem somos, nossas crenças, desejos, medos, como pensamos, criando um verdadeiro “raio-X de nossa alma”, com informações de valor inestimável para empresas, governos e até criminosos.

É curioso que, até pouco atrás, éramos mais preocupados com a nossa privacidade. Não compartilhávamos dados sem que soubéssemos (pelo menos em tese) o que seria feito deles. Eram pouquíssimas informações e elas não eram cruzadas entre si.

As redes sociais mudaram isso, com a ideia de que nossas informações também lhes pertencem, podendo fazer o que quiserem com elas para seu benefício. E elas fazem, mesmo quando isso prejudica seus usuários.

Um exemplo emblemático de proteção dos usuários aconteceu no início de julho, quando a Autoridade Nacional de Proteção de Dados (ANPD) proibiu a Meta (empresa dona do Facebook, Instagram e WhatsApp) de usar os dados dos brasileiros para treinar seus modelos de inteligência artificial. Infelizmente algo assim é muito raro!

Mesmo que não exista nenhum problema de privacidade, precisamos entender que essas máquinas inauguram um novo tipo de dependência e até de relação entre nós e a tecnologia. Quem assistiu ao filme “Ela” (2013), dirigido por Spike Jonze e estrelado por Joaquin Phoenix e Scarlett Johansson, sabe como isso funciona.

Na história, Theodore (Phoenix) se apaixona por Samantha (a voz de Johansson), o sistema operacional de seu computador e smartphone, movido por uma aparente inteligência artificial geral. Ela sabia tudo sobre ele, e usava essa informação para lhe facilitar a vida. Mas com o tempo, ele se viu em um inusitado relacionamento desequilibrado com uma máquina!

É por isso que, ao aceitarmos usar os incríveis recursos desses novos equipamentos, precisamos estar conscientes de como estaremos nos expondo para isso. Por mais bem-intencionadas que os fabricantes sejam (e há ressalvas nisso em muitos casos), existem riscos potenciais com os quais teremos que aprender a conviver.

Assim como qualquer outro serviço que exista graças à inteligência artificial, os fabricantes precisam assumir responsabilidades durante o desenvolvimento, algo que os já citados dizem fazer. Eles também dever ser responsabilizados se algo der errado durante seu uso, um risco bastante considerável, mas isso eles não aceitam.

É um mundo totalmente novo que se descortina diante de nós. As relações entre empresas, governos, instituições e pessoas precisam ser repensadas diante disso tudo. Caso contrário, clientes e cidadãos podem ficar em uma situação muito precária.

 

George Kurtz, fundador e CEO da CrowdStrike, empresa responsável pelo “apagão cibernético” da sexta - Foto: Seb Daly/Creative Commons

Apagão cibernético na sexta escancara como dependemos de uma frágil trama digital

By | Tecnologia | No Comments

Não foi um ataque terrorista, nem uma elaborada ação de hackers mercenários. O “apagão cibernético” que deixou o mundo em pânico na sexta (19) aconteceu pela prosaica falha na atualização do software de uma única empresa. Mas ele serviu para escancarar quão frágil é a infraestrutura digital em que depositamos nossas vidas.

O que podemos aprender com esse problema titânico?

A crise demonstrou que confiamos muito nos sistemas que gerenciam os serviços que usamos, e como as empresas estão pouco preparadas para continuar operando diante de uma falha crítica, mesmo resultando de um problema simplório, como nesse caso.

Ele aconteceu por um dos maiores benefícios do mundo moderno, que é a de termos serviços digitais constantemente atualizados e operando na “nuvem”. Apesar de trazer benefícios inegáveis em custos e em (ironicamente) estabilidade, essa configuração também pode fazer uma falha desastrosa se espalhar rapidamente, como nesse caso.

E pensar que a Internet nasceu em 1969 por encomenda de militares americanos, que queriam uma rede descentralizada, em que, se alguns computadores fossem destruídos por um ataque soviético, os outros continuariam funcionando. Agora a pane de sexta esclareceu que atacar a infraestrutura digital é a forma mais rápida e eficiente de submeter qualquer nação, algo explorável em guerras e chantagens.

O “apagão” nos lembrou também que apesar de acharmos que a Internet é algo etéreo, ela depende de fazendas de servidores, que consomem quantidades absurdas de energia. Além disso, intermináveis cabos físicos transmitem um volume colossal de dados, até mesmo cruzando oceanos pelos seus leitos.

Nesse cenário, quando se pensa em um conflito entre nações, sabotar a produção dessa energia ou literalmente cortar os cabos submarinos pode fazer o inimigo entrar em colapso instantaneamente. E essas estratégias são bem reais!


Veja esse artigo em vídeo:


Diante de tantas preocupações, governos e empresas tentam se proteger. Então como o apagão de sexta aconteceu de maneira tão devastadora?

O problema recai sobre uma atualização de rotina de um componente do software Falcon Sensor, da empresa americana de segurança cibernética CrowdStrike. Para proteger um computador contra, por exemplo, um vírus, ele precisa ser mais poderoso que o invasor. Assim é instalado nas camadas mais internas do sistema operacional, sendo carregado antes que qualquer malware, que poderia sabotar a sua execução.

Uma falha no código da atualização desse módulo na sexta gerou uma instabilidade no Windows, o mais usado em servidores no mundo todo. Com isso, o sistema operacional da Microsoft caía em uma tela azul, que para o equipamento para evitar problemas maiores, como a corrupção de dados. Como o Falcon é uma das primeiras coisas executadas quando o computador é ligado, ele travava irremediavelmente!

Com isso, milhares de empresas e instituições clientes da CrowdStrike ficaram de joelhos. A Microsoft estima que 8,5 milhões de computadores tenham sido afetados, o que parece muito, mas representa “apenas” 1% das instalações do Windows.

O problema foi rapidamente identificado e corrigido, para evitar mais vítimas. Mas apesar de o módulo defeituoso ter sido distribuído online, a correção precisa ser feita em cada computador, por um profissional de TI, em um processo penosamente lento.

A resiliência cibernética das empresas e instituições, a sua capacidade de prevenir, resistir e se recuperar de um problema digital, além de continuar operando caso o pior aconteça, foi posta à prova e falhou miseravelmente. Elas dependem umbilicalmente de seus sistemas, e pararam de funcionar ou operaram de maneira muito precária.

O mercado não perdoou a CrowdStrike. Criada há 13 anos e com quase 8.500 funcionários, seu valor de mercado derreteu mais de US$ 12 bilhões na sexta. George Kurtz, fundador e atual CEO da empresa, perdeu sozinho US$ 338 milhões.

 

Guerra cibernética

Apesar de enormes, os prejuízos causados pelo “apagão cibernético” de sexta seriam apenas uma pequena amostra do que aconteceria no caso de uma guerra cibernética entre grandes potências. E os já citados cabos submarinos seriam alvos preferenciais.

Repousarem no leito de oceanos não lhes garante proteção. Pelo contrário: torna sua defesa difícil, diante de frotas especializadas em cortá-los e grampeá-los. Estados Unidos, Rússia, China e possivelmente outros países possuem embarcações para essas sabotagens.

Segundo a empresa TeleGeography, existem mais de 600 cabos submarinos ativos ou planejados, estendendo-se por 1,4 milhão de quilômetros. Muitos têm a espessura de uma mangueira, mas transferem 200 terabytes por segundo. Os Estados Unidos e a Europa são conectados por apenas 17 deles. Por isso, isolá-los não seria tão difícil.

Todo ano, 100 cabos são danificados no mundo por acidentes navais ou atividade sísmica. Em compensação, reconstruir essa infraestrutura é algo lento e caríssimo, pois há apenas 60 barcos capazes de fazer isso no globo.

Sem eles, ficaríamos sem buscadores, redes sociais e quase tudo em nossos smartphones e computadores. Mas esse prejuízo ainda seria pequeno diante do enfrentado por empresas e instituições, paralisando o comércio, a indústria, os serviços e o mercado financeiro globais, provocando uma recessão sem precedentes.

Felizmente o que aconteceu na sexta foi apenas um “bug de computador”. Devemos encarar isso como um treinamento para algo mais grave que eventualmente aconteça. Não como uma visão apocalíptica, mas como o despertar para boas práticas que, no final das contas, melhorarão nosso uso da Internet. A segurança e a redundância devem estar na essência da vida digital e devemos ter sempre alternativas para crises.

Somos uma sociedade de dados, e essa é uma realidade inescapável. Por isso, um uso ético desse ativo fundamental e um cuidado rigoroso com a infraestrutura física e lógica são absolutamente críticos.

Que a crise gerada pela CrowdStrike sirva pelo menos para esse aprendizado, e que eventuais paralisações futuras aconteçam apenas por causa de uma possível tradução de seu nome –“greve geral”– e não por outro colapso na Internet.

 

Empresas analisam como seguramos e digitamos em nossos celulares para confirmar nossa identidade - Foto: Shurkin Son/Creative Commons

Em um mundo com menos dinheiro físico, tecnologia vai além de garantir transações

By | Tecnologia | No Comments

No mundo todo, as pessoas cada vez mais trocam notas de dinheiro e moedas por meios eletrônicos de pagamento. Os brasileiros seguem essa tendência, e o estrondoso sucesso do Pix é o exemplo mais reluzente disso. Nesse cenário, a tecnologia digital ocupa um espaço que vai muito além de garantir as transações: ela viabiliza segurança, combate o crime e até promove a inclusão social.

Alguns podem dizer que os problemas decorrentes da digitalização dos meios de pagamento são um preço a se pagar pelos benefícios que isso traz. Pode ser verdade, mas isso não pode ser usado como desculpa para descuidos, pois os prejuízos para pessoas e empresas podem ser devastadores. E ninguém deveria passar por isso!

“Se as pessoas perderem a fé na segurança do seu meio de pagamento, eles vão parar de usá-lo e voltarão a usar dinheiro”, explicou-me Andrew Reiskind, Chief Data Officer da Mastercard, durante uma visita que fiz na semana passada ao laboratório da inovação da empresa, localizado em Nova York (EUA).

A solução não é simples e cabe a todos os envolvidos. Empresas, governos, universidades a até os usuários têm seus papeis para que a experiência de pagamentos digitais aumente seus benefícios e reduza seus riscos.

Algumas velhas preocupações ganham nova roupagem, enquanto outras surgem. A inteligência artificial e a computação quântica despontam como poderosas novidades. Enquanto isso, a ética e a experiência do cliente ganham ainda mais importância.

Uma coisa é clara: não há atalhos nesse processo, e aqueles que não se ajustarem às novas exigências podem ser fortemente penalizados pelo mercado.


Veja esse artigo em vídeo:


Os números do Pix dão a dimensão das transações digitais no Brasil. Segundo o Banco Central, em junho, o Brasil tinha 165,8 milhões de usuários cadastrados na sua plataforma. Em maio, foram realizadas 5,2 bilhões de transações, que movimentaram R$ 2,1 trilhões. O Pix representou 43% das transações no primeiro trimestre, contra 15% dos cartões de crédito, 13% dos de débito, 5% dos boletos e apenas 1% da TED. Com esse vigor, o país terminou 2023 na segunda posição global em transações instantâneas, atrás apenas da Índia.

Em contrapartida, os saques em dinheiro vivo nos caixas eletrônicos e agências bancárias caem ano após ano. Em 2012, os brasileiros sacaram R$ 3,9 trilhões; em 2022, esse valor foi de R$ 2,1 trilhões, o mesmo que o Pix movimentou só em maio.

Infelizmente a bandidagem também está trabalhando com força no mundo digital. O Brasil se converteu em um paraíso para golpistas, e o próprio Pix tornou-se uma de suas ferramentas preferidas, pela instantaneidade das transferências.

O golpe mais comum consiste em se passarem por outras pessoas, enganando familiares e amigos para que façam transferências. Uma vez que elas acontecem, os fraudadores passam os valores para outras contas, com o Pix. Isso impede que os bancos rastreiem o caminho do dinheiro. Assim essas instituições não se sentem obrigadas a devolver o dinheiro, e seus clientes via de regra amargam o prejuízo.

“É muito fácil fingir ser alguém ou comprar uma identidade roubada na Dark Web”, explica Chris Reid, vice-presidente executivo de soluções de identidade da Mastercard. Por isso, a gigante de meios de pagamento investe fortemente em tecnologias que tentam garantir a identidade do usuário, desde biometria até análise de comportamentos, como a forma com que a pessoa interage com seu smartphone. “Depois de 10 usos do seu dispositivo, é quase impossível alguém replicar como você o segura e como digita nele”, acrescenta.

 

O real valor do celular para o crime

Enquanto esses recursos não são amplamente disseminados, os criminosos aproveitam as deficiências de segurança dos smartphones e dos aplicativos de instituições financeiras para “limpar a conta” de vítimas. Por isso, esses aparelhos se tornaram o item mais roubado no Brasil desde o ano passado.

O problema ficou tão grave que, no último Google I/O, evento global de desenvolvedores da empresa, que acontece sempre em maio, ela anunciou novidades de segurança para o sistema operacional Android inspiradas nos crimes brasileiros. Entre eles, estão o bloqueio automático do celular se ele for retirado abruptamente da mão do usuário (como nos roubos pelas “gangues de bicicleta”), a criação de uma área escondida e protegida por senha para os aplicativos sensíveis, proteção contra “reset de fábrica” e autenticação aprimorada.

A digitalização do dinheiro e da própria vida exige também comportamentos mais transparentes e éticos das empresas no uso dos dados de seus clientes e na adoção de uma inteligência artificial responsável. No último dia 2, tivemos um movimento emblemático nesse sentido, quando a Autoridade Nacional de Proteção de Dados (ANPD) proibiu a Meta (empresa dona do Facebook, Instagram e WhatsApp) de usar os dados dos usuários para treinar seus modelos de inteligência artificial.

“Os dados dos indivíduos não nos pertencem, não pertencem ao banco”, afirma Reiskind. “Eles não são uma mercadoria, são um direito humano e, portanto, devemos tratá-los bem!”

O executivo lembra também que as empresas devem estar atentas para que seus dados e sua IA não desenvolvam vieses que possam prejudicar os clientes. Ele cita, como exemplo, empresas que não querem fazer negócios com pessoas que vivem em áreas de muita criminalidade. Mas, segundo Reiskind, a tecnologia deve ser usada para garantir serviços mesmo nesses casos, pois nem todos que vivem ali são criminosos, e merecem respeito.

A boa notícia é que o mesmo avanço exponencial que viabiliza soluções como o Pix também permite que mais pessoas tenham acesso legítimo a recursos como esses. Abrir uma conta corrente ou aprovar transações de cartão de crédito para esses indivíduos marginalizados pelo local em que vivem significa muito mais que uma transação: pode representar um importante fator de inclusão social.

Dessa forma, empresas que abusarem dos dados de seus clientes ou não trabalharem de forma mais justa com o público podem, aos poucos, perder mercado e manchar sua reputação. É preciso sempre criar serviços incríveis, mas também devem fazer o certo socialmente, sem comprometer a segurança.


Veja a entrevista em vídeo com Andrew Reiskind, Chief Data Officer da Mastercard:

 

Matt Hicks, CEO da Red Hat, explica a integração entre inteligência artificial e open source - Foto: Paulo Silvestre

Open source fortalece confiança e pode popularizar inteligência artificial

By | Tecnologia | No Comments

A corrida pela inteligência artificial acontece não apenas entre as big techs, que buscam estabelecer a dominância nesse mercado bilionário, mas também entre profissionais e empresas que querem construir uma vantagem sobre seus concorrentes, pelo uso dessa tecnologia. Agora o open source, modelo de produção e distribuição em que qualquer um pode propor melhorias em softwares, chega com ideias que podem tornar a IA mais segura, fácil e profissional.

Desde que o ChatGPT a apresentou às massas há 18 meses, seu avanço acontece a passos largos. Mas apesar de algumas aplicações disponíveis parecerem mágicas em seus resultados, a IA ainda está engatinhando. Muitos dos usos que vêm sendo feitos dela são poucos profissionais e podem até expor dados sigilosos.

Em grande parte, isso acontece porque as pessoas usam ferramentas genéricas, construídas para respostas sobre qualquer assunto, como o próprio ChatGPT. O amadurecimento desse mercado passa, portanto, pela oferta de plataformas que permitam que as empresas criem e ajustem seus próprios modelos, adequados a necessidades específicas e com suas informações usadas de maneira segura.

Durante o Red Hat Summit, maior evento de open source do mundo, que aconteceu em Denver (EUA) na semana passada, a Red Hat, líder global de soluções nesse formato, apresentou o InstructLab, plataforma que propõe solucionar esses problemas. Ela permite que qualquer pessoa, mesmo sem conhecimento técnico, contribua com o desenvolvimento de modelos de IA para seus negócios.


Veja esse artigo em vídeo:


Construído sobre o LLM (modelo de linguagem ampla) Granite, da IBM, a plataforma sintetiza dados a partir de informações do cliente, mesmo em pequenas quantidades, tentando vencer um problema atual dos grandes LLMs, que exigem volumes colossais de informação para seu treinamento, e estão esbarrando na falta de novo conteúdo. Com a ação dos usuários, esse modelo sintético tende a ficar melhor por uma fração dos custos de um desenvolvimento tradicional, para aplicações específicas.

“Isso permite que comunidades de pessoas ensinem os LLMs a aprender da mesma forma que os humanos aprendem”, explica Matt Hicks, CEO da Red Hat. “Ao permitir a qualquer pessoa que contribua para um modelo e ajustá-lo de novas maneiras, podemos realmente desbloquear o potencial da especialização em um assunto.”

“Talvez seja isso que de fato popularizará nas empresas esse modelo que a população experimentou, mas aplicado ao seu negócio, combinado com seus dados, com as suas informações”, sugere Gilson Magalhães, presidente da Red Hat Brasil. “Isso é revolucionário!”

Explicando de maneira mais simples, as empresas continuam se beneficiando das informações e da capacidade de produção dos grandes LLMs, mas agora podem construir modelos especializados para suas necessidades, a partir de seus dados e das habilidades e do conhecimento de sua equipe. “A tecnologia entra, mas sem os talentos, sem as pessoas, jamais se alcançará a transformação como ela deve ser feita”, afirma Paulo Bonucci, diretor-geral da Red Hat Latin America.

“O mundo não será composto por um único modelo, e sim, cada vez mais, por modelos especializados”, explica Thiago Araki, diretor de tecnologia da Red Hat Latin America. “Ao invés de usar um modelo de forma genérica, para qualquer caso, teremos modelos pequenos para usos específicos, para cada negócio.”

O amadurecimento do mercado implica também nas empresas entenderem que são responsáveis ao usar decisões tomadas pela IA. “Já existem ferramentas que ajudam nessa auditoria, mas trabalhar com código aberto permite identificar como e por que essas decisões foram tomadas e com quais dados”, detalha Victoria Martínez Suárez, líder em inteligência artificial da Red Hat Latin America.

 

Questões regulatórias

Todos esses executivos, com quem conversei em Denver, afirmam ser necessária alguma forma de regulamentação da tecnologia, naturalmente em um sentido que não prejudique seu desenvolvimento, mas para proteger os usuários de abusos econômicos das big techs e para dar segurança jurídica ao mercado.

Bonucci acredita que a legislação ideal deveria ficar entre a Lei da Inteligência Artificial, aprovada no mês passada pela União Europeia, e a proposta americana. A primeira é um documento extenso e detalhado, construído principalmente sobre os diferentes níveis de risco que a inteligência artificial pode oferecer às pessoas, orientando seu uso. Já o modelo dos EUA delega a decisão sobre o que pode ou não ser feito às diferentes agências regulatórias já existentes.

“A rastreabilidade e a transparência são exigidas em alguns setores, em outros são recomendadas”, explica Martínez. “Ter isso claro é bom porque, em algum momento, essas informações podem ser solicitadas para qualquer problema que ocorra.”

No momento, o Congresso Nacional analisa o Projeto de Lei 2338/23, que guarda muita semelhança com a lei europeia. Os legisladores brasileiros têm o desafio de criar regras claras para evitar que se repita na IA o que se vê nas redes sociais, que gostam de não dar satisfações, e com isso vêm causando muitos danos a usuários e à sociedade como um todo. “A regulação é um princípio ocidental muito útil para garantir que empresas e pessoas não sejam massacradas por qualquer que seja o domínio”, afirma Magalhães. “Mas ela tem que ser sábia para proteger, sem inibir”.

Tudo isso se faz necessário para que essa tecnologia, que evolui de forma exponencial, deixe de ser uma curiosidade e passe a trazer benefícios claros para pessoas e companhias. Por mais que esteja ainda em seus estágios incipientes, precisamos compreender seu funcionamento e recursos.

“A proposta é trabalhar não tecnologia por tecnologia, e sim algo que vai trazer impacto ao negócio”, acrescenta Araki. “Não devemos usar IA generativa só porque está na moda, e sim fazer o uso disso quando tem algum sentido para o negócio.”

É incrível pensar que, há apenas 18 meses, quase ninguém falava de inteligência artificial. No ano passado, ficamos deslumbrados com suas possibilidades. Agora estamos encontrando novas formas de nos apropriarmos dela. Assim, para que, no ano que vem, ela nos traga ainda mais benefícios, esse debate precisa ser ampliado.


Clique nos links para assistir à íntegra em vídeo das entrevistas com os executivos acima:

 

Inteligência artificial pode deixar o mundo mais seguro e também perigoso

By | Tecnologia | No Comments

Como de qualquer ferramenta, os resultados da inteligência artificial dependem das ações de quem a utiliza. Pessoas que fazem usos positivos dela produzirão bons frutos. Já as de má índole podem causar danos profundos. Com seu poder disruptivo, essas consequências podem ser críticas! Esse foi o tema de um dos principais painéis do Web Summit Rio, um dos mais importantes eventos globais de tecnologia, mídia e inovação, que aconteceu no Rio de Janeiro, de terça a quinta da semana passada.

Um dos problemas deriva de a IA oferecer mecanismos para se alterar a realidade ou criar mentiras muito convincentes. Isso abre incontáveis possibilidade de golpes, ameaçando indivíduos, empresas e sociedades inteiras, como no caso de eleições. “Se a confiança for perdida, ficará muito difícil continuar inovando em coisas boas na IA”, disse no painel o estoniano Kaarel Kotkas, CEO da empresa de segurança Veriff.

Felizmente a mesma IA oferece recursos para combater essas ameaças. “A gente precisa pensar que seremos cada vez mais uma sociedade baseada em tecnologia”, me disse no evento Cesar Gon, CEO da empresa de tecnologia CI&T. “É importante acompanhar para onde a tecnologia vai e criar limites, mas garantindo que a ciência e a tecnologia continuem evoluindo para resolver os problemas humanos”, explicou, ressaltando que a IA deve sempre estar alinhada com os interesses da sociedade.

Diante de tanto poder computacional, chega a ser irônico que a maioria dos golpes não envolva invasão de sistemas. O elo mais frágil na segurança continua sendo o ser humano, enganado de diferentes maneiras para que repasse informações pessoais (como senhas) ou realize ações prejudiciais, uma técnica chamada de engenharia social. O que muda nisso com a IA é que os procedimentos para confundir as pessoas se tornam mais convincentes, difíceis de se identificar, e agora atingem muita gente, para aumentar a chance de fazerem suas vítimas.


Veja esse artigo em vídeo:


Esse é um dos grandes desafios da sociedade atualmente. Qualquer pessoa, mesmo alguém que domine a tecnologia, pode cair em golpes. Sua solução passa necessariamente pela educação dos usuários, mas também pelo comprometimento de empresas –de big techs a startups– para um desenvolvimento responsável dessas soluções, e de autoridades que criem regras claras para garantir isso.

Nesse cenário, técnicas tradicionais de proteção digital perdem eficiência. Mesmo autenticações em dois fatores –quando, além da senha, o usuário se autentica por um segundo método– podem expor pessoas e empresas. As companhias precisam adotar abordagens em camadas e usar múltiplas tecnologias, como autenticação avançada, verificação de dispositivos e incorporação preventiva de IA para detectar fraudes.

Os dados dos usuários valem ouro para os bandidos, mas também são importantes para sua identificação mais precisa. As empresas precisam ser transparentes sobre como serão usados, para que as pessoas se sintam confortáveis em compartilhá-los.

“Quando elas entendem esse valor, podem tomar uma decisão muito melhor sobre se querem compartilhar seus dados, para terem mais segurança”, disse no mesmo painel André Ferraz, CEO da empresa de identificação Incognia. “Se nós não formos capazes disso, as pessoas poderão deixar de acreditar na Internet”, concluiu.

As grandes empresas de tecnologia têm um papel decisivo na construção dessas boas práticas e na educação do mercado, até mesmo porque elas têm muito a perder se a situação se deteriorar para um cenário de desconfiança generalizada. “É essencial para elas perceberem que ignorar a importância de construir confiança e segurança em seus sistemas poderia prejudicar sua capacidade de implementar amplamente a tecnologia no futuro”, me explicou Kotkas. “Negligenciar isso poderia resultar em grandes repressões regulatórias e interromper o progresso na criação de novas tecnologias.”

A inteligência artificial também potencializa muito outro câncer social que se disseminou pelas redes sociais: a desinformação. O assunto foi abordado em diversas apresentações no Web Summit Rio, e ganha muita força em nesse ano, quando as maiores democracias do mundo realizarão eleições, incluindo municipais no Brasil, presidenciais nos EUA e gerais na Índia, país mais populoso do mundo, cujo pleito começou na semana passada e se estenderá por seis semanas.

 

Absurdos possíveis

As plataformas atuais de inteligência artificial tornaram muito mais fáceis, rápidas e baratas as confecções de deep fakes, técnica capaz de criar áudios, fotos e vídeos de pessoas realizando ações e dizendo coisas que nunca fizeram. Ela já existe há alguns anos, mas antes exigia equipamentos caros e bom conhecimento técnico, o que a tornava uma aplicação de nicho. Agora não é mais assim!

“Nas próximas eleições, o maior desafio não são as imagens, mas os áudios”, advertiu em outro painel Renata Lo Prete, editora-chefe do Jornal da Globo. “Com apenas um ou dois minutos da voz real de alguém, é possível criar um áudio falso perfeito, por menos de US$ 5 e em menos de cinco minutos, uma questão crítica, especialmente no Brasil, líder em trocas de mensagens pelo WhatsApp”, explicou.

Isso já acontece! Na eleição presidencial argentina, as equipes dos candidatos que foram ao segundo turno, o peronista Sergio Massa e o ultraliberal Javier Milei, fizeram amplo uso da IA para atingir as imagens dos adversários. Em outro caso internacional, americanos receberam ligações com a voz do presidente Joe Biden dizendo para que não votassem nas eleições primárias. E por aqui, um áudio com a voz do prefeito de Manaus, David Almeida, fazia ofensas contra professores. Tudo isso era falso!

Os diversos agentes da sociedade precisam se unir para que a IA seja usada de maneira positiva, sem “cortinas de fumaça” que mascaram interesses de um ou outro grupo. “Esse debate se misturou com uma visão bastante ingênua de fim do mundo, que nos afasta de discutir os reais impactos, que são a natureza do trabalho, os empregos, segurança, privacidade, ética e os algoritmos viciados”, explicou Gon.

“Nesse momento, talvez alguns humanos estejam procurando algo mágico”, disse o americano Todd Olson, CEO da empresa de software Pendo, em outro painel. “Não precisamos de mágica, mas de saber exatamente o que acontece, para que possamos aumentar a confiança na tecnologia”, concluiu.

Não dá para fugirmos desse debate, que nos envolve a todos cada vez mais. Gostemos ou não, a inteligência artificial se tornou nossa parceira. Por isso, ela precisa ser confiável e segura.


Assista e esse vídeo relacionado:

Íntegra da entrevista com Cesar Gon, CEO da CI&T

 

Geoffrey Hinton, o “padrinho da IA”, que se demitiu do Google em maio para poder criticar livremente os rumos da IA - Foto: reprodução

Entusiastas da IA querem acelerar sem parar, mas isso pode fazê-la derrapar

By | Tecnologia | No Comments

Nesse ano, a inteligência artificial deixou de ser um interesse da elite tecnológica e conquistou o cidadão comum, virando tema até de conversas de bar. Muita gente agora a usa intensamente, criando tanto coisas incríveis, quanto enormes bobagens. Isso gerou uma excitação em torno da tecnologia, com grupos que propõem que seja desenvolvida sem nenhuma restrição ou controle, acelerando o máximo que se puder.

Isso pode parecer emocionante, mas esconde um tipo de deslumbramento quase religioso que de vez em quando brota no Vale do Silício, a meca das big techs, nos EUA. Um movimento especificamente vem fazendo bastante barulho com essa ideia. Batizado de “Aceleracionismo Efetivo” (ou “e/acc”, como se autodenominam), ele defende que a inteligência artificial e outras tecnologias emergentes possam avançar o mais rapidamente possível, sem restrições ou regulamentações.

Mas quem acelera demais em qualquer coisa pode acabar saindo da pista!

Eles desprezam pessoas que chamam de “decels” e “doomers”, aquelas preocupadas com riscos de segurança vindos de uma IA muito poderosa ou reguladores que querem desacelerar seu desenvolvimento. Entre eles, está Geoffrey Hinton, conhecido como o “padrinho da IA”, que no dia 1º de maio se demitiu do Google, para poder criticar livremente os caminhos que essa tecnologia está tomando e a disputa sem limites entre as big techs, o que poderia, segundo ele, criar “algo realmente perigoso”.

Como de costume, radicalismos de qualquer lado tendem a dar muito errado. A verdade costuma estar em algum ponto no meio de caminho, por isso todos precisam ser ouvidos. Então, no caso da IA, ela deve ser regulada ou seu desenvolvimento deve ser liberado de uma forma quase anárquica?


Veja esse artigo em vídeo:


O Aceleracionismo Efetivo surgiu nas redes sociais no ano passado, como uma resposta a outro movimento: o “Altruísmo Eficaz”, que se tornou uma força importante no mundo da IA. Esse último começou promovendo filantropia otimizada a partir de dados, mas nos últimos anos tem se preocupado com a segurança da sociedade, propondo a ideia de que uma IA poderosa demais poderia destruir a humanidade.

Já o aceleracionistas efetivos acham que o melhor é sair da frente e deixar a inteligência artificial crescer livre e descontroladamente, pois seus benefícios superariam muito seus eventuais riscos, por isso jamais deveria ser vista como uma ameaça. Para eles, as plataformas devem ser desenvolvidas com software open source, livre do controle das grandes empresas.

Em um manifesto publicado no ano passado, os aceleracionistas efetivos descreveram seus objetivos como uma forma de “inaugurar a próxima evolução da consciência, criando formas de vida impensáveis da próxima geração”. De certa forma, eles até aceitam a ideia de que uma “super IA” poderia ameaçar a raça humana, mas a defendem assim mesmo, pois seria “o próximo passo da evolução”.

Para muita gente, como Hinton, isso já é demais! Em entrevista ao New York Times na época em que deixou o Google, o pioneiro da IA disse que se arrependia de ter contribuído para seu avanço. “Quando você vê algo que é tecnicamente atraente, você vai em frente e faz”, justificando seu papel nessas pesquisas. Agora ele teria percebido que essa visão era muito inconsequente.

Portanto é um debate em torno da ética do desenvolvimento tecnológico e das suas consequências. Conversei na época sobre aquela entrevista de Hinton com Lucia Santaella, professora-titular da PUC-SP. E para ela, “a ética da inteligência artificial tem que funcionar mais ou menos como a da biologia, tem que ter uma trava! Se não, os filmes de ficção científica vão acabar se realizando.”

 

A dificuldade de se regular

Além da questão ética, outro ponto que contrapõe aceleracionistas efetivos e altruístas eficazes é a necessidade de se regular a inteligência artificial. Mas verdade seja dita, essa tecnologia está dando um banho nos legisladores. Isso porque ela evolui muito mais rapidamente do que eles são capazes de propor leis.

Podemos pegar, como exemplo, a União Europeia, que legisla de forma rápida e eficiente temas ligados à tecnologia. Em abril de 2021, ela apresentou um projeto de 125 páginas como “referência” na regulação da IA. Fruto de três anos de debates com especialistas de diferentes setores associados ao tema, Margrethe Vestager, chefe da política digital do bloco, disse que o documento estava “preparado para o futuro”.

Parecia ser isso mesmo, até que, em novembro do ano passado, a OpenAI lançou o ChatGPT e criou uma corrida frenética para se incluir a inteligência artificial generativa em todo tipo de sistema. E isso nem era citado na proposta europeia!

O processo de criação de uma nova lei de qualidade é naturalmente lento, pois exige muita pesquisa e debate. Mas se as coisas acontecerem como propõem os e/accs, os legisladores estarão sempre muito atrás dos desenvolvedores. Os primeiros não conseguem sequer entender a tempo o que os segundos estão criando e, justiça seja feita, mesmo esses não têm total certeza do que fazem.

Enquanto isso, Microsoft, Google, Meta, OpenAI e outras gigantes da tecnologia correm soltas para criar sistemas que lhes concederão muito poder e dinheiro. A verdade é que quem dominar a IA dominará o mundo nos próximos anos.

Os aceleracionistas efetivos afirmam que eles são o antídoto contra o pessimismo dos que querem regular a inteligência artificial, algo que diminuiria o ritmo da inovação, o que, para eles, seria o equivalente a um pecado. Mas quanto disso é real e quanto é apenas uma “atitude de manada” inconsequente?

Sou favorável que a IA se desenvolva ainda mais. Porém, se nenhum limite for imposto, ainda que de responsabilização quando algo der errado, as big techs farão o mesmo que fizeram com as redes sociais. E vejam onde isso nos levou!

Não podemos perder o foco em nossa humanidade, que nos permite distinguir verdade de mentira, certo de errado! Só assim continuaremos desenvolvendo novas e incríveis tecnologias, sem ameaçar a sociedade.

Afinal, a ética consciente é o que nos diferencia dos animais, e agora, pelo jeito, também das máquinas!


Antes de encerrar, gostaria de fazer uma nota pessoal. Ainda que discorde filosoficamente dos aceleracionistas efetivos, acho o debate válido, se feito de forma construtiva. Pessoas com pontos de vista diferentes encontram juntas boas soluções que talvez não conseguiriam sozinhas, justamente por terem visões parciais de um tema. Para isso, necessitamos de conhecimento e de vontade de fazer o bem. Esse é um dos motivos para eu iniciar em 2024 meu doutorado na PUC-SP, sob orientação de Lucia Santaella, para pesquisar o impacto da inteligência artificial na “guerra” pelo que as pessoas entendem como “verdade”, algo determinante em suas vidas.

 

Cena de “Black Mirror”, em que se vê o implante ocular digital que aparece em vários episódios, com usos diversos - Foto: Reprodução

IA traz as coisas mais legais e mais sinistras de “Black Mirror” para o nosso cotidiano

By | Tecnologia | No Comments

Você gostaria de ter a sua disposição algumas das tecnologias de “Black Mirror”, que praticamente dão “superpoderes” a seus usuários, mesmo que isso possa lhes trazer algum risco? Se a reposta for positiva, prepare-se, pois a inteligência artificial pode fazer algo parecido àquilo se tornar realidade em breve, com tudo de bom e de ruim que oferece.

A série britânica, disponível na Netflix, ficou famosa por mostrar uma realidade alternativa ou um futuro próximo com dispositivos tecnológicos incríveis, capazes de alterar profundamente a vida das pessoas. Mas, via de regra, algo dá errado na história, não pela tecnologia em si, mas pela desvirtuação de seu uso por alguns indivíduos.

Os roteiros promovem reflexões importantes sobre as pessoas estarem preparadas para lidar com tanto poder. Com as novidades tecnológicas já lançadas ou prometidas para os próximos meses, os mesmos dilemas éticos começam a invadir nosso cotidiano, especialmente se (ou quando) as coisas saírem dos trilhos. Diante de problemas inusitados (para dizer o mínimo), quem deve ser responsabilizado: os clientes, por usos inadequados dos produtos, ou seus fabricantes, que não criaram mecanismos de segurança para conter isso?


Veja esse artigo em vídeo:


Provavelmente o dispositivo mais icônico de “Black Mirror”, que aparece em vários episódios, com diferentes aplicações, é uma espécie de implante ocular capaz de captar tudo que a pessoa vê em sua vida, que fica armazenado em um chip implantado atrás da orelha. Essa memória eterna e detalhada pode ser recuperada a qualquer momento, sendo projetada diretamente no próprio olho ou em uma tela.

Não é difícil imaginar como isso pode ser problemático, especialmente quando outras pessoas têm acesso a memórias alheias. Algumas coisas deveriam ser simplesmente esquecidas ou jamais compartilhadas!

A privacidade se torna um bem cada vez mais valioso em um mundo em que nossas informações pessoais viram dinheiro na mão de empresas que as transformam em dados comercializáveis. Um bom exemplo são equipamentos que vestimos (os chamados “wearables”) que captam informações sobre nossa saúde, muitas delas compartilhadas com os fabricantes. Mas para que esse envio é necessário?

Os relógios inteligentes (os “smart watches”) são o exemplo mais popular desses equipamentos. Mas uma nova geração de dispositivos melhorados pela inteligência artificial aprendem como nosso corpo funciona e nos oferecem informações personalizadas para uma vida melhor.

É o caso do Whoop 4.0, uma pulseira com diversos sensores biométricos, como batimentos cardíacos, oxigênio no sangue, temperatura e taxa de respiração, que afirma ajudar em atividades físicas e até em como dormimos. Já o Oura Smart Ring oferece algo semelhante, porém “escondido” em um simples anel.

Alguns são mais radicais, como a pulseira Pavlok 3. Ela promete ajudar a desenvolver hábitos mais saudáveis, como dormir melhor e até parar de fumar. Quando o dispositivo detecta algo ruim (como fumar), ele emite uma vibração e, se necessário, dá um choque elétrico na pessoa, para associar desconforto ao mau hábito.

Mas dois outros dispositivos lembram mais “Black Mirror”: o Rewind Pendant e o Humane AI Pin. Ainda não são os implantes oculares da série, mas prometem gravar o que acontece a nossa volta e muito mais. Eles pretendem inaugurar a era da “computação invisível”, em que não mais dependeremos de telas, nem mesmo as de celulares ou de óculos de realidades virtual ou aumentada.

O Rewind Pendant é um pequeno pingente que grava tudo que o usuário fala ou ouve. A partir daí, é possível dar comandos simples como “resuma a reunião de ontem” ou “o que meu filho me pediu hoje de manhã”. Como o sistema identifica a voz de quem está falando, o fabricante afirma que só grava alguém se essa pessoa explicitamente autorizar isso por voz.

Já o Humane AI Pin é um discreto broche que funciona como um assistente virtual que conhece nossos hábitos, grava e até projeta imagens em nossa mão. Comunica-se com o usuário por voz e sua inteligência artificial pode até desaconselhar que se coma algo, porque aquilo contém algum ingrediente a que a pessoa seja intolerante.

 

“Babaca digital”

Impossível não se lembrar do Google Glass, óculos inteligentes que a empresa lançou em 2013. Ele rodava diferentes aplicativos e as informações eram projetadas em sua lente, que se tornava uma tela para o usuário.

Apesar de cobiçado, acabou retirado do mercado por questões de privacidade. Ele tirava fotos e filmava sem que os outros soubessem. Além disso, fazia reconhecimento facial de interlocutores, que poderia ser usado para coletar informações adicionais. As pessoas que faziam maus usos do produto passaram a ser chamadas de “glassholes”, um trocadilho que junta “Glass” a “asshole” (algo como “babaca” em inglês).

Isso nos remete novamente a “Black Mirror”. Nenhum desses produtos foi criado para maus usos, mas as pessoas podem fazer o que bem entenderem com eles. E depois que são lançados, fica difícil “colocar o gênio de volta na lâmpada”.

Estamos apenas arranhando as possibilidades oferecidas pela inteligência artificial, que ainda revolucionará vidas e negócios. Tanto poder exigiria grandes responsabilidades, mas não podemos esperar isso das pessoas, e os fabricantes tampouco parecem muito preocupados.

Como exemplo, na semana passada, vimos o caso de alunos do 7º ao 9º ano do Colégio Santo Agostinho, um dos mais tradicionais do Rio de Janeiro, usando a inteligência artificial para criar imagens de suas colegas sem roupa. Desenvolvedores desses sistemas proíbem que sejam usados para esse fim, mas é inocência achar que isso será atendido. Tanto que já foram criadas plataformas especificamente para isso.

Quem deve ser responsabilizado por esses “deep nudes”: os alunos, os pais, a escola, o fabricante? Não se pode mais acreditar em qualquer imagem, pois ela pode ter sido sintetizada! Isso potencializa outros problemas, como os golpes de “sextorsão”, em que pessoas são chantageadas para que suas fotos íntimas não sejam divulgadas. Com a “computação invisível”, isso pode se agravar ainda mais!

O sociólogo polonês Zygmunt Bauman (1925 – 2017) era mesmo o filósofo de nosso tempo, com obras como “Modernidade Líquida” (1999), “Amor Líquido” (2004) e “Vida Líquida” (2005). Não viveu para experimentar a IA ou esses dispositivos, mas seu pensamento antecipou como tudo se tornaria descartável e efêmero na vida, nos relacionamentos, na segurança pessoal e coletiva, no consumo e no próprio sentido da existência.

A inteligência artificial está aí e ela é incrível: não dá para deixar de usá-la! Mas precisamos encontrar mecanismos para não cairmos nas armadilhas que nós mesmos criaremos com seu uso indevido.

 

Cena do filme “RoboCop” (1987), em que um policial dado como morto ganha um corpo e uma consciência digitais - Foto: reprodução

IA pode brilhar na segurança, mas suas falhas podem ser catastróficas

By | Tecnologia | No Comments

Pegue qualquer lista dos maiores problemas das grandes cidades e a segurança sempre estará nas primeiras posições. Não é para menos: nos últimos anos, a escalada da violência chegou a níveis insustentáveis em todo Brasil. Diante disso, precisamos usar os recursos disponíveis para tentar resolver o problema. A digitalização de nossas vidas e a inteligência artificial podem ajudar muito nisso, mas precisamos estar preparados para lidar com as consequências de suas imprecisões.

Quanto mais crítica for uma aplicação, menos tolerante a falhas ela é. Isso quer dizer que o sistema não pode sair do ar nunca e as informações oferecidas por ele ou suas decisões devem ser precisas. E infelizmente a tecnologia não chegou a esse nível de excelência inquestionável.

Uma coisa é alguém fazer um trabalho escolar ou um relatório profissional com erros grosseiros por ter acreditado cegamente em alguma bobagem dita pelo ChatGPT. É verdade que podem acabar reprovando na disciplina ou perdendo o emprego por isso, duas coisas ruins. Mas isso não se compara a ser confundido pela máquina com um criminoso, e assim acabar sendo preso ou –pior– morto.

Por isso, apesar de a tecnologia ser muito bem-vinda no combate à criminalidade, os agentes de segurança pública precisam estar preparados para lidar com os resultados dessa colaboração e seus potenciais erros.


Veja esse artigo em vídeo:


Nesse cenário, é bastante ilustrativo o projeto da Prefeitura de São Paulo de unir diversos serviços municipais que hoje não trabalham integrados, como a Defesa Civil, o SAMU, a CET e a Guarda Civil Metropolitana, além das polícias Civil e Militar, Metrô e CPTM. Batizado de Smart Sampa, ele prevê ainda a adição de 20 mil câmeras na cidade, especialmente em pontos sensíveis e de maior criminalidade, que se somarão a outras 20 mil já existentes.

A princípio, a ideia parece muito boa, especialmente porque os diferentes órgãos da administração podem funcionar melhor ao compartilharem suas informações. A exemplo de outras grandes cidades no mundo, como Nova York, a tecnologia desempenha papel central nesse processo. Ironicamente aí começam a surgir os problemas.

O ponto mais delicado da proposta é o uso de reconhecimento facial. Essa tecnologia tem avançado incrivelmente, mas não o suficiente para evitar uma quantidade inaceitável de erros, particularmente entre pessoas negras. Isso acontece porque a inteligência artificial aprende a diferenciar rostos a partir de uma enorme quantidade de fotografias, mas proporcionalmente há muito mais amostras de brancos que de negros nesse “treinamento”. Diferentes estudos apontam que os erros de reconhecimento de pessoas brancas giram em torno de 1%, enquanto de negras ultrapassa os 30%, especialmente mulheres negras.

Por isso, a proposta original do Smart Sampa, que previa “rastrear uma pessoa suspeita, monitorando todos os seus movimentos e atividades, por características como cor, face, roupas, forma do corpo, aspectos físicos etc.”, precisou ser alterada. Monitorar alguém pela sua cor é ilegal!

O projeto prevê que qualquer problema identificado pela plataforma seja confirmado por um agente humano treinado antes de emitir qualquer alerta, o que é, sem dúvida, um ponto positivo para minimizar injustiças. Mas a ideia de rastrear alguém que o algoritmo ache suspeito, ainda cruzando com dados de redes sociais dos cidadãos, lembra algumas das piores sociedades da ficção científica.

 

Sem escapatória

No filme “Minority Report: a Nova Lei” (2002), as autoridades sabiam continuamente onde cada cidadão estava. Além disso, um sistema que combinava tecnologia com aspectos místicos, conseguia prever assassinatos antes que acontecessem. Dessa forma, a polícia prendia os “prováveis criminosos” antes de cometerem o crime.

Sim, as pessoas eram presas antes de terem cometido qualquer crime, apenas porque a plataforma tinha convicção de que o cometeriam! E para a polícia isso era suficiente.

O sistema parecia infalível e, de fato, os assassinatos acabaram. Os “prováveis criminosos” eram condenados a viver o resto de seus dias em uma espécie de coma induzido. O problema é que o sistema não só era falho, como ainda podia ser manipulado para “tirar de circulação” pessoas indesejáveis para os poderosos. Quando isso é revelado, o sistema é desativado e todos os condenados são libertados.

Como se pode ver, quando uma tecnologia tem o poder de levar alguém à prisão ou decidir sobre sua vida ou morte, nenhuma falha é aceitável. Ainda aproveitando a ficção para ilustrar o caso, temos a cena de RoboCop (1987) em que o robô de segurança ED-209, durante uma demonstração, identifica corretamente que um voluntário lhe apontava uma arma. Mas ele falha em reconhecer que a pessoa a joga ao chão logo depois, e acaba metralhando a vítima diante dos presentes.

Por isso, é assustador ver os motivos que desclassificaram a empresa vencedora do primeiro pregão do Smart Sampa. No dia 7 de junho, técnicos da Prefeitura foram verificar se ela estava apta ao serviço. Pelas regras, deveria ter mil câmeras operando com reconhecimento facial, mas só havia 347, das quais apenas 147 estavam online. Segundo o relatório dos técnicos, o responsável argumentou que “todo mundo tem problemas de Internet” e que “horário de almoço é complicado, muita gente fazendo download impacta no link de Internet mesmo”.

Esse amadorismo e falta de comprometimento é algo que jamais poderia pairar sobre um sistema de segurança pública, podendo colocar em xeque toda sua credibilidade! É por essas e outras que cidades importantes ao redor do mundo, como San Francisco (EUA), baniram o uso de reconhecimento facial em plataformas assim.

Alguns grupos querem reduzir esse debate a uma questão ideológica, como vem se tornando um padrão no Brasil há alguns anos. Mas essa não é uma questão ideológica e sim tecnológica!

Em um famoso artigo de 2018, Brad Smith, presidente da Microsoft, questionou qual papel esse tipo de tecnologia deve ter na sociedade, a despeito de todos os benefícios que traga. Segundo ele, “parece mais sensato pedir a um governo eleito que regule as empresas do que pedir a empresas não eleitas que regulem tal governo”.

Como em um bom episódio da série “Black Mirror”, o problema não está necessariamente na tecnologia em si, mas em usos errados dela. Câmeras e inteligência artificial darão poderes sobre-humanos às forças de segurança, com enorme poder de detecção de crimes e contravenções. Mas ela também pode maximizar vieses e falhas humanas da força policial, como o racismo.

Sem dúvida, podem ser ferramentas valiosíssimas no combate à criminalidade galopante. Mas em uma sociedade assustada e que clama por segurança rápida, despontam como soluções “mágicas” para políticos que buscam votos fáceis. Mas a coisa não funciona assim e, se não for implantada com cuidados técnicos e éticos, pode ainda ampliar outros problemas sociais existentes.

É necessário entender que, mesmo que o sistema evite 100 mortes, não é aceitável que 10 vítimas inocentes sejam condenadas ou mortas por erros da plataforma. Se houver um único erro, o sistema não é bom o suficiente para ser usado! Mas parece que pouca gente se preocupa com isso, no melhor estilo de “o fim justifica os meios”.

No final, a solução recai sobre o ser humano. Os agentes de segurança precisam ser treinados para lidar com possíveis falhas técnicas. Precisam aprender a dosar suas ações e abordagens feitas a partir de informações que podem estar erradas.

Resta saber se esses profissionais estão preparados para isso. Diante de diversas ações desastrosas e mortíferas que vemos nas ruas brasileiras o tempo todo, não estão! A solução desse outro problema é essencial e deveria acontecer antes da implantação da tecnologia. Mas isso, por si só, já renderia outro artigo.

 

Tim Cook, CEO da Apple: a empresa terá que enfrentar mais uma ação por possível quebra de privacidade de usuários

Privacidade virou artigo de luxo

By | Tecnologia | No Comments

Quem nunca teve uma conversa interrompida quando a assistente virtual do celular se intrometeu sem ser chamada, falando qualquer coisa fora de contexto? Ou começou a ser bombardeado por anúncios de um produto sobre o qual falou diante do smartphone com alguém? Até parece que o aparelho estivesse nos escutando o tempo todo.

É claro que está!

As principais assistentes virtuais do mercado são a Siri (dos iPhones), o Google Assistente (dos Androids) e a Alexa (de dispositivos da Amazon), que estão sempre à espreita para atender nossos comandos de voz. Para isso, os microfones estão continuamente monitorando todos os sons do ambiente. Caso contrário, não conseguiriam saber quando são chamadas.

O problema é que elas se confundem às vezes com o que escutam. Todas possuem “palavras de ativação” (“e aí, Siri?”, “Ok, Google” e “Alexa”), mas acabam se manifestando quando ninguém disse nenhuma delas (mas o sistema acha que sim). A partir daí, começam a captar e registrar tudo que é falado para tentar atender um pedido ou executar um comando.

A situação fica ainda mais grave quando essas informações parecem ser acessadas por outras empresas, normalmente para nos vender algo. Apple, Google e Amazon negam veementemente que compartilhem esses áudios com terceiros.

Mas então por que tanta gente reclama exatamente disso?


Veja esse artigo em vídeo:


Há muito mais coisa acontecendo nos bastidores de nossos smartphones que podemos imaginar. E, com a crescente digitalização de nossas vidas, isso acontece também com muitos outros aparelhos de nossos cotidianos, como TVs.

Elas deixaram de ser meros reprodutores de imagens captadas pela antena, enviadas de maneira indiferenciada para todos os telespectadores. Tornaram-se computadores poderosos, continuamente conectados à Internet, muitas delas com microfone e câmeras embutidos, podendo ser controladas por essas mesmas assistentes virtuais. E, em muitos casos, quando o usuário desliga a TV, isso acontece apenas com a tela: o sistema continua ativo, monitorando o ambiente à espera de um comando.

Sem falar nos cada vez mais comuns alto-falantes inteligentes, como o Amazon Echo e o Google Home. Esses dispositivos também estão sempre alertas para captar comandos de seus usuários.

Seria ótimo se pudéssemos dar um comando como “ei, Siri, tape os ouvidos pelas próximas duas horas”.

 

Violações de privacidade

Essas empresas negam categoricamente que usem o áudio captado dos usuários para qualquer fim que não seja executar os comandos previstos, afirmando que respeitam profundamente a privacidade de seus usuários. Mas todas enfrentam processos ou estão sendo escrutinadas por diferentes governos por violações de privacidade ou práticas anticompetitivas.

No começo do mês, o juiz Jeffrey White, do tribunal de Oakland, na Califórnia, deu prosseguimento a uma ação coletiva que acusa a Apple de gravar conversas captadas pela Siri sem ser chamada e repassar informações para outras empresas, violando a privacidade dos usuários. Em outros processos, Google e Amazon são acusados de armazenar e registrar áudios capturados, mesmo quando as assistentes são acionadas por engano.

Em nome do benefício da dúvida, suponhamos que as empresas realmente não estejam violando a privacidade de seus usuários, ao armazenar indevidamente áudios captados ou repassando informações a terceiros. Mas, mesmo nesse caso, fica claro que todos precisam melhorar o reconhecimento das suas palavras de ativação, para diminuir invocações indevidas.

Não há como negar que isso acontece. Algumas falhas se tornam famosas, algumas por serem engraçadas, outras por serem emblemáticas. É o caso de quando uma Amazon Echo ligou para a polícia enquanto um homem espancava e ameaçava de morte sua namorada no estado americano do Novo México, em 2017. No meio das agressões, ele perguntou a ela se ela tinha “chamado o xerife”, o que foi entendido pelo aparelho como um comando para ligar para a polícia. O atendente do outro lado da linha ouviu o que estava acontecendo pela Echo e mandou uma equipe para o local.

O homem acabou preso e a mulher foi salva.

 

Será que vale a pena?

É preciso lembrar que as assistentes virtuais não são as únicas coisas que nos ouvem a partir de nossos smartphones e outros dispositivos.

É comum termos dezenas de aplicativos instalados nesses aparelhos, muitos deles com acesso ao microfone e, portanto, habilitados a captar áudios do ambiente. Alguns deles são aplicações legítimas e que fazem um bom uso desse recurso. Outros tem uma “moral mais frouxa”, digamos assim.

Tanto iPhones quanto celulares Android permitem que o usuário desabilite a palavra de ativação, o que evitaria, por exemplo, que as assistentes surgissem sem serem chamadas. Mas além disso, é possível o usuário ver todos os aplicativos que usam o microfone, revogando o acesso daqueles com que não concorde.

É preciso ficar claro que, ao fazer isso, alguns recursos podem parar de funcionar, como a chance de gravar lives no Facebook ou no Instagram, por exemplo. Então essa configuração deve ser usada com cuidado.

Por outro lado, esse exercício pode trazer algumas surpresas, como descobrir que aplicativos que simplesmente não deveriam captar áudios para seu funcionamento têm acesso irrestrito ao microfone. Nesse caso, isso deve ser revogado ou até –quem sabe?– o aplicativo ser desinstalado, pois captar áudios sem que isso traga benefícios ao usuário é, no mínimo questionável.

Qualquer que seja a decisão, uma coisa é certa: a nossa privacidade, pelo menos como a conhecíamos até há alguns anos, já era! Vivemos em um mundo de permanente arapongagem, em que somos monitorados de todas as formas possíveis, muitas delas sem que tenhamos o menor conhecimento. Não há como escapar disso completamente, a menos que passe a viver em uma caverna, sem qualquer dispositivo eletrônico.

Isso não quer dizer que vivamos no meio de uma bagunça. Legislações como a LGPD (Lei Geral de Proteção de Dados brasileira) ajudam a nos proteger de abusos de empresas. Mas muitas delas simplesmente passam por cima da lei, na expectativa de nunca serem pegas.

Cabe a nós, como usuários, estarmos atentos ao que está a nossa volta e fazer valer nossos direitos. A tecnologia tem que trabalhar a nosso favor, e não o contrário.

A nova fronteira dos hackers: invadir nosso corpo

By | Tecnologia | No Comments

Desde o final do ano passado, estamos nos acostumando a ver na imprensa notícias frequentes sobre megavazamentos de informações pessoais feitos por hackers, que roubaram enormes bancos de dados de empresas. Também vemos diversos relatos de pessoas que são vítimas de delinquentes digitais ao cair em todo tipo de golpe online.

A má notícia é que isso pode piorar de maneiras até então inimagináveis, podendo até colocar nossa vida em risco!

Todos esses crimes são resultado não apenas da eficiência dos bandidos, mas também da crescente digitalização de empresas e de nossas vidas. Isso ganhou ainda um grande impulso adicional com o distanciamento imposto pela pandemia de Covid-19.

Empresas, instituições de qualquer natureza e até governos estão profundamente conectados à Internet. E todos nós seguimos pelo mesmo caminho, não apenas em nossas tarefas cada vez mais realizadas em celulares e computadores. Não é de hoje que até alguns eletrodomésticos coletam informações sobre nós e as transmitem pela Internet. Mais recentemente estamos vestindo dispositivos conectados que nos rastreiam. Agora começamos a ver implantes em nossos corpos que também estão conectados à rede.


Veja esse artigo em vídeo:


A princípio, esses dispositivos estão online para enviar, por exemplo, informações sobre nossa saúde a nossos médicos e hospitais. Mas especialistas temem que tudo isso possa ser invadido e controlado remotamente, inaugurando um novo tipo de crime, antes visto apenas em filmes sobre futuros distópicos.

Se hoje hackers já invadem computadores e pedem resgate para devolver o acesso às informações em seus discos rígidos, pode chegar um momento em que eles invadam, por exemplo, um marca-passo e exijam dinheiro para não matar seu portador. Ou ainda que realizem atentados desabilitando os freios e acelerando um carro, tudo à distância.

O fato é: tudo que puder ser invadido será!

Em 2014, quando ainda era CEO da Cisco, John Chambers chegou a dizer que existem dois tipos de empresas: as que já foram invadidas e as que ainda não sabem que já foram invadidas. Mas com a onipresença do digital em tudo que fazemos, tais invasões se estendem também aos clientes dessas empresas.

Por exemplo, já não é de hoje que, ao ligar pela primeira vez uma Smart TV recém-comprada, seu feliz proprietário precisa aceitar “termos de uso” do equipamento como parte da rotina de configuração inicial. Nada mais natural: as TVs agora são muito mais que um equipamento que transmite imagens das emissoras. Tornaram-se verdadeiros computadores executando aplicativos online dos mais diversos, transmitindo –mas também coletando– informações: nossas informações.

Algumas TVs no exterior incluem uma pitoresca sugestão em seus “termos de uso”: não façam, diante do aparelho, algo que você possa se arrepender depois. Afinal, muitos desses equipamentos possuem câmeras e microfones incorporados. Essas TVs são computadores com sistema operacional e linguagem de desenvolvimentos conhecidos, sem nenhum antivírus ou firewall para proteção e permanentemente conectados à Internet.

Nada impede que um hacker as invada para gravar aspectos de nossa vida que depois podem ser usados contra nós. Essa ideia foi explorada no episódio “Manda Quem Pode”, o terceiro da terceira temporada da série “Black Mirror”, em que um adolescente é chantageado por criminosos depois de o gravarem pela câmera de seu notebook.

 

Casa e negócios conectados

Observe quantos equipamentos em sua casa estão conectados à Internet nesse momento: você certamente tem pelo menos um deles! Alguns são óbvios, como os celulares, os computadores, relógios inteligentes, a smart TV, os assistentes digitas e o videogame. Outros nem tanto, como aparelhos de som, lâmpadas e até modelos mais recentes de aspiradores de pó robôs. A maioria dele é capaz de coletar alguma informação sobre você ou seu ambiente e transmitir a seu fabricante, incluindo aí o aspirador de pó.

A princípio, tudo isso foi criado para benefício do consumidor, para deixar sua vida mais fácil, produtiva e divertida. Chegamos a um ponto em que nossa imaginação é o limite para conectarmos tudo na rede.

Estudos sugerem que, nesse ano, praticamente metade de todo tráfego de dados na Internet acontecerá entre equipamentos “falando entre si”, sem nenhuma intervenção humana. É o fenômeno da Internet das Coisas. Como comparação, apenas 13% dos dados sairão ou chegarão de nossos celulares e míseros 3% de nossos computadores, que estão prestes a ser superados pelas smart TVs nesse quesito.

Quem tem em casa assistentes digitais, como Amazon Echo ou Google Home, já pode controlar vários eletrodomésticos com sua voz. Mas a automação digital das casas vai muito além, com geladeiras, cafeteiras, persianas e até banheiras controladas remotamente.

Os carros também estão cada vez mais digitais e conectados. Modelos topo de linha podem ter computadores de bordo online e com mais linhas de código que um sistema operacional para computadores, controlando todos os equipamentos do veículo. Isso permitiu que, em 2015, pesquisadores de segurança invadissem um jipe Cherokee a 16 quilômetros de distância. A partir de comandos em um notebook, diminuíram a potência do veículo, mudaram a estação do rádio a bordo e ligaram o ar-condicionado e o limpador de para-brisa.

No ambiente comercial, acompanhamos o crescimento de lojas sem funcionários, em que o próprio cliente pega o que quer e sai, com a compra sendo automaticamente debitada em seu cartão. Mas também vemos coisas no mínimo inusitadas, como grelhas de lanchonetes com a temperatura controlada de maneira online (para evitar superaquecimentos e incêndios) e até galerias de águas pluviais com sensores (para evitar enchentes).

 

Corpos conectados

Assim como nossas casas, carros e escritórios estão cada vez mais conectados, nossos corpos seguem pelo mesmo caminho, seja pelo que vestimos ou até por implantes em nosso organismo.

O celular é a máquina perfeita de rastreamento, pois é a única coisa na vida da qual não nos afastamos durante todo dia. Além disso, instalamos dezenas de aplicativos nele, alguns de procedência duvidosa, que podem coletar uma enxurrada de dados nossos, repassando-os a criminosos. A simples geolocalização pode ser usada para traçar nosso hábito de movimentação, o que pode ser usado, por exemplo, no planejamento de sequestros.

Além disso, vestimos ou usamos cada vez mais equipamentos online que coletam e transmitem nossos dados. É o caso de relógios inteligentes, capazes de, entre outras coisas, monitorar nossos batimentos cardíacos.

Isso pode ser muito bom, como no caso do jornalista americano Paulo Hutton, que foi salvo pelo seu Apple Watch em 2019. Na época com 48 anos, o aparelho identificou anomalias nos seus batimentos, o que lhe permitiu descobrir que tinha bigeminia ventricular, que foi corrigida antes que algo pior acontecesse. Por outro lado, em mãos erradas, informações tão íntimas de nossa saúde podem permitir usos nefastos.

Vestimos e usamos muito mais dispositivos conectados que coletam nossas informações ou podem ser controlados remotamente: câmeras portáteis, óculos de realidade aumentada ou virtual, medidores de glicemia, roupas com sensores. Há até mesmo vibradores que podem ser controlados à distância, pela Internet!

Essa digitalização da vida é um caminho sem volta. Os benefícios que recebemos são imensos! Por outro lado, não há sistema que não possa ser invadido. Essa é uma corrida de gato e rato, com fabricantes tentando proteger seus produtos e hackers encontrando suas vulnerabilidades.

Diante disso, o ideal é que funções críticas de equipamentos nunca sejam controláveis à distância. Afinal, não podemos deixar que os hackers desliguem marca-passos, provoquem sérios acidentes de carro ou gelem nossa casa com o ar-condicionado.

 

Estamos nos aproximando de “The Walking Dead”

By | Jornalismo | No Comments

Na noite desse domingo, foi ao ar o último episódio da décima temporada da série “The Walking Dead”, a mais vista na TV aberta americana. Apesar de ser uma obra ficção, ela assustadoramente guarda algumas semelhanças com a nossa situação atual, e podemos aprender algo com isso.

A realidade dos episódios é determinada por um vírus que transforma pessoas em zumbis, que coloca a humanidade de joelhos. Mas, assim como se observa em nossos atuais dias sombrios, na história, o que mais assusta não é a doença, e sim a desunião entre os sobreviventes, que pode representar uma ameaça à humanidade ainda maior.

Concordo que um mundo dominado por mortos-vivos comedores de gente pode parecer ainda mais dramático que a destruição real provocada pela Covid-19. Mas, na série, os sobreviventes se organizam em clãs para garantir recursos em detrimento de outros humanos. Por outro lado, o que vivemos é potencialmente muito mais perigoso, com uma determinação crescente de muitos em negar o conhecimento e a verdade para alguns poucos serem beneficiadas às custas das demais.

As narrativas negacionistas começaram com temas que pareciam fanfarronices de um bando de paspalhos, como acreditar piamente que a Terra é plana no século XXI. Mas ela evoluiu para absurdos como pessoas que se negam a tomar qualquer tipo de vacina, por acreditar que fazem mal à saúde. Esse caso específico se tornou dramático diante da pandemia, ao ser cruzado com interesses políticos de grupos no poder, que incendeiam seus seguidores contra o imunizante para atacar adversários e até tentar um desequilíbrio geopolítico mundial.

E as pessoas acreditam neles!


Veja esse artigo em vídeo:


Em “The Walking Dead”, alguns humanos não veem nenhum problema em matar outros sobreviventes para se apropriar de seus recursos. Diante de uma situação de crise extrema, a sociedade e qualquer senso de civismo desaparecem, dando lugar à completa barbárie.

Guardadas as devidas proporções, isso não é muito diferente do que vivemos hoje. Quando um líder ataca vacinas, combate o uso de máscaras e critica abertamente medidas de distanciamento social, ele efetivamente manda milhares de pessoas à morte para garantir seus interesses mesquinhos. E quem acredita nele segue suas ordens, feito zumbis que precisam satisfazer uma necessidade única.

Como se pode ver, isso não se trata de um mero exercício mental.

Há alguns dias, tive acesso ao estudo “Enfrentando as ameaças à tomada de decisão com base em informações em sociedades democráticas”, do grupo de pesquisadores liderado por Elizabeth Seger, da Universidade de Cambridge (Reino Unido). Organizado pelo Programa de Defesa e Segurança do Instituto Alan Turing, o órgão de ciência de dados e inteligência artificial do Reino Unido, o documento demonstra o mecanismo de ataque deliberado à capacidade da população de adquirir conhecimento.

“A pandemia de Covid-19 deixou uma coisa clara: é muito difícil coordenar o comportamento de uma sociedade inteira, mesmo quando se trata de uma questão de vida ou morte”, explicou Seger em artigo publicado na BBC. Ela cita justamente a recusa de uma parte considerável da população a se vacinar como algo que coloca em risco a vida até dos vacinados e a própria manutenção da sociedade.

Segundo ela, “mesmo que estivesse claro como salvar o mundo, um ecossistema de informações degradado e não confiável poderia impedir que isso acontecesse”. A equipe de pesquisadores usou o termo “segurança epistêmica” para definir a capacidade não apenas de garantir a segurança do conhecimento, mas também de adquirir informações de qualidade.

 

Os ataques ao conhecimento

A equipe liderada por Seger definiu quatro principais ameaças à segurança epistêmica. E nenhum deles pode ser creditada ao acaso.

A primeira é a ação das pessoas a que chamaram de “adversários” e “trapalhões”. Eles podem interferir nos processos de tomada de decisão pela desinformação ou outras ações. Os primeiros são indivíduos que deliberadamente manipulam informações, promovem ataques ou incitam seus seguidores para confundir ou enganar a população para atingir seus objetivos. Já os “trapalhões” são aqueles que, de maneira inocente e até bem-intencionada, espalham essas bobagens, como aquela turma no grupo da família no WhatsApp.

Outro problema é o excesso de informação a que somos submetidos, nem todas elas confiáveis. Essa abundância faz com que nossa atenção fique dispersa, tornando mais difícil garantir que as informações essenciais cheguem a quem precisa. O modelo de negócios da “economia da atenção”, usado pelas redes sociais, que direcionam nosso olhar ao que lhes interessa, torna isso ainda mais dramático. Nossa capacidade limitada de concentração dificulta separar uma verdade de uma porcaria. E os produtores de fake news se valem disso.

As pessoas também se acostumaram a rejeitar informações que desafiam seus pontos de vista. E, se houver uma forte identidade no grupo, ela leva a uma maior polarização e negacionismo. Diante da sobrecarga de informações, prestamos mais atenção a quem pensa igual a nós. Isso cria o que os pesquisadores chamaram de “racionalidade limitada”, pois só crescemos quando somos expostos justamente a pensamentos conflitantes.

Por fim, as tecnologias de mediação e produção de informação tornam mais difícil avaliar a confiabilidade das fontes. Tendemos a confiar mais em alguém da nossa comunidade ou em quem muitas pessoas confiam. Com as redes sociais, esses mecanismos perdem força diante das manipulações dos algoritmos feitos por grupos de poder.

 

Resgatando a verdade

Os pesquisadores afirmam que os ataques à segurança epistêmica não podem ser combatidos com iniciativas pontuais, pois as causas estão disseminadas pelas mentes da população. Por isso, esse esforço precisa ser multidisciplinar e ter um caráter “holístico”, totalmente abrangente e interligado.

Para eles, esse resgate passa por desenvolver métodos para dificultar as ações de “adversários” e de “trapalhões”, enquanto se ajuda as pessoas a identificar mais facilmente fontes de informação confiáveis. Da mesma forma, essas boas fontes devem receber apoio da comunidade.

O documento explica que os “adversários” são capazes de mudar suas estratégias rapidamente e que, por isso, devem estar sempre sendo monitorados e combatidos com iniciativas atualizadas contra suas ações nocivas. Elas precisam necessariamente ser conduzidas por profissionais de diferentes áreas do conhecimento.

Há alguns dias, enquanto revia a montagem de Andrew Lloyd Webber de “O Fantasma da Ópera”, alguns versos da canção “A música da noite” me saltaram aos ouvidos. Neles, o personagem do Fantasma dizia o seguinte:


Feche seus olhos
Pois seus olhos só dirão a verdade
E a verdade não é o que você quer ver.
No escuro é fácil fingir
Que a verdade é o que deveria ser.

Sinto que essa é a realidade que grande parte de nossa sociedade vive. Precisamos lutar pela segurança epistêmica de todos nós, com todos os recursos que tivermos.

Como estão os seus olhos: abertos ou fechados?

 

Reconhecimento facial se tornou uma poderosa ferramenta de negócios

By | Tecnologia | No Comments

Muita gente já se espantou como o Facebook reconhece instantaneamente todas as pessoas que estão nas fotos que carregamos na plataforma, “marcando” seus rostos. Esse recurso, um dos segredos das “viralizações” das imagens nessa rede social, vem dos algoritmos de reconhecimento facial. Mas esse uso chega a ser um “brinquedo” diante do que essa tecnologia já oferece aos negócios.

Apesar de nunca ter se falado tanto disso, ela existe desde os anos 1960. De maneira simplificada, consiste em se criar uma “assinatura digital” (um “código hash”) composta por uma identificação única calculada a partir de distâncias entre pontos-chave do rosto (como o centro da pupila, a ponta do nariz, os limites da boca e assim sucessivamente). Quanto mais pontos forem avaliados, maior a eficiência no reconhecimento, pois essas distâncias variam de pessoa para pessoa.

“Uma coisa que melhorou muito de uns anos para cá foi a acuracidade do reconhecimento facial”, afirma Edgar Nunes, diretor comercial da Nuntius Tecnologia. De fato, até há poucos anos, existia desconfiança com essa tecnologia, por gerar muitos falsos positivos ou negativos.  “Antes as empresas tinham algoritmos que trabalhavam com 96 pontos do rosto, e hoje falamos de pelo menos 300 pontos, chegando a 1.024”, explica.

Tantos pontos permitem que o reconhecimento aconteça com precisão até quando o rosto está parcialmente coberto, por exemplo por óculos escuros ou, como agora é comum, por uma máscara. Os pontos ainda visíveis são suficientes para se fazer a identificação.


Veja a íntegra da entrevista com Edgar Nunes em vídeo:


Portanto a eficiência do reconhecimento facial está intimamente ligada não apenas a melhorias no software, mas também a avanços exponenciais nos computadores e nas próprias câmeras. Todo esse poder de processamento permite que as plataformas identifiquem mais pontos no rosto, em menor tempo e até de várias pessoas na mesma imagem. “Hoje a tecnologia reconhece 512 pessoas simultaneamente, em uma única câmera”, explica Nunes.

Além disso, os sistemas são capazes de identificar indivíduos mesmo que eles não estejam olhando de frente para a câmera, uma exigência dos sistemas mais antigos. A quantidade de pontos e o poder de processamento identificam também os rostos inclinados. Aliás, esse reconhecimento tridimensional pode ser usado para evitar fraudes, como alguém tentando apresentar uma foto e o sistema achar que se trata de um rosto real diante da câmera.

A qualidade nos reconhecimentos depende também da adaptação do sistema para a região onde ele será usado. Não basta, portanto, um algoritmo de qualidade: a plataforma precisa ser “calibrada” para o tipo de rostos da população local, mesmo em um país miscigenado, como o Brasil. É por isso que, se tentarmos usar um bom sistema preparado para o mercado americano em uma país asiático, ele pode não funcionar muito bem, e vice-versa.

Outro ganho das melhorias dos equipamentos é que sistemas locais podem tomar ações sem exigir uma conexão à Internet de banda larga. Esses equipamentos são capazes de armazenar mais de um milhão de “códigos hash” em sua memória (ou seja, as fotos das pessoas não estão ali, apenas essa sua “assinatura digital”). Dessa forma, se a imagem da pessoa diante da câmera não combinar com o respectivo “código hash”, o sistema pode negar a identificação.

Seguindo a mesma lógica, o sistema local pode gerar um “código hash” e enviar apenas essa informação para um servidor, um arquivo muito menor que o de uma foto ou um vídeo capturados. “A gente está falando de transportar apenas alguns kbytes de informação, o que não vai causar nenhum problema de conectividade, não vai ‘engargalar’ nenhuma rede’, explica Nunes.

Isso é particularmente interessante em locais em que a não há conexão com a rede ou em que ela seja limitada, como em um ônibus. O terminal do Bilhete Único (ou equivalente) pode conter os “códigos-hash” dos donos de bilhetes da cidade. Se alguém tentar usar um documento que não combina com a imagem capturada na hora pela câmera, a catraca pode não ser liberada, e a informação de uma possível fraude ou roubo ser enviada a uma central de controle e ao verdadeiro dono do bilhete.

 

Integração a outros sistemas

As plataformas de reconhecimento facial não trabalham mais de maneira isolada. “Antigamente, o reconhecimento facial entregava algo como ‘a pessoa é o Paulo e foi detectado na câmera 2’ e isso era enviado para o centro de controle”, conta Nunes. Agora a informação captada pela plataforma de reconhecimento vai muito além, identificando coisas como gênero, idade aproximada, raça e até estado de humor da pessoa no momento.

Essa informação fica ainda mais valiosa quando integrada a sistemas de gestão, para ajudar a tomar decisões de negócio. Por exemplo, de uma maneira automática, é possível saber que perfil de consumidor um determinado produto atrai, como o fluxo de visitantes em uma loja se comporta e até tomar ações personalizadas para um usuário específico, baseado em um histórico de relacionamento com a empresa ou combinando com perfis de visitantes semelhantes.

Em tempos de pandemia de Covid-19, os terminais de reconhecimento facial também trazem outras vantagens interessantes. A primeira delas é que, além de identificar a pessoa, consegue medir sua temperatura instantaneamente, sem necessitar de caras câmeras térmicas e evitando as filas provocadas pelas leituras com termômetros do tipo “pistola”, que se popularizaram no varejo. O sistema também é capaz de identificar se a pessoa está usando uma máscara. Em caso negativo ou se estiver com febre, uma ação é disparada, como informar a segurança ou a área de recursos humanos.

Nunes acredita que a evolução natural dessas plataformas envolverá ainda mais confiança e velocidade na identificação dos rostos, além de integrações cada vez mais poderosas com outros sistemas. Em um mundo com uso crescente de aplicações “touchless”, em que o usuário não precise encostar em nada, isso é muito bem-vindo.