cibersegurança

Matt Schlicht, CEO da startup Octane AI e criador do Moltbook - Foto: reprodução

Rede social sem humanos expõe medos e desconhecimento sobre a IA

By | Tecnologia | No Comments

Nos últimos dias, grandes veículos de comunicação e a Internet foram tomados pelo frenesi em torno do Moltbook, uma rede social com a inusitada característica de que apenas agentes de inteligência artificial participam, enquanto os humanos podem, no máximo, se tornar voyeurs do que os robôs lá publicam. Porém, a maioria do que as pessoas estão dizendo sobre esse caso demonstra o quanto ainda entendemos pouco da IA e como nossos medos desse desconhecimento podem capturar nossa atenção.

Os mais apocalípticos veem nessa improvável plataforma o “despertar das máquinas” que em breve nos exterminarão, enquanto outras pessoas a desdenham como um modismo desimportante. Há ainda aqueles que acham genial essa invenção de Matt Schlicht, CEO da startup Octane AI. O fato é que cada um vê nela aquilo que deseja. Mas essa pode ser uma interessante oportunidade de aprendizagem para nós.

Se você ainda não sabe do que se trata, o Moltbook é uma rede social lançada em 28 de janeiro em que apenas agentes de IA podem publicar e interagir. Pessoas limitam-se a ler o que as máquinas fizerem. Neste momento, há 1,8 milhão desses sistemas cadastrados nela, que já criaram mais de 300 mil posts e 12 milhões de comentários.

Independentemente do que seja palpável ou apenas fumaça, o fenômeno do Moltbook deveria servir para que aprendamos mais sobre o funcionamento, limites e possibilidades da inteligência artificial. Não para nos protegermos de uma improvável “revolta dos robôs”, mas para entendermos que, ao entregarmos crescentemente informações a sistemas que não compreendemos e ao delegarmos a eles decisões sofisticadas e prosaicas, abrimos mão do mais nobre de nossa humanidade.

Isso pode nos causar um prejuízo irreparável, não porque as máquinas sejam maquiavélicas, mas porque estamos nos tornando displicentes. Ao longo de milhões de anos, assumimos o controle do planeta ao raciocinarmos e decidirmos. Agora, a despeito de sua inegável capacidade, entregamos, por preguiça, insegurança ou ganância, esse nosso diferencial a máquinas estatísticas que apenas parecem inteligentes.


Veja esse artigo em vídeo:


O Moltbook foi concebido, em tese, como um ambiente experimental para observar como sistemas de IA se comportam e aprendem quando passam a conversar diretamente uns com os outros, sem participação de humanos. Essa é uma ideia atraente, porém largamente falha e até perigosa.

Qualquer pessoa que domine a tecnologia consegue burlar sua premissa básica e criar um agente de IA para atuar como um boneco de ventríloquo travestido de robô. Dessa forma, pode “contaminar” as discussões na plataforma com sua humanidade, por pura diversão ou para satisfazer alguma agenda. Segundo um levantamento da empresa de cibersegurança Wiz, cerca de 17 mil pessoas já se “infiltraram” no Moltbook.

A mesma empresa descobriu que o banco de dados da plataforma possuía falhas de segurança, permitindo que qualquer um pudesse ler e gravar nele. Era possível ainda acessar dados confidenciais, incluindo chaves de agentes, mensagens privadas e até credenciais completas para outros serviços, como os da OpenAI.

Além disso, dependendo de como foram criados, agentes de IA podem acessar arquivos, senhas e serviços online de pessoas e empresas. Se um deles maliciosamente introduzir instruções em uma postagem, elas podem ser executadas automaticamente por potencialmente milhões de agentes com acessos privilegiados.

O grande risco é que criamos agentes de IA que pensam, decidem e agem como nós e em nosso nome, inclusive com acesso a recursos sensíveis e poderosos. Se não cuidarmos bem desses valorosos assistentes, eles podem ser manipulados para ações muito destrutivas. E não estamos fazendo isso direito.

É como mandar uma criança com a chave do cofre a um covil de ladrões.

 

“Mas isto fala!”

Ao testar o telefone de Graham Bell na Exposição da Filadélfia em 1876, D. Pedro II teria exclamado “mas isto fala!” Diante do seu espanto, o imperador brasileiro determinou que a invenção chegasse por aqui no ano seguinte, fazendo do Brasil o segundo país do mundo a ter telefones, depois dos EUA.

Hoje todos sabem que quem “fala” não é o telefone, e sim o interlocutor do outro lado da linha. Mas ainda fantasiamos sobre o funcionamento da IA. E isso acontece porque ela “fala”, parece saber tudo e até simula sentimentos convincentemente.

Ainda em fevereiro de 2024, escrevi um artigo em que sugeri que “o mais espantoso na IA não é o que ela nos diz, mas ela conseguir falar”. De fato, a boa comunicação oferece um poder imenso a qualquer um (ou qualquer coisa). A civilização foi criada sobre a linguagem e depende dela para tudo. Assim, como os gatos domésticos não a dominam, eles dependem de nós para carinho, comida e uma caixa de areia limpa.

O ChatGPT mostrou ao mundo que a IA pode se comunicar tão bem e até melhor que nós. Se delegamos cada vez mais decisões, até as simplórias, a essas plataformas, elas passarão a interpretar o mundo em nosso lugar, e poderemos acreditar nelas, por mais erradas que estejam. É por isso que obviamente devemos usar o incrível poder dessa tecnologia em nosso favor, mas a decisão final sempre deve ser nossa.

Sistemas que aprendem com sistemas aceleram padrões, bons e ruins. Isso levanta questões sobre alinhamento, opacidade e auditabilidade. Quando agentes de IA passam a “conversar” em escala e sem controle, o risco é que passem a operar segundo lógicas que nós já não conseguimos acompanhar ou explicar.

A corrida das big techs pela “IA geral”, quando robôs agirão sem depender de nós e com uma capacidade muito superior à nossa, funciona como uma cortina de fumaça para problemas mais urgentes, como governança, transparência e responsabilização. O mérito do Moltbook é nos fazer pensar que o verdadeiro risco não é uma “revolução das máquinas”, mas a automação opaca a que essas empresas nos submetem.

Assim, ele é menos revolucionário tecnicamente e mais significativo culturalmente. O que devemos questionar não é se as máquinas vão nos substituir, e sim que versão de nós mesmos estamos construindo ao delegar cada vez mais nossas vidas a elas.

 

Inteligência artificial permite a criação de ataques cibernéticos muito mais eficientes - Foto: Freepik/Creative Commons

Em 2026, a IA transformará o cibercrime em uma operação contínua e autônoma

By | Tecnologia | No Comments

Enquanto o ChatGPT comemora seu terceiro aniversário, que aconteceu neste domingo (30), o mercado avalia como a inteligência artificial generativa revolucionou a segurança digital, no que há de bom e de ruim. Neste ano, esta tecnologia consolidou-se como o principal recurso dos criminosos para enganar suas vítimas, e a situação deve se agravar em 2026, segundo a empresa de cibersegurança Tenable.

O Brasil tornou-se um “laboratório” do cibercrime, com 315 bilhões de tentativas de ataques no primeiro semestre, que representam 84% do total da América Latina. Sofremos com ataques internacionais sofisticados e com golpes hiperlocalizados, moldados à linguagem e aos hábitos culturais do país. Essa combinação individualiza os riscos, que abandonam o caráter eventual e passam a ser estruturais e cotidianos.

A IA já permite que criminosos superem barreiras técnicas e linguísticas com facilidade. Ela automatiza a criação de iscas, clonando vozes ou estilos de escrita com fidelidade assustadora, o que torna a distinção entre o real e o falso quase impossível. Se em 2025 houve uma automação do golpe digital, para o ano que vem, os agentes de IA devem tornar esse processo ainda mais perigoso, executando ataques com autonomia, ajustando-se às reações das vítimas.

No lado da segurança, a mesma IA tenta equilibrar o jogo, analisando volumes massivos de dados para identificar comportamentos suspeitos antes que o dano ocorra de fato. Contudo, essa capacidade de defesa permanece, em muitos casos, como uma promessa vendida por fornecedores de software, enquanto a adaptação do ataque parece estar sempre um passo à frente da reação das empresas.

Indivíduos e empresas precisam entender que a tecnologia é fundamental, mas não resolverá um problema que é, cada vez mais, humano e político.


Veja esse artigo em vídeo:


Esse desequilíbrio se deve à também falta de informação das vítimas. “Quando o cidadão não entende o que é um vazamento, não acompanha se seus dados foram expostos e não sabe identificar sinais de golpe, o criminoso joga em campo aberto”, alerta Pedro Eurico Rego, engenheiro de sistemas da Tenable Brasil. Assim, eles têm acesso a dados pessoais por descuido cotidiano ou falhas estruturais de governos e empresas.

O cidadão não tem recursos para identificar golpes que usam até vozes clonadas, e isso une a vulnerabilidade individual ao risco sistêmico. “O caminho será adotar alguns freios simples e bem antigos, como combinar códigos em família para confirmar situações de emergência”, sugere Rego. “Nunca se deve tomar decisões financeiras sob pressão, desconfiando de pedidos urgentes por transferência e, sempre que possível, desligando e retornando a ligação por um número conhecido”, acrescenta.

Do lado das empresas, as grandes corporações investem milhões em cibersegurança, mas as pequenas continuam presas ao improviso. Esse desnível enfraquece todo o ecossistema, porque o atacante só precisa encontrar a porta de entrada mais frágil para atingir as organizações mais robustas.

A situação se agrava com infraestruturas críticas do país dependendo de poucos provedores globais. Quando falham, os danos são imensos, como nos problemas em servidores da Amazon e da Microsoft, em outubro, e da Cloudflare, em novembro. Esse quadro revela que a questão não é só técnica, mas também de soberania. Por isso, a Tenable sugere que, em 2026, a resiliência seja objetivo central de negócio.

Mas empresas continuam tropeçando no básico. Falham em inventários, permissões e identidades, além de manterem dados sensíveis em ambientes sem controle. Nesse cenário, executivos de tecnologia e de segurança enfrentam mais pressão, pois incidentes deixam de ser eventos técnicos e passam a ser narrativas públicas. Cada falha vira manchete e exige articulação imediata entre segurança, comunicação corporativa e gestão de crise.

 

Agentes do cibercrime

Os agentes de IA, que se sofisticaram ao longo de 2025, também ofereceram aos criminosos digitais autonomia para que esses sistemas executem ataques de ponta a ponta, em uma verdadeira “fábrica de golpes”. “O golpe deixa de ser uma ação isolada e vira uma campanha contínua, com a capacidade de aprender com o comportamento das vítimas e até mudar de estratégia”, explica Rego. “É como uma operação empresarial, só que voltada para o crime”.

Da mesma forma, governos tentam se proteger, mas a explosão de dados sensíveis nas mãos de criminosos alimenta a IA também para desinformação política, distorcendo realidades em eleições tensas, como as que têm acontecido no Brasil. Como tenho pesquisado em meu doutorado, essa distorção da realidade pode afetar o desenvolvimento de indivíduos. Aplicado à segurança, isso gera um caos social potencializado pela manipulação.

Temos diante de nós dois futuros simultâneos que disputam a hegemonia dos próximos anos. Um deles é o prometido pela indústria, com organizações que combinam governança e automação para agir de forma proativa. Do outro lado, há o das “fábricas de golpes”, que operam com eficiência asséptica e multiplicam ataques como se fossem campanhas de marketing.

Vivemos uma evidente e grave falha sistêmica em nossa sociedade. Se a tecnologia avançou tanto, chega a ser inaceitável que a proteção real das pessoas continue dependendo, de maneira determinante, do bom senso individual e de táticas analógicas de verificação diante de ataques tão sofisticados.

É cada vez mais difícil resistir à sedução algorítmica, seja para comprar todo tipo de quinquilharia, seja ao cair em golpes. Esse é um embate profundamente desigual entre máquinas e pessoas.

Precisamos urgentemente parar de tratar a cibersegurança como um produto de prateleira e encará-la como um pacto civilizatório de educação e de proteção mútua. Enquanto delegarmos apenas à tecnologia a solução de problemas que são essencialmente humanos e éticos, continuaremos sendo as vítimas perfeitas de um algoritmo que aprendeu a nos explorar melhor do que nós sabemos nos defender.

 

Patrick Hevesi e Oscar Isaka, do Gartner, durante a abertura da conferência sobre segurança e gestão de risco – Foto: divulgação

Euforia pela IA ajuda a transformar cibersegurança em pilar estratégico dos negócios

By | Tecnologia | No Comments

No dia 2 de julho, o Brasil acordou com a notícia do maior crime digital da sua história: o ataque à C&M Software, que desviou pelo menos R$ 800 milhões de instituições financeiras conectadas ao Pix. Não houve violação ao sistema, pois os criminosos fizeram as transferências usando credenciais legítimas de um prestador de serviços. Isso demonstra que a cibersegurança não pode mais se limitar à proteção da estrutura de TI, precisando envolver pessoas, dados e processos. A inteligência artificial destaca ainda mais o tema, que deve ser visto como um pilar dos negócios.

Essas foram algumas das principais conclusões da Conferência Gartner de Segurança e Gestão de Risco, que aconteceu em São Paulo nos dias 5 e 6 de agosto. A mensagem central do evento foi que gestores não podem ignorar ou combater a euforia em torno da IA, e sim usá-la como motor de mudanças planejadas que diferenciam líderes apenas reativos daqueles que realmente geram valor estratégico.

Essa visão já é realidade em mercados mais maduros e avança globalmente, inclusive no Brasil. Estudos do Gartner sugerem que, até 2026, metade dos executivos de alto escalão deverá ter indicadores de performance em cibersegurança atrelados aos seus contratos de remuneração, e isso não se restringe aos líderes de tecnologia.

Não dá para ser diferente. Os bandidos já usam a IA para sofisticar seus ataques, como na adoção de agentes de IA que imitam o comportamento humano para burlar proteções de segurança. Assim, a IA automatiza ameaças em grande escala.

Isso não afeta apenas grandes corporações. Com a “Internet dos humanos” evoluindo para dispositivos ligados às pessoas (e eventualmente controlando funções vitais, como um marcapasso conectado), hackers poderão ameaçar vidas remotamente.

Nesse cenário, a preocupação não deve ser se estamos seguros, e sim se estamos tomando medidas adequadas para mitigar ameaças dentro do nosso apetite de risco.


Veja esse artigo em vídeo:


Para isso, a implantação de uma governança eficaz é crucial. O primeiro passo é começar pequeno, evitando uma sobrecarga inicial de dados e incidentes. Em seguida, é fundamental identificar e priorizar riscos, atribuindo-lhes valor financeiro para orientar os investimentos. Outro ponto central é traduzir os riscos de dados em linguagem de negócio, facilitando o entendimento e o apoio da alta gestão.

“Usar a energia da mudança ou o entusiasmo das pessoas para alimentar nossa agenda é uma jogada de poder político no que as pessoas chamam de tempos interessantes”, explicou Oscar Isaka, diretor-sênior do Gartner. “Os incidentes cibernéticos associados à tecnologia exploratória estão atingindo os resultados financeiros, então os executivos estão prestando atenção à cibersegurança.”

O Gartner sugere que os executivos de segurança da informação trabalhem três pontos para conseguir isso. No primeiro eixo, devem demonstrar como os investimentos em segurança contribuem para os objetivos da empresa, usando transparência e dados, em vez de medo e incerteza.

Além disso, a segurança cibernética deve ser vista como um laboratório para experimentação com IA. Ao adotar essa tecnologia para análise de ameaças, a área de segurança não apenas mitiga riscos, mas também impulsiona as ambições de longo prazo da empresa em inteligência artificial.

Por fim, a agilidade nas mudanças é essencial, pois a IA amplia a superfície de ataque e os riscos, como ameaças internas potencializadas por ela. Nesse ponto, os profissionais devem ser treinados e ter autonomia. Assim, automatizarão tarefas repetitivas, enquanto desenvolvem novas habilidades para impulsionar o seu crescimento, tornando-se agentes resilientes da mudança.

Mas nada disso resolve se cuidados básicos com as pessoas não forem observados.

 

O fator humano

Os gestores precisam transformar o comportamento dos usuários, sejam eles funcionários ou clientes, para que a segurança se torne um hábito, e não uma obrigação imposta. E temos uma cultura muito pobre nisso.

Isaka deu como exemplo a naturalidade com que compartilhamos nosso CPF para descontos em farmácias ou até para abrir a comanda em um bar. “O CPF é o que nos torna cidadãos brasileiros”, alertou. Segundo ele, “se eu pegar seu CPF e informar na Receita Federal, eu saberei mais de você do que você mesmo!”

O mesmo vale para a banalização dos QR Codes, escaneados sem preocupação e que podem levar a pessoa a um site em que seus dados pessoais serão roubados. Isso se reflete no trabalho, onde funcionários podem, com a mesma displicência, inserir dados sensíveis da empresa em sites não seguros ou em plataformas de IA.

Essa falta de cultura torna as pessoas o elo mais fraco. Elas podem ver os controles de segurança como um obstáculo em seu cotidiano, procurando formas de contorná-los para “fazer seu trabalho mais rápido”, ou cometer erros por falta de atenção.

Segundo Paulo Aresta, analista-sênior do Gartner, a rigidez de algumas regras de segurança não é uma escolha, e sim uma consequência de uma cultura organizacional sem colaboração, comunicação eficaz ou uma visão de riscos e objetivos compartilhada entre a segurança e o negócio.

“Quando colocamos pressão na gestão de segurança, ela tende a ter dificuldades em ser aplicada de uma maneira objetiva e eficaz”, afirmou. Ele explicou que apenas 14% das empresas conseguem equilibrar a segurança e a agilidade para inovar e crescer.

Ninguém pode dizer que está seguro. O desafio das empresas é que, quando (e não “se”) ataques ocorrerem, elas não sejam pegas de surpresa. Os incidentes são inevitáveis, mas podem ter impactos minimizados com preparo e reação rápida.

Obviamente não dá para “nos proteger do futuro”, mas podemos nos tornar “prontos para o futuro”. Isso exige que tenhamos uma mentalidade que vá além das urgências do dia a dia, para podermos antecipar cenários disruptivos.

Afinal, o futuro está sempre em movimento. Não devemos buscar ser infalíveis, mas sim ágeis e resilientes para nos adaptarmos ao que vier.

 

Segundo a empresa de segurança digital Tenable, plataformas de IA na nuvem sofrem ameaças do “efeito Jenga” – Foto: Creative Commons

Inteligência artificial escancara como a inovação desgovernada ameaça os negócios

By | Tecnologia | No Comments

A explosão do uso da inteligência artificial nas empresas tem gerado uma corrida por eficiência e inovação. Mas junto com os benefícios, crescem as falhas de segurança. Segundo o relatório “Riscos da IA na Nuvem 2025”, recém-publicado pela empresa de segurança digital Tenable, 70% das aplicações com IA em servidores online têm pelo menos uma vulnerabilidade crítica, frente aos 50% em ambientes sem IA.

O problema não vem da tecnologia, e sim de descuidos. Em uma pesquisa realizada pela consultoria Forrester para a Tenable em 2023, 76% dos responsáveis pela implantação de IA afirmaram estar mais preocupados com disponibilidade que com segurança. Essa busca frenética por lançamentos e resultados atropela processos fundamentais, como testes de robustez e revisão de código e de dados.

Segundo a pesquisa global da consultoria McKinsey sobre o uso de IA publicada no mês passado, 78% das organizações já a utilizavam em pelo menos uma atividade de seu negócio em julho de 2024, um salto expressivo em relação aos 55% no fim de 2023. O uso de IA generativa passou de 33% para 71% no mesmo período.

Já o relatório do “Custo das violações de dados de 2024”, publicado pela IBM, mostra que o custo médio de um vazamento de dados saltou 10% em um ano, chegando a US$ 4,88 milhões (no Brasil, esse valor é de US$ 1,36 milhão). O prejuízo não é apenas financeiro, envolvendo paralisação de operações, multas regulatórias, perda de confiança e danos de reputação que podem levar anos para serem reparados.

Tudo isso acende um grande alerta vermelho: empresas de todos os setores estão massivamente abraçando a inteligência artificial sem os cuidados necessários para que essa tecnologia traga resultados confiáveis sem ameaçar suas operações.


Veja esse artigo em vídeo:


Pressionadas por acionistas e pelo mercado, as empresas relaxam com os cuidados. “Na tentativa de acompanhar a revolução trazida pela IA, organizações avançaram a toda velocidade, ignorando inúmeros sinais de alerta de segurança, privacidade e conformidade”, explica Arthur Capella, diretor-geral da Tenable no Brasil. Segundo ele, 38% delas sofrem da chamada “tríade tóxica”, composta por alta exposição, privilégios excessivos e vulnerabilidades críticas, elevando drasticamente seus riscos.

Tais privilégios se referem ao que os usuários podem fazer nos sistemas. Como muitos gestores de TI mantêm as configurações padrão nas plataformas, as pessoas acabam tendo mais poder do que deveriam. Essa falta de rigor contrasta com a filosofia “Zero Trust”, que parte do princípio de que nenhum usuário ou sistema é confiável por padrão, exigindo autorização contínua.

A complexidade aumenta com o que a Tenable chama de “Efeito Jenga”. Assim como no famoso jogo, em que cada bloco sustenta toda a torre, os provedores de nuvem costumam empilhar serviços de IA uns sobre os outros, com privilégios excessivos, criando riscos às vezes invisíveis aos usuários. Daí basta uma configuração insegura em um deles para comprometer toda a arquitetura, graças a essa interdependência.

Parte desse problema acontece porque o modelo de responsabilidade compartilhada na nuvem é mal compreendido. Muitas empresas acreditam que o provedor garante toda a segurança, quando, na verdade, a configuração e o controle de acessos são responsabilidade do cliente. É como alugar uma loja em um shopping, que garante a segurança do prédio, mas quem define quem entra e sai da loja é seu proprietário.

A cultura da segurança da informação deve, portanto, permear todos os setores e níveis das empresas. Não se trata apenas de identificar lacunas, mas de classificar componentes de IA e avaliar o impacto ao negócio, entendendo suas vulnerabilidades.

 

Muito além de TI

“A tecnologia não é mais apenas a tarefa do TI”, afirma Capella. “Ela envolve todas as camadas do negócio e gera vantagens competitivas, consequentemente a segurança da informação deve ser discutida com o board”, acrescenta, ressaltando sua urgência.

No Brasil, ela é agravada por uma abordagem muito reativa. Segundo o estudo da Forrester, 60% das equipes de segurança nacionais se concentram no combate a ataques consumados, em vez de trabalharem para evitá-los. Isso se deve à falta de visão de ativos desconhecidos, de recursos de nuvem, de fragilidades de código e de permissões de usuários. E 72% dos entrevistados reconhecem que seriam muito mais eficazes se dispusessem de recursos preventivos e ferramentas adequadas.

Estamos diante de um paradoxo. Quanto mais inteligente fica a tecnologia, mais frágeis se tornam suas fundações, se não forem cuidadas com rigor. A IA e a computação em nuvem não são à prova de falhas, e tornam as estruturas digitais mais complexas e, portanto, vulneráveis.

Entretanto, vale lembrar que a IA também é parte da solução. Se hackers a usam para criar golpes personalizados e malwares, defensores se valem dela para detectar ameaças e responder em tempo real, prevenindo fraudes e monitorando comportamentos. Mas essa IA também precisa ser protegida contra manipulações, desenvolvimento de vieses e “envenenamento de dados”.

Esse é um novo desafio estratégico. As companhias devem, por exemplo, estar atentas a como essa nova situação as expõe a riscos frente à Lei Geral de Proteção de Dados (LGPD). Afinal, segundo a legislação, não importa se um vazamento ocorreu em uma ferramenta de IA, mas sim que ele ocorreu e que danos foram causados.

A transformação digital impulsionada pela IA é irreversível. Negá-la significa ficar rapidamente para trás. Por outro lado, abraçá-la sem uma nova mentalidade de risco e de segurança cria problemas novos e graves. As lideranças empresariais precisam encarar a segurança da IA não como um custo ou uma barreira à inovação, mas como um ativo estratégico fundamental.

Investir em prevenção, governança robusta, cultura de segurança distribuída pela organização e capacitação contínua das equipes é o caminho para garantir que a inovação seja sustentável. O Brasil tem a oportunidade de se destacar globalmente se conseguir equilibrar agilidade e segurança, tornando-se referência em proteção na era da IA. Mas, para isso, precisa fazer os movimentos necessários. Os líderes que continuarem empilhando descuidadamente blocos da inovação sobre bases instáveis descobrirão, mais cedo ou mais tarde, que suas torres digitais também podem ruir.

 

O finlandês Mikko Hyppönen mostra um disquete para relembrar o início de sua carreira, no palco do Mind The Sec - Foto: reprodução

Segurança digital deveria ser ensinada na escola, desde a infância

By | Educação, Tecnologia | No Comments

Os smartphones sempre foram muito cobiçados pelos criminosos pelo seu alto valor e facilidade de negociação. De dois anos para cá, esse apetite cresceu muito, especialmente em São Paulo. Mas ironicamente os bandidos não estão interessados no aparelho, e sim nas diversas portas valiosas que ele abre para a vida da vítima, especialmente suas contas bancárias e cartões de crédito.

As pilhas de pessoas que tiveram todas as suas economias roubadas dessa forma escancaram como a cibersegurança deixou de ser uma preocupação corporativa e invadiu a vida de todos nós. As vítimas são cada vez mais jovens, incluindo crianças, o que indica que o tema deveria ser inserido nos currículos escolares, adequados à idade de cada aluno.

Os meliantes digitais espalham-se pela sociedade. As empresas preocupam-se com roubos de dados e invasões que paralisem suas atividades. As pessoas temem cair em golpes e que suas identidades sejam roubadas. E agora as crianças estão expostas a diferentes tipos de abusos online e a jogos que podem colocar as finanças de suas famílias em risco.

Ao educar crianças e adolescentes em cibersegurança, a sociedade prepara cidadãos menos suscetíveis aos ataques cada vez mais criativos e ousados do cibercrime. Os sistemas de segurança fazem bem o seu trabalho, por isso as pessoas passaram a ser o foco dos marginais. Então quanto mais cedo essa instrução for feita, melhor será a proteção de toda a sociedade.


Veja esse artigo em vídeo:


A criminalidade beneficia-se profundamente do meio digital. Até não muito tempo atrás, os criminosos assaltavam agências bancárias e carros-fortes, com um ganho razoável, mas com altíssimo risco de serem presos e até mortos! Com sua digitalização, agora eles praticam milhares de pequenos golpes, que lhes rendem ganhos maiores praticamente sem nenhum risco. E pessoas e empresas sem cultura de cibersegurança facilitam enormemente suas ações.

“O crime sempre esteve na vantagem, não tem regulação, não se preocupa com fazer alguma coisa errada e aparecer na mídia”, afirma Paulo Baldin, CISO e CTO da Flipside, empresa que organizou, na semana passada, o Mind The Sec, maior evento de cibersegurança da América Latina, em São Paulo. “Tudo o que eles fizerem está valendo e, quanto pior for o cenário, melhor para eles”, acrescenta.

“Quando olhamos para estatísticas internacionais, uma explicação para o motivo pelo qual o Brasil é tão atacado é a quantidade de sistemas antigos que ainda estão em uso”, diz o finlandês Mikko Hyppönen, uma das principais autoridades globais em cibersegurança e um dos principais palestrantes no Mind The Sec. “Você não pode proteger um sistema que não possa atualizar contra vulnerabilidades de segurança”, explica o especialista, que, em 2016, criou uma “lei” que indica que qualquer equipamento “inteligente” também é vulnerável.

“Hoje existe uma espécie de ‘miniguerra mundial cibernética’, com todos os países atacando uns aos outros”, sugere o chileno Gabriel Bergel, outra liderança global no setor presente no Mind The Sec. “O Brasil tem muita história nessa área, e a maior e mais madura comunidade de cibersegurança da região, mas, ao mesmo tempo, novos malwares e ransomwares são desenvolvidos aqui”, explica. Por isso, especialistas afirmam que o governo deve criar políticas modernas de combate ao crime digital.

A explosão dos usos da inteligência artificial torna o problema ainda mais grave, pois os bandidos estão usando essa tecnologia para ganhar escala e eficiência, tanto nas práticas de engenharia social (para enganar as vítimas), quanto no desenvolvimento de códigos maliciosos para infectar sistemas.

 

Não dá para se ter tudo

“Em cibersegurança, tudo é uma troca”, explica Hyppönen. Para ele, “quando privacidade e segurança entram em conflito, podemos querer ter as duas coisas, mas às vezes não dá!”

Até não muito tempo atrás, a segurança digital não costumava ir além de manter um bom antivírus, firewall e monitoramento de e-mails. Isso ficou no passado com o trabalho híbrido, que permite que funcionários trabalhem um dia no escritório e outro na praia, conectado em uma rede potencialmente insegura. Além disso, os sistemas corporativos, que costumavam ficar isolados nos servidores da empresa, hoje se conectam com plataformas de diversas fontes, como parceiros e clientes.

Por isso, a cibersegurança passa agora pelo que se chama de “observabilidade”, ou seja, monitorar continuamente sistemas e usuários para saber o que é um uso “normal” de cada um, para identificar rapidamente ações suspeitas e prevenir ataques.

“A triste verdade é que a defesa contra invasores avançados geralmente requer reunir grandes quantidades de telemetria, alertar em tempo real e responder rapidamente antes que um ataque possa ser concluído”, adverte o americano Alex Stamos, outro palestrante central do Mind The Sec. “Em redes corporativas, isso não precisa ter um grande impacto na privacidade pessoal, mas no caso de proteger grandes plataformas de consumidores ou nações inteiras, há um difícil equilíbrio entre proteger indivíduos de invasores e dos próprios protetores”, explica.

“Se eu implementar uma política que impacta a produtividade do usuário, isso acaba não sendo viável, porque impacta o negócio”, alerta Flavio Povoa, gerente de engenharia de sistemas da HPE Aruba Networking. “Eu preciso entender quem são esses usuários, com quem eles se comunicam, usar a IA para entender que tipo de dispositivo é esse e qual sua função na rede”, acrescenta.

Em um mundo em que tudo parece estar sendo potencializado pela inteligência artificial e onde os smartphones abrem portas para os serviços que usamos e até para nossos dados mais íntimos, não há mais espaço para pessoas e empresas trataram a segurança digital de forma displicente. Precisamos entender que a mesma tecnologia que nos facilita imensamente o cotidiano também apresenta riscos consideráveis.

Esse será o nosso cotidiano de agora em diante! O melhor que todos podem fazer é assumir e entender os riscos, criar mecanismos para se defender deles e estar preparado para encontrar saídas, caso o pior aconteça.

Ninguém está imune ao cibercrime! Quanto mais cedo aprendermos a lidar com ele, mas eficiente será a nossa resposta a esses novos desafios em nossas vidas.


Veja a íntegra em vídeo da entrevista com Paulo Baldin, CISO e CTO da Flipside:

 

Sameer Samat, diretor de produtos do Android, apresenta novidades de segurança do sistema durante o Google I/O 2024 - Foto: reprodução

Criminalidade brasileira transforma smartphones e inteligência artificial

By | Tecnologia | No Comments

A semana passada foi pródiga em lançamentos na área de tecnologia, fortemente impulsionados pela inteligência artificial. Em meio a tantas novidades, alguns recursos de cibersegurança me chamaram atenção, porque podem ajudar muito no combate à criminalidade digital no Brasil ou até foram explicitamente criados para atender a demandas de usuários de nosso país.

Na terça (14), o Google anunciou, durante seu evento anual Google I/O, um grande pacote de novidades na sua plataforma de inteligência artificial Gemini e no sistema operacional Android. No dia anterior, a OpenAI mostrou o novo cérebro do ChatGPT, o GPT-4o, que se aproxima incrivelmente da capacidade conversacional humana, incluindo reconhecimento em tempo real de texto, áudio e vídeo.

As referidas novidades de segurança fazem parte do novo Android. Uma delas automaticamente travará o smartphone no caso de roubo pelas infames “gangues de bicicleta”, que assombram os brasileiros, especialmente em São Paulo. A outra tentará identificar, em chamadas por voz, possíveis golpes, avisando imediatamente a vítima para que não acredite na mentira. A IA é o motor de ambos os recursos.

Fiquei feliz ao saber dessas funcionalidades! Tristemente, há anos o brasileiro se obriga a limitar o uso de tecnologias revolucionárias pela ação de criminosos. É o caso de restrições ao Pix, de andar com smartphones sem todos os aplicativos e até de não poder usar caixas eletrônicos de madrugada.

Já passa da hora de as big techs se envolverem na solução desses problemas!


Veja esse artigo em vídeo:


O nome do recurso contra as “gangues de bicicleta” é “Bloqueio de Proteção Contra Roubo” (“Theft Protection Lock”). Durante o Google I/O, Sameer Samat, diretor de produtos do Android, disse que esteve no Brasil no ano passado para conversar com a equipe local da empresa e com autoridades sobre essa modalidade de roubo, que faz um número assombroso de vítimas, especialmente para usar aplicativos bancários para desvio de valores e redes sociais para aplicar golpes em nome das vítimas.

Com a novidade, quando a IA do smartphone identificar uma mudança brusca de movimento, seguida de um padrão que indique um deslocamento por bicicleta, o smartphone será bloqueado. Essa identificação acontece por uma combinação de sensores do aparelho, inclusive do seu acelerômetro.

Já a ferramenta contra golpes telefônicos funciona com a inteligência artificial monitorando continuamente as conversas do usuário com alguém ligando de um número desconhecido, procurando por frases suspeitas. No palco do Google I/O, Dave Burke, vice-presidente de engenharia do Android, simulou uma conversa em que o interlocutor dizia ser funcionário do seu banco, sugerindo que ele transferisse seu dinheiro para outra conta por supostas atividades suspeitas na sua. Nesse momento, o aparelho tocou um alerta sonoro e a tela exibiu uma mensagem que dizia que “bancos nunca pedirão para transferir seu dinheiro para sua segurança.”

Outro recurso de segurança apresentado oculta mensagens e notificações com informações sensíveis, senhas ou autenticações em dois fatores. O objetivo é evitar que, no caso de o smartphone ser clonado ou de sua tela estar espelhada em outros dispositivos, criminosos tenham acesso a essas informações confidenciais.

Burke disse que as pessoas perderam mais de US$ 1 trilhão em golpes digitais no ano passado, em todo o mundo. Esse número astronômico faz sentido: apesar de os bandidos ainda poderem ser presos eventualmente, a chance de isso acontecer é muito menor que em assaltos a bancos, além de muito menos arriscados.

Esses novos recursos de segurança farão parte da versão 15 do sistema operacional Android, que deve ser lançada no final do ano, mas também devem chegar a smartphones com Android a partir da versão 10. Ainda não foi definida a data para essa atualização.

 

Proteção pela IA

Os golpes digitais crescem a olhos vistos: a toda hora, surge uma nova modalidade, aproveitando-se de falhas dos sistemas e especialmente da inocência e inexperiência dos usuários. E os smartphones são o principal canal para sua execução.

Os bancos ficam em uma situação bastante cômoda diante desse gravíssimo problema. Argumentam que a culpa é do seu cliente e raramente ressarcem os valores. Na verdade, a pessoa é a vítima e os aplicativos dos bancos fazem pouco para protegê-la. Essa postura se assemelha a dizer que o correntista seria culpado por fazer um saque no caixa em uma agência com um bandido lhe apontando uma arma para sua cabeça.

As autoridades tratam o problema como caso de polícia, mas isso é insuficiente para eliminá-lo pelo absurdo volume de ocorrências. Adotam também medidas paliativas, como impedir o uso de caixas eletrônicos de madrugada, pelos sequestros-relâmpago.

As big techs, particularmente o Google e a Apple, criadoras dos sistemas operacionais de todos os smartphones do mundo, há anos lançam recursos para minimizar o problema, mas eles também são claramente insuficientes. Os cibercriminosos conseguem superar muitas dessas barreiras tecnológicas, o que chega a ser assustador, considerando os milhões de dólares investidos no seu desenvolvimento desses recursos.

Agora a inteligência artificial desponta como uma esperança para equilibrar essa balança. De fato, ela consegue oferecer aos smartphones habilidades até então inimagináveis, em diversas atividades.

As big techs desempenham um papel absolutamente central na solução do cibercrime, pois ele acontece usando suas tecnologias e plataformas. Mas isso não desobriga as autoridades e os bancos de se empenharem muito mais na busca por saídas, assumindo a responsabilidade que têm na segurança do cidadão e dos próprios clientes. Jogar a culpa no outro é uma atitude preguiçosa e vergonhosa!

Já não é de hoje que os smartphones se tornaram o centro de nossas vidas, pois fazemos uma grande quantidade de atividades com eles. Sem segurança, todas essas ferramentas ficam comprometidas. Por isso, esses recursos agora anunciados são muito bem-vindos. Esperamos apenas que os cibercriminosas não consigam superar também essas proteções.

 

Inteligência artificial pode deixar o mundo mais seguro e também perigoso

By | Tecnologia | No Comments

Como de qualquer ferramenta, os resultados da inteligência artificial dependem das ações de quem a utiliza. Pessoas que fazem usos positivos dela produzirão bons frutos. Já as de má índole podem causar danos profundos. Com seu poder disruptivo, essas consequências podem ser críticas! Esse foi o tema de um dos principais painéis do Web Summit Rio, um dos mais importantes eventos globais de tecnologia, mídia e inovação, que aconteceu no Rio de Janeiro, de terça a quinta da semana passada.

Um dos problemas deriva de a IA oferecer mecanismos para se alterar a realidade ou criar mentiras muito convincentes. Isso abre incontáveis possibilidade de golpes, ameaçando indivíduos, empresas e sociedades inteiras, como no caso de eleições. “Se a confiança for perdida, ficará muito difícil continuar inovando em coisas boas na IA”, disse no painel o estoniano Kaarel Kotkas, CEO da empresa de segurança Veriff.

Felizmente a mesma IA oferece recursos para combater essas ameaças. “A gente precisa pensar que seremos cada vez mais uma sociedade baseada em tecnologia”, me disse no evento Cesar Gon, CEO da empresa de tecnologia CI&T. “É importante acompanhar para onde a tecnologia vai e criar limites, mas garantindo que a ciência e a tecnologia continuem evoluindo para resolver os problemas humanos”, explicou, ressaltando que a IA deve sempre estar alinhada com os interesses da sociedade.

Diante de tanto poder computacional, chega a ser irônico que a maioria dos golpes não envolva invasão de sistemas. O elo mais frágil na segurança continua sendo o ser humano, enganado de diferentes maneiras para que repasse informações pessoais (como senhas) ou realize ações prejudiciais, uma técnica chamada de engenharia social. O que muda nisso com a IA é que os procedimentos para confundir as pessoas se tornam mais convincentes, difíceis de se identificar, e agora atingem muita gente, para aumentar a chance de fazerem suas vítimas.


Veja esse artigo em vídeo:


Esse é um dos grandes desafios da sociedade atualmente. Qualquer pessoa, mesmo alguém que domine a tecnologia, pode cair em golpes. Sua solução passa necessariamente pela educação dos usuários, mas também pelo comprometimento de empresas –de big techs a startups– para um desenvolvimento responsável dessas soluções, e de autoridades que criem regras claras para garantir isso.

Nesse cenário, técnicas tradicionais de proteção digital perdem eficiência. Mesmo autenticações em dois fatores –quando, além da senha, o usuário se autentica por um segundo método– podem expor pessoas e empresas. As companhias precisam adotar abordagens em camadas e usar múltiplas tecnologias, como autenticação avançada, verificação de dispositivos e incorporação preventiva de IA para detectar fraudes.

Os dados dos usuários valem ouro para os bandidos, mas também são importantes para sua identificação mais precisa. As empresas precisam ser transparentes sobre como serão usados, para que as pessoas se sintam confortáveis em compartilhá-los.

“Quando elas entendem esse valor, podem tomar uma decisão muito melhor sobre se querem compartilhar seus dados, para terem mais segurança”, disse no mesmo painel André Ferraz, CEO da empresa de identificação Incognia. “Se nós não formos capazes disso, as pessoas poderão deixar de acreditar na Internet”, concluiu.

As grandes empresas de tecnologia têm um papel decisivo na construção dessas boas práticas e na educação do mercado, até mesmo porque elas têm muito a perder se a situação se deteriorar para um cenário de desconfiança generalizada. “É essencial para elas perceberem que ignorar a importância de construir confiança e segurança em seus sistemas poderia prejudicar sua capacidade de implementar amplamente a tecnologia no futuro”, me explicou Kotkas. “Negligenciar isso poderia resultar em grandes repressões regulatórias e interromper o progresso na criação de novas tecnologias.”

A inteligência artificial também potencializa muito outro câncer social que se disseminou pelas redes sociais: a desinformação. O assunto foi abordado em diversas apresentações no Web Summit Rio, e ganha muita força em nesse ano, quando as maiores democracias do mundo realizarão eleições, incluindo municipais no Brasil, presidenciais nos EUA e gerais na Índia, país mais populoso do mundo, cujo pleito começou na semana passada e se estenderá por seis semanas.

 

Absurdos possíveis

As plataformas atuais de inteligência artificial tornaram muito mais fáceis, rápidas e baratas as confecções de deep fakes, técnica capaz de criar áudios, fotos e vídeos de pessoas realizando ações e dizendo coisas que nunca fizeram. Ela já existe há alguns anos, mas antes exigia equipamentos caros e bom conhecimento técnico, o que a tornava uma aplicação de nicho. Agora não é mais assim!

“Nas próximas eleições, o maior desafio não são as imagens, mas os áudios”, advertiu em outro painel Renata Lo Prete, editora-chefe do Jornal da Globo. “Com apenas um ou dois minutos da voz real de alguém, é possível criar um áudio falso perfeito, por menos de US$ 5 e em menos de cinco minutos, uma questão crítica, especialmente no Brasil, líder em trocas de mensagens pelo WhatsApp”, explicou.

Isso já acontece! Na eleição presidencial argentina, as equipes dos candidatos que foram ao segundo turno, o peronista Sergio Massa e o ultraliberal Javier Milei, fizeram amplo uso da IA para atingir as imagens dos adversários. Em outro caso internacional, americanos receberam ligações com a voz do presidente Joe Biden dizendo para que não votassem nas eleições primárias. E por aqui, um áudio com a voz do prefeito de Manaus, David Almeida, fazia ofensas contra professores. Tudo isso era falso!

Os diversos agentes da sociedade precisam se unir para que a IA seja usada de maneira positiva, sem “cortinas de fumaça” que mascaram interesses de um ou outro grupo. “Esse debate se misturou com uma visão bastante ingênua de fim do mundo, que nos afasta de discutir os reais impactos, que são a natureza do trabalho, os empregos, segurança, privacidade, ética e os algoritmos viciados”, explicou Gon.

“Nesse momento, talvez alguns humanos estejam procurando algo mágico”, disse o americano Todd Olson, CEO da empresa de software Pendo, em outro painel. “Não precisamos de mágica, mas de saber exatamente o que acontece, para que possamos aumentar a confiança na tecnologia”, concluiu.

Não dá para fugirmos desse debate, que nos envolve a todos cada vez mais. Gostemos ou não, a inteligência artificial se tornou nossa parceira. Por isso, ela precisa ser confiável e segura.


Assista e esse vídeo relacionado:

Íntegra da entrevista com Cesar Gon, CEO da CI&T