dados

Gilson Magalhães, novo diretor-geral da Red Hat Latin America, se apresenta no Summit Connect, em São Paulo, no dia 8 - Foto: Red Hat

Muitos querem “ganhar na loteria” com a IA, mas poucos fazem o necessário para isso

By | Tecnologia | No Comments

A inteligência artificial generativa está prestes a completar dois anos de mercado. Desde o lançamento do ChatGPT, em 30 de novembro de 2022, ela vem redefinindo o mundo com uma velocidade nunca vista, não só pelos 100 milhões de usuários nos seus primeiros dois meses, mas pela avalanche de aplicações que prometem facilitar as mais diversas tarefas. Porém, apesar dessa euforia, não há milagre nisso, e poucas pessoas entendem como tirar o proveito máximo dela.

“Eu tenho convicção de que a tecnologia atual, que ainda é incipiente, é o embrião de uma nova civilização”, proclamou Gilson Magalhães, novo diretor-geral na América Latina da Red Hat, a maior empresa de software open source do mundo. “É preciso ter muita atenção a essa tecnologia, porque ela é de altíssimo impacto, e vai crescer progressivamente, trazendo novos insumos”, acrescentou, durante o Red Hat Summit Connect, principal evento da empresa no país, que aconteceu no dia 8, em São Paulo.

Mas ainda há muito mais entusiasmo que conhecimento em torno da IA. Tanto que um estudo recente da consultoria Gartner indicou que metade das iniciativas com essa tecnologia se limita a ferramentas de produtividade para as equipes, enquanto 30% agem nos processos. Implantações para verdadeiramente transformar o negócio, o que indicaria seu uso mais robusto, acontecem em apenas 20% dos casos.

Magalhães deixa bastante claro: as pessoas querem “mágica” da IA, mas não funciona assim. Como qualquer outra tecnologia, os resultados vêm com informação e trabalho.

É um cenário semelhante aos primórdios de outras tecnologias que transformaram dramaticamente o mundo: a Internet comercial e os smartphones. Nem em seus sonhos mais loucos, os responsáveis por esses lançamentos poderiam imaginar o que surgiria daquilo! Não obstante, cá estamos, com vidas profundamente digitalizadas.

Cabe a essa geração aprender a usar a inteligência artificial de maneira construtiva, segura e ética, criando utilizações que talvez hoje se pareceriam mesmo com mágica.


Veja esse artigo em vídeo:


“Nós precisamos organizar nossa vida, mas temos tantas tarefas diárias, cuidar da agenda, da saúde, dos filhos, da família, e as pessoas estão vivendo mais”, propõe Sandra Vaz, diretora-sênior de Alianças e Canais da Red Hat Latin America. “A inteligência artificial será a nossa grande parceira para que possamos ter mais produtividade e tomar decisões melhores frente à nossa concorrência”, acrescenta.

Há um caminho a ser percorrido. As empresas precisam substituir a euforia por conhecimento, capacitar suas equipes e envolver as pessoas na adoção da IA.

“Todo esse tema de IA Generativa ainda tem uma compreensão baixa no mercado”, explica Thiago Araki, diretor-sênior de Tecnologia da Red Hat Latin America. Ele explica que as empresas começam a entender que não haverá uma IA que resolverá todos os problemas, que serão necessários trabalhar com diferentes modelos. “Então ainda não temos projetos muito avançados, porque é tudo muito novo”, conclui.

Mesmo com tudo isso, cresce no mercado um consenso de que profissionais e empresas que adotem conscientemente a inteligência artificial construirão uma vantagem enorme sobre seus concorrentes. Mas isso dependerá não apenas de bons algoritmos, mas também de bons dados, um tema tratado de maneira displicente em uma parcela assustadoramente grande de empresas.

O problema começa por diferentes departamentos coletarem suas próprias informações, sem compartilhá-las com o resto da empresa. Não raro, esses dados são redundantes –e pior, conflitantes– com os de outros departamentos. O problema se agrava por metodologia frágeis para sua captura e atualização.

Mesmo com o mais incrível algoritmo, a IA trará respostas ruins se for alimentada com informações de baixa qualidade.

 

A era dos agentes

Apesar de já existirem literalmente milhares de aplicações impulsionadas pela inteligência artificial generativa, automatizando tarefas bem específicas, a maioria das pessoas continua usando ferramentas não-especializadas, como o próprio ChatGPT ou o Gemini, do Google. Mas isso tende a mudar, com a ascensão dos agentes.

Eles são sistemas baseados em IA autônomos ou semiautônomos, criados para realizar tarefas específicas, a partir de interações com o usuário ou o ambiente. Eles podem aprender e se refinar com o uso, e funcionam a partir de dados selecionados.

Magalhães acredita que a inteligência artificial não evoluirá para um supercérebro eletrônico, capaz de realizar qualquer coisa, como se vê na ficção científica. Ao invés disso, ele aposta no surgimento de incontáveis agentes aprimorando nossa capacidade de realizar virtualmente qualquer tarefa.

Naturalmente, existirão agentes oferecidos prontos por empresas, melhorando a eficiência de seus produtos. Mas já se pode criar os próprios agentes usando plataformas como o ChatGPT.

Talvez isso ainda pareça ficção científica ou no mínimo algo nada trivial para a maioria das pessoas. Mas o recurso já está disponível e deve ser, pelo menos, aprendido. Afinal, houve uma época em que o Google também era uma novidade, e hoje ele está totalmente integrado à vida de todos nós!

Apesar de ser uma discussão tecnológica, as empresas falham também quando esquecem de incluir as pessoas. Outro estudo do Gartner indica que apenas 14% dos líderes de RH estão envolvidos em conversas sobre IA. É um grande erro, pois, com isso, as pessoas não se sentem parte da jornada da IA na organização.

Tudo isso pode parecer uma exigência um tanto opressora para muita gente, que gostaria de continuar levando uma vida sem IA. São escolhas! É preciso entender que, a médio prazo, isso pode realmente custar a competitividade profissional e até a se demorar mais tempo para fazer as mesmas coisas que seus amigos.

“É um desafio para todos, não tenho como dizer que é um caminho fácil”, afirma Magalhães. “A minha recomendação é: ‘não se afaste da IA’”, conclui.

Como costumo sempre dizer, diante da IA, não podemos ser nem deslumbrados, achando que ela fará tudo sozinha por nós, nem resistentes, rejeitando-a a qualquer custo. Com seu avanço galopante, ela realmente não é mágica, mas pode ajudar de maneira surpreendente a qualquer um que resolva dar os passos necessários para um uso consciente de todo esse poder.


Veja a íntegra em vídeo da entrevista com Gilson Magalhães, novo diretor-geral da Red Hat Latin America:

 

O CEO da Microsoft, Satya Nadella, apresenta a linha de computadores Copilot+, em evento da empresa em maio - Foto: reprodução

Mais que chips, novos computadores e celulares funcionam com nossos dados

By | Tecnologia | No Comments

Nos últimos meses, a corrida pelo domínio do mercado da inteligência artificial pariu novos computadores e celulares. Equipamentos da Microsoft, Google e Apple trazem recursos antes inimagináveis, que podem facilitar muito nosso cotidiano. Para que funcionem, são empurrados por processadores poderosos, mas precisam de outro componente vital: dados, muitos dados… nossos dados!

A IA depende de quantidades colossais de informações para que funcione bem. Essa nova geração de máquinas traz esse poder para a realidade de cada usuário, mas, para isso, precisam coletar vorazmente nossas informações. E isso faz sentido: se quisermos que a IA responda perguntas sobre nós mesmos, ela precisa nos conhecer.

É um caminho sem volta! Essa coleta crescerá gradativamente, trazendo resultados cada vez mais surpreendentes. Precisamos entender que nada disso é grátis. Isso leva a um patamar inédito um processo iniciado há cerca de 15 anos com as redes sociais e que ficou conhecido como “capitalismo de vigilância”: para usarmos seus serviços, as big techs coletam e usam nossas informações para nos vender todo tipo de quinquilharia e, em última instância, nos manipular.

O histórico de desrespeito dessas empresas com seus clientes joga contra elas. Queremos os benefícios da inteligência artificial, e isso pode ser feito de maneira ética e legal, mas qual garantia temos de que esses problemas não ficarão ainda maiores?


Veja esse artigo em vídeo:


Não temos essa garantia! As big techs primam pela falta de transparência em seus negócios, e lutam com unhas e dentes contra qualquer tentativa de legislação que coloque seu modelo em risco. Elas foram bem-sucedidas nesse processo, ao travar a criação de leis, inclusive no Brasil, que lhes atribuísse alguma responsabilidade por promoverem conteúdos nocivos aos indivíduos e à sociedade. O único lugar que conseguiu criar alguma regra assim foi a Europa. Agora, com a ascensão da IA, as big techs tentam repetir esse movimento para essa tecnologia.

É importante deixar claro que não sou contra a inteligência artificial: muito pelo contrário! Como pesquisador, reconheço os incríveis benefícios que traz. Mas como diz o ditado, não existe almoço grátis. Precisamos saber quanto estamos pagando!

Entre as novidades, estão os notebooks Copilot+, criados pela Microsoft e lançados por diferentes fabricantes, como Samsung, Dell e Lenovo. Entre outros recursos, eles trazem o Recall, que permite que pesquisemos qualquer coisa que já fizemos no computador. Para isso, ele registra todas as nossas atividades a cada poucos segundos. Essas máquinas também executam localmente diversas atividades de IA generativa que normalmente são executadas na Internet, como no ChatGPT.

O Apple Intelligence, pacote de serviços de IA da empresa para seus novos iPhones, iPads e Macs, cria uma camada de assistência inteligente que combina os dados do usuário distribuídos em múltiplos aplicativos. Muito disso acontece no próprio aparelho, mas há operações que dependem da “nuvem”. A Apple garante que ninguém, nem seus próprios funcionários, tem acesso a esses dados.

O Google AI, pacote de IA do gigante de buscas, oferece recursos interessantes, como um identificador de golpes telefônicos. Mas, para isso, precisa ouvir todas as chamadas de áudio que fizermos. Outro recurso permite que façamos perguntas sobre fotos que tenhamos tirado, às quais ele também tem acesso. A empresa disse que seus funcionários podem eventualmente analisar as perguntas, “para melhorar o produto e sua segurança”.

Todos os fabricantes demonstram grande preocupação com a segurança das informações pessoais, afirmando que tudo é criptografado e que nem eles mesmos têm acesso a isso. Mas a informática sempre mostrou que mesmo o melhor cadeado pode ser aberto por mentes malignas habilidosas.

 

“Raio-X da alma”

Todos esses novos sistemas têm uma incrível capacidade de criar relações e identificar padrões pelos cruzamentos de dados das mais diversas fontes e naturezas. Isso lhes permite compreender quem somos, nossas crenças, desejos, medos, como pensamos, criando um verdadeiro “raio-X de nossa alma”, com informações de valor inestimável para empresas, governos e até criminosos.

É curioso que, até pouco atrás, éramos mais preocupados com a nossa privacidade. Não compartilhávamos dados sem que soubéssemos (pelo menos em tese) o que seria feito deles. Eram pouquíssimas informações e elas não eram cruzadas entre si.

As redes sociais mudaram isso, com a ideia de que nossas informações também lhes pertencem, podendo fazer o que quiserem com elas para seu benefício. E elas fazem, mesmo quando isso prejudica seus usuários.

Um exemplo emblemático de proteção dos usuários aconteceu no início de julho, quando a Autoridade Nacional de Proteção de Dados (ANPD) proibiu a Meta (empresa dona do Facebook, Instagram e WhatsApp) de usar os dados dos brasileiros para treinar seus modelos de inteligência artificial. Infelizmente algo assim é muito raro!

Mesmo que não exista nenhum problema de privacidade, precisamos entender que essas máquinas inauguram um novo tipo de dependência e até de relação entre nós e a tecnologia. Quem assistiu ao filme “Ela” (2013), dirigido por Spike Jonze e estrelado por Joaquin Phoenix e Scarlett Johansson, sabe como isso funciona.

Na história, Theodore (Phoenix) se apaixona por Samantha (a voz de Johansson), o sistema operacional de seu computador e smartphone, movido por uma aparente inteligência artificial geral. Ela sabia tudo sobre ele, e usava essa informação para lhe facilitar a vida. Mas com o tempo, ele se viu em um inusitado relacionamento desequilibrado com uma máquina!

É por isso que, ao aceitarmos usar os incríveis recursos desses novos equipamentos, precisamos estar conscientes de como estaremos nos expondo para isso. Por mais bem-intencionadas que os fabricantes sejam (e há ressalvas nisso em muitos casos), existem riscos potenciais com os quais teremos que aprender a conviver.

Assim como qualquer outro serviço que exista graças à inteligência artificial, os fabricantes precisam assumir responsabilidades durante o desenvolvimento, algo que os já citados dizem fazer. Eles também dever ser responsabilizados se algo der errado durante seu uso, um risco bastante considerável, mas isso eles não aceitam.

É um mundo totalmente novo que se descortina diante de nós. As relações entre empresas, governos, instituições e pessoas precisam ser repensadas diante disso tudo. Caso contrário, clientes e cidadãos podem ficar em uma situação muito precária.

 

George Kurtz, fundador e CEO da CrowdStrike, empresa responsável pelo “apagão cibernético” da sexta - Foto: Seb Daly/Creative Commons

Apagão cibernético na sexta escancara como dependemos de uma frágil trama digital

By | Tecnologia | No Comments

Não foi um ataque terrorista, nem uma elaborada ação de hackers mercenários. O “apagão cibernético” que deixou o mundo em pânico na sexta (19) aconteceu pela prosaica falha na atualização do software de uma única empresa. Mas ele serviu para escancarar quão frágil é a infraestrutura digital em que depositamos nossas vidas.

O que podemos aprender com esse problema titânico?

A crise demonstrou que confiamos muito nos sistemas que gerenciam os serviços que usamos, e como as empresas estão pouco preparadas para continuar operando diante de uma falha crítica, mesmo resultando de um problema simplório, como nesse caso.

Ele aconteceu por um dos maiores benefícios do mundo moderno, que é a de termos serviços digitais constantemente atualizados e operando na “nuvem”. Apesar de trazer benefícios inegáveis em custos e em (ironicamente) estabilidade, essa configuração também pode fazer uma falha desastrosa se espalhar rapidamente, como nesse caso.

E pensar que a Internet nasceu em 1969 por encomenda de militares americanos, que queriam uma rede descentralizada, em que, se alguns computadores fossem destruídos por um ataque soviético, os outros continuariam funcionando. Agora a pane de sexta esclareceu que atacar a infraestrutura digital é a forma mais rápida e eficiente de submeter qualquer nação, algo explorável em guerras e chantagens.

O “apagão” nos lembrou também que apesar de acharmos que a Internet é algo etéreo, ela depende de fazendas de servidores, que consomem quantidades absurdas de energia. Além disso, intermináveis cabos físicos transmitem um volume colossal de dados, até mesmo cruzando oceanos pelos seus leitos.

Nesse cenário, quando se pensa em um conflito entre nações, sabotar a produção dessa energia ou literalmente cortar os cabos submarinos pode fazer o inimigo entrar em colapso instantaneamente. E essas estratégias são bem reais!


Veja esse artigo em vídeo:


Diante de tantas preocupações, governos e empresas tentam se proteger. Então como o apagão de sexta aconteceu de maneira tão devastadora?

O problema recai sobre uma atualização de rotina de um componente do software Falcon Sensor, da empresa americana de segurança cibernética CrowdStrike. Para proteger um computador contra, por exemplo, um vírus, ele precisa ser mais poderoso que o invasor. Assim é instalado nas camadas mais internas do sistema operacional, sendo carregado antes que qualquer malware, que poderia sabotar a sua execução.

Uma falha no código da atualização desse módulo na sexta gerou uma instabilidade no Windows, o mais usado em servidores no mundo todo. Com isso, o sistema operacional da Microsoft caía em uma tela azul, que para o equipamento para evitar problemas maiores, como a corrupção de dados. Como o Falcon é uma das primeiras coisas executadas quando o computador é ligado, ele travava irremediavelmente!

Com isso, milhares de empresas e instituições clientes da CrowdStrike ficaram de joelhos. A Microsoft estima que 8,5 milhões de computadores tenham sido afetados, o que parece muito, mas representa “apenas” 1% das instalações do Windows.

O problema foi rapidamente identificado e corrigido, para evitar mais vítimas. Mas apesar de o módulo defeituoso ter sido distribuído online, a correção precisa ser feita em cada computador, por um profissional de TI, em um processo penosamente lento.

A resiliência cibernética das empresas e instituições, a sua capacidade de prevenir, resistir e se recuperar de um problema digital, além de continuar operando caso o pior aconteça, foi posta à prova e falhou miseravelmente. Elas dependem umbilicalmente de seus sistemas, e pararam de funcionar ou operaram de maneira muito precária.

O mercado não perdoou a CrowdStrike. Criada há 13 anos e com quase 8.500 funcionários, seu valor de mercado derreteu mais de US$ 12 bilhões na sexta. George Kurtz, fundador e atual CEO da empresa, perdeu sozinho US$ 338 milhões.

 

Guerra cibernética

Apesar de enormes, os prejuízos causados pelo “apagão cibernético” de sexta seriam apenas uma pequena amostra do que aconteceria no caso de uma guerra cibernética entre grandes potências. E os já citados cabos submarinos seriam alvos preferenciais.

Repousarem no leito de oceanos não lhes garante proteção. Pelo contrário: torna sua defesa difícil, diante de frotas especializadas em cortá-los e grampeá-los. Estados Unidos, Rússia, China e possivelmente outros países possuem embarcações para essas sabotagens.

Segundo a empresa TeleGeography, existem mais de 600 cabos submarinos ativos ou planejados, estendendo-se por 1,4 milhão de quilômetros. Muitos têm a espessura de uma mangueira, mas transferem 200 terabytes por segundo. Os Estados Unidos e a Europa são conectados por apenas 17 deles. Por isso, isolá-los não seria tão difícil.

Todo ano, 100 cabos são danificados no mundo por acidentes navais ou atividade sísmica. Em compensação, reconstruir essa infraestrutura é algo lento e caríssimo, pois há apenas 60 barcos capazes de fazer isso no globo.

Sem eles, ficaríamos sem buscadores, redes sociais e quase tudo em nossos smartphones e computadores. Mas esse prejuízo ainda seria pequeno diante do enfrentado por empresas e instituições, paralisando o comércio, a indústria, os serviços e o mercado financeiro globais, provocando uma recessão sem precedentes.

Felizmente o que aconteceu na sexta foi apenas um “bug de computador”. Devemos encarar isso como um treinamento para algo mais grave que eventualmente aconteça. Não como uma visão apocalíptica, mas como o despertar para boas práticas que, no final das contas, melhorarão nosso uso da Internet. A segurança e a redundância devem estar na essência da vida digital e devemos ter sempre alternativas para crises.

Somos uma sociedade de dados, e essa é uma realidade inescapável. Por isso, um uso ético desse ativo fundamental e um cuidado rigoroso com a infraestrutura física e lógica são absolutamente críticos.

Que a crise gerada pela CrowdStrike sirva pelo menos para esse aprendizado, e que eventuais paralisações futuras aconteçam apenas por causa de uma possível tradução de seu nome –“greve geral”– e não por outro colapso na Internet.

 

Mark Zuckerberg, CEO da Meta: empresa quer usar dados de seus usuários para treinar sua IA - Foto: Anthony Quintano/Creative Commons

O que está por trás da proibição da Meta usar dados dos usuários para treinar sua IA

By | Tecnologia | No Comments

Na terça passada (2), a Autoridade Nacional de Proteção de Dados (ANPD) tomou a decisão de mais visibilidade e impacto da sua existência de cinco anos: proibiu a Meta (empresa dona do Facebook, Instagram e WhatsApp) de usar os dados dos usuários para treinar seus modelos de inteligência artificial. É a primeira vez que o órgão age contra uma big tech, em um movimento que impacta todos os internautas do país.

Segundo a ANPD, a maneira como a empresa está usando esses dados violaria a Lei Geral de Proteção de Dados (LGPD). O ineditismo da medida não se dá apenas pela sua abrangência, mas também por tratar de algo ligado à IA, uma área que empresas, governos e usuários ainda tentam compreender toda sua enorme complexidade.

Mas eventuais lacunas nesse entendimento não podem ser usadas por empresas para abusar de seus usuários e do mercado. Como não há legislação sobre a IA definida na maioria dos países, práticas como a da Meta levantam muitos questionamentos.

Afinal, os usuários podem ficar em risco ou serem expostos com isso? Esse comportamento configura um abuso de poder econômico? Não seria melhor as pessoas decidirem compartilhar os seus dados, ao invés de isso acontecer sem seu consentimento e até conhecimento? Se nossos dados são tão valiosos para as big techs criarem produtos que lhes rendem bilhões de dólares, não deveríamos ser remunerados por eles? E acima de tudo, será que as pessoas sequer entendem esse mundo em acelerada transformação diante de seus olhos?

É um terreno pantanoso! Por isso, qualquer que seja o desfecho da decisão da ANPD, o debate em torno dela já oferece um grande ganho para a sociedade.


Veja esse artigo em vídeo:

 


A Meta atualizou a política de privacidade de seus serviços para usar as informações de todos os posts públicos dos usuários, feitos de agora em diante e também no passado. Mas as pessoas não viram a nova regra ou, se viram, não leram ou sequer entenderam. E, como de costume, aceitaram, pois essa é uma condição para continuar usando esses produtos que se tornaram centrais em suas vidas.

As pessoas não esperam que seus posts sejam usados para treinar uma IA. Por conta disso e por entender que o formulário para os usuários se oporem a coleta de seus dados ser de difícil acesso, exigindo que a pessoa vença nove etapas, a ANPD anulou a atualização da política e determinou que a coleta seja interrompida imediatamente.

A Meta pode ser multada em R$ 50 mil por dia em que não cumprir a determinação. E vale dizer que a companhia enfrenta uma proibição semelhante na Europa.

Obviamente, a empresa reclamou! Em nota, disse estar desapontada com a decisão da ANPD, e que eles são mais transparentes no treinamento de sua IA que muitas outras empresas. Afirma ainda que a proibição seria um retrocesso para a inovação e a para a competividade no desenvolvimento de IA, podendo atrasar a chegada de seus benefícios para os brasileiros.

A Meta quer usar os textos, imagens, áudios e vídeos dos posts de seus usuários porque os modelos de linguagem amplos (da sigla em inglês LLM), que viabilizam plataformas de inteligência artificial generativa, como o ChatGPT, dependem de quantidades gigantescas de informações para serem treinados. Sem isso, são incapazes de dar respostas de qualidade.

Os posts nas redes sociais são uma fonte suculenta desse tipo de informação, mas sua coleta pode trazer riscos aos usuários. “É possível pensar em clonagem de voz e vídeo por IA para enganar familiares, amigos e colegas, ou mesmo extorsão por meio de deepfakes”, explica Marcelo Cárgano, advogado especialista em direito digital do Abe Advogados.

Segundo ele, esse uso dos dados pode ainda levar a uma “discriminação algorítmica”, quando os sistemas determinam que grupos selecionados serão desfavorecidos em processos como ofertas de crédito, emprego ou serviços públicos. “E em regimes autoritários, dados pessoais podem alimentar sistemas de IA preditiva comportamental, aumentando a vigilância e a repressão sobre a população”, adverte.

 

Pedir para entrar ou para sair?

Nesse caso, a Meta fez o chamado “opt-out” com seus usuários. Ou seja, assumiu que todos aceitariam que seus dados fossem coletados. Quem não quisesse bastaria pedir para sair. O problema é que, como a ANPD corretamente apontou, as pessoas nem sabem que seus dados estão sendo coletados, não entendem isso e o processo para se oporem à coleta é muito difícil, o que, na prática, pode fazer com que muita gente ceda seus dados sem assim desejar.

Do ponto de vista de privacidade e respeito às pessoas, o processo deveria ser o contrário: um “opt-in”. Nesse caso, os usuários precisariam conscientemente permitir que a empresa fizesse sua coleta, antes que isso começasse. Mas a Meta não adotou esse caminho porque obviamente pouquíssimas pessoas topariam.

Não quer dizer que dados pessoais não possam ser usados para o treinamento de um modelo de IA. Mas as boas práticas indicam que o usuário seja avisado previamente e aceite cedê-los conscientemente. Além disso, a informação deve ser anonimizada.

E é importante que esse consentimento seja dado antes de a coleta ser iniciada, pois, uma vez que a informação é incorporada ao modelo, é virtualmente impossível removê-la individualmente. Mas a LGPD determina que, mesmo que alguém conceda acesso a seus dados, se decidir que não mais aceita, a informação deve ser apagada.

Por fim, há a polêmica de que os usuários sejam eventualmente remunerados por seus dados, essenciais para a criação de um produto bilionário. “Um sistema amplo de remuneração de dados pessoais não me parece tão prático ou desejável, porque eles geralmente são valiosos para empresas quando são massificados”, explica Cárgano. “Isso pode tornar difícil para um indivíduo conseguir negociar um preço justo, se é que isso existe, para seus próprios dados”, conclui.

Como se vê, há mais dúvidas que consensos no uso de nossas informações para treinamento de modelos de IA. Ainda haverá muito ranger de dentes e aplausos em torno da decisão da ANPD. Mas temos que ter em mente também que muitas outras empresas estão fazendo exatamente o mesmo que a Meta, e precisam ser identificadas.

De todo jeito, tudo isso está servindo para a sociedade debater a questão. No final das contas, o que mais precisamos é que as big techs sejam mais transparentes e respeitem seus clientes, dois pontos em que elas historicamente falham feio!

 

Rotuladores de dados realizam um trabalho essencial para a IA, porém estressante e mal pago - Foto: Drazen Zigic/Creative Commons

Para nos beneficiarmos da IA, uma multidão ameaça a própria saúde mental por trocados

By | Tecnologia | No Comments

Não cansamos de nos deslumbrar com as capacidades da inteligência artificial generativa. Quando foi apresentado no dia 13 de maio, o GPT-4o, versão mais recente do “cérebro” do ChatGPT, parecia mágico, com suas capacidades cognitivas refinadas e conversas bem-humoradas. Mas ironicamente, apesar de essa data estar associada à lei que formalizou o fim da escravidão no Brasil, o “milagre da IA” das grandes empresas de tecnologia depende de um trabalho muitas vezes estressante e mal remunerado, feito por uma multidão de pessoas subcontratadas em países pobres.

Conhecidos como “data taggers” (ou “rotuladores de dados”), esses trabalhadores desempenham o papel crucial de ajudar os modelos de IA no que eles não conseguem distinguir por conta própria, de modo que, a partir daquela informação, eles saibam decidir corretamente. Por exemplo, em um conjunto de fotos, o que é um gato, um tigre, um leão e um cachorro? Um texto está com linguagem jornalística, publicitária ou acadêmica? Uma foto apresenta uma mulher amamentando, um nu artístico ou não passa de pornografia?

São sutilezas fáceis para uma pessoa entender, mas impossíveis para uma plataforma digital ainda destreinada. Mas depois que o rotulador de dados explica o que cada coisa é para a máquina, ela passa a ser capaz de identificar padrões para que tome boas decisões no futuro.

Como se pode ver, as respostas da IA dependem desse trabalho para serem adequadas. E como a humanidade usa cada vez mais esses sistemas, o descuido com o processo e com as pessoas nessa etapa pode trazer impactos significativos em tudo que fazemos. Portanto, se essas pessoas atuarem em condições degradantes, podemos estar confiando nosso futuro a uma forma de precarização de trabalho que pode trazer perigosos impactos para todos.


Veja esse artigo em vídeo:


A IA precisa de uma quantidade brutal de dados na fase de seu treinamento para que funcione. Só assim ela consegue identificar padrões e criar vínculos entre elementos de informação para que tire suas conclusões depois. Nem todos esses dados passam por um processo de rotulação por humanos, mas os que passam são fundamentais para que o sistema desenvolva uma base sobre a qual trabalhará.

A rotulação pode ser feita por cientistas de dados ou profissionais especializados. Isso resulta em um modelo mais preciso, porém custa mais e demora para ser concluído. O custo e a qualidade podem cair com um serviço terceirizado, e caem muito mais no modelo de “crowdsourcing”. E esse último formato tem sido escolhido pelas big techs para rotular as bases de dados colossais de suas plataformas de IA. Com ele, a classificação de dados é transformada em uma infinidade de microtarefas.

Você certamente já participou, sem saber, de inúmeras delas, quando precisou comprovar que era um ser humano. Essa tecnologia se chama reCAPTCHA, na qual ajudamos plataformas a identificar elementos em fotos ou palavras digitalizadas. Com isso, estamos rotulando dados para o sistema, que compara nossas respostas com a de muitos outros usuários para ter uma informação de qualidade.

Mas dizermos que partes de uma foto têm semáforos não é suficiente para treinar uma base como a que faz um ChatGPT funcionar. Para isso, um exército de pessoas subcontratadas por empresas especializadas realiza milhões dessas microtarefas.

Elas não têm contato com outros indivíduos, trabalhando de casa e gerenciadas por um software. Tudo isso pode prejudicar a qualidade das entregas. Assim algumas técnicas são usadas para compensar isso e minimizar problemas, como interfaces intuitivas, a busca de um consenso na rotulação de vários profissionais para um mesmo conteúdo e uma auditoria dos rótulos, que verifica sua precisão.

Esses trabalhadores normalmente são pouco qualificados e vivem em países pobres, como Quênia ou Índia, recebendo apenas de US$ 1 a US$ 2 por hora. Pessoas nos EUA ou na Europa Ocidental não aceitam tão pouco. Mas, apesar de ser aviltante nessas regiões, esse valor pode ser significativo nas partes mais pobres do globo.

E aí reside uma perversidade no sistema. Quando precisam que alguma informação seja rotulada por um americano, por exemplo, a plataforma paga muito mais pela mesma tarefa. Por isso, muitos trabalhadores de países pobres tentam enganar o sistema sobre onde estão. Se são descobertos, suas contas são bloqueadas e podem até ficar sem receber seu pagamento.

 

Saúde mental comprometida

Eventualmente esses trabalhadores precisam rotular textos ou imagens com violência, discurso de ódio e elementos grotescos. Por isso, podem desenvolver problemas como ansiedade, depressão e estresse pós-traumático. Uma exposição prolongada a esses conteúdos pode levar ainda a uma perda de sensibilidade e de empatia.

Além dos óbvios e graves problemas para a saúde mental desses trabalhadores, a exposição contínua a dados tóxicos pode comprometer a qualidade das entregas, introduzindo vieses e discriminação nos modelos. E isso pode depois se propagar em uma sociedade que cada vez mais confia nas informações oferecidas pela IA.

As empresas que gerenciam essas plataformas precisam, portanto, oferecer suporte psicológico a esses trabalhadores e mecanismos para que eles indiquem se algo está mal. Mas isso normalmente não acontece. As big techs, por sua vez, não se importam em forçar que isso seja seguido pelas empresas que contratam.

É irônico que um negócio multibilionário tenha na sua base uma legião de anônimos trabalhando em condições tão degradantes. A sociedade deve pressionar as gigantes da tecnologia para que criem políticas de trabalho éticas e transparentes envolvendo os rotuladores de dados, e que determinem que as empresa que lhes prestem serviços cumpram essas regras. E em tempos em que se discutem leis para reger a inteligência artificial, inclusive no Brasil, esse tema não pode ficar de fora.

Sabemos que preocupações sociais nem sempre provocam mudanças em processos de produção, especialmente quando isso impactará nos seus custos. Mas se não for por isso, as empresas deveriam, pelo menos, entender que essa precarização da mão de obra implicará em produtos piores para seus clientes.

Quanto a nós, os usuários de toda essa “magia” da inteligência artificial, precisamos entender e não esquecer que, quando conversamos com o ChatGPT, aquelas respostas incríveis só são possíveis porque alguém lhe disse o que cada coisa é.

 

Aura Popa e Kurt Schlegel, na abertura da conferência Gartner Data & Analytics, na semana passada em São Paulo - Foto: divulgação

IA cria uma inteligência coletiva unindo pessoas e máquinas em torno de um propósito

By | Tecnologia | No Comments

A cada dia, aplicações com inteligência artificial surgem nos mais diversos setores. O ChatGPT mostrou para as massas como essa tecnologia pode trazer grandes ganhos de produtividade, e isso ciou uma sensação de que a IA automatizará tudo por conta própria. Mas isso não é verdade: o ser humano ainda precisa supervisionar seu aprendizado e suas conclusões. Ainda assim, a colaboração inteligente entre máquinas e pessoas pode tornar possível coisas até então inimagináveis.

Esses foram alguns dos principais temas da conferência Gartner Data & Analytics, que aconteceu em São Paulo na terça e na quarta passada. Na palestra de abertura, Aura Popa, diretora-sênior, e Kurt Schlegel, vice-presidente da consultoria, fizeram uma analogia entre a inteligência coletiva do mundo animal e o que podemos fazer junto com a inteligência artificial.

Esse fenômeno se observa desde enxames de abelhas até matilhas de lobos. Nelas, cada indivíduo tem autonomia para tomar suas decisões, mas também trabalha para os objetivos do grupo. Dessa maneira, ele não apenas sobrevive, como também prospera, atingindo coletivamente ganhos que não conseguiria sozinho.

Segundo os executivos, a inteligência artificial funciona agora como um facilitador para as pessoas criarem valores inéditos juntas. Mas, para isso, as empresas precisam reorganizar seus modelos operacionais para dar autonomia e flexibilidade aos profissionais. Devem também ampliar sua educação para usos conscientes dos dados e da IA. Por fim, precisam distribuir autoridade e responsabilidade para que todos atuem com um propósito bem definido, em todos os níveis da organização.

É uma proposta interessante, neste momento em que ainda tateamos a inteligência artificial para encontrar formas positivas de usá-la. Em diversos momentos na conferência, ficou claro que não se deve delegar decisões críticas completamente à máquina, pois ela pode cometer erros graves. Fazer isso também aceleraria o temor generalizado de termos nossos empregos substituídos por robôs.


Veja esse artigo em vídeo:


“Desencadeamos uma nova era de inteligência coletiva, que combina inteligência humana e de máquina”, disse Schlegel. Segundo eles, para se atingir esses objetivos, as empresas precisam investir em estratégia, mas também se dedicar mais na execução.

“Concentre-se na execução e gaste mais tempo trabalhando em toda a empresa para descobrir como usar esses dados”, explicou Popa, que concluiu: “concentre-se nos fundamentos da governança e na maturidade da implantação, e olhe além dos resultados de curto prazo.”

Uma pesquisa do Gartner realizada no segundo trimestre de 2023, indicou que 75% dos CEOs já haviam experimentado a IA generativa, sendo que 64% não acham que exista exageros no que se fala dela e 62% já discutiram a IA com os conselhos de administração de suas empresas. Por outro lado, 53% dos líderes de tecnologia disseram não ter certeza se estão preparados para mitigar os riscos da IA.

Um bom caminho para se enfrentar esse desafio recai sobre os dados usados nas plataformas, incluindo a precisão, confiança e transparência nessas informações, além de sua proteção. Segundo a consultoria, organizações com práticas maduras de governança de dados têm 25% mais chance de ter sucesso com essas inovações.

Essa inteligência coletiva viabilizada pela IA abre um incrível caminho para melhorar as decisões de negócios, que passam a ser mais contextualizadas, conectadas e contínuas. Isso contrasta com o que se vê hoje: segundo o próprio Gartner, 65% dos entrevistados disseram usar dados para justificar uma decisão já tomada, normalmente pela pessoa mais bem paga na organização.

 

IA ajudando nas decisões

“Muitas escolhas de negócios ainda possuem poucos dados internos, e isso tem que mudar”, afirmou Pieter den Hamer, vice-presidente do Gartner. Para ele, as empresas precisam passar de “orientadas por dados” para “orientadas por decisões”. “É essencial abrir a caixa preta da tomada de decisões”, disse.

Frank Buytendijk, chefe de pesquisa do Gartner Futures Lab, sugeriu que poderemos ver, em poucos anos, plataformas de IA ocupando posições em conselhos de administração, e ele considera isso assustador. Segundo ele, um robô que soubesse tudo que os grandes executivos disseram ou escreveram não seria necessariamente útil, pois esse “superexecutivo” nunca existiu e nunca esteve na liderança de uma única companhia.

Mas ele não duvida que decisões de alto nível passem a ser cada vez mais auxiliadas (e até feitas) pela inteligência artificial. Isso poderia levar a um futuro distópico, com dois extremos. Em um deles, veremos a tomada de decisões e a liderança se tornando demasiadamente centralizadas por tecnologias digitais. “Isto eliminaria a autonomia das pessoas, e lhe falta a diversidade e a inclusão que levam a melhores decisões”, explicou. O extremo oposto é um cenário de excessiva distribuição, em que cada um faz suas próprias coisas, sem a visão do todo.

Gestores de diferentes áreas, mas principalmente aqueles ligados a implantações de inteligência artificial e análise de dados, devem cuidar para que não cheguemos a isso. A IA deve auxiliar na tomada de decisões, mas não pode responder sozinha por elas. Considerando que, em um tempo relativamente curto, todo mundo usará essa tecnologia no seu cotidiano, as pessoas devem ser educadas para compreender o que estão fazendo e se apropriar do processo, sedo responsáveis pelas consequências de suas decisões apoiadas pelas máquinas.

No final, o conceito de inteligência coletiva do mundo animal pode mesmo guiar nossos passos nesse mundo em transformação acelerada pela IA. Todos devemos ter autonomia para tomar mais e melhores decisões dentro do escopo de nossas atuações, mas elas devem estar sempre alinhadas com um objetivo maior, que vise o crescimento de onde estivermos e o bem-estar da sociedade como um todo.

 

Na Conferência de Desenvolvedores de 2019, Mark Zuckerberg anunciava que “o futuro é privado” - Foto: Anthony Quintano/Creative Commons

Tudo que você postar pode ser usado contra você e a favor da IA

By | Tecnologia | No Comments

Não é novidade que tudo que publicamos nas redes sociais é usado para criarem perfis detalhados sobre nós para que seus anunciantes nos vendam todo tipo de quinquilharia. Também é conhecido que nossas informações são usadas para “aprimorar” essas plataformas. E que muitas delas fazem menos do que poderiam e deveriam para nos proteger contra desinformação e diferentes tipos de assédio, que podem prejudicar nossa saúde mental. Mas o que é novidade é que agora essas companhias também usam nossas informações pessoais para treinar seus nascentes serviços de inteligência artificial, abrindo uma nova potencial violação de privacidade.

Essas empresas transitam nas ambiguidades de seus termos de serviço e posicionamentos públicos. Por exemplo, no dia 31, os CEOs das redes sociais mais usadas por crianças e adolescentes foram interpelados no Comitê Judiciário do Senado americano, sobre suas ações para proteger os jovens. O mais questionado foi Mark Zuckerberg, CEO da Meta (dona do Facebook, Instagram e WhatsApp). Diante da pressão dos senadores, ele se levantou e se desculpou ao público nas galerias.

Ali estavam pais e mães de crianças que morreram por problemas derivados de abusos nas redes sociais. Menos de uma semana depois, o mesmo Zuckerberg disse, durante uma transmissão sobre os resultados financeiros anuais da Meta, que sua empresa está usando todas as publicações de seus usuários (inclusive de crianças) para treinar suas plataformas de IA.

O mercado adorou: suas ações dispararam 21% com o anúncio dos resultados! E essa infinidade de dados pessoais é mesmo uma mina de ouro! Mas e se eu, que sou o proprietário das minhas ideias (por mais que sejam públicas), quiser que a Meta não as use para treinar sua IA, poderei continuar usando seus produtos?

É inevitável pensar que, pelo jeito, não temos mais privacidade e até mesmo propriedade sobre nossas informações pessoais. E as empresas podem se apropriar delas para criar produtos e faturar bilhões de dólares.


Veja esse artigo em vídeo:


No momento mais dramático da audiência no dia 31, Zuckerberg se levantou e, de costas para os senadores e olhando para as pessoas presentes, muitas carregando fotos de seus filhos mortos, disse: “Sinto muito por tudo que passaram. Ninguém deveria passar pelas coisas que suas famílias sofreram.”

Mas também se defendeu, afirmando que investiu mais de US$ 20 bilhões e contratou “milhares de funcionários” para essa proteção. Ponderou ainda que a empresa precisa equilibrar o cuidado e “as boas experiências entre amigos, entes queridos, celebridades e interesses”. Em outras palavras, a proteção não pode “piorar” o produto, o que seria ruim para os negócios.

Seis dias depois, disse aos investidores: “No Facebook e no Instagram, existem centenas de bilhões de imagens compartilhadas publicamente e dezenas de bilhões de vídeos públicos, que estimamos ser maiores do que os dados do Common Crawl, e as pessoas também compartilham um grande número de postagens de texto públicas em comentários em nossos serviços.”

O Common Crawl é um gigantesco conjunto de dados resultante do contínuo rastreamento do que é público na Internet, podendo ser usado por quem quiser e para qualquer finalidade. Ele serve de base para o treinamento de várias plataformas de IA.

“Considerando os Termos de Uso e as regras da plataforma, seria possível a Meta usar nossos dados para treinar sua IA, embora seja bastante discutível”, explica Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). “É discutível porque muitas das informações nas redes sociais podem ser consideradas dados pessoais e, neste caso, eventualmente legislações específicas acabam incidindo, como a Lei Geral de Proteção de Dados (LGPD)”.

Nos Termos de Serviço do Facebook, a única referência à IA é: “usamos e desenvolvemos tecnologias avançadas (como inteligência artificial, sistemas de aprendizado de máquina e realidade aumentada) para que as pessoas possam usar nossos produtos com segurança, independentemente de capacidade física ou localização geográfica.”

O mesmo documento diz: “realizamos pesquisa para desenvolver, testar e melhorar nossos produtos. Isso inclui a análise dos dados que temos sobre os nossos usuários e o entendimento de como as pessoas usam nossos produtos.” Esse trecho poderia garantir o uso das nossas publicações para o desenvolvimento da IA da Meta.

Por outro lado, os Termos dizem que a remuneração da Meta se dá apenas por anúncios entregues a seus usuários pela análise de suas informações. Oras, a inteligência artificial não é anúncio, mas ela renderá bilhões de dólares à empresa. Assim o uso de nossos dados para treinar a IA geraria um conflito entre as cláusulas.

 

O rei está nu e perdeu a majestade

Sempre tivemos nossos dados coletados e manipulados. O nosso “sócio” mais tradicional é o governo, que sabe coisas inimagináveis sobre o cidadão! Basta ver o Imposto de Renda pré-preenchido! E isso é só a pontinha desse enorme iceberg.

Não vou defender qualquer governo, pois muitas dessas apropriações são no mínimo questionáveis. Mas há uma diferença essencial de qualquer big tech: ele foi eleito para melhorar a vida do cidadão. As empresas, por sua vez, visam apenas seu lucro.

Crespo explica que a principal violação nesse movimento da Meta é que ela usa dados pessoais de seus usuários para uma finalidade que não é aquela pela qual criaram suas contas e fazem suas publicações, e que eles nem sabem. Vale lembrar que, no fim de dezembro, o The New York Times processou a Microsoft e a OpenAI por se apropriarem de seus conteúdos para treinar seu ChatGPT, e um de seus argumentos foi essas empresas usarem esse conteúdo sem pagar por esse objetivo específico.

Esse mesmo raciocínio poderia se aplicar às postagens dos 3 bilhões de usuários do Facebook e dos 2 bilhões do Instagram. Além disso, a baixa qualidade de muitas publicações nessas plataformas pode incluir vieses e informações no mínimo questionáveis no treinamento dessa IA.

“Esse é o grande dilema da atualidade”, afirma Crespo. Empresas podem criar regras para quem quiser usar seus produtos, mas, depois de usar algo como o Google por duas décadas, alguém o abandonaria porque seus dados seriam usados para uma nova e questionável finalidade (entre tantas outras)? “A grande questão é se essas regras são moralmente aceitas e transparentes, ou se, de alguma forma, constituem abuso de direito”, explica Crespo.

No final, caímos novamente no infindável debate sobre a regulamentação das ações e responsabilidades dessas empresas. Essa novidade trazida por Zuckerberg é apenas o mais recente exemplo de que, se deixarmos para que elas se autorregulem, nós, seus usuários, continuaremos sendo os grandes prejudicados.

 

A nova fronteira dos hackers: invadir nosso corpo

By | Tecnologia | No Comments

Desde o final do ano passado, estamos nos acostumando a ver na imprensa notícias frequentes sobre megavazamentos de informações pessoais feitos por hackers, que roubaram enormes bancos de dados de empresas. Também vemos diversos relatos de pessoas que são vítimas de delinquentes digitais ao cair em todo tipo de golpe online.

A má notícia é que isso pode piorar de maneiras até então inimagináveis, podendo até colocar nossa vida em risco!

Todos esses crimes são resultado não apenas da eficiência dos bandidos, mas também da crescente digitalização de empresas e de nossas vidas. Isso ganhou ainda um grande impulso adicional com o distanciamento imposto pela pandemia de Covid-19.

Empresas, instituições de qualquer natureza e até governos estão profundamente conectados à Internet. E todos nós seguimos pelo mesmo caminho, não apenas em nossas tarefas cada vez mais realizadas em celulares e computadores. Não é de hoje que até alguns eletrodomésticos coletam informações sobre nós e as transmitem pela Internet. Mais recentemente estamos vestindo dispositivos conectados que nos rastreiam. Agora começamos a ver implantes em nossos corpos que também estão conectados à rede.


Veja esse artigo em vídeo:


A princípio, esses dispositivos estão online para enviar, por exemplo, informações sobre nossa saúde a nossos médicos e hospitais. Mas especialistas temem que tudo isso possa ser invadido e controlado remotamente, inaugurando um novo tipo de crime, antes visto apenas em filmes sobre futuros distópicos.

Se hoje hackers já invadem computadores e pedem resgate para devolver o acesso às informações em seus discos rígidos, pode chegar um momento em que eles invadam, por exemplo, um marca-passo e exijam dinheiro para não matar seu portador. Ou ainda que realizem atentados desabilitando os freios e acelerando um carro, tudo à distância.

O fato é: tudo que puder ser invadido será!

Em 2014, quando ainda era CEO da Cisco, John Chambers chegou a dizer que existem dois tipos de empresas: as que já foram invadidas e as que ainda não sabem que já foram invadidas. Mas com a onipresença do digital em tudo que fazemos, tais invasões se estendem também aos clientes dessas empresas.

Por exemplo, já não é de hoje que, ao ligar pela primeira vez uma Smart TV recém-comprada, seu feliz proprietário precisa aceitar “termos de uso” do equipamento como parte da rotina de configuração inicial. Nada mais natural: as TVs agora são muito mais que um equipamento que transmite imagens das emissoras. Tornaram-se verdadeiros computadores executando aplicativos online dos mais diversos, transmitindo –mas também coletando– informações: nossas informações.

Algumas TVs no exterior incluem uma pitoresca sugestão em seus “termos de uso”: não façam, diante do aparelho, algo que você possa se arrepender depois. Afinal, muitos desses equipamentos possuem câmeras e microfones incorporados. Essas TVs são computadores com sistema operacional e linguagem de desenvolvimentos conhecidos, sem nenhum antivírus ou firewall para proteção e permanentemente conectados à Internet.

Nada impede que um hacker as invada para gravar aspectos de nossa vida que depois podem ser usados contra nós. Essa ideia foi explorada no episódio “Manda Quem Pode”, o terceiro da terceira temporada da série “Black Mirror”, em que um adolescente é chantageado por criminosos depois de o gravarem pela câmera de seu notebook.

 

Casa e negócios conectados

Observe quantos equipamentos em sua casa estão conectados à Internet nesse momento: você certamente tem pelo menos um deles! Alguns são óbvios, como os celulares, os computadores, relógios inteligentes, a smart TV, os assistentes digitas e o videogame. Outros nem tanto, como aparelhos de som, lâmpadas e até modelos mais recentes de aspiradores de pó robôs. A maioria dele é capaz de coletar alguma informação sobre você ou seu ambiente e transmitir a seu fabricante, incluindo aí o aspirador de pó.

A princípio, tudo isso foi criado para benefício do consumidor, para deixar sua vida mais fácil, produtiva e divertida. Chegamos a um ponto em que nossa imaginação é o limite para conectarmos tudo na rede.

Estudos sugerem que, nesse ano, praticamente metade de todo tráfego de dados na Internet acontecerá entre equipamentos “falando entre si”, sem nenhuma intervenção humana. É o fenômeno da Internet das Coisas. Como comparação, apenas 13% dos dados sairão ou chegarão de nossos celulares e míseros 3% de nossos computadores, que estão prestes a ser superados pelas smart TVs nesse quesito.

Quem tem em casa assistentes digitais, como Amazon Echo ou Google Home, já pode controlar vários eletrodomésticos com sua voz. Mas a automação digital das casas vai muito além, com geladeiras, cafeteiras, persianas e até banheiras controladas remotamente.

Os carros também estão cada vez mais digitais e conectados. Modelos topo de linha podem ter computadores de bordo online e com mais linhas de código que um sistema operacional para computadores, controlando todos os equipamentos do veículo. Isso permitiu que, em 2015, pesquisadores de segurança invadissem um jipe Cherokee a 16 quilômetros de distância. A partir de comandos em um notebook, diminuíram a potência do veículo, mudaram a estação do rádio a bordo e ligaram o ar-condicionado e o limpador de para-brisa.

No ambiente comercial, acompanhamos o crescimento de lojas sem funcionários, em que o próprio cliente pega o que quer e sai, com a compra sendo automaticamente debitada em seu cartão. Mas também vemos coisas no mínimo inusitadas, como grelhas de lanchonetes com a temperatura controlada de maneira online (para evitar superaquecimentos e incêndios) e até galerias de águas pluviais com sensores (para evitar enchentes).

 

Corpos conectados

Assim como nossas casas, carros e escritórios estão cada vez mais conectados, nossos corpos seguem pelo mesmo caminho, seja pelo que vestimos ou até por implantes em nosso organismo.

O celular é a máquina perfeita de rastreamento, pois é a única coisa na vida da qual não nos afastamos durante todo dia. Além disso, instalamos dezenas de aplicativos nele, alguns de procedência duvidosa, que podem coletar uma enxurrada de dados nossos, repassando-os a criminosos. A simples geolocalização pode ser usada para traçar nosso hábito de movimentação, o que pode ser usado, por exemplo, no planejamento de sequestros.

Além disso, vestimos ou usamos cada vez mais equipamentos online que coletam e transmitem nossos dados. É o caso de relógios inteligentes, capazes de, entre outras coisas, monitorar nossos batimentos cardíacos.

Isso pode ser muito bom, como no caso do jornalista americano Paulo Hutton, que foi salvo pelo seu Apple Watch em 2019. Na época com 48 anos, o aparelho identificou anomalias nos seus batimentos, o que lhe permitiu descobrir que tinha bigeminia ventricular, que foi corrigida antes que algo pior acontecesse. Por outro lado, em mãos erradas, informações tão íntimas de nossa saúde podem permitir usos nefastos.

Vestimos e usamos muito mais dispositivos conectados que coletam nossas informações ou podem ser controlados remotamente: câmeras portáteis, óculos de realidade aumentada ou virtual, medidores de glicemia, roupas com sensores. Há até mesmo vibradores que podem ser controlados à distância, pela Internet!

Essa digitalização da vida é um caminho sem volta. Os benefícios que recebemos são imensos! Por outro lado, não há sistema que não possa ser invadido. Essa é uma corrida de gato e rato, com fabricantes tentando proteger seus produtos e hackers encontrando suas vulnerabilidades.

Diante disso, o ideal é que funções críticas de equipamentos nunca sejam controláveis à distância. Afinal, não podemos deixar que os hackers desliguem marca-passos, provoquem sérios acidentes de carro ou gelem nossa casa com o ar-condicionado.

 

O que há por trás do crime do momento

By | Tecnologia | No Comments

Na manhã de sexta (19), a Polícia Federal prendeu dois hackers em Uberlândia (MG) e Petrolina (PE), acusados de serem responsáveis pelo roubo e vazamento de dados de 223 milhões de pessoas e de 40 milhões de empresas em janeiro. Mas assistindo às imagens divulgadas pelas próprias autoridades, percebe-se que algo não bate nessa história: extremamente modestos, a casa e o computador de um deles não combinam com alguém que comercializaria uma base de CPFs e CNPJs por 40 mil euros, o que dá mais de R$ 260 mil.

O Brasil se transformou no paraíso dos vazamentos de informações pessoais. Desde o ano passado, várias bases de dados enormes, de diferentes fontes, são oferecidas na Deep Web, uma parte da Internet que não pode ser acessada com navegadores comuns e não é indexada em buscadores, muito usada por delinquentes.

Em um primeiro momento, tudo isso parece envolver grandes ações criminosas, com a participação da máfia russa ou outra organização internacional. Entretanto, é mais provável que os esquemas sejam locais e que o dinheiro não seja a única motivação.

Além disso, a vida dos bandidos está fácil. Empresas, organizações e até o governo brasileiro precisam melhorar muito a segurança de seus servidores. E os usuários, sejam corporativos, sejam qualquer um de nós, precisam ser mais cuidadosos: a maior parte dos roubos acontece graças à inocência das pessoas, que caem em golpes muito básicos.


Veja esse artigo em vídeo:


Obviamente os dois hackers presos na sexta não trabalham sozinhos. Isso explicaria a casa e o equipamento bastante simples do hacker de Uberlândia, algo completamente incompatível com um esquema que já deve ter movimentado milhões de reais.

Vale notar que ele já vinha sendo investigado pela possível participação em outras invasões semelhantes, como o roubo de dados do Tribunal Superior Eleitoral. Esse vazamento foi divulgado justamente no primeiro turno das eleições de 2020, ao que tudo indica para aumentar a desconfiança da população no sistema eleitoral brasileiro, atendendo a interesses de quem questiona as urnas eletrônicas, por exemplo.

Não precisa ser um gênio, portanto, para perceber que os dois presos são apenas peões de um grupo criminoso que usa invasões para obter ganhos financeiros e políticos. Se os dois forem os únicos encarcerados, será uma vergonha! Como em tantos crimes no Brasil, condena-se quem puxa o gatilho, mas o mandante continua solto para cometer outros atos ilícitos.

Com a digitalização galopante de nossas vidas, os crimes eletrônicos se transformaram nos mais devastadores e que causam mais prejuízos à sociedade. Pessoas, empresas e organizações não estão preparadas para lidar com a criatividade e a eficiência dos delinquentes digitais. Eles conhecem profundamente a tecnologia, mas também são especialistas em ludibriar e manipular a população.

O mais nocivo dos crimes digitais atualmente são as fake news, porque elas conseguem de abalar a sociedade. Basta ver o crescimento exponencial da crise de saúde que o Brasil vive com a Covid-19. Sem as infames notícias falsas, o número de mortes seria muito menor e os negócios voltariam a funcionar mais rapidamente, pois as pessoas agiriam de acordo com o que a ciência e os especialistas de saúde determinam. Mas, graças a elas, acreditam em qualquer bobagem messiânica, que não os protege de nada, apenas atende a interesses de grupos específicos de poder.

 

Crime no atacado e no varejo

Assaltos a indivíduos e empresas são substituídos por golpes em redes sociais, comunicadores como WhatsApp e invasões em computadores. Sem sair da cadeira, os bandidos fazem mais vítimas, com ganhos muito maiores e sem risco de morte, raramente sendo pegos.

Apesar de os prejuízos para as vítimas serem expressivos, aos olhos do crime organizado, isso não é tanto: é o crime digital “no varejo”.

O “crime no atacado” vem com esses grandes roubos. E aqui a vida dos criminosos também está fácil, pois as empresas e até o governo ficam a desejar na segurança.

Um bom exemplo é o Ministério da Saúde, que foi invadido em dezembro devido a uma falha muito básica, que permitiu que hackers baixassem dados de todas as pessoas cadastradas no SUS (Sistema Único de Saúde) ou com um plano de saúde, um total de 243 milhões de indivíduos. Depois disso, o site do ministério já foi invadido diversas outras vezes, sendo “pichado” com insultos para expor sua vulnerabilidade.

As grandes bases de dados colocadas à venda nos últimos meses parecem ser uma composição de invasões a sistemas de diferentes fontes, o que indica que as falhas de segurança são muito mais comuns que deveriam.

Os bancos são empresas com bons sistemas de segurança. Eles investem milhões nisso. Afinal, está na essência do seu negócio, seja com sistemas de invasão dificílima, seja com as infames portas com detectores de metal nas agências. Mas outras empresas, mesmo algumas que manipulam grande quantidade de dados de seus clientes, incluindo informações sensíveis, não cuidam tão bem de seus sistemas. E estou falando aqui de grandes empresas. Quando pensamos em pequenas e médias, encontramos verdadeiros shows de horror!

Em uma sociedade totalmente digital, ninguém é pequeno demais para não se preocupar fortemente com a segurança da informação em seus servidores, seja dos clientes, seja do próprio negócio.  E ninguém é grande demais para não correr o risco de ser colocado para fora do mercado no caso de um grande roubo de dados.

 

O desdém pela informação alheia

Há um outro aspecto a ser considerado, muito mais cultural que tecnológico: a falta de respeito com a informação dos outros.

Dados pessoais são indubitavelmente o recurso mais valioso do mundo hoje. Isso foi detalhado na icônica reportagem de capa da revista “The Economist” de 6 de maio de 2017.

O Brasil tem uma boa legislação nessa área: a LGPD (Lei Geral de Proteção de Dados Pessoais), sancionada ainda no governo Temer, em agosto de 2018. As empresas tiveram dois anos para se adaptar à legislação e ainda as multas não estão sendo cobradas de quem infringir suas determinações.

Entre elas, está o fato de as companhias serem responsáveis pelos dados de consumidores sob sua guarda, não importando se elas foram invadidas. Além disso, as empresas devem dizer exatamente que dados serão coletados, o que farão com eles e com quem os compartilharão. O cliente deve autorizar explicitamente tudo isso.

Mas essa prática está longe de acontecer. Somos rastreados o tempo todo, sem saber que informações nossas estão sendo coletadas e o que será feito delas. Isso acontece nas redes sociais, em nossos smartphones e até em eletrodomésticos, como aspiradores de pó robôs, que mapeiam nossas casas e enviam essa informação a seus fabricantes. Mas também somos rastreados em farmácias que associam nossas compras de medicamentos a nossos CPFs, a lojas que nos identificam por suas redes e até a câmeras nas ruas que contam a governos onde estamos por reconhecimento facial.

Não autorizamos nada disso e não temos a mínima noção do que está acontecendo com nossos dados. Diante da ação de criminosos mais perigosos, de empresas que não fazem os investimentos necessários em segurança da informação e de uma sociedade que desrespeita sistematicamente o direito aos dados dos cidadãos, estamos cada vez mais à mercê de um mundo tecnocrático que facilita o crime organizado e viabiliza um estado policialesco.

Ironicamente, no mês passado, o diretor-presidente da ANPD (Autoridade Nacional de Proteção de Dados), Waldemar Gonçalves Ortunho Júnior, falou sobre esses vazamentos em um evento. Segundo ele, “a investigação e o poder de polícia, não nos cabe”. Concordo com isso, mas eles são responsáveis por fazer valer a LGPD, usando todos recursos necessários. E isso vai indo muito mal em nosso país.

Sem melhorias consistentes na área, continuaremos sendo o paraíso dos hackers, das fake news e de todo tipo de criminoso que usa o mundo digital para ter ganhos em cima da nossa miséria.

Blockchain vai muito além de criptomoedas e pode até ajudar a combater “fake news”

By | Tecnologia | No Comments

“Vai falar de Bitcoin?”

A provocação de José Luiz Goldfarb, diretor da EDUC (Editora da PUC-SP), reflete a visão limitada que a população tem sobre a tecnologia blockchain. Isto, quando se tem qualquer noção sobre ela!

É verdade que, de longe, o uso mais popular do blockchain recai sobre as chamadas “criptomoedas”, métodos de troca de valores descentralizados, cujo maior expoente é o Bitcoin. Mas, como ficou claro na transmissão moderada por Goldfarb no dia 15, essa tecnologia possui muitas outras aplicações, tão ou mais interessantes que essas moedas digitais.

O evento marcou o lançamento do livro “A Expansão Social do Blockchain” pela EDUC. A obra foi organizada por Lucia Santaella, coordenadora do programa de pós-graduação em Tecnologias da Inteligência e Design Digital da PUC-SP.

“Embora o tema seja jovem, penetrar em seus meandros se torna imperativo, quando seus efeitos começam a se fazer sentir na vida”, justificou Santaella. “A expectativa era que essa tecnologia fosse capaz de criar um novo modelo de internet, porque esse que está aí, principalmente no que diz respeito a redes sociais, fracassou”, explicou.

A obra aborda usos do blockchain em áreas como a crise de confiança da sociedade, “fake news”, integridade de dados pessoais nas redes, aprendizagem e –claro– criptomoedas e meios de pagamento digitais. Trata-se de uma compilação de artigos dos membros do grupo Sociotramas, organizado por Santaella, que reúne pesquisadores de diferentes áreas e instituições para discutir temas ligados a redes sociais (conheça aqui os coautores e detalhes da publicação).

Quatro dos coautores participaram da transmissão, abordando o tema de seus respectivos artigos. Magaly Prado, por exemplo, falou sobre como o blockchain pode ser usado para combater as “fake news”, as infames notícias falsas. “Uma plataforma descentralizada visando usar a tecnologia blockchain em nome do jornalismo é louvável e torna as informações de uma rede independente de redações mais confiáveis, preponderante em tempos de reputação baixa por conta da desinformação desembestada”, explicou.

 

Confiança, “fake news” e integridade

Marcelo de Mattos Salgado trouxe uma análise sobre a crise de confiança que afeta, de modo geral, o mundo ocidental –e como o blockchain se encaixaria neste cenário. Segundo ele, “talvez a crise de confiança seja movida, pelo menos em parte, pela referida automatização dos processos de segurança, como o blockchain, que efetivamente substitui os elos de confiabilidade, tão humanos”.

O combate às “fake news” também foi abordado por Kalynka Cruz-Stefani. “O meu trabalho tem uma visão analítica sobre esse sistema de propagação de ‘fake news’”, explicou. “Estudos mostram que, a partir de 2023, 30% delas serão descobertas e combatidas pelo blockchain”,

Por fim, Paulo Silvestre esclareceu como essa tecnologia pode ajudar na integridade de informações pessoais nas redes, hoje totalmente pulverizadas e controladas por grandes empresas e instituições. “Nós garantimos, usando o blockchain, não só a integridade dos dados, como também que temos o controle de nossa própria informação”, explicou. Além disso, usos criativos fazem com que isso esteja de acordo com a LGPD (Lei Geral de Proteção de Dados), que entrou em vigor no Brasil em setembro.

O livro já está disponível como e-book ou para ser lido no leitor eletrônico Kindle. A versão impressa estará disponível a partir de janeiro, pela EDUC.

“A inteligência humana tem caminhos misteriosos”, disse Santaella. Em linha com os outros autores, ela acrescentou que “o grande afetado pelas redes sociais, “fake news” e pós-verdade é o jornalismo, e nós não podemos viver sem jornalismo”. A professora concluiu dizendo que “quando nós perdemos a confiança nele, o que nos resta para conhecer o que de fato aconteceu?”

Você pode acompanhar a íntegra em vídeo do lançamento do livro “A Expansão Social do Blockchain” na TV PUC. Ainda, saiba como foi a apresentação de Maria Collier de Mendonça sobre o livro no XIII Simpósio Nacional da ABCiber.


* colaborou Marcelo de Mattos Salgado

Batemos no limite da Internet?

By | Jornalismo | No Comments

Desde a semana passada, muitas pessoas vêm relatando diversos problemas com a Internet. Eles vão desde falhas em conversas por vídeo, serviços online de todo tipo ficando mais lentos ou caindo, piora em plataformas de vídeo e até demora para enviar mensagens no WhatsApp.

É fácil explicar o problema! Com o distanciamento social, com muita gente trabalhando em casa, sem falar nas crianças e adolescentes confinados, o consumo na rede cresceu muito! Isso acontece não só porque as pessoas estão usando todo tipo de sistema para trabalhar e estudar, mas também porque a diversão cada vez mais migra para as redes.?


Saiba mais sobre esse assunto no vídeo abaixo:


Será que a gente bateu no limite da Internet? O que a gente pode fazer para melhorar isso?

Para responder isso, a gente precisa entender como a transmissão de dados na Internet funciona e qual o tamanho do problema.

Segundo o IX.br (Brasil Internet Exchange), divisão de infraestrutura do Comitê Gestor da Internet no Brasil, a infraestrutura brasileira da rede apresentou um tráfego de 11 Tb/s já no dia 23 de março. Para se ter uma ideia de quanto isso é fora do normal, a média registrada ao longo de 2019 foi de 4,69 Tb/s.

Claro que existe um aumento natural do consumo de Internet, e ele é forte, como se pode ver nos dois gráficos a seguir, do próprio IX.br. O primeiro mostra o crescimento ao longo dos últimos doze meses; o seguinte, ao longo dos últimos dez anos. Em ambos, fica claro o pico a partir de março agora.

Outra coisa que se observa é uma evidente mudança do consumo ao longo do dia, como pode ser visto no terceiro gráfico. Na Internet doméstica, existia um pico logo de manhã e outro à noite, ou seja, antes de as pessoas saírem de casa para o trabalho ou a escola e depois que voltavam.

Agora esse pico da manhã se transforma no início de uma subida ininterrupta que vai até às 13h, quando o uso se mantém lá no alto. Daí cresce ainda mais a partir das 19h, batendo no máximo do dia lá pelas 21h, quando começa a cair com força, atingindo um mínimo lpor volta de 6h, quando começa tudo de novo.

Alguns podem argumentar que o aumento do tráfego doméstico é compensado pela queda do tráfego nas empresas. Mas isso é apenas meia-verdade. Isso porque muitas, muitas atividades que são feitas hoje online em casa antes eram feitas presencialmente nas empresas e nas escolas.

E o problema se agrava por dois motivos. O primeiro é uma explosão no uso de serviços digitais, desde filmes online até pedir comida por aplicativo. O segundo é que a estrutura da Internet nas casas não costuma ser tão boa quanto a das empresas. Ou seja, o crescimento do tráfego esperado por todo ano aconteceu em uma semana.

Mesmo com tudo isso, segundo o Comitê Gestor da Internet, a rede no Brasil é bem robusta e ainda opera com folga. Então por que estamos sofrendo isso tudo?

Temos que entender que existem diferentes redes compondo a Internet. Partindo da sua casa ou de empresa, existem as redes de acesso, que se conectam às operadoras contratadas. A partir delas, os dados são trafegados entre servidores em conexões mais parrudas, chamadas de backbones nacionais. Por fim, entre países, existem as conexões internacionais.

Com exceção das primeiras, que conectam nossas casas e empresas, nas demais existem esquemas de redundância, ou seja, se uma rota estiver congestionada, os dados automaticamente vão por outro caminho. Ele pode ser mais longo, demorará um pouco, porém entregará a informação.

Entretanto, na chamada “última milha”, a rede que chega em casa ou no escritório, isso não existe. E quanto mais pessoas e quanto mais equipamentos se pendurarem nessas redes, pior! É como se tivéssemos mais carros ao mesmo tempo em uma avenida estreita e sem vias alternativas: mais carros geram congestionamento e velocidades menores, o mesmo acontece com os dados.

A situação se agrava quando nos afastamos dos grandes centros urbanos. Na verdade, se você for para a periferia de uma cidade como São Paulo, a qualidade da Internet fica sofrível, tanto a fixa quanto a móvel, pois a infraestrutura é obsoleta ou insuficiente.

Se qualquer uma dessas redes fica congestionada, sofremos o impacto com lentidão e serviços caindo.

Há ainda um outro fator que pode causar isso, e provavelmente é onde a maior parte do problema está agora: os servidores dos serviços digitais. Qualquer serviço online roda em um computador -seu servidor- que tem capacidade finita, claro. E essas máquinas estão fortemente sobrecarregadas.

Ou seja, o caminho saindo de nossos celulares, nossos computadores, nossas TVs e tudo mais que conectamos à Internet até os servidores dos serviços que usamos está “segurando as pontas”, mas os servidores desses serviços não estão “aguentando o tranco”.

A lentidão tem sido observada até em serviços singelos, como trocas de mensagens pelo WhatsApp. Em serviços que exigem mais dados e processamento, como videoconferências e vídeos online, a coisa fica mais dramática.

E por falar em vídeos, quero falar das lives, as transmissões ao vivo que qualquer um de nós pode fazer em serviços como Instagram, Facebook ou YouTube. A oferta delas explodiu nos últimos dias, sejam de famosos, sejam de anônimos. Tenho ouvido reclamações de que a maioria dessas transmissões é muito ruim, com pessoas consumindo a rede apenas para jogar conversa fora.

Pode até ser verdade, mas temos que tomar cuidado ao apontar dedos. Primeiramente porque todo mundo tem o mesmo direito de usar esse recurso. Depois porque, nesse momento de distanciamento social, as lives acabam sendo uma boa maneira de apresentar o seu trabalho. E nem todo mundo domina a tecnologia ou a narrativa para fazer lives incríveis. A maioria está aprendendo a fazer isso agora, e “na marra”!

Diante de tudo isso, o que a gente deve fazer para melhorar a experiência online de todos?

Cada um tem seu papel e todos devem colaborar, começando pelas operadoras de telecomunicações. A Anatel (Agência Nacional de Telecomunicações) firmou um compromisso público com as principais empresas provedoras para manter o país conectado. A agência vai monitorar o tráfego e, junto com as operadoras, tomar ações para resolver problemas que surjam. As teles também trabalham nos sistemas para desviar dados de rotas congestionadas para alternativas mais vazias no momento.

Quanto aos serviços online, precisam ajustar suas entregas e ampliar seu parque de servidores. O Google, por exemplo, já reduziu a qualidade dos vídeos do YouTube de alta definição para padrão. A Netflix fez algo semelhante, economizando 25% da banda e o mesmo foi praticado por alguns concorrentes, como Amazon Prime Video e Globoplay. Até o WhatsApp se mexeu: o sistema limitou os vídeos nos status de seus usuários na Índia, onde é muito popular, a 15 segundos.

Por fim, nós mesmos. Como todo recurso que está escasso, precisamos fazer um uso inteligente dele. Claro que não estou pedindo para não usar o meio digital nesse momento, pelo contrário. Mas use apenas o que for preciso ou razoável. Se possível, divida o uso da Internet pelas pessoas na casa ao longo do dia. Além disso, tente realizar atividades que exigem mais da rede fora dos horários de pico.

São medidas simples, mas que podem trazer um alívio para a rede e par nossas mentes, aumentando a produtividade nesses dias em que estamos sendo obrigados a repensar muito de nosso cotidiano.

Se o conteúdo é rei, o contexto é deus!

By | Jornalismo | No Comments

Você já deve ter lido nas redes sociais que “o conteúdo é rei”, e que ele pode ajudar você a promover o seu negócio, qualquer que seja.

Será mesmo?

Não há dúvida da eficiência de um bom conteúdo nesse papel. Artigos, vídeos e posts roubam o espaço da publicidade convencional na atenção das pessoas, que agora compram de marcas com as quais se identificam e que veem como autoridade no segmento.

Entretanto nem o conteúdo mais bem escrito atingirá esse objetivo se não atender necessidades reais do público. Para isso, é preciso se aventurar em um mundo de gráficos e tabelas, para descobrir esses desejos e adequar a produção. Se o conteúdo é rei, o contexto é deus!

Sem isso, todo o investimento de marketing pode dar em nada. Felizmente o meio digital oferece algumas ferramentas poderosíssimas e gratuitas para identificar essas necessidades de seu público. Com elas, mesmo um pequeno empreendedor pode traçar o caminho até a mente e o coração de seus clientes, e falar com eles de maneira assertiva.

Veja como fazer isso no meu vídeo abaixo. E depois compartilhe conosco as experiências com seu público nessa nova forma de relacionamento.



Saiba mais sobre jornalismo de dados e como você pode “perguntar aos números” sobre informações valiosas, participando do curso online gratuito da Universidade do Texas, que eu menciono no vídeo. Os detalhes estão em https://knightcenter.utexas.edu/pt-br/00-21046-novo-curso-do-centro-knight-ensina-como-entrevistar-dados-para-reportagens-investigativas-i

Quer ouvir as minhas pílulas de cultura digital no formato de podcast? Basta procurar por “O Macaco Elétrico” no Spotify, no Deezer ou no Soundcloud. Se preferir, pode usar seu aplicativo preferido: é só incluir o endereço http://feeds.soundcloud.com/users/soundcloud:users:640617936/sounds.rss

Videodebate: seus dados continuam vazando!

By | Tecnologia | No Comments

Você sabia que o Brasil é o país em que as pessoas mais se preocupam com crimes cibernéticos?

A conclusão é da Affinion, que acaba de publicar um estudo que entrevistou 13 mil pessoas de 12 países. Segundo ele, 87% dos brasileiros se dizem atentos ao problema, contra um média global de 61% dos entrevistados.

E sabe o que fazemos com toda essa preocupação?

NADA!

Ou muito pouco.

A verdade é que falta ao brasileiro conhecimento sobre como se proteger. Até sabemos quais são os principais problemas, mas continuamos “caindo como patos”, até mesmo em coisas básicas, como o uso inadequado de redes sociais, acesso descuidado a redes públicas de WiFi e senhas displicentes.

Conversei com o César Medeiros, country manager da Affinion, na semana passada e ele me contou outra coisa interessante: as pessoas estão propensas a fazer negócio com empresas que as ajudem a se proteger, mesmo que esse não seja o “core business” da companhia.

Faz sentido: cada vez mais, as pessoas compram uma “experiência” com a marca, indo além do produto.

Sua empresa, está pronta para oferecer isso? E você, como profissional, sabe como lidar com essa situação?



Para fazer o download do relatório de crimes cibernéticos da Affinion, visite a página oficial: https://affinion.com.br/insight/cybercrimesos/?download=1

Se quiser saber mais sobre o vazamento de dados do Facebook mais recente, visite a reportagem do G1: https://g1.globo.com/economia/tecnologia/noticia/2019/04/04/dados-de-540-milhoes-de-usuarios-do-facebook-ficam-expostos-em-servidor.ghtml

Você está pronto para compartilhar suas informações bancárias por aí?

By | Tecnologia | No Comments

Foto: reprodução

Quando você pensa em banco, o que lhe vem à cabeça? Provavelmente dinheiro e segurança de bens e informações. Na verdade, essa é praticamente a essência do serviço bancário: pagamos aos bancos para realizarmos, com confiabilidade, todo tipo de transação. Então o que você pensaria se o seu banco lhe dissesse que gostaria de compartilhar a sua informação bancária com outras empresas e pessoas?

Isso pode parecer assustador e absurdo, não é mesmo? Pois saiba que pode acontecer muito em breve, portanto é melhor entender do que se trata.


Vídeo relacionado:


Recentemente conversei sobre isso com Tyler Jewell, CEO da WSO2, e Edgar Silva, gerente geral da América Latina da mesma empresa. O papo girou em torno do “open banking”, um conceito que promete revolucionar a maneira como nós nos relacionamos com serviços financeiros e como os próprios bancos funcionam.

O conceito surgiu com força no Reino Unido em 2016, e se espalhou pelo mundo. Resumidamente, ele prevê que instituições bancárias criem mecanismos para compartilhar dados financeiros de seus clientes com outras empresas e desenvolvedores de uma maneira organizada, para que eles possam criar serviços interessantes para seu público. Ou seja, a clientela continua sendo do banco, mas pelo menos algumas de suas informações são distribuídas a terceiros autorizados, para que criem novos serviços.

Essa transferência se dá por sistemas de troca de informações entre serviços online, chamados APIs (sigla em inglês para Interface de programação de aplicações ,exatamente o negócio da WSO2). A teoria por trás do “open banking” é que, por mais que a pessoa esteja vinculada a um banco, ela é a dona das suas informações financeiras, e não a instituição. Portanto, deve ter o controle sobre elas para compartilhá-las com quem bem entender, de modo que possa escolher empresas que, a partir desses dados, lhe ofereçam serviços financeiros melhores.

Confuso? Talvez. Mas isso é porque se trata de um conceito que pode ser realmente revolucionário.

 

Pegadas financeiras na nuvem

Já nos acostumamos com a ideia de que Facebook, Google, Apple e tantos outros nos conhecem incrivelmente bem, pelas nossas pegadas digitais, cada vez mais numerosas e profundas. Mas antes, muito antes disso tudo, os bancos já sabiam bastante sobre nós, pela maneira como gastamos nosso dinheiro.

Afinal, imagine o que poderíamos inferir se soubéssemos tudo o que uma pessoa compra, de quem, quando, de que forma, e pudéssemos cruzar essa informação com suas fontes de renda, dados familiares e mais um monte de outros bancos de informação. Acrescente a isso uma capacidade brutal de processamento e os melhores algoritmos do mercado.

Pois é: os bancos sabem muito sobre nós!

Só que, até agora, elas guardam essas informações só para eles, tirando todo o proveito possível para ganhar ainda mais dinheiro com cada um de nós. O atual estágio é o resultado de um modelo de negócios que vem sendo melhorado há mais de 600 anos (o primeiro banco do mundo, o genovês Banco di San Giorgio, data de 1407). Não é de estranhar, portanto, que mesmo em tempos de crise severa, como a que vivemos, os bancos continuem batendo recordes contínuos de lucratividade.

Agora imagine se pudéssemos compartilhar toda essa riquíssima informação com várias outras empresas, para que nós -e não apenas os bancos- também lucrássemos com isso. Em um exemplo bastante simples, imagine se uma empresa tivesse acesso a nossas compras com o cartão de crédito. Com isso, poderia gerar ofertas de produtos que realmente consumimos de varejistas que os estiverem promovendo quando precisarmos deles. Ou, a partir de nossos extratos, poderiam oferecer opções de crédito ou investimento muito mais vantajosas que as do nosso próprio banco.

Com muito menos –as compras realizadas pelos clientes em suas lojas– o Pão de Açúcar transformou seu programa de relacionamento “Pão de Açúcar Mais” em um aplicativo que oferece grandes vantagens aos próprios clientes, aos seus fornecedores e a ele próprio. Não é “open banking”, mas é um ótimo exemplo como o uso inteligente de dados de consumo podem trazer incríveis resultados.

O uso de dados de clientes fornecidos pelos bancos para sistemas que geram algum tipo de serviço agregado não surgiu com o “open banking”. Ainda nos anos 1990, usuários de antigas versões dos sistemas de gestão financeira Money (Microsoft) e Quicken (Intuit) já conseguiam importar alguma coisa para dentro dessas plataformas. Mas era um processo tão complicado e limitado, que desanimava.

Agora, com o novo conceito e novas tecnologias, os clientes tendem a ganhar muito. As empresas que oferecerem essas soluções também. Já os bancos…

Bem, os bancos precisam se reinventar.

 

Se não é pelo amor, é pela dor

É verdade que os bancos são azeitadíssimas “máquinas de fazer dinheiro” (se me permitem o trocadilho infame). Mas o que vem funcionando há seis séculos precisa ser revisto diante de coisas como o “open banking” e as “fintechs”, empresas que entregam serviços financeiros pelo uso inovador de tecnologia. Portanto, apesar de seu enorme poder, os bancos precisam lidar com as mudanças impostas por essa nova realidade.

O interessante é que os próprios bancos tradicionais podem se beneficiar disso tudo. Muitos deles, inclusive no Brasil, já possuem áreas de inovação que atuam como “fintechs” e já oferecem espontaneamente APIs de “open banking”. Se, por um lado, eles se veem obrigados a fazer isso para não ficarem para trás em um grande movimento tecnológico, por outro podem usar isso para se posicionar no mercado como empresas inovadoras e digitais, bandeiras, aliás, erguidas por muitas dessas instituições.

Dessa forma, além de poderem se tornar mais simpáticos aos correntistas, podem efetivamente descobrir novas e lucrativas formas de negócios. Além disso, podem evitar que outras empresas acabem fazendo seu trabalho e levando embora parte do lucro que teriam com os próprios clientes.

A questão essencial do “open banking” de os dados pertencerem ao cliente e não à instituição envolve outro tema atualíssimo: a proteção aos dados pessoais. O Congresso Brasileiro aprovou há algumas semanas, em plenário, o projeto da Lei Geral de Proteção de Dados Brasileira (LGPD), que traz ao país alguns importantes pontos já em vigor na Europa, seguindo legislação semelhante local, a chamada GDPR. Ele aguarda agora sanção do presidente Temer.

Conversei sobre isso com Marcelo Crespo, sócio do escritório Patrícia Peck Pinheiro Advogados; “Os bancos, como outras empresas, serão favorecidos com o surgimento de uma Lei Geral de Proteção de Dados, embora isso possa gerar, em algum momento, a necessidade de adequação aos padrões legais, pois as empresas precisarão se preocupar com a fonte dos seus bancos de dados, já que os dados pessoais, para serem tratados, precisarão de autorização específica dos titulares”, explica Crespo.

A LGPD e o próprio “open banking” dificultam a implementação do chamado “cadastro positivo”, um projeto que prevê a criação de uma lista de “bons pagadores”, e incluiria todos os moradores no país, sem que eles dessem autorização para tal. Essa informação seria usada pelos bancos para determinar, entre outras coisas, quem tem ou não direito a crédito.

 

Isso é seguro?

Pouca coisa exige mais segurança que informações bancárias. Não por acaso, os bancos desenvolveram alguns dos sistemas mais impenetráveis do mundo: a sobrevivência do seu negócio depende disso.

Então como pensar em transitar nossas informações bancárias por aí, com terceiros?

Tecnicamente, o “open banking” é bem construído. Mas há um elo muito frágil nessa corrente: o próprio usuário. Para tirar proveito verdadeiro da novidade, o cliente precisa ter um conhecimento mínimo tanto dos próprios conceitos de transações bancárias, quanto da tecnologia.

Basta ver como as próprias redes sociais são usadas para ludibriar o consumidor, que autoriza aplicativos a coletar e usar seus dados indevidamente, em troca de algum pequeno benefício, como testes do tipo “com que celebridade eu me pareço”.

Portanto, os grandes entraves para a adoção do “open banking” não são técnicos, mas sim de conscientização dos correntistas. A proposta é boa, pode realmente trazer grandes benefícios, mas exige um trabalho junto ao cidadão. E, nesse cenário, a Lei Geral de Proteção de Dados pode ser, afinal, uma interessante aliada.


E aí? Vamos participar do debate? Role até o fim da página e deixe seu comentário. Essa troca é fundamental para a sociedade.


Artigos relacionados:


Você acha que os escândalos vão matar o Facebook?

By | Tecnologia | No Comments
A capa de junho de 2011 da edição americana da revista Mad já satirizava “as 50 piores coisas do Facebook”, muito antes das “fake news” - Foto: reprodução

A capa de junho de 2011 da edição americana da revista Mad já satirizava “as 50 piores coisas do Facebook”, muito antes das “fake news”

Neste sábado, a hashtag #FacebookPodeAcabar era “trending topics” no Twiter, ou seja, um dos assuntos mais debatidos na rede naquele momento. É verdade que o Facebook está sendo alvejado por todos os lados, suas ações estão caindo, está perdendo usuários, ex-executivos estão criticando publicamente a empresa. Mas dizer que ele vai acabar por causa disso é, no mínimo, uma baita inocência! Mas deve, sim, sofrer grandes transformações. E isso pode ser uma boa notícia para cada um de nós. Mas também temos que ficar mais espertos!

O Inferno se instalou na vida de Mark Zuckerberg e seus amigos quando o Facebook foi acusado de ajudar a eleger Donald Trump, na campanha à presidência dos EUA em 2016. Na época, Zuckerberg disse que as acusações eram “loucura”. Mas a situação se agravou ao longo de 2017, com as “fake news”, as infames notícias falsas, tomando o seu reino de assalto.

No dia 11 de janeiro, o Facebook anunciou mudanças em seu sistema para tentar combater as “fake news”, que desagradaram muita gente e levantaram ainda mais dúvidas sobre a sua capacidade de resolver o problema. Mas o caldo entornou de vez no dia 17 de março, quando The New York Times publicou que a empresa Cambridge Analytica havia usado, sem autorização, dados de 50 milhões de usuários do Facebook para favorecer a campanha de Trump. Escândalo total!

Zuckerberg demorou cinco dias para se pronunciar sobre o caso, o que aumentou ainda mais a desconfiança. As ações despencaram 6,7% no primeiro dia. Foi a maior queda diária da história do Facebook, gerando uma perda de US$ 35 bilhões em valor de mercado. As ações continuaram caindo, arrastando também outras empresas do setor. Isso é particularmente perigoso para uma empresa que vale cerca de US$ 453 bilhões (valor de 2 de abril), dos quais “apenas” US$ 14 bilhões são de ativos físicos.

Governos europeus e dos EUA, que já vinham tentando regular as atividades do Facebook, vieram à carga. O Congresso dos EUA convocou Zuckerberg para depor em vários comitês, entre os quais o Comitê Judiciário do Senado, o que deve acontecer nos próximos dias.

Mas o que isso tudo significa para você?

 

Como você dá dinheiro ao Facebook

Charge dos porquinhos

O Facebook é a maior rede social do mundo, com mais de 2,1 bilhões de usuários ativos (que se conectam a ele pelo menos uma vez por mês). Você provavelmente é um deles, e talvez faça parte do contingente de 1,4 bilhão de pessoas que acessam a rede todos os dias.

Especialmente graças ao seu aplicativo para smartphones, tem muita gente que, na prática, nunca sai da rede. Isso permite também que uma infinidade de aplicativos de terceiros use o Facebook como ferramenta de autenticação para seus próprios sistemas.

O negócio do Facebook se sustenta no tripé de manter os usuários vidrados em suas telas, na coleta de seus dados e no seu uso para vender publicidade altamente direcionada a esses mesmos usuários. Portanto, quanto mais as pessoas usam a plataforma, mais pegadas digitais deixam, o que é ótimo para o negócio.

Além da publicidade, o Facebook compartilha esses dados com empresas que desenvolvem os aplicativos que rodam em sua plataforma, para seus próprios fins. Isso tem um valor inestimável, e está na essência do negócio de redes sociais e de sistemas operacionais, como iOS, Android e até Windows. Mas esses dados só são compartilhados com os desenvolvedores se o usuário explicitamente autorizar.

É aí que mora o problema!

 

Como se constrói um escândalo

A Cambridge Analytica conseguiu acesso aos dados dos 50 milhões de usuário graças a esse recurso e à infeliz característica de as pessoas concederem acesso a seus dados sem ler o aviso que lhes é mostrado antes de usarem um aplicativo. Esses avisos detalham tudo que será compartilhado com os desenvolvedores, mas o pessoal prefere clicar no botão “concordo” sem ler.

Os dados desse escândalo foram coletados por um aplicativo chamado “This Is Your Digital Life” (“Esta É a Sua Vida Digital”), aparentemente uma brincadeira inofensiva, mas que levava embora um caminhão de informações dos usuários e também de seus amigos. Esses dados eram depois organizados seguindo uma metodologia criada pelo Centro de Psicometria da Universidade de Cambridge (Reino Unido), capaz de traçar o perfil psicológico de uma pessoa em apenas um segundo, a partir de seus passos em redes sociais.

Como o instituto se recusou a trabalhar com a Cambridge Analytica, a empresa contatou os serviços do pesquisador Aleksandr Kogan, que na época trabalhava na universidade e conhecia aquele algoritmo. Kogan, que também desenvolveu o aplicativo, afirma estar sendo agora usado como bode expiatório pela Cambridge Analytica e pelo Facebook: ele garante que não sabia que a sua extração e classificação de dados seriam usadas na campanha de Trump.

O fato é que a Cambridge Analytica foi antiética e talvez criminosa pelo uso que fez dos dados coletados e por ferir os termos de uso do Facebook. Esse, por sua vez, criou um sistema que permite essa violação e rompeu o elo de confiança com seus usuários. Esses, por último, compartilharam alegremente suas informações sem prestar atenção no aviso que o próprio Facebook lhe dava.

Ou seja, todos têm uma parcela de culpa.

 

Como isso afeta você

A verdade é que o Facebook não tem como controlar o que as empresas fazem com os dados dos seus usuários depois que eles são extraídos de sua base. E isso é crítico, pois é bastante razoável supor que um monte de outros desenvolvedores também faça usos indevidos dessas informações, por mais que isso contrarie as regras do próprio Facebook.

A empresa está preocupada, claro. Zuckerberg chegou a citar as eleições do Brasil como um dos grandes eventos desse ano em que darão atenção redobrada, para evitar que manipulações de dados e “fake news” comprometam os resultados. Várias medidas estão saindo da “sala de guerra” em Menlo Park (Califórnia), sede da empresa. Entre elas, o Facebook vem prometendo, cada vez mais, auditar aplicativos, restringir o acesso dos desenvolvedores aos dados dos usuários e ajudar esses últimos a controlar como empresas acessarão suas informações.

Fica pergunta: o Facebook tem como verdadeiramente proteger seus usuários afinal?

A resposta: claro que não!

O elo fraco nessa história somos todos nós, que ficamos à mercê desse ecossistema digital em que estamos enfiados até o último fio de cabelo. E a nossa exposição para fins comerciais está na essência disso. Portanto, isso não mudará!

Os diversos atores nesse emaranhado contam com a inocência ou descuido das pessoas para atingir os seus fins. Basta ver o abrangente estudo sobre “fake news” que foi capa da revista Science, a melhor revista científica do mundo, na edição de 9 de março. Entre outras conclusões dos pesquisadores, as notícias falsas só “pegam” porque nós -e não sistemas automatizados- nos engajamos verdadeiramente com elas. Segundo a equipe, as “fake news” alcançam mais pessoas, são mais replicadas e fazem isso tudo mais rapidamente que as notícias verdadeiras. Como? As pessoas espalham as notícias falsas porque elas parecem trazer mais novidades que as verdadeiras. E isso mexe com nossas emoções.

Ou seja, caímos como patos!

Portanto, a melhor maneira de reduzir o crescimento das “fake news” e o roubo de nossas informações para fins criminosos é a conscientização das pessoas. Nós somos, em última instância, os detentores do poder para evitar que esses cânceres se espalhem ainda mais.

Essa consciência deve ser exercitada em cada atividade diária, em cada compartilhamento, em cada aplicativo iniciado. Não estou dizendo que nos tornemos uns chatos, que cancelemos nossas contas nas redes sociais ou paremos de usar smartphones. É claro que não! Mas, por favor, prestemos mais atenção e sejamos menos “bobinhos” em acreditar em tudo que nos dizem ou nos ofereçam.

Caso contrário, continuaremos contribuindo para uma sociedade pior e mais falsa para todos. E ninguém quer isso, não é mesmo?


Artigos relacionados: