Monthly Archives: setembro 2024

David Furlonger, VP do Gartner: “a IA é uma disrupção combinatória, não perca tempo tentando separá-la” - Foto: Paulo Silvestre

Euforia e desconhecimento empacam avanços da IA

By | Tecnologia | No Comments

A essa altura, ninguém diria que a inteligência artificial não passa de uma tendência incerta: seu uso cresce sem parar entre profissionais diversos, nos mais variados segmentos do mercado. Porém enquanto os investimentos nessa tecnologia avançam exponencialmente, executivos reclamam dos seus resultados. Isso vem muitas vezes de uma combinação de euforia e de desconhecimentos sobre a IA.

Durante a conferência Gartner CIO & IT Executive, que aconteceu em São Paulo na semana passada, especialistas da consultoria demonstraram isso em números. Segundo levantamento desse ano, 47% dos CIOs no mundo disseram que suas iniciativas corporativas de IA não atingiram seus objetivos. Ainda assim, 87% deles planejam investir mais nessa tecnologia em 2025. No Brasil esse índice chega a 92%!

As expectativas são altas e crescentes. Segundo o Gartner, em 2022, apenas 18% dos executivos de negócios acreditavam que a IA impactaria significativamente sua indústria. No ano seguinte, esse índice cresceu para 21%, saltando para 59% em 2024 e devendo chegar aos 74% até o fim do ano!

Apesar disso, são poucos os que parecem ter apetite para criar usos disruptivos com ela. Segundo a consultoria, metade das iniciativas com IA se concentram em ferramentas de produtividade para as equipes, enquanto 30% agem nos processos. Propostas para verdadeiramente transformar o negócio são apenas 20% dos casos.

Para melhorar esse quadro, as empresas devem parar de ver a inteligência artificial apenas como uma mera ferramenta digital capaz de dar respostas quase mágicas. Ela precisa ser encarada como uma tecnologia disruptiva para o negócio. E isso também exige estudo, planejamento e envolvimento profundo das diferentes equipes da empresa, que muitas vezes se dividem entre o medo e o deslumbramento com a IA.


Veja esse artigo em vídeo:


“A IA é uma disrupção combinatória, não perca tempo tentando separá-la”, disse na conferência David Furlonger, vice-presidente do Gartner. “Em vez disso, crie uma inteligência artificial estratégica”, sugeriu.

Ele trouxe previsões envolvendo a IA para os próximos anos, surpreendendo pelas suas abrangências e intensidades. A maior parte envolvia pessoas, como um risco de desenvolvimento de vício e vínculos emocionais com a IA, seu uso em convencimento, eliminação de níveis hierárquicos e uso da IA em decisões de alto nível nos negócios.

Outro ponto destacado é o consumo de energia. Apesar de usarmos alegremente o ChatGPT e afins, poucas pessoas têm consciência da brutal capacidade de processamento e de energia que ele consome. Cada resposta que ele nos dá, seria suficiente para fazer uma lâmpada elétrica piscar. Considerando que o ChatGPT cria algo como 500 milhões de respostas por dia, poderíamos dizer grosseiramente que seu consumo seria suficiente para as necessidades energéticas de uma cidade de médio porte.

Furlonger sugeriu que as empresas devem considerar até a geração de sua própria energia (ou parte dela), para atender as necessidades da IA. Segundo ele, até 2027, as maiores empresas do mundo devem transferir US$ 500 bilhões em iniciativas assim.

Em outra fala, Henrique Cecci, diretor-sênior de Pesquisa do Gartner, disse que muitos países não se beneficiam mais da IA por limitações energéticas. Segundo ele, o consumo desses datacenters deve dobrar nos próximos cinco anos. “E não dá para aumentar a capacidade energética de um dia para o outro”, lembrou.

Esse é só uma das despesas associadas ao uso da inteligência artificial. E o custo é justamente uma das maiores ameaças ao sucesso dessa tecnologia. Levantamentos do Gartner indicam que mais da metade das organizações estão desistindo de seus projetos de IA por erros na estimativa de investimentos necessários.

Ironicamente o principal foco nas iniciativas de uso da IA generativa, segundo a consultoria, é a redução de custos dos negócios.

 

IA sob ataque

Outro aspecto que as empresas precisam investir mais é a cibersegurança. A inteligência artificial traz inegáveis benefícios aos negócios, mas ela também abre sérias brechas na sua proteção.

Furlonger destacou os riscos associados aos agentes de inteligência artificial. Eles são sistemas criados para realizar tarefas específicas, e seu uso vem crescendo, até pelo incentivo dos desenvolvedores dessas plataformas. Mas os agentes podem ser enganados por pessoas de fora ou de dentro da organização. Segundo ele, até 2028, um quarto das falhas de segurança digitais podem estar associadas a eles.

Para Oscar Isaka, analista-diretor-sênior do Gartner, “100% de segurança só existe quando há 0% de funcionalidade”. Ele diz que o profissional de cibersegurança moderno deve ser capaz de explicar claramente os riscos para os diferentes públicos. “Vivemos uma batalha contra a desinformação, que desorienta todos”, acrescentou.

Felizmente a mesma inteligência artificial pode ajudar no combate a esses males. Furlonger afirmou que, até 2028, 48% dos CIOs trabalharão com “anjos da guarda digitais”, que automaticamente vasculharão a totalidade das ações dos agentes, identificando e bloqueando ataques. Essa é uma tarefa que os humanos não conseguirão desempenhar sozinhos.

E por falar em tarefas dos humanos, ele também mencionou o impacto da IA nas lideranças alta e média das empresas. Segundo o executivo, até 2026, 20% das empresas usarão IA para eliminar níveis hierárquicos, demitindo mais da metade dos gerentes atuais. Além disso, essa tecnologia será cada vez mais usada para os conselheiros das companhias exigirem melhores resultados do corpo de executivos.

Nenhuma dessas mudanças é trivial, mas já estão acontecendo em passo acelerado. As empresas tentam encontrar o seu caminho, muitas vezes “construindo o avião da IA em pleno voo”. E isso vem causando tantas decepções com resultados.

O melhor a se fazer, portanto, é investir em pessoas e em planejamento. A tecnologia funcionará muito melhor, qualquer que seja sua aplicação, com esses investimentos no lugar. De nada adianta termos sistemas revolucionários, se não soubermos obter resultados palpáveis deles, contornando seus inevitáveis riscos.

 

O finlandês Mikko Hyppönen mostra um disquete para relembrar o início de sua carreira, no palco do Mind The Sec - Foto: reprodução

Segurança digital deveria ser ensinada na escola, desde a infância

By | Educação, Tecnologia | No Comments

Os smartphones sempre foram muito cobiçados pelos criminosos pelo seu alto valor e facilidade de negociação. De dois anos para cá, esse apetite cresceu muito, especialmente em São Paulo. Mas ironicamente os bandidos não estão interessados no aparelho, e sim nas diversas portas valiosas que ele abre para a vida da vítima, especialmente suas contas bancárias e cartões de crédito.

As pilhas de pessoas que tiveram todas as suas economias roubadas dessa forma escancaram como a cibersegurança deixou de ser uma preocupação corporativa e invadiu a vida de todos nós. As vítimas são cada vez mais jovens, incluindo crianças, o que indica que o tema deveria ser inserido nos currículos escolares, adequados à idade de cada aluno.

Os meliantes digitais espalham-se pela sociedade. As empresas preocupam-se com roubos de dados e invasões que paralisem suas atividades. As pessoas temem cair em golpes e que suas identidades sejam roubadas. E agora as crianças estão expostas a diferentes tipos de abusos online e a jogos que podem colocar as finanças de suas famílias em risco.

Ao educar crianças e adolescentes em cibersegurança, a sociedade prepara cidadãos menos suscetíveis aos ataques cada vez mais criativos e ousados do cibercrime. Os sistemas de segurança fazem bem o seu trabalho, por isso as pessoas passaram a ser o foco dos marginais. Então quanto mais cedo essa instrução for feita, melhor será a proteção de toda a sociedade.


Veja esse artigo em vídeo:


A criminalidade beneficia-se profundamente do meio digital. Até não muito tempo atrás, os criminosos assaltavam agências bancárias e carros-fortes, com um ganho razoável, mas com altíssimo risco de serem presos e até mortos! Com sua digitalização, agora eles praticam milhares de pequenos golpes, que lhes rendem ganhos maiores praticamente sem nenhum risco. E pessoas e empresas sem cultura de cibersegurança facilitam enormemente suas ações.

“O crime sempre esteve na vantagem, não tem regulação, não se preocupa com fazer alguma coisa errada e aparecer na mídia”, afirma Paulo Baldin, CISO e CTO da Flipside, empresa que organizou, na semana passada, o Mind The Sec, maior evento de cibersegurança da América Latina, em São Paulo. “Tudo o que eles fizerem está valendo e, quanto pior for o cenário, melhor para eles”, acrescenta.

“Quando olhamos para estatísticas internacionais, uma explicação para o motivo pelo qual o Brasil é tão atacado é a quantidade de sistemas antigos que ainda estão em uso”, diz o finlandês Mikko Hyppönen, uma das principais autoridades globais em cibersegurança e um dos principais palestrantes no Mind The Sec. “Você não pode proteger um sistema que não possa atualizar contra vulnerabilidades de segurança”, explica o especialista, que, em 2016, criou uma “lei” que indica que qualquer equipamento “inteligente” também é vulnerável.

“Hoje existe uma espécie de ‘miniguerra mundial cibernética’, com todos os países atacando uns aos outros”, sugere o chileno Gabriel Bergel, outra liderança global no setor presente no Mind The Sec. “O Brasil tem muita história nessa área, e a maior e mais madura comunidade de cibersegurança da região, mas, ao mesmo tempo, novos malwares e ransomwares são desenvolvidos aqui”, explica. Por isso, especialistas afirmam que o governo deve criar políticas modernas de combate ao crime digital.

A explosão dos usos da inteligência artificial torna o problema ainda mais grave, pois os bandidos estão usando essa tecnologia para ganhar escala e eficiência, tanto nas práticas de engenharia social (para enganar as vítimas), quanto no desenvolvimento de códigos maliciosos para infectar sistemas.

 

Não dá para se ter tudo

“Em cibersegurança, tudo é uma troca”, explica Hyppönen. Para ele, “quando privacidade e segurança entram em conflito, podemos querer ter as duas coisas, mas às vezes não dá!”

Até não muito tempo atrás, a segurança digital não costumava ir além de manter um bom antivírus, firewall e monitoramento de e-mails. Isso ficou no passado com o trabalho híbrido, que permite que funcionários trabalhem um dia no escritório e outro na praia, conectado em uma rede potencialmente insegura. Além disso, os sistemas corporativos, que costumavam ficar isolados nos servidores da empresa, hoje se conectam com plataformas de diversas fontes, como parceiros e clientes.

Por isso, a cibersegurança passa agora pelo que se chama de “observabilidade”, ou seja, monitorar continuamente sistemas e usuários para saber o que é um uso “normal” de cada um, para identificar rapidamente ações suspeitas e prevenir ataques.

“A triste verdade é que a defesa contra invasores avançados geralmente requer reunir grandes quantidades de telemetria, alertar em tempo real e responder rapidamente antes que um ataque possa ser concluído”, adverte o americano Alex Stamos, outro palestrante central do Mind The Sec. “Em redes corporativas, isso não precisa ter um grande impacto na privacidade pessoal, mas no caso de proteger grandes plataformas de consumidores ou nações inteiras, há um difícil equilíbrio entre proteger indivíduos de invasores e dos próprios protetores”, explica.

“Se eu implementar uma política que impacta a produtividade do usuário, isso acaba não sendo viável, porque impacta o negócio”, alerta Flavio Povoa, gerente de engenharia de sistemas da HPE Aruba Networking. “Eu preciso entender quem são esses usuários, com quem eles se comunicam, usar a IA para entender que tipo de dispositivo é esse e qual sua função na rede”, acrescenta.

Em um mundo em que tudo parece estar sendo potencializado pela inteligência artificial e onde os smartphones abrem portas para os serviços que usamos e até para nossos dados mais íntimos, não há mais espaço para pessoas e empresas trataram a segurança digital de forma displicente. Precisamos entender que a mesma tecnologia que nos facilita imensamente o cotidiano também apresenta riscos consideráveis.

Esse será o nosso cotidiano de agora em diante! O melhor que todos podem fazer é assumir e entender os riscos, criar mecanismos para se defender deles e estar preparado para encontrar saídas, caso o pior aconteça.

Ninguém está imune ao cibercrime! Quanto mais cedo aprendermos a lidar com ele, mas eficiente será a nossa resposta a esses novos desafios em nossas vidas.


Veja a íntegra em vídeo da entrevista com Paulo Baldin, CISO e CTO da Flipside:

 

Brasileiros ficam na 44ª posição do indicador que mede as nações mais felizes do mundo – Foto: Tomaz Silva/Agência Brasil

Aceleração do mundo digital ameaça a alegria das pessoas

By | Jornalismo, Tecnologia | No Comments

O brasileiro se gabava de ser o povo mais feliz do mundo. Éramos acolhedores até com estranhos e levávamos a vida de forma leve e bem-humorada, mesmo diante de adversidades do cotidiano. Vivíamos na orgulhosa pátria das chuteiras, do samba, do suor e da cerveja. Mas olhando a nossa volta, parece que isso ficou no passado. Muitas coisas explicam essa queda, mas algo sorrateiro tem um papel decisivo nesse entristecimento: a aceleração descontrolada de nossas vidas pelo meio digital.

Segundo o Relatório de Felicidade Mundial 2024, organizado pela consultoria Gallup, pela Universidade de Oxford e pela ONU, lançado em março, o Brasil amarga uma melancólica 44ª posição no indicador de nações felizes, de um total de 143, logo depois da Nicarágua e da Guatemala. Pelo sétimo ano seguido, o país mais feliz do mundo foi a Finlândia. Aliás, o norte da Europa domina a lista, com as primeiras posições completadas por Dinamarca, Islândia e Suécia.

Cada um sabe “onde aperta seu calo”. Entre outras questões, os brasileiros ficaram tristes pela violência, pela corrupção, pela política suja, pelo acesso precário a serviços básicos e pela instabilidade econômica, que leva a um medo constante de perder o emprego. Mas o nosso profundo apreço pelas redes sociais semeou em nós uma permanente insatisfação, que nos torna ansiosos e substitui muitos bons valores por insanas e contínuas buscas, como riqueza fácil com “jogos de tigrinhos” e afins.

Não dá para ser feliz enquanto se estiver insatisfeito! Obviamente temos que buscar nosso crescimento, mas precisamos resgatar o controle de nossas vidas, valorizando aquilo que verdadeiramente nos faz avançar. As redes sociais nos estimulam o tempo todo, de uma maneira que nosso cérebro não mais consegue lidar com tanta informação. Enquanto não percebermos como somos manipulados digitalmente, não sairemos desse quadro desolador.


Veja esse artigo em vídeo:


O Relatório de Felicidade Mundial considera diversos aspectos para definir a felicidade de um povo. Entre eles, estão o PIB per capita, o apoio de parentes e amigos, a expectativa de vida ao nascer, a liberdade de se fazer escolhas, a generosidade com o próximo e a percepção de corrupção. Essa última é onde o Brasil aparece pior, mas também vamos mal em liberdade de se fazer escolhas e na expectativa de vida.

A situação se agrava entre os brasileiros mais jovens. Segundo o estudo, se considerarmos só as pessoas com até 30 anos, o país despenca para a 60ª posição. Por outro lado, se computarmos apenas as com mais de 60, saltamos para a 37ª.

Diante disso é inevitável comparar o índice de felicidade com o de uso das redes sociais. De acordo com a versão mais recente do Digital Global Overview Report, publicado anualmente pela consultoria We Are Social, somos os vice-campeões mundiais em tempo online, com uma média diária de 9 horas e 13 minutos, dos quais 3 horas e 37 minutos são dedicados a redes socias. Em comparação, os dinamarqueses têm uma média diária online de 5 horas e 8 minutos e apenas 1 hora e 50 minutos nas redes sociais. A Finlândia não integrou essa pesquisa.

Não é mera coincidência que os mais jovens, que se informam menos por fontes confiáveis e são mais suscetíveis aos algoritmos de relevância, sejam os mais tristes. As sociedades descobriram que, para vender qualquer coisa, de um produto a um político, é preciso acelerar ainda mais a vida, soterrando o senso crítico.

Nesse cenário resultante de estresse, desesperança e cansaço coletivo, as pessoas aproveitam seu pouco tempo livre com diversão rasa, o que reforça a alienação. Rejeita-se tudo que convide a uma leitura crítica da vida.

 

“Pensar dá trabalho”

Fica fácil entender então por que 47% dos brasileiros deliberadamente se recusam a consumir notícias. O número é do Digital News Report 2024, publicado em junho pelo Instituto Reuters e pela Universidade de Oxford. Em 2023, esse índice era de 41%.

O estudo sugere que essa rejeição se deve à percepção de que “só há notícia ruim”. E apenas 43% dos brasileiros confiam no noticiário, o mesmo índice do ano passado, o pior já registrado (há uma década, era 62%). Se serve de consolo, os brasileiros são os que mais confiam nas notícias entre os seis países latino-americanos pesquisados.

Talvez a grande ironia para os que tentam “resistir ao noticiário” é que os mesmos assuntos ruins continuam os impactando, porém a partir de fontes pouco ou nada confiáveis, como WhatsApp ou Telegram. E assim esse conteúdo chega com uma carga emocional ainda mais pesada que se sua origem fosse o noticiário profissional.

Do outro lado, os que mais confiam no jornalismo são justamente os finlandeses, aqueles que também são os mais felizes do mundo, e que integram o grupo de populações menos influenciadas pelas redes sociais.

A informação que processamos em apenas uma semana hoje é muito maior que a que uma pessoa culta era exposta ao longo de toda sua vida no século XVIII. É verdade que o ser humano se adapta a tudo, mas o nosso cérebro tem seus limites. Quando são desrespeitados, entramos em colapso, daí as atuais ansiedade e depressão.

A inteligência artificial infelizmente tende a agravar isso, em um processo batizado de “hipersuasão” pelo filósofo italiano Luciano Floridi, um dos maiores nomes da filosofia da informação. Para ele, a IA já é usada para identificar nossos desejos e medos, e, a partir deles, produzir conteúdos que nos aceleram e nos convencem cada vez mais sobre qualquer tema. E isso ficará pior com o tempo. Tanto que, em janeiro, o Fórum Econômico Mundial em Davos classificou a desinformação impulsionada pela IA como a maior ameaça à humanidade nos próximos anos.

Podemos comprovar isso nas campanhas eleitorais desse ano. Seguindo o padrão dos pleitos anteriores, os candidatos que trazem propostas sensatas ficam muito atrás daqueles que se apresentam como “antissistema”, que “lacram” e acirram os ânimos. Tragicamente eles vencem sem oferecer nada concreto, apenas uma excitação vazia.

Chegamos a um ponto em que parece não haver saída. Governantes não se movimentam para melhorar esse quadro, pois se beneficiam dessa aceleração. As escolas não se posicionam, até por pressão de pais “acelerados”, preocupados com o vestibular e contra professores que insistam em oferecer a seus filhos visões de mundo mais amplas que as de dentro de casa.

Por isso, por mais que sejamos vítimas disso, sua solução recai sobre nossos ombros. E isso é terrível, porque a aceleração do meio digital nos retira os meios para sequer percebermos que ela existe! Somos arrastados a querer sempre mais, porém nunca chegaremos lá, e assim retroalimentamos o sistema que nos massacra.

Não há outro caminho! Temos que pisar no freio e nos questionar se desejaremos continuar fazendo parte dessa roda viva ou se resgataremos o controle sobre nós mesmos. E nesse caso, precisaremos eliminar nossa submissão digital.

 

Adriana Aroulho, presidente da SAP Brasil, fala durante a abertura do SAP Now 2024, em São Paulo – Foto: Paulo Silvestre

IA só entregará a prometida transformação, se o investimento for feito com consciência

By | Tecnologia | No Comments

A “corrida da inteligência artificial” está prestes a completar dois anos, com executivos buscando maneiras de usar essa tecnologia para levar seus negócios a um patamar de produtividade inédito. Mas esse aspecto quase messiânico da IA tem decepcionado muitos deles, que não vêm colhendo os frutos esperados de seus investimentos.

A culpa não é da IA, e sim de implantações feitas sem planejamento. Em um estudo de julho de 2023, pesquisadores da consultoria McKinsey concluíram que, embora 89% das grandes empresas no mundo já tivessem projetos com IA em curso, apenas 31% haviam aumentado as receitas e 25% diminuído os custos como esperado. Outro levantamento, essa da consultoria Gartner, do segundo trimestre de 2023, indicou que 64% dos CEOs não achavam que existia exageros sobre a IA, mas 53% dos CIOs não tinham certeza se estavam preparados para mitigar os riscos associados a ela.

A implantação responsável da IA teve destaque durante o SAP Now, evento anual da subsidiária brasileira da gigante alemã de software, que aconteceu na semana passada, em São Paulo. Apesar de a inteligência artificial generativa ganhar os holofotes, seu uso consciente permeou a fala das lideranças da empresa.

Essa tecnologia efetivamente traz ganhos de produtividade antes inimagináveis a profissionais em diferentes funções e de diversos setores da economia. Porém os seres humanos precisam se manter no controle do processo. Isso demanda o desenvolvimento de novas habilidades nas equipes, criando também exigências inéditas para os gestores.

Não é de se estranhar, portanto, que ainda se observe desperdícios na implantação de uma tecnologia tão revolucionária. Sem um olhar responsável, criterioso e ético, além de capacitação dos times, a IA pode ser mesmo decepcionante.


Veja esse artigo em vídeo:


“Você não traz inovação, IA, transformação para a nuvem, se você não trouxer valor para o negócio”, explicou no evento Cristina Palmaka, presidente da SAP América Latina e Caribe. “Seja a criação de novos modelos, seja aumento de produtividade, eficiência, todo o tema de segurança, o apetite está atrelado a ter um caso de negócios que justifique o investimento”, acrescentou.

Em outras palavras, antes de pensar em investir desbragadamente em inteligência artificial, deve-se saber qual é o ganho para o negócio que ela trará, qual é o problema a ser resolvido. Parece óbvio, mas nem sempre isso é seguido pelos gestores: no estudo do Gartner, 65% dos entrevistados disseram usar dados para justificar uma decisão já tomada, normalmente pela pessoa mais bem-paga na organização.

“Nosso posicionamento é de ‘business AI’: a gente não quer ser mais uma alternativa de tecnologia, como o ChatGPT, porque o insumo deles é a informação que está aí, pela Internet”, afirmou no SAP Now Adriana Aroulho, presidente da SAP Brasil, reforçando o seu posicionamento corporativo. “A nossa inteligência artificial faz uso dos dados do próprio negócio, pois a gente quer a inteligência artificial resolvendo problemas de negócios reais”, justificou.

Pouco antes, na abertura do evento, a executiva havia destacado a importância de que a IA de aplicações corporativas siga três R (em inglês): “Relevant” (relevante), “Reliable” (confiável) e “Responsible” (responsável). Eles endereçam um dos grandes problemas que muitas empresas enfrentam nas suas atuais implantações de inteligência artificial: a baixa confiabilidade nas respostas oferecidas pelas plataformas, incluindo as chamadas “alucinações”.

De fato, estima-se que pelo menos 3% de todas as respostas dadas por sistemas públicos, como o ChatGPT e o Gemini, contenham imprecisões leves ou severas. Isso acontece porque eles sempre respondem algo aos questionamentos do usuário, mesmo quando não sabem o que dizer. Além disso, por usarem informações públicas da Internet, isso diminui a relevância de suas respostas para os negócios.

Soluções corporativas de IA da SAP e de outras empresas, como IBM e Red Hat, mitigam esse risco por se focarem em dados do próprio cliente, aumentando sua relevância e a sua confiabilidade.

 

O R de “responsável”

O “terceiro R”, o da responsabilidade, depende mais das pessoas que das máquinas. Afinal, a tecnologia é agnóstica, e fará tudo que lhe for pedido.

“A gente entende que a decisão é sempre do humano: a IA automatiza, mas é o cliente que faz a pergunta”, lembrou Aroulho. Para ela, as empresas não podem perder de vista a ética quando usam a IA, e precisam capacitar suas equipes para usos conscientes. “À medida que a inteligência artificial vai automatizando, a gente vai melhorando também, porque temos que fazer a pergunta certa”, detalhou.

“Alguns especialistas dizem que a inteligência artificial generativa se assemelha ao descobrimento do fogo, da eletricidade e à criação da Internet, no que tange à evolução da espécie humana, e eu não acho que seja exagero”, sugeriu no palco do SAP Now Matheus Souza, Chief Innovation Officer da SAP América Latina e Caribe.

Concordo com ele! Mas estou certo de que muitos de nossos ancestrais primitivos queimaram a mão tentando dominar o fogo. Mesmo hoje, ainda sofremos acidentes com ele, porém proporcionalmente pouco, pois aprendemos como usá-lo.

Estamos na aurora da inteligência artificial. Apesar de suas pesquisas já terem mais de 70 anos, apenas agora empresas e profissionais têm acesso amplo a seus recursos, seja pelo grande poder de processamento disponível, seja pela atenção que ela ganhou com o lançamento do ChatGPT.

Mas apesar de seu apelo irresistível, executivos e gestores de pessoas devem abraçá-la do jeito certo. Se não souberem que problemas a IA resolverá, e se suas equipes não estiverem à vontade e preparadas para isso, sua adoção pode ser decepcionante.

Na atual intersecção da tecnologia com os negócios, essas decisões não podem mais se restringir a aspectos de um ou do outro. Como explicou Palmaka, essa inovação não deve servir apenas para aquilo que se faz hoje, mas também para aquilo que será feito no futuro.

Com tanto poder em jogo, não há espaço para amadorismo.

 

Policial espanhola atende mulher no programa VioGén, que calcula o risco de ocorrências de violência de gênero - Foto: reprodução

O que acontecerá quando alguém morrer por um erro de inteligência artificial

By | Tecnologia | No Comments

O uso da inteligência artificial continua avançando nas mais diversas atividades, trazendo sensíveis ganhos de produtividade em automação de tarefas e no apoio à tomada de decisões. Ainda assim, ela está longe de ser perfeita, mas muitos usuários parecem não se preocupar com isso, pois seus eventuais erros causam prejuízos mínimos. Em algumas funções, entretanto, essas falhas podem levar a enormes transtornos, até mesmo à morte de alguém.

Duas perguntas surgem imediatamente disso: como evitar que uma tragédia dessas aconteça, e quem responderá por isso nesse caso.

A inteligência artificial é fabulosa para encontrar padrões, que permitem que ela tome suas decisões. Esses padrões dependem, entretanto, da qualidade dos dados usados para seu treinamento. Se os dados forem limitados ou cheios de viés, isso comprometerá seriamente a eficiência da plataforma.

Esse é um dos motivos por que a tomada de decisões críticas, por mais que seja auxiliada pela inteligência artificial, deve continuar em mãos humanas, pelo menos no estágio atual da tecnologia.

Algumas pessoas argumentam que isso contrariaria o próprio propósito de se usar a IA. Mas ignorar essa responsabilidade é como entregar uma decisão de vida ou morte para um estagiário eficiente. Talvez algum dia ele tenha estofo para algo tão sério e possa responder por isso, mas, por enquanto, não está preparado para tal.

Nada disso é especulação: já está acontecendo!


Veja esse artigo em vídeo:


Por exemplo, a polícia espanhola usa um sistema chamado VioGén para determinar estatisticamente riscos de ocorrência de violência de gênero. Em 2022, Lobna Hemid foi morta em casa pelo seu marido, depois de dar queixa na delegacia por ter sido insultada e surrada por ele com um pedaço de madeira, diante dos quatro filhos de 6 a 12 anos. Toda a vizinhança tinha ouvido seus gritos.

Não havia sido a primeira vez que o marido, Bouthaer el Banaisati, a havia espancado nos dez anos de casamento. Ainda assim, o VioGén calculou que ela corria pouco risco. O policial aceitou a decisão da máquina e a mandou para casa. Sete semanas depois, Bouthaer a esfaqueou várias vezes no peito e depois se suicidou.

Segundo o Ministério do Interior da Espanha, há 92 mil casos ativos de violência contra mulher no país. O VioGén calculou que 83% dessas vítimas tinham risco baixo ou insignificante de serem atacadas novamente pelo agressor. E o caso de Lobna não é único: desde 2007, 247 mulheres foram mortas depois de serem analisadas pelo sistema, 55 delas com riscos classificados como insignificantes ou baixos.

Os policiais têm autonomia de ignorar a sugestão da plataforma, devido a indícios que observem. Mas em 95% dos casos, eles apenas aceitam a sugestão.

A máquina não pode ser responsabilizada pelo erro de julgamento, por mais que esteja diretamente ligada a essas mortes. Mas então quem reponde por isso? Os policiais que acreditaram no VioGén? O fabricante da plataforma?

No momento, ninguém! As autoridades argumentam que, apesar de imperfeito, o VioGén efetivamente diminuiu a violência contra mulheres. Mas isso não importa para Lobna, que engrossou as estatísticas de agressões fatais contra mulheres e de erros policiais grosseiros causados por decisões auxiliadas por uma máquina.

 

No Brasil

Oficialmente, não há casos assim no Brasil, mas diferentes sistemas de IA já causam severos erros policiais e jurídicos no país.

Assim como acontece em outras nações, muitas pessoas já foram presas por aqui por erros em sistemas de reconhecimento facial por câmeras públicas ou de policiais. A maioria das vítimas são pessoas negras e mulheres, pois as bases de dados usadas para seu treinamento têm muito mais fotos de homens brancos.

Isso reforça ainda mais a já conhecida e aviltante discriminação policial contra negros. E por mais que essas vítimas acabem sendo soltas quando o erro é descoberto, passar alguns dias “gratuitamente” na cadeia é inadmissível!

E nem estou falando nos casos em que a polícia já chega atirando no “suspeito”.

Em outro caso, há o sistema de vigilância pública da prefeitura de São Paulo, o Smart Sampa, que usa IA para evitar crimes. Sua proposta original, que previa “rastrear uma pessoa suspeita, monitorando todos os seus movimentos e atividades, por características como cor, face, roupas, forma do corpo, aspectos físicos etc.”, teve que ser alterada, pois monitorar alguém pela cor é ilegal. Mas a redação era emblemática!

A Justiça também tenta encontrar caminhos seguros para um uso produtivo da IA. Mas casos de erros graves dificultam essa aprovação.

Por exemplo, o Conselho Nacional de Justiça (CNJ) investiga o caso do juiz Jefferson Ferreira Rodrigues, que negou indenização a uma servidora pública, quando era titular da 2ª Vara Cível e Criminal de Montes Claros (MG). Sua sentença incluía jurisprudências inexistentes criadas pelo ChatGPT. Ele admitiu o erro, mas o classificou como um “mero equívoco” devido à “sobrecarga de trabalho que recai sobre os ombros dos juízes”. Ele ainda atribuiu o erro a um “assessor de confiança”.

Esses são apenas exemplos de por que não se pode confiar cegamente nas decisões de plataformas de inteligência artificial. É muito diferente de dizer que elas não devem ser usadas, pois devem: podem trazer grandes benefícios aos nosso cotidiano!

A decisão sempre deve ser de humanos, que são responsáveis por qualquer falha da plataforma, especialmente em casos críticos. E mesmo que um sistema evite 100 mortes, não é aceitável que 10 inocentes sejam condenados ou mortos por erros da plataforma. Se houver um único erro assim, ela não é boa o suficiente para uso!

Por fim, é preciso criar legislações que também responsabilizem os fabricantes por essas falhas. Caso contrário, seu marketing continuará “batendo o bumbo” quando algo dá muito certo, e “tirando o corpo fora” se algo der errado, jogando a culpa aos seres humanos. A inteligência artificial deve trabalhar para nós, e não o contrário!