Monthly Archives: setembro 2024

Brasileiros ficam na 44ª posição do indicador que mede as nações mais felizes do mundo – Foto: Tomaz Silva/Agência Brasil

Aceleração do mundo digital ameaça a alegria das pessoas

By | Jornalismo, Tecnologia | No Comments

O brasileiro se gabava de ser o povo mais feliz do mundo. Éramos acolhedores até com estranhos e levávamos a vida de forma leve e bem-humorada, mesmo diante de adversidades do cotidiano. Vivíamos na orgulhosa pátria das chuteiras, do samba, do suor e da cerveja. Mas olhando a nossa volta, parece que isso ficou no passado. Muitas coisas explicam essa queda, mas algo sorrateiro tem um papel decisivo nesse entristecimento: a aceleração descontrolada de nossas vidas pelo meio digital.

Segundo o Relatório de Felicidade Mundial 2024, organizado pela consultoria Gallup, pela Universidade de Oxford e pela ONU, lançado em março, o Brasil amarga uma melancólica 44ª posição no indicador de nações felizes, de um total de 143, logo depois da Nicarágua e da Guatemala. Pelo sétimo ano seguido, o país mais feliz do mundo foi a Finlândia. Aliás, o norte da Europa domina a lista, com as primeiras posições completadas por Dinamarca, Islândia e Suécia.

Cada um sabe “onde aperta seu calo”. Entre outras questões, os brasileiros ficaram tristes pela violência, pela corrupção, pela política suja, pelo acesso precário a serviços básicos e pela instabilidade econômica, que leva a um medo constante de perder o emprego. Mas o nosso profundo apreço pelas redes sociais semeou em nós uma permanente insatisfação, que nos torna ansiosos e substitui muitos bons valores por insanas e contínuas buscas, como riqueza fácil com “jogos de tigrinhos” e afins.

Não dá para ser feliz enquanto se estiver insatisfeito! Obviamente temos que buscar nosso crescimento, mas precisamos resgatar o controle de nossas vidas, valorizando aquilo que verdadeiramente nos faz avançar. As redes sociais nos estimulam o tempo todo, de uma maneira que nosso cérebro não mais consegue lidar com tanta informação. Enquanto não percebermos como somos manipulados digitalmente, não sairemos desse quadro desolador.


Veja esse artigo em vídeo:


O Relatório de Felicidade Mundial considera diversos aspectos para definir a felicidade de um povo. Entre eles, estão o PIB per capita, o apoio de parentes e amigos, a expectativa de vida ao nascer, a liberdade de se fazer escolhas, a generosidade com o próximo e a percepção de corrupção. Essa última é onde o Brasil aparece pior, mas também vamos mal em liberdade de se fazer escolhas e na expectativa de vida.

A situação se agrava entre os brasileiros mais jovens. Segundo o estudo, se considerarmos só as pessoas com até 30 anos, o país despenca para a 60ª posição. Por outro lado, se computarmos apenas as com mais de 60, saltamos para a 37ª.

Diante disso é inevitável comparar o índice de felicidade com o de uso das redes sociais. De acordo com a versão mais recente do Digital Global Overview Report, publicado anualmente pela consultoria We Are Social, somos os vice-campeões mundiais em tempo online, com uma média diária de 9 horas e 13 minutos, dos quais 3 horas e 37 minutos são dedicados a redes socias. Em comparação, os dinamarqueses têm uma média diária online de 5 horas e 8 minutos e apenas 1 hora e 50 minutos nas redes sociais. A Finlândia não integrou essa pesquisa.

Não é mera coincidência que os mais jovens, que se informam menos por fontes confiáveis e são mais suscetíveis aos algoritmos de relevância, sejam os mais tristes. As sociedades descobriram que, para vender qualquer coisa, de um produto a um político, é preciso acelerar ainda mais a vida, soterrando o senso crítico.

Nesse cenário resultante de estresse, desesperança e cansaço coletivo, as pessoas aproveitam seu pouco tempo livre com diversão rasa, o que reforça a alienação. Rejeita-se tudo que convide a uma leitura crítica da vida.

 

“Pensar dá trabalho”

Fica fácil entender então por que 47% dos brasileiros deliberadamente se recusam a consumir notícias. O número é do Digital News Report 2024, publicado em junho pelo Instituto Reuters e pela Universidade de Oxford. Em 2023, esse índice era de 41%.

O estudo sugere que essa rejeição se deve à percepção de que “só há notícia ruim”. E apenas 43% dos brasileiros confiam no noticiário, o mesmo índice do ano passado, o pior já registrado (há uma década, era 62%). Se serve de consolo, os brasileiros são os que mais confiam nas notícias entre os seis países latino-americanos pesquisados.

Talvez a grande ironia para os que tentam “resistir ao noticiário” é que os mesmos assuntos ruins continuam os impactando, porém a partir de fontes pouco ou nada confiáveis, como WhatsApp ou Telegram. E assim esse conteúdo chega com uma carga emocional ainda mais pesada que se sua origem fosse o noticiário profissional.

Do outro lado, os que mais confiam no jornalismo são justamente os finlandeses, aqueles que também são os mais felizes do mundo, e que integram o grupo de populações menos influenciadas pelas redes sociais.

A informação que processamos em apenas uma semana hoje é muito maior que a que uma pessoa culta era exposta ao longo de toda sua vida no século XVIII. É verdade que o ser humano se adapta a tudo, mas o nosso cérebro tem seus limites. Quando são desrespeitados, entramos em colapso, daí as atuais ansiedade e depressão.

A inteligência artificial infelizmente tende a agravar isso, em um processo batizado de “hipersuasão” pelo filósofo italiano Luciano Floridi, um dos maiores nomes da filosofia da informação. Para ele, a IA já é usada para identificar nossos desejos e medos, e, a partir deles, produzir conteúdos que nos aceleram e nos convencem cada vez mais sobre qualquer tema. E isso ficará pior com o tempo. Tanto que, em janeiro, o Fórum Econômico Mundial em Davos classificou a desinformação impulsionada pela IA como a maior ameaça à humanidade nos próximos anos.

Podemos comprovar isso nas campanhas eleitorais desse ano. Seguindo o padrão dos pleitos anteriores, os candidatos que trazem propostas sensatas ficam muito atrás daqueles que se apresentam como “antissistema”, que “lacram” e acirram os ânimos. Tragicamente eles vencem sem oferecer nada concreto, apenas uma excitação vazia.

Chegamos a um ponto em que parece não haver saída. Governantes não se movimentam para melhorar esse quadro, pois se beneficiam dessa aceleração. As escolas não se posicionam, até por pressão de pais “acelerados”, preocupados com o vestibular e contra professores que insistam em oferecer a seus filhos visões de mundo mais amplas que as de dentro de casa.

Por isso, por mais que sejamos vítimas disso, sua solução recai sobre nossos ombros. E isso é terrível, porque a aceleração do meio digital nos retira os meios para sequer percebermos que ela existe! Somos arrastados a querer sempre mais, porém nunca chegaremos lá, e assim retroalimentamos o sistema que nos massacra.

Não há outro caminho! Temos que pisar no freio e nos questionar se desejaremos continuar fazendo parte dessa roda viva ou se resgataremos o controle sobre nós mesmos. E nesse caso, precisaremos eliminar nossa submissão digital.

 

Adriana Aroulho, presidente da SAP Brasil, fala durante a abertura do SAP Now 2024, em São Paulo – Foto: Paulo Silvestre

IA só entregará a prometida transformação, se o investimento for feito com consciência

By | Tecnologia | No Comments

A “corrida da inteligência artificial” está prestes a completar dois anos, com executivos buscando maneiras de usar essa tecnologia para levar seus negócios a um patamar de produtividade inédito. Mas esse aspecto quase messiânico da IA tem decepcionado muitos deles, que não vêm colhendo os frutos esperados de seus investimentos.

A culpa não é da IA, e sim de implantações feitas sem planejamento. Em um estudo de julho de 2023, pesquisadores da consultoria McKinsey concluíram que, embora 89% das grandes empresas no mundo já tivessem projetos com IA em curso, apenas 31% haviam aumentado as receitas e 25% diminuído os custos como esperado. Outro levantamento, essa da consultoria Gartner, do segundo trimestre de 2023, indicou que 64% dos CEOs não achavam que existia exageros sobre a IA, mas 53% dos CIOs não tinham certeza se estavam preparados para mitigar os riscos associados a ela.

A implantação responsável da IA teve destaque durante o SAP Now, evento anual da subsidiária brasileira da gigante alemã de software, que aconteceu na semana passada, em São Paulo. Apesar de a inteligência artificial generativa ganhar os holofotes, seu uso consciente permeou a fala das lideranças da empresa.

Essa tecnologia efetivamente traz ganhos de produtividade antes inimagináveis a profissionais em diferentes funções e de diversos setores da economia. Porém os seres humanos precisam se manter no controle do processo. Isso demanda o desenvolvimento de novas habilidades nas equipes, criando também exigências inéditas para os gestores.

Não é de se estranhar, portanto, que ainda se observe desperdícios na implantação de uma tecnologia tão revolucionária. Sem um olhar responsável, criterioso e ético, além de capacitação dos times, a IA pode ser mesmo decepcionante.


Veja esse artigo em vídeo:


“Você não traz inovação, IA, transformação para a nuvem, se você não trouxer valor para o negócio”, explicou no evento Cristina Palmaka, presidente da SAP América Latina e Caribe. “Seja a criação de novos modelos, seja aumento de produtividade, eficiência, todo o tema de segurança, o apetite está atrelado a ter um caso de negócios que justifique o investimento”, acrescentou.

Em outras palavras, antes de pensar em investir desbragadamente em inteligência artificial, deve-se saber qual é o ganho para o negócio que ela trará, qual é o problema a ser resolvido. Parece óbvio, mas nem sempre isso é seguido pelos gestores: no estudo do Gartner, 65% dos entrevistados disseram usar dados para justificar uma decisão já tomada, normalmente pela pessoa mais bem-paga na organização.

“Nosso posicionamento é de ‘business AI’: a gente não quer ser mais uma alternativa de tecnologia, como o ChatGPT, porque o insumo deles é a informação que está aí, pela Internet”, afirmou no SAP Now Adriana Aroulho, presidente da SAP Brasil, reforçando o seu posicionamento corporativo. “A nossa inteligência artificial faz uso dos dados do próprio negócio, pois a gente quer a inteligência artificial resolvendo problemas de negócios reais”, justificou.

Pouco antes, na abertura do evento, a executiva havia destacado a importância de que a IA de aplicações corporativas siga três R (em inglês): “Relevant” (relevante), “Reliable” (confiável) e “Responsible” (responsável). Eles endereçam um dos grandes problemas que muitas empresas enfrentam nas suas atuais implantações de inteligência artificial: a baixa confiabilidade nas respostas oferecidas pelas plataformas, incluindo as chamadas “alucinações”.

De fato, estima-se que pelo menos 3% de todas as respostas dadas por sistemas públicos, como o ChatGPT e o Gemini, contenham imprecisões leves ou severas. Isso acontece porque eles sempre respondem algo aos questionamentos do usuário, mesmo quando não sabem o que dizer. Além disso, por usarem informações públicas da Internet, isso diminui a relevância de suas respostas para os negócios.

Soluções corporativas de IA da SAP e de outras empresas, como IBM e Red Hat, mitigam esse risco por se focarem em dados do próprio cliente, aumentando sua relevância e a sua confiabilidade.

 

O R de “responsável”

O “terceiro R”, o da responsabilidade, depende mais das pessoas que das máquinas. Afinal, a tecnologia é agnóstica, e fará tudo que lhe for pedido.

“A gente entende que a decisão é sempre do humano: a IA automatiza, mas é o cliente que faz a pergunta”, lembrou Aroulho. Para ela, as empresas não podem perder de vista a ética quando usam a IA, e precisam capacitar suas equipes para usos conscientes. “À medida que a inteligência artificial vai automatizando, a gente vai melhorando também, porque temos que fazer a pergunta certa”, detalhou.

“Alguns especialistas dizem que a inteligência artificial generativa se assemelha ao descobrimento do fogo, da eletricidade e à criação da Internet, no que tange à evolução da espécie humana, e eu não acho que seja exagero”, sugeriu no palco do SAP Now Matheus Souza, Chief Innovation Officer da SAP América Latina e Caribe.

Concordo com ele! Mas estou certo de que muitos de nossos ancestrais primitivos queimaram a mão tentando dominar o fogo. Mesmo hoje, ainda sofremos acidentes com ele, porém proporcionalmente pouco, pois aprendemos como usá-lo.

Estamos na aurora da inteligência artificial. Apesar de suas pesquisas já terem mais de 70 anos, apenas agora empresas e profissionais têm acesso amplo a seus recursos, seja pelo grande poder de processamento disponível, seja pela atenção que ela ganhou com o lançamento do ChatGPT.

Mas apesar de seu apelo irresistível, executivos e gestores de pessoas devem abraçá-la do jeito certo. Se não souberem que problemas a IA resolverá, e se suas equipes não estiverem à vontade e preparadas para isso, sua adoção pode ser decepcionante.

Na atual intersecção da tecnologia com os negócios, essas decisões não podem mais se restringir a aspectos de um ou do outro. Como explicou Palmaka, essa inovação não deve servir apenas para aquilo que se faz hoje, mas também para aquilo que será feito no futuro.

Com tanto poder em jogo, não há espaço para amadorismo.

 

Policial espanhola atende mulher no programa VioGén, que calcula o risco de ocorrências de violência de gênero - Foto: reprodução

O que acontecerá quando alguém morrer por um erro de inteligência artificial

By | Tecnologia | No Comments

O uso da inteligência artificial continua avançando nas mais diversas atividades, trazendo sensíveis ganhos de produtividade em automação de tarefas e no apoio à tomada de decisões. Ainda assim, ela está longe de ser perfeita, mas muitos usuários parecem não se preocupar com isso, pois seus eventuais erros causam prejuízos mínimos. Em algumas funções, entretanto, essas falhas podem levar a enormes transtornos, até mesmo à morte de alguém.

Duas perguntas surgem imediatamente disso: como evitar que uma tragédia dessas aconteça, e quem responderá por isso nesse caso.

A inteligência artificial é fabulosa para encontrar padrões, que permitem que ela tome suas decisões. Esses padrões dependem, entretanto, da qualidade dos dados usados para seu treinamento. Se os dados forem limitados ou cheios de viés, isso comprometerá seriamente a eficiência da plataforma.

Esse é um dos motivos por que a tomada de decisões críticas, por mais que seja auxiliada pela inteligência artificial, deve continuar em mãos humanas, pelo menos no estágio atual da tecnologia.

Algumas pessoas argumentam que isso contrariaria o próprio propósito de se usar a IA. Mas ignorar essa responsabilidade é como entregar uma decisão de vida ou morte para um estagiário eficiente. Talvez algum dia ele tenha estofo para algo tão sério e possa responder por isso, mas, por enquanto, não está preparado para tal.

Nada disso é especulação: já está acontecendo!


Veja esse artigo em vídeo:


Por exemplo, a polícia espanhola usa um sistema chamado VioGén para determinar estatisticamente riscos de ocorrência de violência de gênero. Em 2022, Lobna Hemid foi morta em casa pelo seu marido, depois de dar queixa na delegacia por ter sido insultada e surrada por ele com um pedaço de madeira, diante dos quatro filhos de 6 a 12 anos. Toda a vizinhança tinha ouvido seus gritos.

Não havia sido a primeira vez que o marido, Bouthaer el Banaisati, a havia espancado nos dez anos de casamento. Ainda assim, o VioGén calculou que ela corria pouco risco. O policial aceitou a decisão da máquina e a mandou para casa. Sete semanas depois, Bouthaer a esfaqueou várias vezes no peito e depois se suicidou.

Segundo o Ministério do Interior da Espanha, há 92 mil casos ativos de violência contra mulher no país. O VioGén calculou que 83% dessas vítimas tinham risco baixo ou insignificante de serem atacadas novamente pelo agressor. E o caso de Lobna não é único: desde 2007, 247 mulheres foram mortas depois de serem analisadas pelo sistema, 55 delas com riscos classificados como insignificantes ou baixos.

Os policiais têm autonomia de ignorar a sugestão da plataforma, devido a indícios que observem. Mas em 95% dos casos, eles apenas aceitam a sugestão.

A máquina não pode ser responsabilizada pelo erro de julgamento, por mais que esteja diretamente ligada a essas mortes. Mas então quem reponde por isso? Os policiais que acreditaram no VioGén? O fabricante da plataforma?

No momento, ninguém! As autoridades argumentam que, apesar de imperfeito, o VioGén efetivamente diminuiu a violência contra mulheres. Mas isso não importa para Lobna, que engrossou as estatísticas de agressões fatais contra mulheres e de erros policiais grosseiros causados por decisões auxiliadas por uma máquina.

 

No Brasil

Oficialmente, não há casos assim no Brasil, mas diferentes sistemas de IA já causam severos erros policiais e jurídicos no país.

Assim como acontece em outras nações, muitas pessoas já foram presas por aqui por erros em sistemas de reconhecimento facial por câmeras públicas ou de policiais. A maioria das vítimas são pessoas negras e mulheres, pois as bases de dados usadas para seu treinamento têm muito mais fotos de homens brancos.

Isso reforça ainda mais a já conhecida e aviltante discriminação policial contra negros. E por mais que essas vítimas acabem sendo soltas quando o erro é descoberto, passar alguns dias “gratuitamente” na cadeia é inadmissível!

E nem estou falando nos casos em que a polícia já chega atirando no “suspeito”.

Em outro caso, há o sistema de vigilância pública da prefeitura de São Paulo, o Smart Sampa, que usa IA para evitar crimes. Sua proposta original, que previa “rastrear uma pessoa suspeita, monitorando todos os seus movimentos e atividades, por características como cor, face, roupas, forma do corpo, aspectos físicos etc.”, teve que ser alterada, pois monitorar alguém pela cor é ilegal. Mas a redação era emblemática!

A Justiça também tenta encontrar caminhos seguros para um uso produtivo da IA. Mas casos de erros graves dificultam essa aprovação.

Por exemplo, o Conselho Nacional de Justiça (CNJ) investiga o caso do juiz Jefferson Ferreira Rodrigues, que negou indenização a uma servidora pública, quando era titular da 2ª Vara Cível e Criminal de Montes Claros (MG). Sua sentença incluía jurisprudências inexistentes criadas pelo ChatGPT. Ele admitiu o erro, mas o classificou como um “mero equívoco” devido à “sobrecarga de trabalho que recai sobre os ombros dos juízes”. Ele ainda atribuiu o erro a um “assessor de confiança”.

Esses são apenas exemplos de por que não se pode confiar cegamente nas decisões de plataformas de inteligência artificial. É muito diferente de dizer que elas não devem ser usadas, pois devem: podem trazer grandes benefícios aos nosso cotidiano!

A decisão sempre deve ser de humanos, que são responsáveis por qualquer falha da plataforma, especialmente em casos críticos. E mesmo que um sistema evite 100 mortes, não é aceitável que 10 inocentes sejam condenados ou mortos por erros da plataforma. Se houver um único erro assim, ela não é boa o suficiente para uso!

Por fim, é preciso criar legislações que também responsabilizem os fabricantes por essas falhas. Caso contrário, seu marketing continuará “batendo o bumbo” quando algo dá muito certo, e “tirando o corpo fora” se algo der errado, jogando a culpa aos seres humanos. A inteligência artificial deve trabalhar para nós, e não o contrário!