inteligência artificial

O historiador Yuval Noah Harari, para quem robôs que imitam humanos ameaçam a democracia - Foto: Ciaran McCrickard/Creative Commons

Robôs que fingem ser humanos ameaçam a democracia

By | Tecnologia | No Comments

Desde que o austríaco Fritz Lang levou o robô Maria para as telas, no cultuado “Metropolis” (1927), máquinas fingindo ser pessoas vêm sendo exploradas pela ficção. Ainda que de maneira bem diferente de livros e filmes, nunca estivemos tão perto de isso acontecer, com profundos impactos sociais.

Considerado um expoente do expressionismo alemão, o filme retrata um futuro distópico, que curiosamente se passa em 2020. Nele, governantes que temem uma revolução popular usam uma máquina que falsifica a verdadeira Maria, uma mulher carismática e que prega paz e esperança, para semear o caos entre os trabalhadores.

Na nossa realidade, os robôs mais avançados não têm corpos, mas enganam ao se comportarem como humanos. Eles transmitem ideias de maneira muito convincente, falando como nós. E isso pode transformar a sociedade mais que a Maria de Lang.

No mês, passado, Yuval Noah Harari argumentou em um artigo que a capacidade de a inteligência artificial convencer pessoas melhora à medida que esses sistemas se parecem mais com seres humanos. Como explica o historiador e filósofo israelense, a democracia depende de diálogo, e debates nacionais só se tornaram e se mantêm viáveis graças a tecnologias da informação, como os jornais e a TV.

Logo, qualquer mudança tecnológica pode impactar o diálogo e, consequentemente, a democracia. O irônico é que passamos agora, com a IA, pela maior transformação em décadas, mas seu impacto no diálogo não se dá por ampliar a troca de ideias, mas por ser uma ferramenta excepcional de manipulação das massas.

A pergunta que surge é: até onde esses “falsos humanos” podem prejudicar nossa capacidade de fazer escolhas conscientes sobre o que realmente é melhor para nós?


Veja esse artigo em vídeo:


Pudemos comprovar isso no primeiro turno das eleições, que aconteceu nesse domingo. Seguindo o padrão dos pleitos anteriores, os candidatos com propostas sensatas perderam espaço para quem se apresentou como “antissistema” ou que, no mínimo, propôs grandes mudanças, por mais que fossem esdrúxulas.

Esses candidatos entenderam algo que as redes sociais descobriram há alguns anos: as pessoas curtem, comentam e compartilham o que lhes desperta sentimentos nada nobres, como ódio, ganância e medo. Como vivem de engajamento, seus algoritmos promovem ativamente esses conteúdos. Esses políticos souberam se apropriar de tal recurso, agindo nesses sentimentos, para que aparecessem mais em nosso cotidiano.

Justamente aí a inteligência artificial pode ter um efeito nefasto. Apesar de depender de comandos humanos para funcionar, ela identifica padrões com eficiência sobre-humana, incluindo o que desperta aqueles sentimentos no eleitorado. Com tal informação, essa tecnologia produz para os políticos o material necessário para que se mantenham em evidência com o apoio das redes sociais.

A velha máxima do “falem bem ou mal, mas falem de mim” ganha nova dimensão. No deserto de ideias resultante, além das redes sociais, os outros candidatos e a própria imprensa acabam fazendo o jogo sujo dos “valentões”, que sequestram o tempo e a atenção das pessoas. Nesse vazio, cresce quem simplesmente aparece mais.

Nas minhas viagens pelo mundo, comprovei que a saúde de uma democracia estava ligada à qualidade de sua imprensa, que usa a tecnologia para informar, defender e fortalecer a população. O “problema” é que sua ferramenta é a verdade, que normalmente é muito menos atraente que as mentiras excitantes dos candidatos.

Dessa forma, os políticos atuam na corrosão da confiança das pessoas na imprensa. Por mais que ela faça um bom trabalho, seu papel na preservação da sociedade se enfraquece, pois sua mensagem agora ressoa menos no público. E as redes sociais, que viabilizam isso tudo, se isentam candidamente de qualquer responsabilidade.

Não é de se estranhar, portanto, que 47% dos brasileiros se recusem a consumir qualquer notícia. O número é do Digital News Report 2024, publicado em junho pelo Instituto Reuters e pela Universidade de Oxford. Em 2023, esse índice era de 41%.

 

Às favas com a verdade!

Inicialmente, acreditava-se que as pessoas eram manipuladas pelo convencimento dos algoritmos das redes sociais. E ainda que isso seja verdade para uma parcela muito significativa da população, sabe-se que o mecanismo é mais complexo que isso.

As pessoas acreditam no que lhes convier! Por mais absurda que seja a tese lançada por um político, muita gente não apenas compra a ideia, como ativamente a distribui por todos os meios que dispuser. A imprensa que mostra a falcatrua passa a ser vista como uma inimiga a ser desacreditada e silenciada.

Mas a eleição de 2022 ampliou a deterioração tecnológica da democracia, que se consolidou nesse primeiro turno, especialmente em cidades como São Paulo, onde a campanha se limitou à sarjeta. O que se observa agora são pessoas espalhando informações que sabem ser falsas, pois seus valores se alinham com os do candidato mentiroso. A verdade passa a ser um incômodo descartável, em um gigantesco “o fim justifica os meios”. Não se dão nem mais ao trabalho de acreditar!

A IA já se presta a fornecer a inteligência para isso. “Quando nos envolvemos em um debate político com um bot que se faz passar por humano, perdemos duas vezes”, escreveu Harari, que explica: “É inútil perdermos tempo tentando mudar as opiniões de um bot de propaganda, que simplesmente não está aberto à persuasão. E quanto mais conversamos com o bot, mais revelamos sobre nós mesmos, tornando mais fácil para o bot aprimorar seus argumentos e influenciar nossas opiniões.”

Quando a Internet foi criada, acreditava-se que ela ajudaria a disseminar a verdade. As redes sociais enterraram essa utopia. Com a avalanche de inutilidades e de mentiras que trouxeram, a atenção das pessoas tornou-se um recurso escasso. Na consequente batalha por ela, não vence quem dialoga, mas quem vocifera mais alto o que a turba insana e insatisfeita deseja.

O voto é substituído pela curtida e o debate perde espaço para o algoritmo. Enquanto algumas das melhores mentes do mundo atuam para humanizar os robôs, o resultado de seu trabalho ironicamente ameaça uma das características mais humanas que temos: a capacidade de dialogar e evoluir com isso.

O desafio dessa geração é reverter esse processo. Mas enquanto as empresas que criam as redes sociais e as plataformas de inteligência artificial não assumirem verdadeiramente a sua responsabilidade nesse processo, a dobradinha de robôs e políticos sujos triunfará.

 

David Furlonger, VP do Gartner: “a IA é uma disrupção combinatória, não perca tempo tentando separá-la” - Foto: Paulo Silvestre

Euforia e desconhecimento empacam avanços da IA

By | Tecnologia | No Comments

A essa altura, ninguém diria que a inteligência artificial não passa de uma tendência incerta: seu uso cresce sem parar entre profissionais diversos, nos mais variados segmentos do mercado. Porém enquanto os investimentos nessa tecnologia avançam exponencialmente, executivos reclamam dos seus resultados. Isso vem muitas vezes de uma combinação de euforia e de desconhecimentos sobre a IA.

Durante a conferência Gartner CIO & IT Executive, que aconteceu em São Paulo na semana passada, especialistas da consultoria demonstraram isso em números. Segundo levantamento desse ano, 47% dos CIOs no mundo disseram que suas iniciativas corporativas de IA não atingiram seus objetivos. Ainda assim, 87% deles planejam investir mais nessa tecnologia em 2025. No Brasil esse índice chega a 92%!

As expectativas são altas e crescentes. Segundo o Gartner, em 2022, apenas 18% dos executivos de negócios acreditavam que a IA impactaria significativamente sua indústria. No ano seguinte, esse índice cresceu para 21%, saltando para 59% em 2024 e devendo chegar aos 74% até o fim do ano!

Apesar disso, são poucos os que parecem ter apetite para criar usos disruptivos com ela. Segundo a consultoria, metade das iniciativas com IA se concentram em ferramentas de produtividade para as equipes, enquanto 30% agem nos processos. Propostas para verdadeiramente transformar o negócio são apenas 20% dos casos.

Para melhorar esse quadro, as empresas devem parar de ver a inteligência artificial apenas como uma mera ferramenta digital capaz de dar respostas quase mágicas. Ela precisa ser encarada como uma tecnologia disruptiva para o negócio. E isso também exige estudo, planejamento e envolvimento profundo das diferentes equipes da empresa, que muitas vezes se dividem entre o medo e o deslumbramento com a IA.


Veja esse artigo em vídeo:


“A IA é uma disrupção combinatória, não perca tempo tentando separá-la”, disse na conferência David Furlonger, vice-presidente do Gartner. “Em vez disso, crie uma inteligência artificial estratégica”, sugeriu.

Ele trouxe previsões envolvendo a IA para os próximos anos, surpreendendo pelas suas abrangências e intensidades. A maior parte envolvia pessoas, como um risco de desenvolvimento de vício e vínculos emocionais com a IA, seu uso em convencimento, eliminação de níveis hierárquicos e uso da IA em decisões de alto nível nos negócios.

Outro ponto destacado é o consumo de energia. Apesar de usarmos alegremente o ChatGPT e afins, poucas pessoas têm consciência da brutal capacidade de processamento e de energia que ele consome. Cada resposta que ele nos dá, seria suficiente para fazer uma lâmpada elétrica piscar. Considerando que o ChatGPT cria algo como 500 milhões de respostas por dia, poderíamos dizer grosseiramente que seu consumo seria suficiente para as necessidades energéticas de uma cidade de médio porte.

Furlonger sugeriu que as empresas devem considerar até a geração de sua própria energia (ou parte dela), para atender as necessidades da IA. Segundo ele, até 2027, as maiores empresas do mundo devem transferir US$ 500 bilhões em iniciativas assim.

Em outra fala, Henrique Cecci, diretor-sênior de Pesquisa do Gartner, disse que muitos países não se beneficiam mais da IA por limitações energéticas. Segundo ele, o consumo desses datacenters deve dobrar nos próximos cinco anos. “E não dá para aumentar a capacidade energética de um dia para o outro”, lembrou.

Esse é só uma das despesas associadas ao uso da inteligência artificial. E o custo é justamente uma das maiores ameaças ao sucesso dessa tecnologia. Levantamentos do Gartner indicam que mais da metade das organizações estão desistindo de seus projetos de IA por erros na estimativa de investimentos necessários.

Ironicamente o principal foco nas iniciativas de uso da IA generativa, segundo a consultoria, é a redução de custos dos negócios.

 

IA sob ataque

Outro aspecto que as empresas precisam investir mais é a cibersegurança. A inteligência artificial traz inegáveis benefícios aos negócios, mas ela também abre sérias brechas na sua proteção.

Furlonger destacou os riscos associados aos agentes de inteligência artificial. Eles são sistemas criados para realizar tarefas específicas, e seu uso vem crescendo, até pelo incentivo dos desenvolvedores dessas plataformas. Mas os agentes podem ser enganados por pessoas de fora ou de dentro da organização. Segundo ele, até 2028, um quarto das falhas de segurança digitais podem estar associadas a eles.

Para Oscar Isaka, analista-diretor-sênior do Gartner, “100% de segurança só existe quando há 0% de funcionalidade”. Ele diz que o profissional de cibersegurança moderno deve ser capaz de explicar claramente os riscos para os diferentes públicos. “Vivemos uma batalha contra a desinformação, que desorienta todos”, acrescentou.

Felizmente a mesma inteligência artificial pode ajudar no combate a esses males. Furlonger afirmou que, até 2028, 48% dos CIOs trabalharão com “anjos da guarda digitais”, que automaticamente vasculharão a totalidade das ações dos agentes, identificando e bloqueando ataques. Essa é uma tarefa que os humanos não conseguirão desempenhar sozinhos.

E por falar em tarefas dos humanos, ele também mencionou o impacto da IA nas lideranças alta e média das empresas. Segundo o executivo, até 2026, 20% das empresas usarão IA para eliminar níveis hierárquicos, demitindo mais da metade dos gerentes atuais. Além disso, essa tecnologia será cada vez mais usada para os conselheiros das companhias exigirem melhores resultados do corpo de executivos.

Nenhuma dessas mudanças é trivial, mas já estão acontecendo em passo acelerado. As empresas tentam encontrar o seu caminho, muitas vezes “construindo o avião da IA em pleno voo”. E isso vem causando tantas decepções com resultados.

O melhor a se fazer, portanto, é investir em pessoas e em planejamento. A tecnologia funcionará muito melhor, qualquer que seja sua aplicação, com esses investimentos no lugar. De nada adianta termos sistemas revolucionários, se não soubermos obter resultados palpáveis deles, contornando seus inevitáveis riscos.

 

Brasileiros ficam na 44ª posição do indicador que mede as nações mais felizes do mundo – Foto: Tomaz Silva/Agência Brasil

Aceleração do mundo digital ameaça a alegria das pessoas

By | Jornalismo, Tecnologia | No Comments

O brasileiro se gabava de ser o povo mais feliz do mundo. Éramos acolhedores até com estranhos e levávamos a vida de forma leve e bem-humorada, mesmo diante de adversidades do cotidiano. Vivíamos na orgulhosa pátria das chuteiras, do samba, do suor e da cerveja. Mas olhando a nossa volta, parece que isso ficou no passado. Muitas coisas explicam essa queda, mas algo sorrateiro tem um papel decisivo nesse entristecimento: a aceleração descontrolada de nossas vidas pelo meio digital.

Segundo o Relatório de Felicidade Mundial 2024, organizado pela consultoria Gallup, pela Universidade de Oxford e pela ONU, lançado em março, o Brasil amarga uma melancólica 44ª posição no indicador de nações felizes, de um total de 143, logo depois da Nicarágua e da Guatemala. Pelo sétimo ano seguido, o país mais feliz do mundo foi a Finlândia. Aliás, o norte da Europa domina a lista, com as primeiras posições completadas por Dinamarca, Islândia e Suécia.

Cada um sabe “onde aperta seu calo”. Entre outras questões, os brasileiros ficaram tristes pela violência, pela corrupção, pela política suja, pelo acesso precário a serviços básicos e pela instabilidade econômica, que leva a um medo constante de perder o emprego. Mas o nosso profundo apreço pelas redes sociais semeou em nós uma permanente insatisfação, que nos torna ansiosos e substitui muitos bons valores por insanas e contínuas buscas, como riqueza fácil com “jogos de tigrinhos” e afins.

Não dá para ser feliz enquanto se estiver insatisfeito! Obviamente temos que buscar nosso crescimento, mas precisamos resgatar o controle de nossas vidas, valorizando aquilo que verdadeiramente nos faz avançar. As redes sociais nos estimulam o tempo todo, de uma maneira que nosso cérebro não mais consegue lidar com tanta informação. Enquanto não percebermos como somos manipulados digitalmente, não sairemos desse quadro desolador.


Veja esse artigo em vídeo:


O Relatório de Felicidade Mundial considera diversos aspectos para definir a felicidade de um povo. Entre eles, estão o PIB per capita, o apoio de parentes e amigos, a expectativa de vida ao nascer, a liberdade de se fazer escolhas, a generosidade com o próximo e a percepção de corrupção. Essa última é onde o Brasil aparece pior, mas também vamos mal em liberdade de se fazer escolhas e na expectativa de vida.

A situação se agrava entre os brasileiros mais jovens. Segundo o estudo, se considerarmos só as pessoas com até 30 anos, o país despenca para a 60ª posição. Por outro lado, se computarmos apenas as com mais de 60, saltamos para a 37ª.

Diante disso é inevitável comparar o índice de felicidade com o de uso das redes sociais. De acordo com a versão mais recente do Digital Global Overview Report, publicado anualmente pela consultoria We Are Social, somos os vice-campeões mundiais em tempo online, com uma média diária de 9 horas e 13 minutos, dos quais 3 horas e 37 minutos são dedicados a redes socias. Em comparação, os dinamarqueses têm uma média diária online de 5 horas e 8 minutos e apenas 1 hora e 50 minutos nas redes sociais. A Finlândia não integrou essa pesquisa.

Não é mera coincidência que os mais jovens, que se informam menos por fontes confiáveis e são mais suscetíveis aos algoritmos de relevância, sejam os mais tristes. As sociedades descobriram que, para vender qualquer coisa, de um produto a um político, é preciso acelerar ainda mais a vida, soterrando o senso crítico.

Nesse cenário resultante de estresse, desesperança e cansaço coletivo, as pessoas aproveitam seu pouco tempo livre com diversão rasa, o que reforça a alienação. Rejeita-se tudo que convide a uma leitura crítica da vida.

 

“Pensar dá trabalho”

Fica fácil entender então por que 47% dos brasileiros deliberadamente se recusam a consumir notícias. O número é do Digital News Report 2024, publicado em junho pelo Instituto Reuters e pela Universidade de Oxford. Em 2023, esse índice era de 41%.

O estudo sugere que essa rejeição se deve à percepção de que “só há notícia ruim”. E apenas 43% dos brasileiros confiam no noticiário, o mesmo índice do ano passado, o pior já registrado (há uma década, era 62%). Se serve de consolo, os brasileiros são os que mais confiam nas notícias entre os seis países latino-americanos pesquisados.

Talvez a grande ironia para os que tentam “resistir ao noticiário” é que os mesmos assuntos ruins continuam os impactando, porém a partir de fontes pouco ou nada confiáveis, como WhatsApp ou Telegram. E assim esse conteúdo chega com uma carga emocional ainda mais pesada que se sua origem fosse o noticiário profissional.

Do outro lado, os que mais confiam no jornalismo são justamente os finlandeses, aqueles que também são os mais felizes do mundo, e que integram o grupo de populações menos influenciadas pelas redes sociais.

A informação que processamos em apenas uma semana hoje é muito maior que a que uma pessoa culta era exposta ao longo de toda sua vida no século XVIII. É verdade que o ser humano se adapta a tudo, mas o nosso cérebro tem seus limites. Quando são desrespeitados, entramos em colapso, daí as atuais ansiedade e depressão.

A inteligência artificial infelizmente tende a agravar isso, em um processo batizado de “hipersuasão” pelo filósofo italiano Luciano Floridi, um dos maiores nomes da filosofia da informação. Para ele, a IA já é usada para identificar nossos desejos e medos, e, a partir deles, produzir conteúdos que nos aceleram e nos convencem cada vez mais sobre qualquer tema. E isso ficará pior com o tempo. Tanto que, em janeiro, o Fórum Econômico Mundial em Davos classificou a desinformação impulsionada pela IA como a maior ameaça à humanidade nos próximos anos.

Podemos comprovar isso nas campanhas eleitorais desse ano. Seguindo o padrão dos pleitos anteriores, os candidatos que trazem propostas sensatas ficam muito atrás daqueles que se apresentam como “antissistema”, que “lacram” e acirram os ânimos. Tragicamente eles vencem sem oferecer nada concreto, apenas uma excitação vazia.

Chegamos a um ponto em que parece não haver saída. Governantes não se movimentam para melhorar esse quadro, pois se beneficiam dessa aceleração. As escolas não se posicionam, até por pressão de pais “acelerados”, preocupados com o vestibular e contra professores que insistam em oferecer a seus filhos visões de mundo mais amplas que as de dentro de casa.

Por isso, por mais que sejamos vítimas disso, sua solução recai sobre nossos ombros. E isso é terrível, porque a aceleração do meio digital nos retira os meios para sequer percebermos que ela existe! Somos arrastados a querer sempre mais, porém nunca chegaremos lá, e assim retroalimentamos o sistema que nos massacra.

Não há outro caminho! Temos que pisar no freio e nos questionar se desejaremos continuar fazendo parte dessa roda viva ou se resgataremos o controle sobre nós mesmos. E nesse caso, precisaremos eliminar nossa submissão digital.

 

Adriana Aroulho, presidente da SAP Brasil, fala durante a abertura do SAP Now 2024, em São Paulo – Foto: Paulo Silvestre

IA só entregará a prometida transformação, se o investimento for feito com consciência

By | Tecnologia | No Comments

A “corrida da inteligência artificial” está prestes a completar dois anos, com executivos buscando maneiras de usar essa tecnologia para levar seus negócios a um patamar de produtividade inédito. Mas esse aspecto quase messiânico da IA tem decepcionado muitos deles, que não vêm colhendo os frutos esperados de seus investimentos.

A culpa não é da IA, e sim de implantações feitas sem planejamento. Em um estudo de julho de 2023, pesquisadores da consultoria McKinsey concluíram que, embora 89% das grandes empresas no mundo já tivessem projetos com IA em curso, apenas 31% haviam aumentado as receitas e 25% diminuído os custos como esperado. Outro levantamento, essa da consultoria Gartner, do segundo trimestre de 2023, indicou que 64% dos CEOs não achavam que existia exageros sobre a IA, mas 53% dos CIOs não tinham certeza se estavam preparados para mitigar os riscos associados a ela.

A implantação responsável da IA teve destaque durante o SAP Now, evento anual da subsidiária brasileira da gigante alemã de software, que aconteceu na semana passada, em São Paulo. Apesar de a inteligência artificial generativa ganhar os holofotes, seu uso consciente permeou a fala das lideranças da empresa.

Essa tecnologia efetivamente traz ganhos de produtividade antes inimagináveis a profissionais em diferentes funções e de diversos setores da economia. Porém os seres humanos precisam se manter no controle do processo. Isso demanda o desenvolvimento de novas habilidades nas equipes, criando também exigências inéditas para os gestores.

Não é de se estranhar, portanto, que ainda se observe desperdícios na implantação de uma tecnologia tão revolucionária. Sem um olhar responsável, criterioso e ético, além de capacitação dos times, a IA pode ser mesmo decepcionante.


Veja esse artigo em vídeo:


“Você não traz inovação, IA, transformação para a nuvem, se você não trouxer valor para o negócio”, explicou no evento Cristina Palmaka, presidente da SAP América Latina e Caribe. “Seja a criação de novos modelos, seja aumento de produtividade, eficiência, todo o tema de segurança, o apetite está atrelado a ter um caso de negócios que justifique o investimento”, acrescentou.

Em outras palavras, antes de pensar em investir desbragadamente em inteligência artificial, deve-se saber qual é o ganho para o negócio que ela trará, qual é o problema a ser resolvido. Parece óbvio, mas nem sempre isso é seguido pelos gestores: no estudo do Gartner, 65% dos entrevistados disseram usar dados para justificar uma decisão já tomada, normalmente pela pessoa mais bem-paga na organização.

“Nosso posicionamento é de ‘business AI’: a gente não quer ser mais uma alternativa de tecnologia, como o ChatGPT, porque o insumo deles é a informação que está aí, pela Internet”, afirmou no SAP Now Adriana Aroulho, presidente da SAP Brasil, reforçando o seu posicionamento corporativo. “A nossa inteligência artificial faz uso dos dados do próprio negócio, pois a gente quer a inteligência artificial resolvendo problemas de negócios reais”, justificou.

Pouco antes, na abertura do evento, a executiva havia destacado a importância de que a IA de aplicações corporativas siga três R (em inglês): “Relevant” (relevante), “Reliable” (confiável) e “Responsible” (responsável). Eles endereçam um dos grandes problemas que muitas empresas enfrentam nas suas atuais implantações de inteligência artificial: a baixa confiabilidade nas respostas oferecidas pelas plataformas, incluindo as chamadas “alucinações”.

De fato, estima-se que pelo menos 3% de todas as respostas dadas por sistemas públicos, como o ChatGPT e o Gemini, contenham imprecisões leves ou severas. Isso acontece porque eles sempre respondem algo aos questionamentos do usuário, mesmo quando não sabem o que dizer. Além disso, por usarem informações públicas da Internet, isso diminui a relevância de suas respostas para os negócios.

Soluções corporativas de IA da SAP e de outras empresas, como IBM e Red Hat, mitigam esse risco por se focarem em dados do próprio cliente, aumentando sua relevância e a sua confiabilidade.

 

O R de “responsável”

O “terceiro R”, o da responsabilidade, depende mais das pessoas que das máquinas. Afinal, a tecnologia é agnóstica, e fará tudo que lhe for pedido.

“A gente entende que a decisão é sempre do humano: a IA automatiza, mas é o cliente que faz a pergunta”, lembrou Aroulho. Para ela, as empresas não podem perder de vista a ética quando usam a IA, e precisam capacitar suas equipes para usos conscientes. “À medida que a inteligência artificial vai automatizando, a gente vai melhorando também, porque temos que fazer a pergunta certa”, detalhou.

“Alguns especialistas dizem que a inteligência artificial generativa se assemelha ao descobrimento do fogo, da eletricidade e à criação da Internet, no que tange à evolução da espécie humana, e eu não acho que seja exagero”, sugeriu no palco do SAP Now Matheus Souza, Chief Innovation Officer da SAP América Latina e Caribe.

Concordo com ele! Mas estou certo de que muitos de nossos ancestrais primitivos queimaram a mão tentando dominar o fogo. Mesmo hoje, ainda sofremos acidentes com ele, porém proporcionalmente pouco, pois aprendemos como usá-lo.

Estamos na aurora da inteligência artificial. Apesar de suas pesquisas já terem mais de 70 anos, apenas agora empresas e profissionais têm acesso amplo a seus recursos, seja pelo grande poder de processamento disponível, seja pela atenção que ela ganhou com o lançamento do ChatGPT.

Mas apesar de seu apelo irresistível, executivos e gestores de pessoas devem abraçá-la do jeito certo. Se não souberem que problemas a IA resolverá, e se suas equipes não estiverem à vontade e preparadas para isso, sua adoção pode ser decepcionante.

Na atual intersecção da tecnologia com os negócios, essas decisões não podem mais se restringir a aspectos de um ou do outro. Como explicou Palmaka, essa inovação não deve servir apenas para aquilo que se faz hoje, mas também para aquilo que será feito no futuro.

Com tanto poder em jogo, não há espaço para amadorismo.

 

Policial espanhola atende mulher no programa VioGén, que calcula o risco de ocorrências de violência de gênero - Foto: reprodução

O que acontecerá quando alguém morrer por um erro de inteligência artificial

By | Tecnologia | No Comments

O uso da inteligência artificial continua avançando nas mais diversas atividades, trazendo sensíveis ganhos de produtividade em automação de tarefas e no apoio à tomada de decisões. Ainda assim, ela está longe de ser perfeita, mas muitos usuários parecem não se preocupar com isso, pois seus eventuais erros causam prejuízos mínimos. Em algumas funções, entretanto, essas falhas podem levar a enormes transtornos, até mesmo à morte de alguém.

Duas perguntas surgem imediatamente disso: como evitar que uma tragédia dessas aconteça, e quem responderá por isso nesse caso.

A inteligência artificial é fabulosa para encontrar padrões, que permitem que ela tome suas decisões. Esses padrões dependem, entretanto, da qualidade dos dados usados para seu treinamento. Se os dados forem limitados ou cheios de viés, isso comprometerá seriamente a eficiência da plataforma.

Esse é um dos motivos por que a tomada de decisões críticas, por mais que seja auxiliada pela inteligência artificial, deve continuar em mãos humanas, pelo menos no estágio atual da tecnologia.

Algumas pessoas argumentam que isso contrariaria o próprio propósito de se usar a IA. Mas ignorar essa responsabilidade é como entregar uma decisão de vida ou morte para um estagiário eficiente. Talvez algum dia ele tenha estofo para algo tão sério e possa responder por isso, mas, por enquanto, não está preparado para tal.

Nada disso é especulação: já está acontecendo!


Veja esse artigo em vídeo:


Por exemplo, a polícia espanhola usa um sistema chamado VioGén para determinar estatisticamente riscos de ocorrência de violência de gênero. Em 2022, Lobna Hemid foi morta em casa pelo seu marido, depois de dar queixa na delegacia por ter sido insultada e surrada por ele com um pedaço de madeira, diante dos quatro filhos de 6 a 12 anos. Toda a vizinhança tinha ouvido seus gritos.

Não havia sido a primeira vez que o marido, Bouthaer el Banaisati, a havia espancado nos dez anos de casamento. Ainda assim, o VioGén calculou que ela corria pouco risco. O policial aceitou a decisão da máquina e a mandou para casa. Sete semanas depois, Bouthaer a esfaqueou várias vezes no peito e depois se suicidou.

Segundo o Ministério do Interior da Espanha, há 92 mil casos ativos de violência contra mulher no país. O VioGén calculou que 83% dessas vítimas tinham risco baixo ou insignificante de serem atacadas novamente pelo agressor. E o caso de Lobna não é único: desde 2007, 247 mulheres foram mortas depois de serem analisadas pelo sistema, 55 delas com riscos classificados como insignificantes ou baixos.

Os policiais têm autonomia de ignorar a sugestão da plataforma, devido a indícios que observem. Mas em 95% dos casos, eles apenas aceitam a sugestão.

A máquina não pode ser responsabilizada pelo erro de julgamento, por mais que esteja diretamente ligada a essas mortes. Mas então quem reponde por isso? Os policiais que acreditaram no VioGén? O fabricante da plataforma?

No momento, ninguém! As autoridades argumentam que, apesar de imperfeito, o VioGén efetivamente diminuiu a violência contra mulheres. Mas isso não importa para Lobna, que engrossou as estatísticas de agressões fatais contra mulheres e de erros policiais grosseiros causados por decisões auxiliadas por uma máquina.

 

No Brasil

Oficialmente, não há casos assim no Brasil, mas diferentes sistemas de IA já causam severos erros policiais e jurídicos no país.

Assim como acontece em outras nações, muitas pessoas já foram presas por aqui por erros em sistemas de reconhecimento facial por câmeras públicas ou de policiais. A maioria das vítimas são pessoas negras e mulheres, pois as bases de dados usadas para seu treinamento têm muito mais fotos de homens brancos.

Isso reforça ainda mais a já conhecida e aviltante discriminação policial contra negros. E por mais que essas vítimas acabem sendo soltas quando o erro é descoberto, passar alguns dias “gratuitamente” na cadeia é inadmissível!

E nem estou falando nos casos em que a polícia já chega atirando no “suspeito”.

Em outro caso, há o sistema de vigilância pública da prefeitura de São Paulo, o Smart Sampa, que usa IA para evitar crimes. Sua proposta original, que previa “rastrear uma pessoa suspeita, monitorando todos os seus movimentos e atividades, por características como cor, face, roupas, forma do corpo, aspectos físicos etc.”, teve que ser alterada, pois monitorar alguém pela cor é ilegal. Mas a redação era emblemática!

A Justiça também tenta encontrar caminhos seguros para um uso produtivo da IA. Mas casos de erros graves dificultam essa aprovação.

Por exemplo, o Conselho Nacional de Justiça (CNJ) investiga o caso do juiz Jefferson Ferreira Rodrigues, que negou indenização a uma servidora pública, quando era titular da 2ª Vara Cível e Criminal de Montes Claros (MG). Sua sentença incluía jurisprudências inexistentes criadas pelo ChatGPT. Ele admitiu o erro, mas o classificou como um “mero equívoco” devido à “sobrecarga de trabalho que recai sobre os ombros dos juízes”. Ele ainda atribuiu o erro a um “assessor de confiança”.

Esses são apenas exemplos de por que não se pode confiar cegamente nas decisões de plataformas de inteligência artificial. É muito diferente de dizer que elas não devem ser usadas, pois devem: podem trazer grandes benefícios aos nosso cotidiano!

A decisão sempre deve ser de humanos, que são responsáveis por qualquer falha da plataforma, especialmente em casos críticos. E mesmo que um sistema evite 100 mortes, não é aceitável que 10 inocentes sejam condenados ou mortos por erros da plataforma. Se houver um único erro assim, ela não é boa o suficiente para uso!

Por fim, é preciso criar legislações que também responsabilizem os fabricantes por essas falhas. Caso contrário, seu marketing continuará “batendo o bumbo” quando algo dá muito certo, e “tirando o corpo fora” se algo der errado, jogando a culpa aos seres humanos. A inteligência artificial deve trabalhar para nós, e não o contrário!

 

O CEO da Microsoft, Satya Nadella, apresenta a linha de computadores Copilot+, em evento da empresa em maio - Foto: reprodução

Mais que chips, novos computadores e celulares funcionam com nossos dados

By | Tecnologia | No Comments

Nos últimos meses, a corrida pelo domínio do mercado da inteligência artificial pariu novos computadores e celulares. Equipamentos da Microsoft, Google e Apple trazem recursos antes inimagináveis, que podem facilitar muito nosso cotidiano. Para que funcionem, são empurrados por processadores poderosos, mas precisam de outro componente vital: dados, muitos dados… nossos dados!

A IA depende de quantidades colossais de informações para que funcione bem. Essa nova geração de máquinas traz esse poder para a realidade de cada usuário, mas, para isso, precisam coletar vorazmente nossas informações. E isso faz sentido: se quisermos que a IA responda perguntas sobre nós mesmos, ela precisa nos conhecer.

É um caminho sem volta! Essa coleta crescerá gradativamente, trazendo resultados cada vez mais surpreendentes. Precisamos entender que nada disso é grátis. Isso leva a um patamar inédito um processo iniciado há cerca de 15 anos com as redes sociais e que ficou conhecido como “capitalismo de vigilância”: para usarmos seus serviços, as big techs coletam e usam nossas informações para nos vender todo tipo de quinquilharia e, em última instância, nos manipular.

O histórico de desrespeito dessas empresas com seus clientes joga contra elas. Queremos os benefícios da inteligência artificial, e isso pode ser feito de maneira ética e legal, mas qual garantia temos de que esses problemas não ficarão ainda maiores?


Veja esse artigo em vídeo:


Não temos essa garantia! As big techs primam pela falta de transparência em seus negócios, e lutam com unhas e dentes contra qualquer tentativa de legislação que coloque seu modelo em risco. Elas foram bem-sucedidas nesse processo, ao travar a criação de leis, inclusive no Brasil, que lhes atribuísse alguma responsabilidade por promoverem conteúdos nocivos aos indivíduos e à sociedade. O único lugar que conseguiu criar alguma regra assim foi a Europa. Agora, com a ascensão da IA, as big techs tentam repetir esse movimento para essa tecnologia.

É importante deixar claro que não sou contra a inteligência artificial: muito pelo contrário! Como pesquisador, reconheço os incríveis benefícios que traz. Mas como diz o ditado, não existe almoço grátis. Precisamos saber quanto estamos pagando!

Entre as novidades, estão os notebooks Copilot+, criados pela Microsoft e lançados por diferentes fabricantes, como Samsung, Dell e Lenovo. Entre outros recursos, eles trazem o Recall, que permite que pesquisemos qualquer coisa que já fizemos no computador. Para isso, ele registra todas as nossas atividades a cada poucos segundos. Essas máquinas também executam localmente diversas atividades de IA generativa que normalmente são executadas na Internet, como no ChatGPT.

O Apple Intelligence, pacote de serviços de IA da empresa para seus novos iPhones, iPads e Macs, cria uma camada de assistência inteligente que combina os dados do usuário distribuídos em múltiplos aplicativos. Muito disso acontece no próprio aparelho, mas há operações que dependem da “nuvem”. A Apple garante que ninguém, nem seus próprios funcionários, tem acesso a esses dados.

O Google AI, pacote de IA do gigante de buscas, oferece recursos interessantes, como um identificador de golpes telefônicos. Mas, para isso, precisa ouvir todas as chamadas de áudio que fizermos. Outro recurso permite que façamos perguntas sobre fotos que tenhamos tirado, às quais ele também tem acesso. A empresa disse que seus funcionários podem eventualmente analisar as perguntas, “para melhorar o produto e sua segurança”.

Todos os fabricantes demonstram grande preocupação com a segurança das informações pessoais, afirmando que tudo é criptografado e que nem eles mesmos têm acesso a isso. Mas a informática sempre mostrou que mesmo o melhor cadeado pode ser aberto por mentes malignas habilidosas.

 

“Raio-X da alma”

Todos esses novos sistemas têm uma incrível capacidade de criar relações e identificar padrões pelos cruzamentos de dados das mais diversas fontes e naturezas. Isso lhes permite compreender quem somos, nossas crenças, desejos, medos, como pensamos, criando um verdadeiro “raio-X de nossa alma”, com informações de valor inestimável para empresas, governos e até criminosos.

É curioso que, até pouco atrás, éramos mais preocupados com a nossa privacidade. Não compartilhávamos dados sem que soubéssemos (pelo menos em tese) o que seria feito deles. Eram pouquíssimas informações e elas não eram cruzadas entre si.

As redes sociais mudaram isso, com a ideia de que nossas informações também lhes pertencem, podendo fazer o que quiserem com elas para seu benefício. E elas fazem, mesmo quando isso prejudica seus usuários.

Um exemplo emblemático de proteção dos usuários aconteceu no início de julho, quando a Autoridade Nacional de Proteção de Dados (ANPD) proibiu a Meta (empresa dona do Facebook, Instagram e WhatsApp) de usar os dados dos brasileiros para treinar seus modelos de inteligência artificial. Infelizmente algo assim é muito raro!

Mesmo que não exista nenhum problema de privacidade, precisamos entender que essas máquinas inauguram um novo tipo de dependência e até de relação entre nós e a tecnologia. Quem assistiu ao filme “Ela” (2013), dirigido por Spike Jonze e estrelado por Joaquin Phoenix e Scarlett Johansson, sabe como isso funciona.

Na história, Theodore (Phoenix) se apaixona por Samantha (a voz de Johansson), o sistema operacional de seu computador e smartphone, movido por uma aparente inteligência artificial geral. Ela sabia tudo sobre ele, e usava essa informação para lhe facilitar a vida. Mas com o tempo, ele se viu em um inusitado relacionamento desequilibrado com uma máquina!

É por isso que, ao aceitarmos usar os incríveis recursos desses novos equipamentos, precisamos estar conscientes de como estaremos nos expondo para isso. Por mais bem-intencionadas que os fabricantes sejam (e há ressalvas nisso em muitos casos), existem riscos potenciais com os quais teremos que aprender a conviver.

Assim como qualquer outro serviço que exista graças à inteligência artificial, os fabricantes precisam assumir responsabilidades durante o desenvolvimento, algo que os já citados dizem fazer. Eles também dever ser responsabilizados se algo der errado durante seu uso, um risco bastante considerável, mas isso eles não aceitam.

É um mundo totalmente novo que se descortina diante de nós. As relações entre empresas, governos, instituições e pessoas precisam ser repensadas diante disso tudo. Caso contrário, clientes e cidadãos podem ficar em uma situação muito precária.

 

Sam Altman, CEO da OpenAI, durante o Fórum Econômico Mundial 2024, que aconteceu em Davos (Suíça), em janeiro - Foto: reprodução

Quem deve ser o “dono” da inteligência artificial?

By | Tecnologia | No Comments

A inteligência artificial generativa é uma tecnologia diferente de tudo criado antes dela. Ao contrário de ferramentas mecânicas ou digitais, que nos ajudam a realizar melhor as mais diversas tarefas, ela se propõe a “entregar o trabalho pronto”. Se por um lado isso é realmente incrível, por outro exige que sejamos muito criteriosos sobre o criador das plataformas que usarmos e sobre suas produções.

Tudo porque essa tecnologia pode efetivamente, a longo prazo, alterar a maneira como pensamos e encaramos o mundo! O problema é que as pessoas não têm consciência disso, e usam essas plataformas despreocupadamente.

Não proponho que os responsáveis por esses sistemas tenham uma motivação maquiavélica de domínio do mundo. Mas as respostas da IA generativa não apenas trazem o conteúdo das fontes usadas em seu treinamento: também refletem a maneira de falar, a cultura e até os valores dos países que mais contribuíram para tal treino. No momento, isso cabe à Europa Ocidental e principalmente aos Estados Unidos, pelo simples fato de a maior parte do conteúdo na Internet ter essas nações como origem.

Isso pode mudar em pouco tempo! Países do Oriente, especialmente a China, investem pesadamente e com regras muito mais frouxas para criarem suas próprias inteligências artificiais generativas, treinadas com seu conteúdo e sua visão de mundo.

No último dia 25, Sam Altman, cofundador e CEO da OpenAI (criadora do ChatGPT), publicou um artigo no The Washington Post (reproduzido em português no Estadão) questionando qual país deve controlar o futuro da IA. Apesar do tom desbragadamente ufanista em favor dos Estados Unidos, ele faz provocações válidas.

Afinal, a nação que dominar a IA dominará o mundo! E isso não pode ser ignorado.


Veja esse artigo em vídeo:


Não concordo com tudo que Altman escreve em sua publicação, a começar pelo seu ímpeto em apresentar os Estados Unidos como um defensor ilibado da liberdade e dos direitos individuais. Sim, isso faz parte dos valores fundamentais daquele país, mas repetidos escândalos de espionagem digital de seus governos e de abusos de poder econômico de empresas americanas, por manipulação e usos indevidos de dados de seus clientes, desqualificam essa premissa de Altman.

Por outro lado, obviamente os Estados Unidos e principalmente a Europa estão muito mais bem-posicionados na defesa da democracia e de liberdades individuais que nações autoritárias, como a China e a Rússia. E a primeira vem forte na corrida da IA.

“Estamos diante de uma escolha estratégica sobre o tipo de mundo em que viveremos”, escreveu Altman. Considerando o poder sem precedentes de influência e até de dominação cultural que a IA generativa cria, essa é uma preocupação legítima. “O ditador russo Vladimir Putin avisa que o país que vencer a corrida da IA ‘se tornará o governante do mundo’, e a China diz que pretende se tornar o líder global em IA até 2030”, completa.

Ele adverte que, se isso acontecer, empresas do mundo todos seriam obrigadas a compartilhar os dados de seus usuários, o que criaria formas de espionagem e recursos para armas cibernéticas sofisticadas. Novamente o temor é válido, mas, em alguma escala, isso já vem sendo feito com as big techs americanas.

O CEO da OpenAI elenca pontos que considera essenciais para se manter a liderança na inteligência artificial: segurança cibernética, infraestrutura física robusta, investimento substancial em capital humano, diplomacia comercial para a IA, e normas para o desenvolvimento seguro dessa tecnologia. É interessante notar que, nesse ponto, ele defende que se conceda mais protagonismo para países do sul global, tradicionalmente deixados para trás nas decisões econômicas e tecnológicas.

Mas isso implica em trazer a China para a mesa.

 

Dominação pela IA

Desde a Antiguidade, as nações mais avançadas dominam as outras. A Grécia, apesar de ter sido anexada ao Império Romano, influenciou fortemente a cultura do invasor, até em seus deuses! No século XIX, a Inglaterra difundiu suas ideias, seguida pela França. E desde o fim da 2ª Guerra Mundial, o Ocidente é fortemente influenciado pelos Estados Unidos.

O principal mecanismo da dominação cultural dos Estados Unidos é o cinema, a televisão e a música. Basta olhar ao redor e ver como nos vestimos, comemos e até nos comportamos.

A IA pode levar a dominação cultural a um patamar inédito, ao incorporarmos suas respostas diretamente e sem filtros a nossas ações. De uma tacada só, passamos a consumir e a disseminar conceitos e valores de outro país.

A própria interface dessas plataformas favorece isso. Pela primeira vez na história, algo que não é humano consegue conversar consistente e convincentemente, como se fosse outra pessoa. Isso favorece a antropomorfização da IA, ou seja, passamos a atribuir características humanas a uma máquina, e assim absorvemos o que ela nos dá de maneira ainda mais direta, sem questionamentos.

De uma forma bastante ampla e talvez nociva, a IA pode nos aproximar da “aldeia global” do filósofo canadense Marshall McLuhan, que propôs em 1962 o fim de fronteiras geográficas e culturais. Ele acreditava que isso aconteceria pela influência dos meios de comunicação, o que aconteceu apenas timidamente. Agora, com a IA, isso pode finalmente acontecer, com o que tem de bom e de ruim.

Altman sabe disso! Seu artigo defende abertamente que os Estados Unidos liderem uma coalização internacional para manter sua hegemonia contra a ascensão de valores de nações autoritárias, graças à IA.

Para aqueles, como nós, que estão muito mais em posição de dominados que de dominadores, esse alerta serve para entendermos como a nova ordem mundial será construída nos próximos anos.

Qualquer que seja o vencedor dessa corrida, é preciso que existam leis em todos os países que exijam responsabilização no uso e desenvolvimento da inteligência artificial, seja pelas empresas, pelos governos e pelos usuários. Não podemos repetir o erro cometido com as redes sociais, que racharam a sociedade ao meio por não se sentirem responsáveis pelo que acontece em suas páginas.

Quanto a nós, resta investirmos pesadamente em letramento digital das pessoas, para que elas possam aproveitar consciente e criativamente os recursos dessa incrível tecnologia, tentando evitar tal dominação cultural. E essa não é uma tarefa fácil!

 

IA pode ampliar capacidades de profissionais de diversas áreas, mas apenas 21% dos brasileiros a usam - Foto: Freepik/Creative Commons

Inteligência artificial pode ampliar abismo social no Brasil

By | Tecnologia | No Comments

Cresce o consenso de que a inteligência artificial pode oferecer um grande salto de produtividade para profissionais das mais diferentes áreas. Ironicamente isso pode ampliar o abismo social no Brasil. Somos um país em que pouca gente tem acesso a essa tecnologia, o que pode fazer com que a produtividade dos profissionais mais bem preparados se distancie ainda mais da dos menos capacitados.

Uma pesquisa da Genial/Quaest, divulgada na semana passada, indica que apenas 21% dos brasileiros já usaram alguma ferramenta de inteligência artificial. A grande maioria deles está entre pessoas com curso superior e em classes sociais mais altas.

São os mesmos indivíduos que já têm um acesso mais amplo e de melhor qualidade a equipamentos eletrônicos e à Internet. Em um mundo profundamente digital, isso representa um inegável ganho competitivo.

Ainda há muita gente sem acesso a elementos essenciais de bem-estar no Brasil, como saneamento básico e eletricidade. Assim, preocupar-se com isso pode parecer luxo e até futilidade. Mas se encararmos a Internet e a inteligência artificial como as ferramentas de transformação social que são, entenderemos por que devem ser incluídas no pacote civilizatório que precisa ser oferecido a todos os cidadãos.

O abismo digital que reforça o social é um problema de décadas em nosso país, que não dá sinais de melhoria. A popularização dos smartphones, que poderia indicar um aspecto positivo, não resolve verdadeiramente o déficit digital da população.


Veja esse artigo em vídeo:


“A desigualdade social no Brasil se revela na diferença entre escolas públicas e privadas no acesso a computadores e Internet, por exemplo, e saltou aos olhos na pandemia, quando as crianças e jovens mais pobres não tinham como ter aulas online, por não terem computador ou acesso à internet em casa”, explica Felipe Nunes, fundador da Quaest. “O resultado da pesquisa é mais um dado dessa desigualdade.”

De fato, quando as escolas estavam fechadas por conta do Covid-19, mesmo as públicas ofereciam aulas online. Mas muitos alunos não conseguiam aproveitar bem esse recurso, porque não tinham computador em casa, e a experiência na tela pequena dos smartphones não era tão boa. Outros problemas enfrentados eram os pacotes de dados limitados e a residência ter apenas um aparelho, que precisava ser compartilhado entre todos os membros, para suas atividades diárias.

A pesquisa da Genial/Quaest também indica forte correlação do uso da IA com as faixas etárias, pendendo para os mais jovens: 33% dos brasileiros entre 16 e 34 anos já usaram a inteligência artificial, contra 19% entre 35 e 59 anos, e apenas 6% entre os que tem 60 ou mais.

A criação de textos é, de longe, a aplicação mais conhecida, tendo sido usada por 48% dos brasileiros que já aproveitaram a IA, seguido pela organização de arquivos (18%) e geração de imagens (16%). Sobre a percepção sobre os resultados, 76% dos usuários acharam a experiência positiva, 19% disseram que foi regular, e apenas 3% não gostaram.

Entre os usuários, 46% acharam que a IA é uma oportunidade para a humanidade, enquanto 37% a viram como uma ameaça e 17% não souberam o que dizer sobre isso. Há também medos em relação à IA, como ela ser usada para aumentar a desinformação (apontado por 82% das pessoas), para tornar grupos perigosos mais poderosos (81%), controle da população por governos autoritários (80%), manipulação da opinião pública (76%) e justamente piora na desigualdade social (76%).

Esses números sobre medos são expressivos, ainda mais se considerarmos que a maioria acha a IA uma oportunidade, com ampla vantagem para os que a veem como positiva. Mas uma coisa é sentir os benefícios da tecnologia em seu cotidiano, outra é entender os riscos que ela oferece.

“A IA é um campo imenso de possibilidades, que ainda estamos longe de compreender inteiramente”, explica Nunes. “Acredito que todo mundo tem atualmente apenas uma pequena ideia do que está por vir”, afirma.

 

Inclusão digital

Segundo a edição mais recente da TIC Domicílios, pesquisa sobre o uso de tecnologia nas residências no país, divulgada em agosto de 2023 pelo Cetic.br, 29,4 milhões de brasileiros não têm acesso à Internet, sendo 17,2 milhões deles das classes DE e 10,3 milhões na classe C.

O acesso feito exclusivamente pelo smartphone acontece em 58% da população conectada, mas esse número chega a 87% no caso da classe DE. Isso impacta diretamente as habilidades digitais dos usuários. Por exemplo, 71% das pessoas que estão online pelo computador e pelo smartphone verificam se uma informação que receberam é verdadeira, contra apenas 37% das conectadas apenas pelos celulares.

Dar acesso à Internet e à inteligência artificial é, portanto, cada vez mais crítico para o desenvolvimento pessoal e profissional do indivíduo. Mas é preciso também melhorar o nível do letramento digital das pessoas, para que façam um uso verdadeiramente positivo desses recursos tão poderosos.

Isso está se tornando um direito humano, considerando a digitalização galopante de nossas vidas e como esses recursos melhoram praticamente todas as atividades em que são usados. Governos, escolas, empresas e outros membros da sociedade civil precisam se engajar para a oferta de acesso à tecnologia, mas também para sua compreensão e domínio consciente e ético.

Caso contrário, veremos a inteligência artificial empurrando ainda mais para o fundo aqueles que já ocupam uma posição mais baixa na sociedade. Afinal, não é essa tecnologia que roubará seus empregos, e sim aquelas pessoas que estiverem se apropriando e usando melhor seus recursos.

 

Mark Zuckerberg, CEO da Meta: empresa quer usar dados de seus usuários para treinar sua IA - Foto: Anthony Quintano/Creative Commons

O que está por trás da proibição da Meta usar dados dos usuários para treinar sua IA

By | Tecnologia | No Comments

Na terça passada (2), a Autoridade Nacional de Proteção de Dados (ANPD) tomou a decisão de mais visibilidade e impacto da sua existência de cinco anos: proibiu a Meta (empresa dona do Facebook, Instagram e WhatsApp) de usar os dados dos usuários para treinar seus modelos de inteligência artificial. É a primeira vez que o órgão age contra uma big tech, em um movimento que impacta todos os internautas do país.

Segundo a ANPD, a maneira como a empresa está usando esses dados violaria a Lei Geral de Proteção de Dados (LGPD). O ineditismo da medida não se dá apenas pela sua abrangência, mas também por tratar de algo ligado à IA, uma área que empresas, governos e usuários ainda tentam compreender toda sua enorme complexidade.

Mas eventuais lacunas nesse entendimento não podem ser usadas por empresas para abusar de seus usuários e do mercado. Como não há legislação sobre a IA definida na maioria dos países, práticas como a da Meta levantam muitos questionamentos.

Afinal, os usuários podem ficar em risco ou serem expostos com isso? Esse comportamento configura um abuso de poder econômico? Não seria melhor as pessoas decidirem compartilhar os seus dados, ao invés de isso acontecer sem seu consentimento e até conhecimento? Se nossos dados são tão valiosos para as big techs criarem produtos que lhes rendem bilhões de dólares, não deveríamos ser remunerados por eles? E acima de tudo, será que as pessoas sequer entendem esse mundo em acelerada transformação diante de seus olhos?

É um terreno pantanoso! Por isso, qualquer que seja o desfecho da decisão da ANPD, o debate em torno dela já oferece um grande ganho para a sociedade.


Veja esse artigo em vídeo:

 


A Meta atualizou a política de privacidade de seus serviços para usar as informações de todos os posts públicos dos usuários, feitos de agora em diante e também no passado. Mas as pessoas não viram a nova regra ou, se viram, não leram ou sequer entenderam. E, como de costume, aceitaram, pois essa é uma condição para continuar usando esses produtos que se tornaram centrais em suas vidas.

As pessoas não esperam que seus posts sejam usados para treinar uma IA. Por conta disso e por entender que o formulário para os usuários se oporem a coleta de seus dados ser de difícil acesso, exigindo que a pessoa vença nove etapas, a ANPD anulou a atualização da política e determinou que a coleta seja interrompida imediatamente.

A Meta pode ser multada em R$ 50 mil por dia em que não cumprir a determinação. E vale dizer que a companhia enfrenta uma proibição semelhante na Europa.

Obviamente, a empresa reclamou! Em nota, disse estar desapontada com a decisão da ANPD, e que eles são mais transparentes no treinamento de sua IA que muitas outras empresas. Afirma ainda que a proibição seria um retrocesso para a inovação e a para a competividade no desenvolvimento de IA, podendo atrasar a chegada de seus benefícios para os brasileiros.

A Meta quer usar os textos, imagens, áudios e vídeos dos posts de seus usuários porque os modelos de linguagem amplos (da sigla em inglês LLM), que viabilizam plataformas de inteligência artificial generativa, como o ChatGPT, dependem de quantidades gigantescas de informações para serem treinados. Sem isso, são incapazes de dar respostas de qualidade.

Os posts nas redes sociais são uma fonte suculenta desse tipo de informação, mas sua coleta pode trazer riscos aos usuários. “É possível pensar em clonagem de voz e vídeo por IA para enganar familiares, amigos e colegas, ou mesmo extorsão por meio de deepfakes”, explica Marcelo Cárgano, advogado especialista em direito digital do Abe Advogados.

Segundo ele, esse uso dos dados pode ainda levar a uma “discriminação algorítmica”, quando os sistemas determinam que grupos selecionados serão desfavorecidos em processos como ofertas de crédito, emprego ou serviços públicos. “E em regimes autoritários, dados pessoais podem alimentar sistemas de IA preditiva comportamental, aumentando a vigilância e a repressão sobre a população”, adverte.

 

Pedir para entrar ou para sair?

Nesse caso, a Meta fez o chamado “opt-out” com seus usuários. Ou seja, assumiu que todos aceitariam que seus dados fossem coletados. Quem não quisesse bastaria pedir para sair. O problema é que, como a ANPD corretamente apontou, as pessoas nem sabem que seus dados estão sendo coletados, não entendem isso e o processo para se oporem à coleta é muito difícil, o que, na prática, pode fazer com que muita gente ceda seus dados sem assim desejar.

Do ponto de vista de privacidade e respeito às pessoas, o processo deveria ser o contrário: um “opt-in”. Nesse caso, os usuários precisariam conscientemente permitir que a empresa fizesse sua coleta, antes que isso começasse. Mas a Meta não adotou esse caminho porque obviamente pouquíssimas pessoas topariam.

Não quer dizer que dados pessoais não possam ser usados para o treinamento de um modelo de IA. Mas as boas práticas indicam que o usuário seja avisado previamente e aceite cedê-los conscientemente. Além disso, a informação deve ser anonimizada.

E é importante que esse consentimento seja dado antes de a coleta ser iniciada, pois, uma vez que a informação é incorporada ao modelo, é virtualmente impossível removê-la individualmente. Mas a LGPD determina que, mesmo que alguém conceda acesso a seus dados, se decidir que não mais aceita, a informação deve ser apagada.

Por fim, há a polêmica de que os usuários sejam eventualmente remunerados por seus dados, essenciais para a criação de um produto bilionário. “Um sistema amplo de remuneração de dados pessoais não me parece tão prático ou desejável, porque eles geralmente são valiosos para empresas quando são massificados”, explica Cárgano. “Isso pode tornar difícil para um indivíduo conseguir negociar um preço justo, se é que isso existe, para seus próprios dados”, conclui.

Como se vê, há mais dúvidas que consensos no uso de nossas informações para treinamento de modelos de IA. Ainda haverá muito ranger de dentes e aplausos em torno da decisão da ANPD. Mas temos que ter em mente também que muitas outras empresas estão fazendo exatamente o mesmo que a Meta, e precisam ser identificadas.

De todo jeito, tudo isso está servindo para a sociedade debater a questão. No final das contas, o que mais precisamos é que as big techs sejam mais transparentes e respeitem seus clientes, dois pontos em que elas historicamente falham feio!

 

Para a futurista Amy Webb, não devemos estar preparados para tudo, mas estar preparados para qualquer coisa - Foto: Paulo Silvestre

Superciclo tecnológico atual só faz sentido se gestores mantiverem o foco no cliente

By | Tecnologia | No Comments

Desde o arado, novas tecnologias transformam indivíduos e a sociedade como um todo, oferecendo-lhes maneiras de melhorar o que já fazem ou descobrindo novas possibilidades. Algumas promovem mudanças tão profundas e prolongadas que geram um “superciclo tecnológico”. Estamos vivenciando a aurora de mais um deles, protagonizado pela inteligência artificial. Mas ela não está sozinha na transformação!

Isso pode variar muito na forma, mas uma verdade é imutável: os benefícios para as pessoas são sempre mais importantes que a tecnologia em si. Aqueles que querem surfar nessa onda, ao invés de serem tragados por ela, não podem perder isso de vista, especialmente em um mundo tão volátil e ao mesmo tempo tão poderoso, graças à própria tecnologia.

Isso se reforça pelo fato de o intervalo entre os superciclos e sua duração ficarem cada vez menores. Por exemplo, tivemos a Revolução Industrial, que começou ainda no século XVIII e durou cerca de 200 anos. Depois vieram outros, como os superciclos da eletricidade, da química, da computação, da Internet e da mobilidade.

Se suas durações e os intervalos entre eles eram medidos em séculos, agora não chegam a uma década! Isso não os torna menos importantes, mas os faz mais intensos.

Nesse cenário crescentemente complexo, nem sempre há tempo para se apropriar de todas as novidades. Portanto, um dos principais desafios de gestores públicos e privados é não se deixar seduzir pelo brilho próprio da tecnologia, limitando-se a ela, e sim usá-la para transformar a vida das pessoas.


Veja esse artigo em vídeo:


Na quinta passada, a futurista americana Amy Webb abordou a capacidade de transformação social do superciclo tecnológico atual, durante a palestra mais aguardada da Febraban Tech, o principal evento de tecnologia bancária da América Latina, que aconteceu em São Paulo de terça à quinta.

Webb, que também é professora da Universidade de Nova York (EUA), explicou que essa é a primeira vez que um superciclo não é motivado por uma única tecnologia, e sim pela combinação de três: inteligência artificial, sensores por toda parte e biotecnologia. “Não são três superciclos separados, e sim um superciclo que combina as três tecnologias”, afirmou. “Isso vai reformar a existência humana!”

Disso deriva uma classe de produtos impulsionados pela chamada “Geração Aumentada por Recuperação de Dados” (da sigla em inglês RAG). Ela combina recursos sofisticados para extrair a informação que o usuário quiser de diferentes bancos de dados e serviços, apresentando-a de uma maneira facilmente compreensível graças à IA generativa.

Isso reforça os produtos com “tecnologia de propósito geral”, ou seja, que podem ser usados para funções muito distintas, algumas nem previstas no momento de seu lançamento. Por isso, chega a ser surpreendente os problemas enfrentados pela Alexa, um produto da Amazon que reinou nessas categorias nos anos de uma IA primitiva, mas que agora não está conseguindo fazer frente ao avanço do ChatGPT.

“Essa combinação entre o transacional e a IA generativa, não importa em qual dispositivo, em qual comunicador, em qual fornecedor, é a curva evolutiva da IA, que permeará tudo”, afirma Thiago Viola, diretor de inteligência artificial, dados e automação da IBM Brasil. Segundo ele, “se você simplesmente responde, sem integrar com um serviço, você faz o que a gente chama de IA parcial”, e aí se deixa de oferecer ao cliente o valor agregado de produtividade.

 

Assistente digital permanente

As tecnologias que compõem o superciclo tecnológico atual devem, portanto, ser usadas para oferecer uma assistência digital automática, permanente e cada vez mais personalizada às pessoas. E as empresas precisam assumir o seu papel nisso.

“Vejo essa tecnologia sendo usada para mudar a forma como uma empresa interage com seus clientes ou parceiros, gerando novos tipos de produtos e serviços digitais”, sugere o britânico Matthew Candy, diretor global de IA generativa na IBM Consulting, que também participou da Febraban Tech.

Ele explica que as empresas não podem fazer isso se limitando a um único modelo de IA (como o GPT), devendo criar experiências únicas e ajustadas às necessidades de seus clientes, pela combinação de vários pequenos modelos próprios. “Como vou conseguir uma diferenciação competitiva quando todos os meus concorrentes têm acesso e fazem a mesma coisa que eu, com o mesmo material”, questiona Candy.

Tudo isso pode parecer muito distante, como uma obra de ficção científica. Mas o superciclo atual está diante de nós, impondo suas incríveis oportunidades e apresentando novos desafios, não apenas tecnológicos, mas também éticos e de governança. Isso também impulsiona gestores a ousar em seus movimentos, mas sem desprezar os cuidados com segurança e privacidade dos dados dos clientes.

Em um mundo em que a inteligência artificial está cada vez mais integrada a nossas vidas, até no que vestimos, a personalização se torna um fator crítico de sucesso. Para isso ser possível, usuários concedem acesso cada vez mais irrestrito a suas informações, o que garante um enorme poder às organizações. Sem uma governança madura em seus processos, isso pode desequilibrar o relacionamento entre empresas e seus clientes, o que pode parecer tentador, mas, a longo prazo, é ruim para todos.

Gestores de tecnologia e de negócios devem, portanto, manter um olho na operação e outro na inovação. Em um ambiente de competição complexa, concentrar-se em qualquer dos lados dessa equação, diminuindo o outro, pode ser um erro fatal. Se prestarem muita atenção à operação, podem ser atropelados por concorrentes mais ousados; se privilegiarem apenas a inovação, podem construir sistemas frágeis ética e tecnologicamente.

Como disse Web em sua palestra, “nosso objetivo não deve ser estarmos preparados para tudo, mas estarmos preparados para qualquer coisa”. A diferença parece sutil, mas é enorme!

Em outras palavras, ninguém tem recursos para antecipar todas as possibilidades de seu negócio, mas precisamos estar abertos e prontos para abraçar criativa e cuidadosamente o imprevisto. Esse é o caminho para o sucesso e para relações mais saudáveis nesse superciclo tecnológico.

 

Tim Cook, CEO da Apple: empresa adiará recursos de IA na União Europeia por causa de lei - Foto: Christophe Licoppe/Creative Commons

Ética não pode ser um luxo ou um item opcional nas plataformas de IA

By | Tecnologia | No Comments

Na sexta (21), a Apple anunciou que adiará na Europa o lançamento dos recursos de inteligência artificial para suas plataformas, apresentados no início do mês. A empresa culpou a Lei dos Mercados Digitais (DMA, na sigla em inglês), criada para evitar abusos das big techs, pela sua decisão, e não deu um prazo para que esses recursos cheguem ao continente.

Alguns europeus podem ficar irritados com a Apple; outros, com a lei. Mas essas regras existem justamente porque as gigantes de tecnologia abusam do poder que têm sobre seus usuários há décadas, criando relações comerciais desequilibradas, francamente desfavoráveis aos clientes.

A decisão da Apple de adiar a liberação desses recursos na Europa e sua oferta no resto do mundo é emblemática, e podemos aprender algo com ela. Em nota oficial, ela disse estar preocupada que os requisitos da DMA comprometam a integridade dos produtos, colocando em risco a privacidade e a segurança dos dados. Oras, se as regras de uma lei que determina boas práticas comerciais e de concorrência ameaçam um serviço, ele não me parece maduro para ser lançado em qualquer mercado.

Isso precisa ser observado em todos os produtos, mas é particularmente importante nos que usam a inteligência artificial. Essa tecnologia é tão poderosa, que, ainda que esteja em seus estágios iniciais, já transforma nossas vidas e o cotidiano de empresas. Nesse cenário, aspectos éticos e de governança são fundamentais para que a sociedade se desenvolva com a IA, evitando que ela aumente ainda mais a concentração de poder nas mãos de poucos grupos.


Veja esse artigo em vídeo:


A Apple já foi multada em março em €1,8 bilhão (cerca de R$ 10,5 bilhões) por infringir a DMA. No caso, o Spotify moveu um processo alegando práticas anticompetitivas pela Apple exigir de que os aplicativos para o iPhone e o iPad sejam instalados exclusivamente a partir da App Store, com a empresa ficando com 30% das transações na sua plataforma. Talvez por isso esteja ressabiada agora.

Graças à DMA, ela agora permite lojas de aplicativos de terceiros, o Google alterou o Android para usuários escolherem seu navegador e buscador, e a Meta concorda que outros serviços conversem com o WhatsApp e o Messenger. A Microsoft já aceita que os usuários desativem o Bing no Windows, e a Amazon solicita o consentimento dos clientes para personalização de anúncios. Por fim, o TikTok permite que os usuários baixem todos seus dados na plataforma. Mas tudo isso só vale para os europeus!

A inteligência artificial traz essas preocupações a um patamar inédito. A partir do momento em que essa tecnologia pode influenciar decisivamente nosso cotidiano e até nossas ações, é preciso entender como ela funciona. A opacidade dos algoritmos, que já causou muita dor de cabeça nas redes sociais, não pode se sentir confortável com a IA.

“A gente já tem uma dinâmica de inteligência artificial muito madura dentro das empresas, mas o tema de governança tem que ser antecipado”, explica Thiago Viola, diretor de inteligência artificial, dados e automação da IBM Brasil. Segundo ele, os gestores precisam adotar a IA com fortes padrões éticos, transparência e explicabilidade, ou seja, permitir aos usuários saberem como a IA foi construída e entenderem como ela tomou cada decisão.

No Brasil, o Congresso analisa o Projeto de Lei 2338/23, que teve uma nova versão de seu texto liberada na semana passada. Em vários pontos, ele se inspira na Lei da Inteligência Artificial, aprovada pelo Parlamento Europeu em março. E os conceitos de transparência, explicabilidade e rastreabilidade aparecem em toda parte.

Viola está certo: as questões éticas nunca devem ser colocadas de lado por interesses comerciais. Agora, com a ascensão galopante da IA, esses temas gritam para gestores, desenvolvedores e usuários. Mas se é assim, por que tantas empresas só parecem atentar a isso quando são obrigadas por força de lei?

 

Conflito de interesses

Precisamos entender que vivemos hoje uma reedição da “corrida do ouro” patrocinada pela inteligência artificial. Quem dominar essa tecnologia mais que seus concorrentes conseguirá um posicionamento determinante no mercado, especialmente porque, nesse caso, alguns meses à frente nessa etapa inicial podem significar uma liderança consolidada por muitos anos.

Diante disso, as empresas do setor, de startups a big techs, querem experimentar, ajustar e correr o quanto puderem agora, de preferência livres de qualquer restrição. Se algo der errado, pode-se considerar isso como justificáveis danos colaterais do processo de inovação supostamente inadiável.

Por conta da entrada em vigor da DMA, em março, conversei sobre isso com Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). “Empresas têm liberdade para oferecer seus produtos e serviços da maneira que considerarem mais estratégica, mas essa liberdade é limitada por leis que procuram prevenir práticas que restrinjam a concorrência”, explicou. E segundo ele, “a questão central é se os benefícios imediatos para os consumidores superam os potenciais prejuízos a longo prazo decorrentes de práticas anticompetitivas”.

Em um mundo capitalista selvagem, a busca incessante pelo lucro e a meritocracia de pessoas e empresas parecem valores  inalienáveis. Mas essa é uma distorção de realidade, como ironicamente o próprio mercado ajuda a desmistificar.

Um cenário de segurança jurídica ajuda muito a própria inovação, especialmente as mais vultosas e de mais impacto social. Basta ver que uma das indústrias mais regulamentadas que há –a farmacêutica– vive de inovação. E ainda que elas não pipoquem a cada mês como nas big techs, são mais duradouras e rentáveis a longo prazo.

Viola adverte que a governança precisa ser levada muito a sério pelas empresas quando se fala de IA, pois problemas associados a ela inevitavelmente acontecerão. “Se você tiver cultura, pessoas e ferramental preparados, o seu padrão de ação é muito mais rápido, mas se você não entende e não sabe o que está acontecendo, isso durará dias, semanas, e cairá na Internet”, explica.

Não proponho, de forma alguma, que a inovação seja desacelerada. Mas já passou da hora de as empresas entenderem que ela precisa ser realizada com ética, sem relaxamentos. Hoje as pessoas ainda estão deslumbradas com a inteligência artificial, despreocupadas com assumirem, como suas, sugestões vindas de uma caixa-preta, da qual nada sabem.

Mas à medida que essas decisões se tornarem mais frequentes e críticas em seu cotidiano, e problemas graves acontecerem por essa falta de transparência, a “lua de mel” acabará.  Ninguém continua usando algo pouco confiável. Se a falta de transparência das empresas com a IA levar a isso, todo esse poder será questionado.


Assista à íntegra em vídeo da conversa com Thiago Viola:

 

Rotuladores de dados realizam um trabalho essencial para a IA, porém estressante e mal pago - Foto: Drazen Zigic/Creative Commons

Para nos beneficiarmos da IA, uma multidão ameaça a própria saúde mental por trocados

By | Tecnologia | No Comments

Não cansamos de nos deslumbrar com as capacidades da inteligência artificial generativa. Quando foi apresentado no dia 13 de maio, o GPT-4o, versão mais recente do “cérebro” do ChatGPT, parecia mágico, com suas capacidades cognitivas refinadas e conversas bem-humoradas. Mas ironicamente, apesar de essa data estar associada à lei que formalizou o fim da escravidão no Brasil, o “milagre da IA” das grandes empresas de tecnologia depende de um trabalho muitas vezes estressante e mal remunerado, feito por uma multidão de pessoas subcontratadas em países pobres.

Conhecidos como “data taggers” (ou “rotuladores de dados”), esses trabalhadores desempenham o papel crucial de ajudar os modelos de IA no que eles não conseguem distinguir por conta própria, de modo que, a partir daquela informação, eles saibam decidir corretamente. Por exemplo, em um conjunto de fotos, o que é um gato, um tigre, um leão e um cachorro? Um texto está com linguagem jornalística, publicitária ou acadêmica? Uma foto apresenta uma mulher amamentando, um nu artístico ou não passa de pornografia?

São sutilezas fáceis para uma pessoa entender, mas impossíveis para uma plataforma digital ainda destreinada. Mas depois que o rotulador de dados explica o que cada coisa é para a máquina, ela passa a ser capaz de identificar padrões para que tome boas decisões no futuro.

Como se pode ver, as respostas da IA dependem desse trabalho para serem adequadas. E como a humanidade usa cada vez mais esses sistemas, o descuido com o processo e com as pessoas nessa etapa pode trazer impactos significativos em tudo que fazemos. Portanto, se essas pessoas atuarem em condições degradantes, podemos estar confiando nosso futuro a uma forma de precarização de trabalho que pode trazer perigosos impactos para todos.


Veja esse artigo em vídeo:


A IA precisa de uma quantidade brutal de dados na fase de seu treinamento para que funcione. Só assim ela consegue identificar padrões e criar vínculos entre elementos de informação para que tire suas conclusões depois. Nem todos esses dados passam por um processo de rotulação por humanos, mas os que passam são fundamentais para que o sistema desenvolva uma base sobre a qual trabalhará.

A rotulação pode ser feita por cientistas de dados ou profissionais especializados. Isso resulta em um modelo mais preciso, porém custa mais e demora para ser concluído. O custo e a qualidade podem cair com um serviço terceirizado, e caem muito mais no modelo de “crowdsourcing”. E esse último formato tem sido escolhido pelas big techs para rotular as bases de dados colossais de suas plataformas de IA. Com ele, a classificação de dados é transformada em uma infinidade de microtarefas.

Você certamente já participou, sem saber, de inúmeras delas, quando precisou comprovar que era um ser humano. Essa tecnologia se chama reCAPTCHA, na qual ajudamos plataformas a identificar elementos em fotos ou palavras digitalizadas. Com isso, estamos rotulando dados para o sistema, que compara nossas respostas com a de muitos outros usuários para ter uma informação de qualidade.

Mas dizermos que partes de uma foto têm semáforos não é suficiente para treinar uma base como a que faz um ChatGPT funcionar. Para isso, um exército de pessoas subcontratadas por empresas especializadas realiza milhões dessas microtarefas.

Elas não têm contato com outros indivíduos, trabalhando de casa e gerenciadas por um software. Tudo isso pode prejudicar a qualidade das entregas. Assim algumas técnicas são usadas para compensar isso e minimizar problemas, como interfaces intuitivas, a busca de um consenso na rotulação de vários profissionais para um mesmo conteúdo e uma auditoria dos rótulos, que verifica sua precisão.

Esses trabalhadores normalmente são pouco qualificados e vivem em países pobres, como Quênia ou Índia, recebendo apenas de US$ 1 a US$ 2 por hora. Pessoas nos EUA ou na Europa Ocidental não aceitam tão pouco. Mas, apesar de ser aviltante nessas regiões, esse valor pode ser significativo nas partes mais pobres do globo.

E aí reside uma perversidade no sistema. Quando precisam que alguma informação seja rotulada por um americano, por exemplo, a plataforma paga muito mais pela mesma tarefa. Por isso, muitos trabalhadores de países pobres tentam enganar o sistema sobre onde estão. Se são descobertos, suas contas são bloqueadas e podem até ficar sem receber seu pagamento.

 

Saúde mental comprometida

Eventualmente esses trabalhadores precisam rotular textos ou imagens com violência, discurso de ódio e elementos grotescos. Por isso, podem desenvolver problemas como ansiedade, depressão e estresse pós-traumático. Uma exposição prolongada a esses conteúdos pode levar ainda a uma perda de sensibilidade e de empatia.

Além dos óbvios e graves problemas para a saúde mental desses trabalhadores, a exposição contínua a dados tóxicos pode comprometer a qualidade das entregas, introduzindo vieses e discriminação nos modelos. E isso pode depois se propagar em uma sociedade que cada vez mais confia nas informações oferecidas pela IA.

As empresas que gerenciam essas plataformas precisam, portanto, oferecer suporte psicológico a esses trabalhadores e mecanismos para que eles indiquem se algo está mal. Mas isso normalmente não acontece. As big techs, por sua vez, não se importam em forçar que isso seja seguido pelas empresas que contratam.

É irônico que um negócio multibilionário tenha na sua base uma legião de anônimos trabalhando em condições tão degradantes. A sociedade deve pressionar as gigantes da tecnologia para que criem políticas de trabalho éticas e transparentes envolvendo os rotuladores de dados, e que determinem que as empresa que lhes prestem serviços cumpram essas regras. E em tempos em que se discutem leis para reger a inteligência artificial, inclusive no Brasil, esse tema não pode ficar de fora.

Sabemos que preocupações sociais nem sempre provocam mudanças em processos de produção, especialmente quando isso impactará nos seus custos. Mas se não for por isso, as empresas deveriam, pelo menos, entender que essa precarização da mão de obra implicará em produtos piores para seus clientes.

Quanto a nós, os usuários de toda essa “magia” da inteligência artificial, precisamos entender e não esquecer que, quando conversamos com o ChatGPT, aquelas respostas incríveis só são possíveis porque alguém lhe disse o que cada coisa é.

 

O primeiro-ministro indiano, Narendra Modi (direita), manteve o cargo, após as “eleições da IA” - Foto: Governo da Índia/Creative Commons

Índia inaugura novo jeito de fazer campanha eleitoral, com apoio da IA

By | Tecnologia | No Comments

O resultado das eleições sempre esteve ligado ao uso das tecnologias da época. A TV era fundamental para a vitória até 2018, quando foi suplantada pelas redes sociais, críticas para definir os pleitos desde então. Mas agora elas podem perder esse posto para a inteligência artificial. E a Índia, que acabou de realizar a maior eleição do mundo, demonstrou como dominar essa tecnologia ficou essencial para os candidatos.

A IA na política não se resume a criar deep fakes para desmoralizar adversários ou se valer do ChatGPT para compor peças publicitárias, legítimas ou falsas. Como alguns candidatos indianos demonstraram, ela pode desenvolver canais inovadores e personalizados com os eleitores. E isso parece até uma boa ideia!

Se a IA fornecesse a atenção que nenhum candidato humano conseguisse dar, atendendo cada cidadão individualmente, isso poderia até fortalecer a democracia. Mas o problema do uso da IA na política é o mesmo do seu uso em qualquer atividade: abusos de seus recursos para produzir resultados imprecisos, imorais e ilegais, para assim, mais que convencer, manipular multidões e vencer uma eleição.

No final, a IA maximiza a índole de quem a usa. E infelizmente a classe política tem sido pródiga em apresentar pessoas com uma moral rasteira, dispostas a pisotear a ética e usar todos os recursos para vencer. Por isso, devemos olhar para o que aconteceu na Índia e aprender algo com aquilo. Se um bom uso da IA pode fortalecer a democracia, seu mau uso pode colocá-la em seríssimo risco!


Veja esse artigo em vídeo:


Por décadas, os candidatos brasileiros com mais tempo na TV iam para o segundo turno das eleições. Isso mudou em 2018, quando Geraldo Alckmin, que tinha 5 minutos e 32 segundos (quase metade do tempo total do horário eleitoral gratuito), amargou uma quarta posição, enquanto Jair Bolsonaro, com apenas 8 segundos, foi eleito presidente.

Ele ganhou porque percebeu, antes e melhor que todos, que as redes sociais haviam se tornado o canal mais eficiente de disseminação de ideias e de manipulação de mentes. E não se tratava apenas de fazer um bom uso dos recursos técnicos, mas de se alterar o jeito de se fazer a própria política, com apoio de algoritmos, fake news e discursos que parecem falar aos anseios de cada um, e não aos de toda a sociedade.

Agora a inteligência artificial promete levar a “política digital” a patamares inimagináveis. O pleito indiano foi um laboratório que deve ser observado pela população, pela mídia, por autoridades eleitorais e pelos políticos, pelo seu tamanho gigantesco e pela disseminação da tecnologia entre os cidadãos.

Em janeiro, o Fórum Econômico Mundial classificou a desinformação potencializada pela inteligência artificial como um dos maiores desafios do mundo nos próximos anos. No caso da Índia, o relatório a classificou como um risco maior que o de doenças infecciosas ou atividades econômicas ilícitas.

E de fato, muito do que se esperava de ruim se materializou nessa campanha, como uma enxurrada de fake news e de deep fakes para se atacar adversários. Mas foram vistos também o uso extensivo de hologramas de políticos (inclusive de lideranças falecidas) em comícios, sintetização de áudios e vídeos de candidatos para responder, em tempo real, a dúvidas de eleitores, e a inteligência artificial analisando quantidades colossais de dados de usuários (muitos coletados ilegalmente) para apoiar a decisão de campanhas.

A IA generativa foi amplamente usada não apenas para gerar instantaneamente as respostas e o audiovisual, mas também para fazer com que o avatar do candidato falasse na língua de cada eleitor, chamando-o pelo nome. Isso é importante em um país como a Índia, que tem 23 idiomas oficiais e mais de 400 dialetos.

Se as redes sociais foram eficientes em desinformar as pessoas, a inteligência artificial agora pode encantar (e até iludir) os eleitores.

 

Mentiras cada vez mais críveis

Especialistas temem que essa tecnologia convença cada vez mais as pessoas sobre os que os candidatos quiserem, pelos conteúdos personalizados e visualmente convincentes. Além disso, muita gente pode acreditar que está realmente falando com o candidato, ao invés de seu avatar.

Há ainda outro aspecto a ser considerado: por mais que os modelos de IA sejam bem treinados para sintetizar respostas às perguntas de cada eleitor individualmente, eles podem “alucinar” e repassar informações completamente erradas ao público.

No Brasil, o Congresso não ajuda ao travar projetos de lei que poderiam organizar o uso dessas tecnologias nas eleições. As autoridades eleitorais tentam, por sua vez, impedir que esses problemas aconteçam no país, definindo regras claras para a eleição municipal desse ano, incluindo contra abusos da inteligência artificial. Ao assumir a presidência do Tribunal Superior Eleitoral (TSE) no dia 3, a ministra Cármen Lúcia fez um discurso enfatizando a responsabilidade das redes sociais no problema e o combate que fará aos usos indevidos das tecnologias digitais na desinformação.

Não será uma tarefa fácil! Três dias depois, Meta (dona do Facebook, Instagram e WhatsApp), Google (dono do YouTube), Microsoft, TikTok e Kwai aderiram ao Programa de Combate à Desinformação do Supremo Tribunal Federal (STF). O X, que se tornou um dos principais canais de fake news, não mandou representantes.

Ainda que a IA ofereça campanhas muito eficientes por uma fração do custo necessário para se obter os mesmos resultados de maneira convencional, esses recursos podem custar milhões de reais para um candidato. Isso desequilibra ainda mais a eleição entre os concorrentes ricos e os pobres.

A Índia demonstrou as incríveis oportunidades e os enormes problemas do uso da inteligência artificial em uma eleição. Regras são necessárias para disciplinar essa prática, mas bandidos são conhecidos por infringi-las, portanto não são suficientes.

Não podemos ser ingênuos! Esperar que as plataformas digitais tomem todos os devidos cuidados nas eleições é como esperar que a raposa cuide do galinheiro. E achar que todos os candidatos farão um bom uso desses recursos é como entregar as galinhas –ou seja, os eleitores– diretamente para a raposa.

É hora de aproveitar o que há de bom e redobrar a atenção para os usos nocivos da IA! É assim que a política será feita de agora em diante.

 

Theodore e Samantha (o sistema operacional do celular em seu bolso), em cena do filme “Ela” (2013) Foto: reprodução

Empresas querem que acreditemos que a inteligência artificial é humana

By | Tecnologia | No Comments

A nossa interação com diferentes plataformas de inteligência artificial fica cada vez mais parecida com conversas que temos com outras pessoas. Em alguns casos, nossos cérebros podem ser enganados para crer que estão interagindo com outros indivíduos, por mais que saibam que não é verdade. Não é por acaso: as big techs querem que nos relacionemos com esses produtos de maneira mais “humana” possível. Mas longe de ser apenas um recurso para melhorar sua usabilidade, isso levanta questionamentos éticos e até de produtividade.

Ao longo da nossa evolução, aprimoramos a capacidade de atribuirmos características humanas ao que não é. Fazemos isso com animais de estimação, objetos, fenômenos da natureza e até a deuses. É o que chamamos de antropomorfismo. Por exemplo, dizemos que “o cachorro é muito inteligente”, “o carro está nervoso”, “a chuva está chorando” e representamos divindades com corpos e emoções humanas.

Isso é importante, porque facilita a nossa compreensão e interação, especialmente com aquilo com que não somos familiarizados. Além disso, com essa prática, criamos vínculos e até sentimos empatia pelo que não é humano.

Isso explica, pelo menos parcialmente, o ChatGPT ter atingido 100 milhões de usuários em apenas dois meses, o que o tornou o produto de mais rápida adoção da história. Antropomorfizar a inteligência artificial nos deixa à vontade para usá-la intensamente e para acreditar em suas respostas, às vezes além do que deveríamos.

Porém atribuir capacidades que esses sistemas não têm pode atrapalhar a nossa compreensão sobre o que realmente eles são e o que podemos fazer com a inteligência artificial. Corremos o risco de acabar atribuindo responsabilidades que as máquinas não possuem, enquanto ignoramos quem fizer usos indevidos de todo esse poder. Por isso, precisamos usar a IA como ela realmente é.


Veja esse artigo em vídeo:


Para deixar mais claros os efeitos do antropomorfismo, podemos comparar como nos relacionamos com a IA com o que sempre fizemos com os buscadores, que existem há quase três décadas. O Google, maior exemplo deles, tenta responder a todas as nossas perguntas desde 1998, quando foi lançado. E faz isso com uma eficiência incrível, sendo mais confiável que qualquer plataforma de inteligência artificial generativa do momento. Nem por isso, nós atribuímos características humanas a ele.

Como já debati nesse espaço, o mais incrível da inteligência artificial generativa não é o que ela nos diz, mas o simples fato de ser capaz de conversar conosco, como se fosse outra pessoa! Isso facilita o seu uso e amenta a credibilidade de suas respostas, mesmo quando ela nos diz alguma bobagem, as chamadas “alucinações” da IA.

Quando lançou o GPT-4o, no dia 13, a OpenAI dobrou essa aposta! Essa nova versão do “cérebro” do ChatGPT fala conosco com uma fluidez ainda mais impressionante, e é capaz de analisar, ao mesmo tempo, texto, voz, áudios e imagens, em tempo real, “enxergando” (olha a antropomorfização!) e analisando o que filmamos como celular.

Para reforçar ainda mais essa projeção, a empresa sugeriu que estaríamos nos aproximando do visto no filme “Ela” (2013), dirigido por Spike Jonze e estrelado por Joaquin Phoenix e Scarlett Johansson. Na história, Theodore (Phoenix) se apaixona por Samantha (a voz de Johansson), o sistema operacional de seu computador e smartphone, movido por uma aparente inteligência artificial geral.

Sam Altman, CEO da OpenAI, disse que “Ela” é seu filme preferido. Ele tentou contratar Johansson para dar voz ao GPT-4o, mas ela recusou a oferta. Não satisfeito, ele lançou o produto com uma voz muito parecida com a dela, o que lhe rendeu um processo da atriz. Aquela voz deixou de ser oferecida na plataforma.

Se tudo isso parece ficção científica demais, uma pesquisa publicada no ano passado na JAMA, a revista da Associação Médica Americana, indicou que pacientes consideraram empáticas quase dez vezes mais respostas dadas por um chatbot em relação às de médicos humanos. Na verdade, os pacientes sentiram alguma empatia do médico em apenas 5% das consultas, o que não deixa de ser uma informação importante por si só.

As pessoas querem se sentir acolhidas! Será que chegamos a um ponto em que as máquinas serão mais eficientes que humanos nessa tarefa?

 

A máquina perfeita de convencimento

O filósofo italiano e professor de Oxford Luciano Floridi, considerado uma das maiores autoridades nos campos da filosofia e da ética da informação, publicou um artigo nesse ano em que afirma que a inteligência artificial cria os mecanismos do que ele chama de “hiperpersuasão”. Resumidamente, essas plataformas ofereceriam um enorme poder para se convencer qualquer pessoa sobre qualquer coisa.

Segundo o pesquisador, isso se dá graças à já incrível e crescente capacidade de a máquina coletar e processar dados dos indivíduos, identificando padrões de comportamentos, preferências e vulnerabilidades, para manipular opiniões e comportamentos. Além disso, a inteligência artificial generativa pode produzir todo tipo de conteúdo com alta qualidade e cada vez mais parecida ao gerado por humanos.

Para ele, tecnologias persuasivas são tecnologias de poder. Já experimentamos isso com as redes sociais, e a esse processo deve se intensificar muito com a IA, não apenas pela tecnologia em si, mas por usos indevidos de grupos políticos e econômicos.

Para minimizar esses riscos, Floridi afirma que é necessária uma melhor proteção legal e ética da privacidade, contra os usos persuasivos da IA. E curiosamente, diante do fato de que esses usos nocivos acontecerão, ele sugere que a “hiperpersuasão” seja pluralista. Em outras palavras, usos positivos desse recurso poderão “compensar” os maus usos, trazendo também visões complementares do mundo. É mais ou menos o que acontece desde sempre com a mídia, mas agora aplicado à inteligência artificial.

Uma população em que todos os membros fossem muito educados e engajados ajudaria a resolver esse problema. Devemos perseguir sempre isso, mas entendo que seja uma utopia.

Isso nos leva então de volta ao antropomorfismo. Precisamos usar a IA como ela realmente é. Ela certamente atua como um agente social, no sentido em que promove transformações em nosso mundo, mas não é um agente moral, pois não tem autonomia e capacidade de escolher o que fará. Atribuir característica humanas à máquina pode distorcer essa realidade, isentando criminosos que fazem maus usos dela, e responsabilizando a máquina.

E isso não faz sentido algum!

 

Sameer Samat, diretor de produtos do Android, apresenta novidades de segurança do sistema durante o Google I/O 2024 - Foto: reprodução

Criminalidade brasileira transforma smartphones e inteligência artificial

By | Tecnologia | No Comments

A semana passada foi pródiga em lançamentos na área de tecnologia, fortemente impulsionados pela inteligência artificial. Em meio a tantas novidades, alguns recursos de cibersegurança me chamaram atenção, porque podem ajudar muito no combate à criminalidade digital no Brasil ou até foram explicitamente criados para atender a demandas de usuários de nosso país.

Na terça (14), o Google anunciou, durante seu evento anual Google I/O, um grande pacote de novidades na sua plataforma de inteligência artificial Gemini e no sistema operacional Android. No dia anterior, a OpenAI mostrou o novo cérebro do ChatGPT, o GPT-4o, que se aproxima incrivelmente da capacidade conversacional humana, incluindo reconhecimento em tempo real de texto, áudio e vídeo.

As referidas novidades de segurança fazem parte do novo Android. Uma delas automaticamente travará o smartphone no caso de roubo pelas infames “gangues de bicicleta”, que assombram os brasileiros, especialmente em São Paulo. A outra tentará identificar, em chamadas por voz, possíveis golpes, avisando imediatamente a vítima para que não acredite na mentira. A IA é o motor de ambos os recursos.

Fiquei feliz ao saber dessas funcionalidades! Tristemente, há anos o brasileiro se obriga a limitar o uso de tecnologias revolucionárias pela ação de criminosos. É o caso de restrições ao Pix, de andar com smartphones sem todos os aplicativos e até de não poder usar caixas eletrônicos de madrugada.

Já passa da hora de as big techs se envolverem na solução desses problemas!


Veja esse artigo em vídeo:


O nome do recurso contra as “gangues de bicicleta” é “Bloqueio de Proteção Contra Roubo” (“Theft Protection Lock”). Durante o Google I/O, Sameer Samat, diretor de produtos do Android, disse que esteve no Brasil no ano passado para conversar com a equipe local da empresa e com autoridades sobre essa modalidade de roubo, que faz um número assombroso de vítimas, especialmente para usar aplicativos bancários para desvio de valores e redes sociais para aplicar golpes em nome das vítimas.

Com a novidade, quando a IA do smartphone identificar uma mudança brusca de movimento, seguida de um padrão que indique um deslocamento por bicicleta, o smartphone será bloqueado. Essa identificação acontece por uma combinação de sensores do aparelho, inclusive do seu acelerômetro.

Já a ferramenta contra golpes telefônicos funciona com a inteligência artificial monitorando continuamente as conversas do usuário com alguém ligando de um número desconhecido, procurando por frases suspeitas. No palco do Google I/O, Dave Burke, vice-presidente de engenharia do Android, simulou uma conversa em que o interlocutor dizia ser funcionário do seu banco, sugerindo que ele transferisse seu dinheiro para outra conta por supostas atividades suspeitas na sua. Nesse momento, o aparelho tocou um alerta sonoro e a tela exibiu uma mensagem que dizia que “bancos nunca pedirão para transferir seu dinheiro para sua segurança.”

Outro recurso de segurança apresentado oculta mensagens e notificações com informações sensíveis, senhas ou autenticações em dois fatores. O objetivo é evitar que, no caso de o smartphone ser clonado ou de sua tela estar espelhada em outros dispositivos, criminosos tenham acesso a essas informações confidenciais.

Burke disse que as pessoas perderam mais de US$ 1 trilhão em golpes digitais no ano passado, em todo o mundo. Esse número astronômico faz sentido: apesar de os bandidos ainda poderem ser presos eventualmente, a chance de isso acontecer é muito menor que em assaltos a bancos, além de muito menos arriscados.

Esses novos recursos de segurança farão parte da versão 15 do sistema operacional Android, que deve ser lançada no final do ano, mas também devem chegar a smartphones com Android a partir da versão 10. Ainda não foi definida a data para essa atualização.

 

Proteção pela IA

Os golpes digitais crescem a olhos vistos: a toda hora, surge uma nova modalidade, aproveitando-se de falhas dos sistemas e especialmente da inocência e inexperiência dos usuários. E os smartphones são o principal canal para sua execução.

Os bancos ficam em uma situação bastante cômoda diante desse gravíssimo problema. Argumentam que a culpa é do seu cliente e raramente ressarcem os valores. Na verdade, a pessoa é a vítima e os aplicativos dos bancos fazem pouco para protegê-la. Essa postura se assemelha a dizer que o correntista seria culpado por fazer um saque no caixa em uma agência com um bandido lhe apontando uma arma para sua cabeça.

As autoridades tratam o problema como caso de polícia, mas isso é insuficiente para eliminá-lo pelo absurdo volume de ocorrências. Adotam também medidas paliativas, como impedir o uso de caixas eletrônicos de madrugada, pelos sequestros-relâmpago.

As big techs, particularmente o Google e a Apple, criadoras dos sistemas operacionais de todos os smartphones do mundo, há anos lançam recursos para minimizar o problema, mas eles também são claramente insuficientes. Os cibercriminosos conseguem superar muitas dessas barreiras tecnológicas, o que chega a ser assustador, considerando os milhões de dólares investidos no seu desenvolvimento desses recursos.

Agora a inteligência artificial desponta como uma esperança para equilibrar essa balança. De fato, ela consegue oferecer aos smartphones habilidades até então inimagináveis, em diversas atividades.

As big techs desempenham um papel absolutamente central na solução do cibercrime, pois ele acontece usando suas tecnologias e plataformas. Mas isso não desobriga as autoridades e os bancos de se empenharem muito mais na busca por saídas, assumindo a responsabilidade que têm na segurança do cidadão e dos próprios clientes. Jogar a culpa no outro é uma atitude preguiçosa e vergonhosa!

Já não é de hoje que os smartphones se tornaram o centro de nossas vidas, pois fazemos uma grande quantidade de atividades com eles. Sem segurança, todas essas ferramentas ficam comprometidas. Por isso, esses recursos agora anunciados são muito bem-vindos. Esperamos apenas que os cibercriminosas não consigam superar também essas proteções.