transformação digital

Roberto Brito de Mendonça, líder da comunidade Tumbira (AM), trocou o desmatamento ilegal pelo turismo ecológico – Foto: reprodução

Onipresente nas cidades, Internet ainda amplia a fronteira civilizatória na Amazônia

By | Tecnologia | No Comments

Para você que está lendo isso, a Internet funciona de maneira líquida e certa, como uma força da natureza. Mas para quem vive na floresta amazônica, onde a natureza verdadeiramente se impõe, sua chegada amplia a fronteira civilizatória. Não se trata de conforto, e sim de uma “virada de época”, reconfigurando possibilidades de vida.

A Amazônia é um desses lugares onde a transformação digital é forçada aos seus limites operacionais, sociais e éticos. Não há comitês de inovação em salas com ar-condicionado simulando a floresta. A tecnologia se torna fator de sobrevivência em um teste de legitimidade. Afinal, se algo funciona lá, funciona em qualquer lugar; se fracassa, expõe que o discurso digital talvez fosse frágil, apenas protegido por infraestrutura abundante. E se a tecnologia não preserva a vida com sentido e não produz valor para quem mora na floresta, ela falha miseravelmente.

Pude comprovar esse impacto na semana passada, quando visitei a comunidade ribeirinha Tumbira e a aldeia da etnia Kambeba Três Unidos, ambas nas margens do rio Negro, a cerca de duas horas de lancha de Manaus (AM). Assim como outras 796 comunidades, elas recebem orientação e investimentos da Fundação Amazônia Sustentável (FAS), totalizando 21 mil famílias assistidas na região. Para isso, há dez anos usa soluções da gigante de software alemã SAP na gestão de seus projetos, com ganhos em transparência, planejamento e impacto socioambiental.

A FAS visa conservar o bioma pela valorização da “floresta em pé” e melhorar a qualidade de vida das populações da Amazônia. Partindo do pressuposto de que pessoas com melhores condições cuidarão mais da natureza, implanta programas de educação, cidadania, saúde, empoderamento, pesquisa e inovação, conservação ambiental, empreendedorismo e geração de renda. Também melhora a infraestrutura das comunidades, inclusive com eletricidade e Internet, apoiada por empresas.

Isso impede que a Amazônia entre em um colapso ecológico, o que agravaria a crise climática global. Portanto, não se trata de ganhos pontuais. Eles fortalecem a posição do Brasil como um país capaz de conservar e gerar prosperidade na região, não apenas por ser “dono da floresta”, mas sim dono de soluções.


Veja esse artigo em vídeo:


A floresta impõe o aprendizado de que programas de transformação digital que chegam prontos, sem aderência cultural, morrem por falta de enraizamento. “Não impomos nada de cima para baixo, ou a comunidade não se engaja”, explica Michelle Costa, superintendente de Gestão e Finanças da FAS.

Ela lembra também que o Terceiro Setor amazônico opera sob grande estresse, com sua reputação sempre atacada, recursos limitados frente a altos custos, eventos climáticos extremos, enormes distâncias e infraestrutura precaríssima. Além disso, enfrentam a violência de traficantes e outros criminosos típicos da região.

Em um ambiente tão hostil, nenhuma organização pública, privada ou social consegue operar sozinha. “Sustentabilidade, você não faz sozinho, faz em parcerias”, afirma Pedro Pereira, diretor de Sustentabilidade da SAP para a América Latina e Caribe. Iniciativas como essas ajudam a reconectar a inovação ao seu fundamento de produzir valor para pessoas reais, em situações reais.

De fato, sustentabilidade que não entrega valor morre e projetos locais de ESG que não resistem ao “teste da Amazônia” cheiram a simples retórica. Em ambientes onde quase tudo falta, não há espaço para enfeite, apenas para o que gera resultados verificáveis.

Ao orientar, investir e conectar essas comunidades, elas ganham visibilidade e melhoram seus produtos. Isso muda sua posição na cadeia de valor, abandonando o papel de dependente e vulnerável e promovendo sua emancipação econômica.

 

Meu avô e meu pai cortavam árvores

“Não sou ambientalista, nem ativista”, esclarece Roberto Brito de Mendonça, líder da comunidade Tumbira. “Nosso trabalho é para dar qualidade de vida para nós mesmos”, acrescenta.

Ele cresceu cortando madeira ilegalmente para seu sustento, pois seu pai e seu avô faziam isso: “eles usavam machado; eu usava motoserra”. Com a FAS, trocou o desmatamento pelo turismo ecológico. Hoje é dono de uma pousada, faz transporte, excursões e oferece alimentação. Pensa agora em criar um espaço para eventos.

“A gente trabalha de forma unida para melhorar a comunidade na saúde, na educação e na sustentabilidade”, conta Neurilene Cruz, dona do restaurante Sumimi, que fica na aldeia Três Unidos. As cinco mulheres que o operam precisaram vencer o machismo, que ditava que “mulher não cozinha para fora”.

Graças ao apoio da FAS, a aldeia também conta hoje com dois atletas: um no tiro com arco e outro na canoagem. Eles sonham em participar de uma olimpíada, mas Cruz lamenta a dificuldade de conseguir patrocínios na região.

Fica claro que parcerias que respeitam os contextos de cada comunidade são desenhadas para que ela queira que funcione, e não para que uma organização externa as destaque em seus relatórios. E quando vozes da floresta ganham visibilidade, não se pode mais falar da Amazônia como se ela fosse mera paisagem.

É por isso que tratar a chegada da Internet na região como um simples serviço é demasiadamente reducionista. Ela cria infraestrutura de cidadania, com informação, educação, saúde e inclusão. Onde o Estado não chega, o mercado não se interessa e a geografia intimida, a conectividade tira populações inteiras da invisibilidade e as integra ao mundo, respeitando suas culturas.

Dessa forma, se o Brasil considera mesmo estratégico ter “a floresta em pé”, deveria considerar igualmente estratégico ter os povos da floresta conectados. Sem isso, a Amazônia se limita à imagem da “imensidão verde”, quando as pessoas que lá vivem podem e devem ser agentes de um futuro melhor para si.

A Amazônia redefine, assim, que parcerias não podem ser apenas transações, vitrines ou mecanismos de reputação. Elas devem ser arranjos de execução compartilhada, onde a escuta vem antes de tecnologia e método. E quando esse tipo de parceria frutifica diante de tantos desafios, o restante do país precisa se questionar por que não daria certo onde tudo sobra se funciona onde tanta coisa falta.

 

Dixie John e Gabriela Vogel, diretora e vice-presidente do Gartner, falam na abertura da Conferência CIO & IT Executive – Foto: divulgação

Empresas devem equilibrar tecnologia e humanidade para extrair valor da IA

By | Tecnologia | No Comments

A inteligência artificial colocou as empresas em uma encruzilhada digital histórica. Extrair valor real dessa tecnologia exige mais que investimentos em sistemas e servidores. Para isso, as lideranças precisam também gerenciar expectativas e cuidar do preparo humano das equipes.

Até hoje, apenas 20% dos projetos de IA alcançaram retorno financeiro, e míseros 2% promoveram uma transformação real nos negócios, onde reside o seu grande potencial. As empresas que encontram, capturam e sustentam ganhos com a IA são as que se afastam da descrença exagerada, que impede qualquer ação, e do deslumbramento inconsequente, que leva a investimentos sem foco.

Essas foram algumas das principais mensagens da Conferência Gartner CIO & IT Executive, que aconteceu em São Paulo entre 22 e 24 de setembro. O problema muitas vezes vem do desalinhamento de expectativas, com as companhias investindo apenas em projetos de produtividade, mas esperando grande geração de receita.

Atravessar esse “vale da desilusão” pede líderes que enfrentem ceticismo, calibrem metas e sustentem investimentos, mesmo sem resultados imediatos. Isso fica mais desafiador quando, segundo o Gartner, 95% dos latino-americanos querem usar IA, mas só 40% confiam que seus gestores farão os movimentos de forma responsável.

Isso explica por que as empresas já percorreram quase metade do caminho da prontidão tecnológica para o uso da IA, mas esse avanço mal chega a um quarto no preparo humano. O medo de perder o emprego, a curva de aprendizagem íngreme e sobretudo a falta de confiança na chefia explicam essa diferença.


Veja esse artigo em vídeo:


A maturidade tecnológica também atrapalha. A IA generativa ainda erra em até 25% em certos casos, inaceitável para setores que exigem precisão. Por isso, as empresas precisam criar métricas formais de checagem cruzada entre modelos e definição de níveis aceitáveis de erro. Além disso, se 88% dos líderes globais já focam em agentes conversacionais, o grande poder está em agentes capazes de tomar decisões, mas eles ainda não estão prontos para processos complexos de ponta a ponta.

O investimento inicial em IA médio em grandes empresas alcança R$ 10 milhões reais, mas gastos contínuos com treinamento, mudanças e modelos múltiplos podem dobrar ou triplicar esse valor. Por isso, o Gartner considera a escolha de fornecedores uma “decisão de soberania”, pois as big techs comportam-se como “nações digitais”, capazes de influenciar regras e infraestruturas.

Segundo a consultoria, o próximo salto na IA promoverá a migração do modelo de negócios digitais para o de negócios autônomos. Esse modelo prevê tecnologias que aprendem e se aperfeiçoam sozinhas entregando valor com mínima supervisão humana.

“Embora o nome possa sugerir algo nada humano, o negócio autônomo, de várias maneiras, é profundamente humano”, provocou Frank Buytendijk, vice-presidente analista do Gartner. Para ele, enquanto os sistemas funcionam e inovam sozinhos, as pessoas assumem papéis de supervisão, coordenação e criação. Até mesmo os clientes passam a gerenciar sua experiência com apoio da IA.

O ano que vem deve marcar um ponto de inflexão, com a IA permeando todas as frentes do negócio. “Os líderes de tecnologia terão que ser super-heróis para lidar com tudo isso ao mesmo tempo”, sugeriu Soyeb Barot, também vice-presidente analista. Ele explica que os líderes de TI precisarão assumir três papéis estratégicos para enfrentar a disrupção: o “arquiteto”, que desenha estruturas sólidas, o “sintetizador”, que conecta dados e contextos, e o “vanguardista”, que ousa no risco calculado.

 

Medo do desemprego

O avanço dos negócios autônomos desperta temores legítimos de desemprego. Apesar do impacto, apenas 1% das demissões recentes decorreu diretamente da IA. Para o Gartner, o maior desafio está na queda de contratações em posições iniciais e na necessidade de requalificação de quem já está no mercado.

“Hoje 81% do trabalho de TI é feito por humanos sem IA, mas, até 2030, 75% será realizado por humanos ajudados pela IA e 25% pela IA sozinha”, afirmou Gabriela Vogel, vice-presidente analista. “Ou seja, 0% do trabalho será feito sem IA”, conclui.

A automação é inevitável para sustentar produtividade em um planeta que envelhece e perde força de trabalho. Nesse quadro, o papel humano migra da execução para a supervisão. Até 2030, o Gartner prevê mais empregos criados do que eliminados, com 20 milhões de brasileiros usando IA de forma significativa. E já em 2028, o país deve gerar mais vagas ligadas à IA do que extinguir.

Diante de tudo isso, os gerentes deixam de ser apenas chefes e se tornam mentores. Cabe a eles agora ajudar suas equipes a se desenvolver e a enfrentar a “atrofia de habilidades”, ou seja, a perda de competências críticas, como segurança e pensamento analítico por um uso inadequado da inteligência artificial.

Devemos também começar a ver “profissionais canivetes suíços”, capazes de aplicar IA em qualquer contexto. Além deles, surgem os “engenheiros de contexto”, que superam o foco limitado dos “engenheiros de prompt” na adoção da tecnologia.

Como se pode ver, a transformação para se apropriar do mais nobre que a IA tem a oferecer não é apenas técnica. O propósito organizacional precisa ser revisitado para não fazer “apenas o que o mercado pede”, mas, sim, alinhar essas mudanças a um propósito humano e social. O negócio autônomo precisa tornar as organizações mais humanas, liberando as pessoas para funções criativas, de supervisão e de decisão estratégica, enquanto as máquinas cuidam do trabalho repetitivo e invisível.

Não basta acompanhar a evolução da tecnologia. A verdadeira disrupção acontece na interseção entre algoritmos e valores humanos, como identidade, confiança e tomada de decisão. O “caminho dourado do valor”, como foi descrito na conferência, não é uma corrida por máquinas mais poderosas, e sim a construção de um futuro em que tecnologia e humanidade avancem lado a lado.

 

Patrick Hevesi e Oscar Isaka, do Gartner, durante a abertura da conferência sobre segurança e gestão de risco – Foto: divulgação

Euforia pela IA ajuda a transformar cibersegurança em pilar estratégico dos negócios

By | Tecnologia | No Comments

No dia 2 de julho, o Brasil acordou com a notícia do maior crime digital da sua história: o ataque à C&M Software, que desviou pelo menos R$ 800 milhões de instituições financeiras conectadas ao Pix. Não houve violação ao sistema, pois os criminosos fizeram as transferências usando credenciais legítimas de um prestador de serviços. Isso demonstra que a cibersegurança não pode mais se limitar à proteção da estrutura de TI, precisando envolver pessoas, dados e processos. A inteligência artificial destaca ainda mais o tema, que deve ser visto como um pilar dos negócios.

Essas foram algumas das principais conclusões da Conferência Gartner de Segurança e Gestão de Risco, que aconteceu em São Paulo nos dias 5 e 6 de agosto. A mensagem central do evento foi que gestores não podem ignorar ou combater a euforia em torno da IA, e sim usá-la como motor de mudanças planejadas que diferenciam líderes apenas reativos daqueles que realmente geram valor estratégico.

Essa visão já é realidade em mercados mais maduros e avança globalmente, inclusive no Brasil. Estudos do Gartner sugerem que, até 2026, metade dos executivos de alto escalão deverá ter indicadores de performance em cibersegurança atrelados aos seus contratos de remuneração, e isso não se restringe aos líderes de tecnologia.

Não dá para ser diferente. Os bandidos já usam a IA para sofisticar seus ataques, como na adoção de agentes de IA que imitam o comportamento humano para burlar proteções de segurança. Assim, a IA automatiza ameaças em grande escala.

Isso não afeta apenas grandes corporações. Com a “Internet dos humanos” evoluindo para dispositivos ligados às pessoas (e eventualmente controlando funções vitais, como um marcapasso conectado), hackers poderão ameaçar vidas remotamente.

Nesse cenário, a preocupação não deve ser se estamos seguros, e sim se estamos tomando medidas adequadas para mitigar ameaças dentro do nosso apetite de risco.


Veja esse artigo em vídeo:


Para isso, a implantação de uma governança eficaz é crucial. O primeiro passo é começar pequeno, evitando uma sobrecarga inicial de dados e incidentes. Em seguida, é fundamental identificar e priorizar riscos, atribuindo-lhes valor financeiro para orientar os investimentos. Outro ponto central é traduzir os riscos de dados em linguagem de negócio, facilitando o entendimento e o apoio da alta gestão.

“Usar a energia da mudança ou o entusiasmo das pessoas para alimentar nossa agenda é uma jogada de poder político no que as pessoas chamam de tempos interessantes”, explicou Oscar Isaka, diretor-sênior do Gartner. “Os incidentes cibernéticos associados à tecnologia exploratória estão atingindo os resultados financeiros, então os executivos estão prestando atenção à cibersegurança.”

O Gartner sugere que os executivos de segurança da informação trabalhem três pontos para conseguir isso. No primeiro eixo, devem demonstrar como os investimentos em segurança contribuem para os objetivos da empresa, usando transparência e dados, em vez de medo e incerteza.

Além disso, a segurança cibernética deve ser vista como um laboratório para experimentação com IA. Ao adotar essa tecnologia para análise de ameaças, a área de segurança não apenas mitiga riscos, mas também impulsiona as ambições de longo prazo da empresa em inteligência artificial.

Por fim, a agilidade nas mudanças é essencial, pois a IA amplia a superfície de ataque e os riscos, como ameaças internas potencializadas por ela. Nesse ponto, os profissionais devem ser treinados e ter autonomia. Assim, automatizarão tarefas repetitivas, enquanto desenvolvem novas habilidades para impulsionar o seu crescimento, tornando-se agentes resilientes da mudança.

Mas nada disso resolve se cuidados básicos com as pessoas não forem observados.

 

O fator humano

Os gestores precisam transformar o comportamento dos usuários, sejam eles funcionários ou clientes, para que a segurança se torne um hábito, e não uma obrigação imposta. E temos uma cultura muito pobre nisso.

Isaka deu como exemplo a naturalidade com que compartilhamos nosso CPF para descontos em farmácias ou até para abrir a comanda em um bar. “O CPF é o que nos torna cidadãos brasileiros”, alertou. Segundo ele, “se eu pegar seu CPF e informar na Receita Federal, eu saberei mais de você do que você mesmo!”

O mesmo vale para a banalização dos QR Codes, escaneados sem preocupação e que podem levar a pessoa a um site em que seus dados pessoais serão roubados. Isso se reflete no trabalho, onde funcionários podem, com a mesma displicência, inserir dados sensíveis da empresa em sites não seguros ou em plataformas de IA.

Essa falta de cultura torna as pessoas o elo mais fraco. Elas podem ver os controles de segurança como um obstáculo em seu cotidiano, procurando formas de contorná-los para “fazer seu trabalho mais rápido”, ou cometer erros por falta de atenção.

Segundo Paulo Aresta, analista-sênior do Gartner, a rigidez de algumas regras de segurança não é uma escolha, e sim uma consequência de uma cultura organizacional sem colaboração, comunicação eficaz ou uma visão de riscos e objetivos compartilhada entre a segurança e o negócio.

“Quando colocamos pressão na gestão de segurança, ela tende a ter dificuldades em ser aplicada de uma maneira objetiva e eficaz”, afirmou. Ele explicou que apenas 14% das empresas conseguem equilibrar a segurança e a agilidade para inovar e crescer.

Ninguém pode dizer que está seguro. O desafio das empresas é que, quando (e não “se”) ataques ocorrerem, elas não sejam pegas de surpresa. Os incidentes são inevitáveis, mas podem ter impactos minimizados com preparo e reação rápida.

Obviamente não dá para “nos proteger do futuro”, mas podemos nos tornar “prontos para o futuro”. Isso exige que tenhamos uma mentalidade que vá além das urgências do dia a dia, para podermos antecipar cenários disruptivos.

Afinal, o futuro está sempre em movimento. Não devemos buscar ser infalíveis, mas sim ágeis e resilientes para nos adaptarmos ao que vier.

 

IA nos força a questionar como ela colaborará conosco no mundo do trabalho - Foto: Freepik/Creative Commons

Mais do que substituir trabalhadores, IA pode redefinir o conceito de trabalho

By | Tecnologia | No Comments

De um lado, temos empresas procurando os melhores profissionais para ocupar suas vagas. Do outro, pessoas buscam seus empregos dos sonhos. No meio disso, a inteligência artificial surge como uma aliada poderosa aos dois grupos. Mas o abuso desses recursos também pode trazer problemas éticos e de confiabilidade.

Segundo o relatório “Agentes de IA na prática: Como a inteligência artificial está transformando a gestão de pessoas”, divulgado na semana passada pela plataforma de recrutamento Gupy, 65% das empresas no mundo e 48% no Brasil já usam a IA em processos seletivos. Além de redução de custos e tempo nas contratações, ele indica que a IA pode reduzir a rotatividade e até aumentar a diversidade nas equipes.

Isso contraria problemas conhecidos da IA no setor, como sistemas enviesados na avaliação de profissionais e falta de transparência nas escolhas. A solução recai no uso de uma IA concebida, desde o princípio, para a mitigação sistêmica desses problemas, com justificativas claras e mantendo humanos nas decisões.

Mas nem todas empresas e candidatos se preocupam com isso. Por exemplo, muitas pessoas usam a tecnologia para alterar seus perfis, fazendo com que pareçam mais alinhados com as vagas do que realmente são. Também utilizam robôs para enviar candidaturas em massa. Segundo o LinkedIn, essas práticas ajudam a explicar o expressivo aumento de 45% nas candidaturas na plataforma no último ano.

Obviamente o impacto da IA no mundo do trabalho vai além de processos de RH e do medo de profissionais de que seus trabalhos sejam “roubados” por uma máquina. Mesmo com os benefícios que a tecnologia traz, ela exige habilidades que nem todos conseguem ter, além de alterar radicalmente a maneira como os trabalhos são feitos.

Não se pode ignorar a natureza substitutiva de funções da IA. Portanto, mais que oferecer ferramentas, sua chegada está redefinindo o que é trabalhar.


Veja esse artigo em vídeo:


O polido discurso do Vale do Silício que promete “aprimorar” trabalhadores e libertá-los de “tarefas rotineiras” desmorona diante da sinceridade brutal de startups como a americana Mechanize. Sua proposta é clara: automatizar totalmente o trabalho, mesmo que isso provoque demissões em massa. Tudo em nome da eficiência.

Para isso, a empresa usa a técnica de “aprendizado por reforço”, a mesma que as big techs usam para melhorar os resultados de suas plataformas de IA. Mas seus fundadores acreditam que ainda levarão pelo menos 10 anos para atingir seu objetivo.

“Essa expansão está acontecendo em uma velocidade jamais vista, não havendo tempo para as organizações, as escolas, as universidades e as pessoas se prepararem”, afirma Marcelo Graglia, professor da PUC-SP e diretor do Observatório do Futuro do Trabalho da universidade. “Isso vem interferindo na saúde mental e do trabalho das pessoas, gerando um adoecimento coletivo”, acrescenta.

Para ele, há uma romantização da IA, exaltando seus benefícios e ocultando os seus riscos. Não se trata de demonizar a tecnologia ou impedir o seu avanço, mas é preciso avaliar conscientemente os problemas que ela traz e criar mecanismos para minimizá-los. Esse discurso de “aprimoramento profissional” só se sustenta, segundo o pesquisador, porque pouca gente realmente entende a tecnologia.

Além da substituição de profissionais por robôs, um fenômeno que cresce aceleradamente é a dos trabalhos híbridos, em que humanos e a IA dividem tarefas, gerando mais produtividade. Isso é outro ótimo benefício com uma contrapartida negativa, pois a tendência é que, mesmo em funções que não sejam extintas, serão necessários menos profissionais para cumprir seus objetivos.

 

Aumentando desigualdades

Essa reconfiguração aprofunda e diversifica as desigualdades. Elas começam no fosso crescente entre países que dominam a tecnologia e os que não a dominam, que está provocando uma nova Guerra Fria. Até entre cidades de uma mesma região, as que se tornam polos tecnológicos atraem mão de obra qualificada e investimentos.

Empresas que investem nessa transformação digital podem obter ganhos de até 30% em custos operacionais, ampliando sua vantagem competitiva. E a corda arrebenta no nível das pessoas, com estudantes de escolas de elite adotando IA e robótica desde cedo, enquanto os das públicas ficam alijados desse conhecimento, agravando a desigualdade na formação e, consequentemente, na vida profissional desses jovens.

Com tudo isso, uma massa de trabalhadores ficará “do lado de fora” desse novo mercado. Além disso, voltando ao uso da IA em avaliações de desempenho, implantações malfeitas podem levar à dispensa de bons profissionais e à criação de ambientes de trabalho “esquizofrênicos”, onde a meta não será mais “ser bom”, mas “parecer bom” para um algoritmo desprovido de bom senso e de compaixão. Por isso, propostas como as da Gupy, de mitigar vieses, privilegiar a transparência e manter as decisões na mão de humanos são bem-vindas em um mundo de forte automação.

“Alguns dizem que, com a automação, sobrará mais tempo para atividades criativas e descanso, mas a realidade não bate com esse discurso”, afirma Graglia. Segundo ele, os ganhos de produtividade nunca geraram menos trabalho, e agora a digitalização faz com que as tarefas invadam os tempos de descanso, de lazer e de estudo.

O pesquisador explica que o trabalho inventivo deve aumentar apenas para poucas pessoas, que já desempenham funções mais estratégicas e criativas. “Mas a grande massa de trabalhadores no mundo não tem esse perfil, e, para eles, simplesmente não se aplica essa lógica”, conclui.

Mais do que temer a máquina, é preciso, portanto, questionar o modelo de sociedade que estamos moldando a partir dela. A IA pode, sim, ampliar a produtividade e democratizar oportunidades, mas isso só será possível se enfrentarmos com coragem os dilemas éticos, sociais e humanos que ela impõe. Caso contrário, estaremos apenas transferindo velhas desigualdades para um novo ambiente, agora automatizado e ainda mais difícil de contestar.

Talvez a reflexão mais importante não seja, então, quantos empregos a IA eliminará, mas que tipo de trabalho e de trabalhador queremos valorizar. Mais do que uma tecnologia, a inteligência artificial está se tornando o espelho de nossas escolhas coletivas.

 

Thiago Viola, diretor de Inteligência Artificial, Dados e Automação da IBM Brasil, durante o AI Forum – Foto: Paulo Silvestre

Enquanto superinteligência artificial continua na ficção, agentes tentam ampliar poderes da IA

By | Tecnologia | No Comments

Desde o fim de 2024, ouço líderes de grandes empresas de tecnologia dizer que 2025 seria “o ano dos agentes de inteligência artificial”. Estamos agora no meio do ano, e esses sistemas começam a mostrar mais força, inclusive com o surgimento de plataformas que integram diversos deles para realizar tarefas mais complexas. Resta saber quanto disso cumpre a promessa e quanto é apenas marketing tecnológico, e quais os benefícios e os riscos de seu uso.

Agentes são sistemas potencializados pela IA capazes de realizar tarefas com pouca ou nenhuma supervisão humana. Ao contrário de plataformas populares, como o ChatGPT, podem funcionar de maneira contínua, monitorando o ambiente sem necessidade de comandos para cada ação, e aprendendo a cada interação.

Essa autonomia representa um grande benefício, mas também acende alguns alertas. Especialmente com a chegada da inteligência artificial generativa e suas conhecidas “alucinações”, a operação de agentes não supervisionados pode incluir erros sérios nos negócios. E com diversos deles trabalhando de maneira orquestrada, um agente “mal-comportado” pode corromper outros, até mesmo disseminando vieses.

O discurso das big techs se apoia em investimentos bilionários e em sua corrida tecnológica. Mas é preciso separar o que já é realidade do que ainda é expectativa. O levantamento CEO Study, publicado pelo Institute for Business Value da IBM, mostra que, enquanto 61% das empresas no mundo que usam IA em sua operação já implementaram agentes, no Brasil esse índice é de 67%. Até o fim do ano, a taxa global deve chegar a 85%.

No entanto, a autonomia desses agentes ainda é limitada. O que se vê, na prática, é uma adoção para tarefas específicas e repetitivas, enquanto usos mais sofisticados ainda exigem supervisão humana e governança robusta.

Assim, passada metade do “ano dos agentes”, eles avançam, mas de uma maneira não tão exuberante. A desejada autonomia plena, com tomada de decisões complexas e adaptação a contextos ambíguos, segue como objetivo em desenvolvimento.


Veja esse artigo em vídeo:


Na quinta passada, participei do IBM AI Forum, em São Paulo, onde conversei com Thiago Viola (foto), diretor de Inteligência Artificial, Dados e Automação da IBM Brasil. Segundo ele, o crescimento dos agentes está migrando para fluxos mais sofisticados, com agentes especializados e independentes atuando em conjunto.

Para que isso seja possível, plataformas como o IBM Watsonx Orchestrate e a SAP Joule atuam como interfaces amigáveis, que recebem as demandas dos usuários em linguagem natural. Elas então acionam os agentes necessários, mesmo de diferentes fornecedores, para realizar a tarefa. As respostas, até as mais complexas, chegam consolidadas e também em bom português.

Isso é um grande avanço. Assim, o usuário fica livre de interfaces às vezes demasiadamente complexas de sistemas como ERPs e CRMs, ou de aplicações antigas. Os agentes extraem e consolidam todas as informações necessárias.

“É como se o sistema legado virasse uma base de conhecimento, e o agente de IA passa, então, a criar essa camada de uso, sem que o usuário precise tocar no sistema”, explica Viola. “O agente terá essa conexão criada e esse ‘self learning’ de fazer esse recorte, entender e projetar isso como resposta para o usuário.”

A orquestração de agentes também traz riscos. A chance de ciberataques cresce, com esses sistemas podendo se tornar vetores para extração de dados e invasões. A complexidade de coordenação aumenta exponencialmente com mais agentes, elevando o risco de conflitos (comportamentos contraditórios) e conluios (cooperação indesejada) entre os agentes, podendo levar à perda da tarefa determinada.

“Se você tiver um modelo que está enviesado e você o combina com outros, a tendência é que isso comece a gerar um ‘drift’, ele começa a sair do foco”, detalha Viola. Para mitigar esses riscos, seres humanos precisam usar ferramentas para calibrar alucinações, rastrear tomadas de decisão e auditar comportamentos da IA.

 

IA mais fácil

Essas plataformas de orquestração de agentes devem ainda ajudar a resolver a baixa utilização dos dados empresariais pela IA, outro ponto crítico para melhores decisões de negócios. Estima-se que 99% deles ainda não sejam usados, por estarem armazenados em sistemas legados, não estruturados ou de baixa qualidade.

Mas vele lembrar que a IA não toma boas decisões com dados ruins. Como já foi dito nesse espaço várias vezes, o primeiro passo para uma boa IA é o investimento em governança de dados, com curadoria, normalização e atualização constante.

Com essas novas interfaces, a criação de agentes de IA também se torna cada vez mais fácil, sem a necessidade de programadores experientes. Ainda assim, isso não elimina a necessidade de conhecimento do negócio, de gestão de riscos e de uma cultura organizacional preparada para lidar com tecnologias autônomas.

Por isso, a narrativa de que os agentes de IA redefinirão o trabalho não implica substituição em massa, mas sim uma mudança fundamental em como trabalhamos. A realidade de sua adoção em 2025 é a de equipes híbridas, em que agentes lidam com a rotina e o volume, liberando os humanos para o pensamento crítico, a criatividade e a tomada de decisões complexas, que não devem ser totalmente automatizadas.

Essa tecnologia, embora avançada, ainda não atingiu a maturidade para operar sem uma significativa intervenção humana, especialmente em cenários de alta criticidade ou complexidade. Por isso, os inegáveis benefícios oferecidos pelos agentes não podem justificar que abandonemos nossa responsabilidade ou autonomia. Só assim poderão cumprir seu papel como aliados e não como riscos ocultos disfarçados de eficiência.

O “hype” em torno dos agentes de IA serve como um catalisador para investimentos e experimentação, impulsionando a inovação. A tendência é de uma integração cada vez mais profunda da IA com os fluxos de trabalho, com a evolução de agentes mais especializados e multimodais.

O sucesso dependerá de as organizações se adaptarem cultural e operacionalmente, transformando o potencial da IA em resultados sustentáveis e garantindo que a tecnologia sirva como um motor de desenvolvimento inclusivo e responsável, sem dispensar os seres humanos.

 

Christian Klein, CEO da SAP, durante a palestra de abertura do Sapphire 2025, evento global da empresa - Foto: reprodução

IA avança nas empresas, mas dados ruins e falta de preparo atrapalham o processo

By | Tecnologia | No Comments

Os gestores precisam que a inteligência artificial finalmente entregue os resultados prometidos. Não faltam investimentos: empresas brasileiras e globais destinam cifras consideráveis a projetos de IA, mas, na prática, o retorno ainda é tímido. E por mais que haja disposição para continuar, já passou da hora desse dinheiro começar a transformar o negócio de verdade.

O problema não é só tecnológico. Falta compreensão sobre as plataformas de IA, e a carência de profissionais qualificados persiste, especialmente em países como o Brasil. Além disso, muitas plataformas de IA não foram desenhadas para a complexidade dos processos empresariais, sendo generalistas, pouco sensíveis ao contexto e, às vezes, mais atrapalham do que ajudam.

Outro gargalo é a qualidade dos dados. Nas empresas, eles costumam ser desatualizados, fragmentados e até conflitantes entre áreas, o que dificulta análises confiáveis e limita o potencial da IA. Sem uma base sólida, qualquer promessa de inteligência artificial se esvazia rapidamente.

Nesse cenário, as novidades apresentadas na semana passada pela SAP no Sapphire, seu evento anual e maior encontro de tecnologia e negócios do mundo, realizado em Orlando (EUA), surgem como uma tentativa concreta de mudar isso. A gigante alemã apresentou uma estratégia para democratizar o uso da IA, integrando-a profundamente aos processos de negócio e, principalmente, aos dados, inclusive os não estruturados e de fontes externas, como a Internet.

As novidades são bem-vindas, mas não dispensam o olhar cuidadoso do ser humano. As decisões devem continuar nas mãos de pessoas, não apenas por uma questão ética, mas também legal. A IA pode preparar o terreno, analisar cenários e fazer recomendações, mas a palavra final precisa ser humana.


Veja esse artigo em vídeo:


A SAP apostou forte na Joule, sua assistente de IA generativa, que estará presente em toda suíte de soluções, sem implementações complexas. A partir dela, usuários poderão fazer análises de negócios em linguagem natural, inclusive em português, eliminando barreiras técnicas. Ela oferecerá soluções usando, de maneira automática, diversos agentes e aplicações, mas respeitando os limites de acesso de cada usuário.

A empresa também apresentou o Business Data Cloud, que permite integrar e harmonizar dados de múltiplas fontes, estruturados e não estruturados, mesmo de aplicações externas, preservando contexto e governança. É uma tentativa de resolver o caos informacional que assombra a maioria das organizações.

A SAP sempre se orgulhou da confiabilidade de seus sistemas, graças a um forte controle sobre a integridade dos dados. Por isso, um dos anúncios mais interessantes do Sapphire foi a integração de sua IA à Perplexity. Essa plataforma pública de IA generativa, que funciona como um buscador na Internet, passa a ser usada para trazer dados complementares e enriquecer as análises de negócio.

Ainda assim, toda IA generativa pode “alucinar”, ou seja, inventar respostas plausíveis, mas erradas. Questionei Christian Klein, CEO da SAP, sobre como lidar com esse desafio ao integrar a Perplexity. E ele foi taxativo: nos negócios, não dá para trabalhar com precisão abaixo de 100%. Por isso, as garantias do Business Data Cloud asseguram a confiabilidade das informações.

Philipp Herzig, CTO da empresa, acrescentou que, por isso, a IA faz o trabalho pesado, mas não se automatiza totalmente o processo. Além disso, a decisão final precisa ser humana. Por isso, a explicabilidade dos resultados é essencial para que as pessoas possam julgar e decidir se aceitam as recomendações da máquina.

A SAP também anunciou a integração com a plataforma Databricks, que integra e harmoniza dados externos dentro do Business Data Cloud. A parceria permite que empresas conectem seus dados sem necessidade de replicação, mantendo seu contexto e a governança. Isso facilita a consolidação de informações de múltiplas fontes, ampliando a produtividade e a confiabilidade das decisões.

 

Democratizando a IA

Com seus anúncios, a promessa da SAP é que empresas de qualquer porte possam acessar tecnologia de ponta, de forma modular e escalável. Isso é particularmente interessante, especialmente em mercados emergentes como o Brasil.

Mas a desejada democratização da IA só acontecerá se houver preparo das pessoas, e esse contraponto não pode ser ignorado. Muitos profissionais ainda não sabem aproveitar a IA, e a formação técnica deficiente no Brasil limita o aproveitamento pleno da tecnologia.

O futuro pertencerá a quem souber perguntar bem e interpretar corretamente as respostas das máquinas. E essa não é uma habilidade necessariamente de profissionais de tecnologia.

Para isso, as plataformas de inteligência artificial precisam ser transparentes no seu funcionamento, e seus resultados devem ser explicáveis e rastreáveis. Infelizmente poucos desenvolvedores de IA parecem hoje dispostos ou prontos para entregar esse nível de maturidade e de responsabilidade.

A revolução da IA nas empresas só será completa quando a tecnologia for, de fato, compreendida, confiável e, acima de tudo, útil para quem decide. A jornada é longa, mas os primeiros passos rumo a uma IA verdadeiramente empresarial parecem estar sendo dados. Resta saber se as empresas trilharão esse caminho com a sabedoria e o discernimento necessários.

 

Debra Logan e Jorg Heizenberg, durante a abertura da Conferência Gartner Data & Analytics, em 28 de abril – Foto: divulgação

Dados ruins e falta de maturidade atravancam o avanço da IA

By | Tecnologia | No Comments

A inteligência artificial criou um tsunami de expectativas nos últimos anos, com a popularização das plataformas de IA generativa, como o ChatGPT. No entanto, a maioria das empresas ainda está longe de tirar proveito de tudo o que essa tecnologia pode oferecer.

Isso acontece, em grande parte, não por limitações técnicas, mas por falta de estratégia e de maturidade organizacional. Afinal, a IA será tão poderosa quanto forem a intenção, a cultura e a qualidade dos dados que a sustentarem.

Durante a Conferência Gartner Data & Analytics, que aconteceu nos dias 28 e 29 de abril, em São Paulo, especialistas internacionais discutiram os desafios e oportunidades da IA. O diagnóstico foi que a IA promete muito, mas sua entrega ainda é tímida.

O que se vê, na prática, é uma corrida por resultados rápidos, sem o amadurecimento necessário das bases de dados, da governança e principalmente da cultura organizacional. Para os especialistas, as equipes se desgastam em ciclos intermináveis de preparação de dados e expectativas insanas.

Eles afirmam que esse ritmo implacável está afetando o moral ainda mais rápido do que os recursos. Por isso, as equipes precisam superar a crescente complexidade e as dúvidas sobre sua capacidade de entrega. A tentação de simplificar demais ou buscar soluções rápidas é um caminho perigoso, que deve ser evitado a todo custo.


Veja esse artigo em vídeo:


Segundo Maryam Hassanlou, diretora-analista do Gartner, apenas metade dos modelos de IA desenvolvidos nas empresas é adotada, uma taxa considerada muito baixa. “Confiança é a principal peça que falta”, explica, e isso acontece porque essas plataformas normalmente são “caixas-pretas” que dificultam seu entendimento e incentivam um uso irresponsável dos dados, que, para piorar, têm baixa qualidade e às vezes são insuficientes.

“Especialmente em setores regulamentados, como saúde, finanças e direito, potenciais vieses e padrões legais representam outra camada de complexidade para previsões que exigem a compreensão do processo”, acrescenta. “É por isso que a explicabilidade da IA é fundamental para ganhar a confiança.”

A explosão do uso da IA gerou um paradoxo. Ela oferece uma interface extremamente simplificada, mas isso vem aumentando exponencialmente a complexidade dos resultados, exigindo novas habilidades das lideranças de tecnologia e gestores de dados. Michael Simone, diretor-analista sênior do Gartner, afirma que agora os líderes “precisam ser pensadores estratégicos e muitas vezes também diplomatas”, conectando-se aos objetivos do negócio e educando os usuários.

“Cada fornecedor adicionou IA aos seus produtos, criando uma abundância de opções com promessas semelhantes”, alerta Jorg Heizenberg, vice-presidente-analista do Gartner. Para ele, esse “AI washing” representa um risco para a confiança na tecnologia, pois promete demais e entrega de menos.

Por tudo isso, a alfabetização em dados e em IA é um fator crítico de sucesso. “Essa conversa não tem nada de conto de fadas, pois cultura é uma questão prática, de colocar a mão na massa”, assegura Heizenberg.

É preciso envolver toda a organização nisso. “Você precisa estabelecer uma cultura de aprendizagem contínua para você e suas equipes”, acrescenta Debra Logan, vice-presidente-analista do Gartner. A transformação cultural é tão importante quanto a tecnológica.

 

Não há “dado neutro”

É preciso abandonar a ilusão do “dado neutro”. Deepak Seth, diretor-analista do Gartner, foi enfático ao afirmar que “a IA é enviesada porque os dados com os quais foi construída são enviesados, porque nossa história é enviesada”. Assim, eles carregam vieses que precisam ser identificados e mitigados. Ignorar isso não é apenas antiético, mas um enorme risco.

A ética deve, aliás, guiar todas as decisões envolvendo dados e IA, desde a coleta até a aplicação. Sua governança é uma extensão da governança de TI, introduzindo três elementos: diversidade, transparência e confiança. Isso inclui o combate a vieses, a proteção da privacidade e o compromisso com a inclusão e a diversidade. A IA deve ser vista como ferramenta de amplificação humana, não de substituição.

“Podemos fazer com que a IA seja como nós, inclusive com nossas limitações, mas podemos torná-la uma inteligência complementar ou tentar criar uma superinteligência”, explica Seth. Para ele, essa última, que empolga muita gente, é algo muito distante. “O que realmente deveria estar no centro das atenções é a criação de uma inteligência complementar, que não nos substitui, que não é mais inteligente do que nós, mas que nos complementa, nos ajuda a sermos melhores naquilo que fazemos”, conclui.

A revolução da inteligência artificial está em curso, mas seu sucesso depende menos de algoritmos e mais de pessoas. A explicabilidade dos modelos, a transparência nos processos e a responsabilidade na aplicação da tecnologia não são apenas requisitos regulatórios, mas imperativos de negócio.

O futuro da IA deve ser guiado por intencionalidade, inclusão e inovação com responsabilidade. Não basta implementar tecnologia avançada: é preciso fazê-lo com propósito claro, incluindo todas as vozes na conversa e inovando de forma ética e sustentável. Só assim transformaremos o tsunami de expectativas em um oceano de realizações concretas, onde a tecnologia amplia o potencial humano em vez de substituí-lo ou diminuí-lo.

 

Segundo a empresa de segurança digital Tenable, plataformas de IA na nuvem sofrem ameaças do “efeito Jenga” – Foto: Creative Commons

Inteligência artificial escancara como a inovação desgovernada ameaça os negócios

By | Tecnologia | No Comments

A explosão do uso da inteligência artificial nas empresas tem gerado uma corrida por eficiência e inovação. Mas junto com os benefícios, crescem as falhas de segurança. Segundo o relatório “Riscos da IA na Nuvem 2025”, recém-publicado pela empresa de segurança digital Tenable, 70% das aplicações com IA em servidores online têm pelo menos uma vulnerabilidade crítica, frente aos 50% em ambientes sem IA.

O problema não vem da tecnologia, e sim de descuidos. Em uma pesquisa realizada pela consultoria Forrester para a Tenable em 2023, 76% dos responsáveis pela implantação de IA afirmaram estar mais preocupados com disponibilidade que com segurança. Essa busca frenética por lançamentos e resultados atropela processos fundamentais, como testes de robustez e revisão de código e de dados.

Segundo a pesquisa global da consultoria McKinsey sobre o uso de IA publicada no mês passado, 78% das organizações já a utilizavam em pelo menos uma atividade de seu negócio em julho de 2024, um salto expressivo em relação aos 55% no fim de 2023. O uso de IA generativa passou de 33% para 71% no mesmo período.

Já o relatório do “Custo das violações de dados de 2024”, publicado pela IBM, mostra que o custo médio de um vazamento de dados saltou 10% em um ano, chegando a US$ 4,88 milhões (no Brasil, esse valor é de US$ 1,36 milhão). O prejuízo não é apenas financeiro, envolvendo paralisação de operações, multas regulatórias, perda de confiança e danos de reputação que podem levar anos para serem reparados.

Tudo isso acende um grande alerta vermelho: empresas de todos os setores estão massivamente abraçando a inteligência artificial sem os cuidados necessários para que essa tecnologia traga resultados confiáveis sem ameaçar suas operações.


Veja esse artigo em vídeo:


Pressionadas por acionistas e pelo mercado, as empresas relaxam com os cuidados. “Na tentativa de acompanhar a revolução trazida pela IA, organizações avançaram a toda velocidade, ignorando inúmeros sinais de alerta de segurança, privacidade e conformidade”, explica Arthur Capella, diretor-geral da Tenable no Brasil. Segundo ele, 38% delas sofrem da chamada “tríade tóxica”, composta por alta exposição, privilégios excessivos e vulnerabilidades críticas, elevando drasticamente seus riscos.

Tais privilégios se referem ao que os usuários podem fazer nos sistemas. Como muitos gestores de TI mantêm as configurações padrão nas plataformas, as pessoas acabam tendo mais poder do que deveriam. Essa falta de rigor contrasta com a filosofia “Zero Trust”, que parte do princípio de que nenhum usuário ou sistema é confiável por padrão, exigindo autorização contínua.

A complexidade aumenta com o que a Tenable chama de “Efeito Jenga”. Assim como no famoso jogo, em que cada bloco sustenta toda a torre, os provedores de nuvem costumam empilhar serviços de IA uns sobre os outros, com privilégios excessivos, criando riscos às vezes invisíveis aos usuários. Daí basta uma configuração insegura em um deles para comprometer toda a arquitetura, graças a essa interdependência.

Parte desse problema acontece porque o modelo de responsabilidade compartilhada na nuvem é mal compreendido. Muitas empresas acreditam que o provedor garante toda a segurança, quando, na verdade, a configuração e o controle de acessos são responsabilidade do cliente. É como alugar uma loja em um shopping, que garante a segurança do prédio, mas quem define quem entra e sai da loja é seu proprietário.

A cultura da segurança da informação deve, portanto, permear todos os setores e níveis das empresas. Não se trata apenas de identificar lacunas, mas de classificar componentes de IA e avaliar o impacto ao negócio, entendendo suas vulnerabilidades.

 

Muito além de TI

“A tecnologia não é mais apenas a tarefa do TI”, afirma Capella. “Ela envolve todas as camadas do negócio e gera vantagens competitivas, consequentemente a segurança da informação deve ser discutida com o board”, acrescenta, ressaltando sua urgência.

No Brasil, ela é agravada por uma abordagem muito reativa. Segundo o estudo da Forrester, 60% das equipes de segurança nacionais se concentram no combate a ataques consumados, em vez de trabalharem para evitá-los. Isso se deve à falta de visão de ativos desconhecidos, de recursos de nuvem, de fragilidades de código e de permissões de usuários. E 72% dos entrevistados reconhecem que seriam muito mais eficazes se dispusessem de recursos preventivos e ferramentas adequadas.

Estamos diante de um paradoxo. Quanto mais inteligente fica a tecnologia, mais frágeis se tornam suas fundações, se não forem cuidadas com rigor. A IA e a computação em nuvem não são à prova de falhas, e tornam as estruturas digitais mais complexas e, portanto, vulneráveis.

Entretanto, vale lembrar que a IA também é parte da solução. Se hackers a usam para criar golpes personalizados e malwares, defensores se valem dela para detectar ameaças e responder em tempo real, prevenindo fraudes e monitorando comportamentos. Mas essa IA também precisa ser protegida contra manipulações, desenvolvimento de vieses e “envenenamento de dados”.

Esse é um novo desafio estratégico. As companhias devem, por exemplo, estar atentas a como essa nova situação as expõe a riscos frente à Lei Geral de Proteção de Dados (LGPD). Afinal, segundo a legislação, não importa se um vazamento ocorreu em uma ferramenta de IA, mas sim que ele ocorreu e que danos foram causados.

A transformação digital impulsionada pela IA é irreversível. Negá-la significa ficar rapidamente para trás. Por outro lado, abraçá-la sem uma nova mentalidade de risco e de segurança cria problemas novos e graves. As lideranças empresariais precisam encarar a segurança da IA não como um custo ou uma barreira à inovação, mas como um ativo estratégico fundamental.

Investir em prevenção, governança robusta, cultura de segurança distribuída pela organização e capacitação contínua das equipes é o caminho para garantir que a inovação seja sustentável. O Brasil tem a oportunidade de se destacar globalmente se conseguir equilibrar agilidade e segurança, tornando-se referência em proteção na era da IA. Mas, para isso, precisa fazer os movimentos necessários. Os líderes que continuarem empilhando descuidadamente blocos da inovação sobre bases instáveis descobrirão, mais cedo ou mais tarde, que suas torres digitais também podem ruir.

 

Mesmo com digitalização da sala de aula, a figura do professor continua imprescindível - Foto: Zinkevych (Freepik)/Creative Commons

Com a volta às aulas, IA amplia debate sobre a tecnologia na educação

By | Tecnologia | No Comments

Com a inteligência artificial avançando exponencialmente e de maneira transversal em nossas vidas, a volta às aulas, no início de fevereiro, reabriu o debate sobre a digitalização da escola. Apesar da rápida evolução dessa tecnologia, seu uso ainda é limitado nas salas de aula brasileiras, principalmente porque muitos professores não sabem como incorporá-la em seus planos de aula. Enquanto isso, os alunos a abraçam, deixando para os educadores a tarefa espinhosa de encontrar formas de avaliar os estudantes de forma justa e eficaz nessa realidade.

Mas o debate vai muito além disso. Em abril passado, o governo paulista anunciou que passaria a usar a IA na produção do conteúdo didático distribuído a professores da rede estadual de ensino. A proposta foi alvo de muitas críticas, pois a IA generativa ainda erra muito em suas produções. Professores conteudistas responsáveis por verificá-las argumentaram que é mais trabalhoso fazer isso do que produzir um conteúdo totalmente novo. Mesmo assim, o projeto foi implantado.

Resistir a essa tecnologia não faz sentido: ela efetivamente pode ajudar os professores de diferentes formas. Por outro lado, incorporá-la de maneira descuidada ou inconsequente pode trazer muitos prejuízos à educação.

A personalização do ensino pela IA permite adaptar o conteúdo às necessidades individuais dos alunos, enquanto a automação de tarefas administrativas libera tempo precioso para interações ricas e atividades criativas. Ela também pode ajudar na inclusão, oferecendo recursos adaptados para alunos com necessidades especiais.

O problema é que a formação continuada dos professores no tema é insuficiente ou nula! Isso aumenta a desconfiança de muitos deles e atrasa a adoção da tecnologia.

O diálogo aberto e a capacitação contínua são essenciais para se compreender que a IA pode ser uma poderosa aliada, mas também que a educação não se restringe a uma transmissão de conteúdos que possa ser automatizada. Ela envolve empatia, mediação de conflitos, formação do pensamento crítico e desenvolvimento social, habilidades que nenhuma IA tem para substituir a interação humana na sala de aula.


Veja esse artigo em vídeo:


Os professores precisam de apoio para se apropriar da IA. Mesmo quem já a usa, precisa aprender a incorporar esse poder em seus planos de aula. Algumas ilhas de excelência oferecem treinamentos, mas essas iniciativas são pontuais e não atingem a maioria dos professores, especialmente em regiões com menos recursos tecnológicos.

O impacto da IA na avaliação exemplifica isso. Professores que insistam em métodos tradicionais terão mesmo problemas. Agora é preciso diversificar os métodos, apostando em apresentações orais, projetos em grupo em sala e discussões nas quais o professor possa observar o raciocínio. O acompanhamento próximo durante todo o processo de aprendizagem ganha espaço. E o uso da IA pode ser incentivado como ferramenta, mas com os alunos desenvolvendo autonomia e pensamento crítico.

Assim como em qualquer setor, implantar a IA na educação requer planejamento e estrutura. Em primeiro lugar, deve-se identificar necessidades e oportunidades com que a tecnologia possa efetivamente contribuir, criando então objetivos claros em linha com a proposta pedagógica. A partir disso, deve-se descobrir quais plataformas atendem essas demandas.

Nesse contexto, entram o engajamento e a capacitação dos professores. Pela minha experiência, se eles não comprarem a ideia, compreenderem seu funcionamento e usarem no cotidiano, nenhum produto prospera na escola. Ainda assim, a introdução da tecnologia deve ser gradual, monitorando resultados e fazendo ajustes continuamente.

Tudo isso introduz uma mudança considerável no processo pedagógico. Se bem-feita, pode alterar a relação dos alunos com a tecnologia, além dos limites da escola. Por isso, a família precisa ser envolvida.

 

Jamais uma substituta

Alguns pais temem que a inteligência artificial ocupe um espaço maior que o devido na escola. Mais preocupante é que outros, que já demonstram pouco apreço pelos professores, veriam com bons olhos essa substituição.

Para os primeiros, é importante dizer que não há movimentos de substituição dos professores pela inteligência artificial. A tecnologia bem aplicada potencializa o trabalho do professor, não o elimina. Ainda assim, esses pais podem participar construtivamente do processo, aliando-se aos docentes.

Já para o segundo grupo, vale lembrar que educação transcende a mera transmissão de informações. É um processo humano que envolve empatia, valores e desenvolvimento social. A IA não compreende nuances emocionais, não motiva alunos desanimados ou se adapta instantaneamente a situações inesperadas em sala, nem orienta os alunos em sua formação como cidadãos.

Quando o ChatGPT surgiu, apareceu um medo de que a IA criaria uma multidão de desempregados, mesmo nas funções mais criativas. Mas 27 meses após seu lançamento, é um alívio observar que a melhor maneira de escapar disso é justamente usando bem nossas qualidades humanas. E os professores já fazem muito isso, com a empatia para perceber dificuldades emocionais, a criatividade para adaptar métodos de ensino, os relacionamentos interpessoais baseados em confiança, criando ambientes seguros e acolhedores, a mentoria além das questões acadêmicas e a flexibilidade para transformar desafios em oportunidades de aprendizado.

O sucesso da digitalização do ensino passa pelo equilíbrio entre inovação tecnológica e o papel insubstituível do educador. O impacto da inteligência artificial na educação só tende a crescer. Professores, famílias e governantes devem abraçar essa mudança com discernimento, garantindo que a tecnologia seja uma aliada na formação de cidadãos críticos, criativos e preparados para os desafios do futuro.

Mas não se pode esquecer da humanidade, que, combinada ao conhecimento e à paixão pelo ensino, formam a essência do trabalho docente e que nenhuma inteligência artificial, por mais refinada que seja, conseguirá jamais substituir completamente. O professor não é uma peça obsoleta nesse novo cenário, mas o protagonista de uma educação que evolui.

 

Tarefas que exigem criatividade, empatia, crítica e julgamento moral são difíceis de automatizar - Foto: Freepik/Creative Commons

IA avança sobre empregos, mas não quer dizer que você perderá o seu

By | Tecnologia | No Comments

Entre as ações bombásticas de Donald Trump em seu primeiro mês como presidente dos EUA, uma das mais emblemáticas visa demitir 2 milhões de servidores federais. Parte dessas vagas será reposta com pessoas mais alinhadas a suas ideias, mas muitas funções passarão a ser desempenhadas por sistemas de inteligência artificial.

Esse movimento vem se acelerando também na iniciativa privada, mas a magnitude sem precedentes daquela iniciativa reacende o debate global sobre o impacto da IA no mercado de trabalho. A substituição de profissionais por máquinas afeta de funções básicas a cargos de alta qualificação, o que é inédito. E isso gera questionamentos sobre o futuro, incluindo o que acontecerá com uma crescente massa de desempregados que não conseguirá se recolocar.

Para muita gente, o que importa é como “não entrar para a estatística das vítimas da automação”. Tarefas que exigem, por exemplo, criatividade, empatia, pensamento crítico e julgamento moral são difíceis de automatizar. Migrar o trabalho para atividades que exijam essas habilidades pode garantir o salário.

Mas, em qualquer caso, a IA já está transformando as mais diversas funções. Sendo assim, a sociedade deve não apenas preservar empregos, como também garantir que os benefícios da automação sejam distribuídos de forma mais equitativa, para que as pessoas desempenhem suas tarefas com IA, para não serem substituídas por ela.

Resistir a essa tecnologia já não faz sentido. O desafio de todos é se apropriar de seu poder com inteligência, criatividade, ética e segurança.


Veja esse artigo em vídeo:


Recentemente, Jensen Huang, CEO da Nvidia, a fabricante de chips cujo valor de mercado hoje é de US$ 3,3 trilhões graças à IA, disse que essa tecnologia não é uma assassina de empregos. Para ele, todos deveriam usá-la como um tutor pessoal, que lhes ajudaria a coletar qualquer tipo de informação rapidamente, a escrever e até a pensar melhor. Huang ecoa a visão de muitos líderes do setor, que enxergam o futuro do trabalho com as pessoas capacitadas pela IA, e não substituídas por ela.

Claro que ele está “vendendo seu peixe”, por isso sua afirmação deve ser analisada com cautela. É fato que a IA pode ajudar qualquer um em suas tarefas, mas não é verdade que todo mundo sabe como fazer isso! Não é realista esperar que alguém que passou décadas em uma função se torne um “engenheiro de prompt” da noite para o dia.

A verdade nua e crua é que a maioria das pessoas simplesmente não tem habilidades básicas para fazer isso, e não consegue “tirar o atraso”. O problema não é apenas a substituição em si, mas a velocidade com que isso está acontecendo. É a revolução tecnológica mais rápida e abrangente já vista, atropelando muita gente no caminho.

O desafio aumenta com uma requalificação que não acompanha a automação, novas vagas que não repõem as eliminadas, e o consequente aumento da concorrência por trabalho. Isso se agrava pela desigualdade no acesso à educação e à tecnologia e à concentração do mercado em menos setores.

Isso pode levar a um aumento da pobreza e desigualdade social, com crises econômicas causadas por um forte desemprego. Se a IA passar a ser vista como uma vilã pelas massas, isso pode levar a uma resistência à automação maior que a devida.

E isso também esquenta outro debate: o de uma renda básica universal.

 

Garantia de sobrevivência

Ela não surgiu com a inteligência artificial, mas vem sendo apresentada como uma solução caso o desemprego graças às máquinas saia do controle.

Entre os argumentos favoráveis à renda básica universal estão a mitigação dos efeitos de um desemprego em massa, um estímulo ao empreendedorismo e a redução da desigualdade social. Já seus críticos afirmam que não há dinheiro para isso, que ela pode gerar inflação e até desestimular o desejo de trabalhar. Por isso, alguns especialistas sugerem que ela seja apenas parte da solução, garantindo a sobrevivência do indivíduo, mas sem eliminar a necessidade de se trabalhar.

Com ou sem ela, é preciso criar políticas para requalificação de trabalhadores em novas áreas, além da criação de empregos “híbridos” que combinem os benefícios da IA com funções humanas, para evitar a eliminação completa de postos de trabalho. Mas não se pode deixar tudo a cargo do governo: essa responsabilidade deve ser dividida com empresas, instituições educacionais e os próprios trabalhadores.

O que já se observa é que, enquanto profissões inteiras estão sendo eliminadas, as demais não desaparecerão, mas serão transformadas. Quem desenvolver habilidades complementares para usar a IA terá mais oportunidades.

A automação do trabalho é inevitável, mas seu impacto social não precisa ser devastador. Com planejamento adequado, investimento em educação e políticas de proteção social, é possível construir um futuro em que humanos e máquinas não apenas coexistam, mas colaborem para criar uma sociedade mais próspera e equitativa.

Por outro lado, se a implementação for feita sem um planejamento detalhado e sem considerar os impactos sociais, como aparentemente está sendo feito nos EUA, há um grande risco de que os serviços prestados à população percam qualidade, se tornem mais burocráticos e menos acessíveis.

É fundamental considerar as implicações éticas e sociais dessas medidas, garantindo que a implementação da inteligência artificial, seja no setor público ou no privado, aconteça de maneira responsável e equilibrada, aproveitando todos os benefícios que ela traz, mas preservando os direitos dos trabalhadores e a qualidade dos serviços prestados à população.

Precisamos de estratégias que coloquem o ser humano no centro da revolução digital. As lideranças políticas e empresariais devem sair de suas torres de marfim, de onde acham que as oportunidades são as mesmas para todos. Sem isso, corremos o risco de criar uma sociedade ainda mais desigual, onde a tecnologia, em vez de libertar, aprofunda as divisões sociais. E não é para isso que ela está sendo desenvolvida.

 

Zack Kass (esquerda) e Uri Levine dividem o palco principal no fim do primeiro dia do VTEX Day, que aconteceu em São Paulo - Foto: divulgação

Mais que aumento do desemprego, IA pode levar a uma crise de identidade

By | Tecnologia | No Comments

A enorme visibilidade em torno da inteligência artificial desde que o ChatGPT foi lançado, há um ano e meio, reacendeu o velho temor de que, em algum momento, perderemos os nossos empregos para as máquinas. Mas para o futurista em IA Zack Kass, a tecnologia pode provocar outras mudanças no mundo do trabalho, que podem levar a verdadeiras crises de identidade nas pessoas.

Kass, um dos primeiros profissionais da OpenAI (criadora do ChatGPT), onde atuou por 14 anos, acredita que as pessoas continuarão trabalhando. Mas em muitos casos, elas não poderão fazer o que gostam ou no que foram formadas, porque a função será realizada por um robô. E aí nasce o problema!

“Nós conectamos intrinsicamente nossa identidade de trabalho à nossa identidade pessoal”, explica o executivo, que esteve no Brasil na semana passada para participar do VTEX Day, um dos maiores eventos de e-commerce do mundo. Segundo ele, mesmo que as necessidades das pessoas sejam atendidas, não poderem trabalhar com o que desejam pode lhes causar fortes reações. “Esse é meu maior medo”, disse.

Se nada for feito, essa previsão sombria pode mesmo se concretizar. Diante dessa perspectiva, os profissionais experientes e os recém-formados devem fazer os movimentos certos para não ficarem desempregados ou para não serem jogados nessa crise profissional e de identidade, o que seria ainda mais grave.


Veja esse artigo em vídeo:


O futurista naturalmente não é o único a se preocupar com os impactos da inteligência artificial no mundo do trabalho. “Sempre há o medo de que ela tire nosso emprego”, disse Uri Levine, cofundador do Waze, que dividiu o palco com Kass. “Mas o que sempre aconteceu foi um aumento da produtividade e, portanto, do tamanho do mercado, ocasionalmente mudando os tipos de empregos”, afirmou.

Para Neil Patel, outro palestrante internacional do evento e referência global em marketing, “a inteligência artificial afetará as profissões e algumas pessoas perderão seus empregos”. Ele pondera que a IA também aumentará a produtividade das pessoas, mas, para isso, “elas precisarão ter conhecimento de IA para poderem fazer melhor seu trabalho.”

A aceleração de nossas vidas aumenta a chance do temor de Kass acontecer. “Somos constantemente levados a demonstrar resultados, a aparecer, a aprender coisas diferentes, em um ritmo cada vez mais intenso”, adverte Katty Zúñiga, psicóloga especializada nas interações entre o ser humano e a tecnologia. Ela explica que não podemos perder a nossa essência pessoal e profissional diante de tanta pressão.

Kass afirma que será muito difícil para algumas pessoas entenderem que haverá trabalho disponível, mas não o que elas gostariam de fazer. E mesmo que elas continuem ganhando seu dinheiro, isso poderá deixá-las sem propósito.

Segundo Zúñiga, nossa formação e experiência profissional são fortalezas que podem ajudar a nos posicionar diante do avanço dos robôs sobre nossas funções. Mesmo com máquinas mais eficientes, nossa essência continuará nos acompanhando e nada do que sabemos se perde. “Isso nos torna seres mais estruturados e completos”, explica. A nossa humanidade acaba sendo, portanto, o nosso diferencial!

A psicóloga lembra que isso não é uma briga contra a tecnologia. Ela observa que muitas pessoas estão se entregando a usos indevidos da IA, quando, na verdade, o que precisamos fazer e nos apropriarmos do que ela nos oferece de bom, reforçando o que somos e nossas profissões.

 

Desenvolvimento responsável

De fato, a inteligência artificial deve funcionar apoiando o ser humano, e não representando ameaças a sua integridade física e mental.

Kass ressalta que todo o desenvolvimento dessa tecnologia deveria atender a dois princípios essenciais: o alinhamento e a explicabilidade. O primeiro se refere a quanto as propostas das plataformas estão preocupadas com os interesses dos seres humanos. Já a explicabilidade, como o nome sugere, indica se os sistemas são capazes de explicar ao usuário, com clareza, suas decisões.

Ele diz que essa é uma busca contínua e interminável. “Se pudermos fazer essas duas coisas, então todo o resto torna-se totalmente aceitável, muito menos importante”, afirma Kass.

O futurista defende a regulação internacional da tecnologia para garantir esses dois conceitos, prevenindo desenvolvimentos irresponsáveis. “Qualquer coisa que não esteja falando sobre alinhamento e explicabilidade está introduzindo oportunidades para corrupção e interesses especiais”, conclui.

Todas essas considerações refletem um cenário de transição em que estamos envolvidos com a inteligência artificial. Os avanços dessa tecnologia são galopantes e invadem os mais diversos setores. Por outro lado, de tempos em tempos, os próprios desenvolvedores demonstram surpresa com os resultados de suas criações.

Isso alimenta incertezas e até medos em torno da IA, o que pode levar a decisões desastrosas que impeçam uma adoção construtiva e consciente dessa tecnologia transformadora. Kass possui uma posição privilegiada nessa indústria para poder fazer essas afirmações conscientemente.

Apesar disso (e de certa forma, principalmente por isso), precisamos encontrar mecanismos para garantir esse desenvolvimento responsável, para as máquinas buscarem o melhor para a humanidade, e não apenas para grupos específicos. Isso se dá por legislações maduras e por grandes debates sociais, para conscientização de usuários e de empresas desenvolvedoras.

Esses são caminhos necessários para que a inteligência artificial ajude a humanidade a atingir um novo patamar de produtividade, sem ameaçar a saúde mental das pessoas. E isso deve acontecer não porque as máquinas cuidarão de tudo, mas porque nós mesmos deveremos continuar realizando aquilo que gostamos, porém de maneira mais fácil, rápida e eficiente, com a ajuda delas. A nossa humanidade deve prevalecer!


Assista às íntegras em vídeo das minhas entrevistas com os três executivos. Basta clicar sobre os seus nomes:

Zack Kass, futurista de IA

Neil Patel, referência global em marketing

Uri Levine, cofundador do Waze

 

Aura Popa e Kurt Schlegel, na abertura da conferência Gartner Data & Analytics, na semana passada em São Paulo - Foto: divulgação

IA cria uma inteligência coletiva unindo pessoas e máquinas em torno de um propósito

By | Tecnologia | No Comments

A cada dia, aplicações com inteligência artificial surgem nos mais diversos setores. O ChatGPT mostrou para as massas como essa tecnologia pode trazer grandes ganhos de produtividade, e isso ciou uma sensação de que a IA automatizará tudo por conta própria. Mas isso não é verdade: o ser humano ainda precisa supervisionar seu aprendizado e suas conclusões. Ainda assim, a colaboração inteligente entre máquinas e pessoas pode tornar possível coisas até então inimagináveis.

Esses foram alguns dos principais temas da conferência Gartner Data & Analytics, que aconteceu em São Paulo na terça e na quarta passada. Na palestra de abertura, Aura Popa, diretora-sênior, e Kurt Schlegel, vice-presidente da consultoria, fizeram uma analogia entre a inteligência coletiva do mundo animal e o que podemos fazer junto com a inteligência artificial.

Esse fenômeno se observa desde enxames de abelhas até matilhas de lobos. Nelas, cada indivíduo tem autonomia para tomar suas decisões, mas também trabalha para os objetivos do grupo. Dessa maneira, ele não apenas sobrevive, como também prospera, atingindo coletivamente ganhos que não conseguiria sozinho.

Segundo os executivos, a inteligência artificial funciona agora como um facilitador para as pessoas criarem valores inéditos juntas. Mas, para isso, as empresas precisam reorganizar seus modelos operacionais para dar autonomia e flexibilidade aos profissionais. Devem também ampliar sua educação para usos conscientes dos dados e da IA. Por fim, precisam distribuir autoridade e responsabilidade para que todos atuem com um propósito bem definido, em todos os níveis da organização.

É uma proposta interessante, neste momento em que ainda tateamos a inteligência artificial para encontrar formas positivas de usá-la. Em diversos momentos na conferência, ficou claro que não se deve delegar decisões críticas completamente à máquina, pois ela pode cometer erros graves. Fazer isso também aceleraria o temor generalizado de termos nossos empregos substituídos por robôs.


Veja esse artigo em vídeo:


“Desencadeamos uma nova era de inteligência coletiva, que combina inteligência humana e de máquina”, disse Schlegel. Segundo eles, para se atingir esses objetivos, as empresas precisam investir em estratégia, mas também se dedicar mais na execução.

“Concentre-se na execução e gaste mais tempo trabalhando em toda a empresa para descobrir como usar esses dados”, explicou Popa, que concluiu: “concentre-se nos fundamentos da governança e na maturidade da implantação, e olhe além dos resultados de curto prazo.”

Uma pesquisa do Gartner realizada no segundo trimestre de 2023, indicou que 75% dos CEOs já haviam experimentado a IA generativa, sendo que 64% não acham que exista exageros no que se fala dela e 62% já discutiram a IA com os conselhos de administração de suas empresas. Por outro lado, 53% dos líderes de tecnologia disseram não ter certeza se estão preparados para mitigar os riscos da IA.

Um bom caminho para se enfrentar esse desafio recai sobre os dados usados nas plataformas, incluindo a precisão, confiança e transparência nessas informações, além de sua proteção. Segundo a consultoria, organizações com práticas maduras de governança de dados têm 25% mais chance de ter sucesso com essas inovações.

Essa inteligência coletiva viabilizada pela IA abre um incrível caminho para melhorar as decisões de negócios, que passam a ser mais contextualizadas, conectadas e contínuas. Isso contrasta com o que se vê hoje: segundo o próprio Gartner, 65% dos entrevistados disseram usar dados para justificar uma decisão já tomada, normalmente pela pessoa mais bem paga na organização.

 

IA ajudando nas decisões

“Muitas escolhas de negócios ainda possuem poucos dados internos, e isso tem que mudar”, afirmou Pieter den Hamer, vice-presidente do Gartner. Para ele, as empresas precisam passar de “orientadas por dados” para “orientadas por decisões”. “É essencial abrir a caixa preta da tomada de decisões”, disse.

Frank Buytendijk, chefe de pesquisa do Gartner Futures Lab, sugeriu que poderemos ver, em poucos anos, plataformas de IA ocupando posições em conselhos de administração, e ele considera isso assustador. Segundo ele, um robô que soubesse tudo que os grandes executivos disseram ou escreveram não seria necessariamente útil, pois esse “superexecutivo” nunca existiu e nunca esteve na liderança de uma única companhia.

Mas ele não duvida que decisões de alto nível passem a ser cada vez mais auxiliadas (e até feitas) pela inteligência artificial. Isso poderia levar a um futuro distópico, com dois extremos. Em um deles, veremos a tomada de decisões e a liderança se tornando demasiadamente centralizadas por tecnologias digitais. “Isto eliminaria a autonomia das pessoas, e lhe falta a diversidade e a inclusão que levam a melhores decisões”, explicou. O extremo oposto é um cenário de excessiva distribuição, em que cada um faz suas próprias coisas, sem a visão do todo.

Gestores de diferentes áreas, mas principalmente aqueles ligados a implantações de inteligência artificial e análise de dados, devem cuidar para que não cheguemos a isso. A IA deve auxiliar na tomada de decisões, mas não pode responder sozinha por elas. Considerando que, em um tempo relativamente curto, todo mundo usará essa tecnologia no seu cotidiano, as pessoas devem ser educadas para compreender o que estão fazendo e se apropriar do processo, sedo responsáveis pelas consequências de suas decisões apoiadas pelas máquinas.

No final, o conceito de inteligência coletiva do mundo animal pode mesmo guiar nossos passos nesse mundo em transformação acelerada pela IA. Todos devemos ter autonomia para tomar mais e melhores decisões dentro do escopo de nossas atuações, mas elas devem estar sempre alinhadas com um objetivo maior, que vise o crescimento de onde estivermos e o bem-estar da sociedade como um todo.

 

Cena de “O Exterminador do Futuro” (1984), em que máquinas inteligentes querem exterminar a humanidade - Foto: reprodução

Qual será a próxima vítima da inteligência artificial?

By | Tecnologia | No Comments

No dia 13, o sindicato dos atores de Hollywood se juntou à greve do sindicato dos roteiristas dos EUA, que acontece desde maio. É a primeira vez em 63 anos que as duas organizações cruzam os braços ao mesmo tempo, o que já impacta a produção de filmes e séries. Entre reivindicações mais convencionais, como melhores condições de trabalho e salários, os dois grupos preocupam-se com o impacto que a inteligência artificial terá em suas profissões.

Já debati longamente, nesse mesmo espaço, sobre a substituição de profissionais por essa tecnologia. Mas esse caso é emblemático porque são as primeiras grandes entidades trabalhistas que colocam isso na pauta de reivindicações para seus patrões.

É curioso porque, no atual estágio de desenvolvimento da inteligência artificial, não se vislumbra que ela substitua consistentemente atores ou roteiristas em grandes produções, como filmes ou séries. Isso não quer dizer que, com o avanço galopante de sua evolução, não possa acontecer em algum momento. Portanto, a reivindicação dos sindicatos visa uma proteção futura, contra um concorrente digital implacável que ainda está por vir.

O que me preocupa, no presente, são empresas de todos os setores que possam estar se preparando para usar a IA, do jeito que está, para substituir trabalhadores de “níveis mais baixos da cadeia alimentar”, mesmo quando isso resulte em produtos ou atendimentos piores para os consumidores. Aqueles dispostos a cortar custos de forma dramática, irresponsável e impensada representam um perigo muito maior que a tecnologia em si.

Como dizem por aí, “isso é tão Black Mirror!”


Veja esse artigo em vídeo:


Não me interpretem mal! Sou um entusiasta da inteligência artificial bem usada, e entendo que esse movimento não tem volta. E nem deveria ter: quando aplicada de forma consciente e responsável, a IA traz inegáveis benefícios a empresas e a indivíduos. Nós mesmos já somos muito beneficiados em nosso cotidiano, em incontáveis aplicativos em nosso celular, que só existem graças a ela.

Mas a inteligência artificial não é uma panaceia. E isso fica claro com o popularíssimo ChatGPT, lançado em novembro e que provocou uma explosão de discussões e de uso da IA, além de uma corrida para empresas demonstrarem que estão nesse barco. Depois do frisson criado pela sua capacidade de manter conversas consistentes sobre qualquer assunto, as pessoas começaram a perceber que muito do que ele fala são verdadeiras bobagens. A despeito dos melhores esforços de seus desenvolvedores, ainda é uma ferramenta sem compromisso com a verdade.

Mas isso não impede que pessoas e empresas usem a plataforma como um oráculo. Gestores vêm confiando em respostas da plataforma para oferecer serviços. Alguns chegam a alimentar o sistema com dados sigilosos de seus clientes, uma calamidade se considerarmos que a ferramenta não promete nenhuma segurança nisso.

Da mesma forma, algumas pessoas têm usado o ChatGPT para funções para as quais não foi desenvolvido, como “fazer terapia” com um sistema incapaz de desenvolver empatia ou que sequer sabe realmente o que está falando: todas essas plataformas simplesmente encadeiam palavras seguindo análises estatísticas a partir de uma gigantesca base de informações com a qual foram “treinadas”.

O problema não é, portanto, usar a tecnologia, e sim usar mal uma coisa boa! Se o objetivo for somente economizar custos, essa é uma “economia porca” que resulta em uma queda dramática na entrega ao público.

 

Exterminador do Futuro

No dia 18, James Cameron, diretor e roteirista de sucessos como “Avatar” (2009) e “Titanic” (1997), deu uma entrevista à rede de TV canadense CTV News, afirmando que a inteligência artificial não é capaz de produzir roteiros. “Não acredito que uma mente desencarnada, que apenas regurgita o que outras mentes vivas disseram sobre a vida que tiveram, sobre amor, sobre mentira, sobre medo, sobre mortalidade, tenha algo que vá comover o público”, disse.

Há um ponto essencial na fala de Cameron, que também foi diretor e roteirista de “O Exterminador do Futuro” (1984), em que máquinas inteligentes tentam eliminar a humanidade: precisamos entender que a inteligência artificial não é realmente criativa!

Ela apenas agrupa padrões e estilos para suas criações, mas não tem algo essencial a qualquer artista: a subjetividade. A nossa história de vida faz com que os padrões que aprendemos sejam inspiração para nossa criatividade, e não uma limitação. A máquina, por outro lado, fica restrita a eles, sendo incapaz de alterá-los.

Mas eu não me iludo: o que puder ser automatizado será. Funções cujos trabalhadores atuam de forma previsível, seguindo regras muito estritas, já estão sendo substituídas por robôs. Em situações como essas, a máquina desempenha as tarefas de maneira mais rápida, eficiente e barata. A qualidade das entregas ao cliente pode até melhorar!

Nos demais casos, a inteligência artificial não deveria ser usada como uma ferramenta para substituir profissionais, e sim para torná-los mais eficientes em suas atividades, oferecendo-lhes sugestões e informações que jamais conseguiriam ter sozinhos, pelas suas limitações humanas.

Em outra frente, o Google está testando, com alguns jornais, um sistema baseado em inteligência artificial capaz de escrever textos a partir de informações que lhe forem apresentadas. Em um comunicado, a empresa disse que “essa ferramenta não pretende e não pode substituir o papel essencial que os jornalistas têm em reportar, criar e verificar os fatos”, devendo ser usado como um apoio a esses profissionais, liberando seu tempo para tarefas mais nobres. Resta saber se, uma vez lançado, o produto não será usado por editores para enxugar mais as já minguadas redações, mesmo que isso resulte em publicações suscetíveis a erros e menos criativas.

Na mesma entrevista, Cameron explicou que, sobre os roteiros, “nunca é uma questão de quem os escreveu, mas de serem boas histórias”. Só faltou definir, de maneira inequívoca, o que é “boa”. Alguns filmes têm roteiros escritos por humanos que são muito ruins. Para escrever aquilo, talvez a inteligência artificial bastasse.

Isso vale para roteiristas, atores, jornalistas e qualquer profissional que se sinta ameaçado pela tecnologia. A melhor proteção que podem ter contra os robôs é fazer melhor que o que eles são capazes de entregar.

Nós, como clientes de todos esses serviços, também temos um papel importante: não podemos aceitar que produtos ruins nos sejam empurrados. Muitos gestores tentarão usar esses recursos assim! Com isso, perderemos nós e os profissionais, todos vítimas dessa “tecnoganância”. Isso não pode passar e muito menos se normalizar.

 

Imagem: composição por Paulo Silvestre

Chamamos de “magia” muitas coisas que simplesmente não entendemos

By | Tecnologia | No Comments

Em 1985, eu e três amigos começamos a nos interessar por computadores, em uma época em que pouquíssimas pessoas sabiam o que eles eram ou para que serviam. Fomos a uma pioneira “escola de computação” no bairro para saber se poderíamos aprender mais sobre aquilo. A recepcionista nos levou a um TK-85 (um pequeno computador como o da imagem) e digitou o seguinte programa:

 

10 PRINT "Qual é o seu nome?"
20 INPUT nome$
30 PRINT "Olá, " + nome$ + "."
40 END

 

Quando ela rodou aquele código “espantoso”, a tela da TV preto-e-branco exibiu “Qual o seu nome?” Cada um de nós digitou o seu, ao que a máquina respondeu (para mim) “Olá, Paulo.”

Assombro geral com a “inteligência” do computador! Suficiente para aqueles pré-adolescentes se matricularem no cursinho de BASIC.

Não é preciso ser um programador para perceber que aquilo era algo extremamente simples. Mas para quem nunca tinha tocado em um computador (1985, lembra?), foi o suficiente para abrir as portas que me permitiram, a partir dali, olhar para o digital como forma de ampliar meus horizontes, procurando entender o que acontece no mundo dos bits.

O ser humano tem medo do desconhecido, porque não o pode controlar. Mesmo que algo aconteça incontestavelmente diante de seus olhos, se não compreender o fenômeno com o que sabe, recai sobre obra do divino ou –pior– vira “bruxaria”. Por conta disso, muitas mulheres e homens geniais foram, ao longo da história, calados, presos ou mortos por suas ideias, mesmo as mais benéficas à humanidade.

Por outro lado, quando adquirimos conhecimento, qualquer coisa, mesmo aquelas até então tidas como mágicas, deixa o campo do desconhecido e passa a ser uma ferramenta sob nosso domínio. E de tempos em tempos, uma nova tecnologia disruptiva surge para “testar a nossa fé”.

A bola da vez é a inteligência artificial, que já está revolucionando muitos negócios, mas igualmente desperta medo, pois o cidadão médio não consegue entender como ela funciona. Para ficar ainda mais confuso, temos pesquisadores e executivos da própria área revelando publicamente restrições a ela.

Talvez exista exagero nesses temores; talvez não. A dúvida se dá porque essa, que é uma das mais poderosas tecnologias já criadas, ainda seja majoritariamente incompreendida pela massa, que a vê, portanto, como “mágica”.

Precisamos desmistificar a IA, assim como qualquer outra tecnologia. Essa é a melhor maneira de tirarmos bom proveito do que ela pode nos oferecer, enquanto escapamos de eventuais armadilhas. Não quer dizer que teremos que ser todos programadores ou cientistas de dados: entendermos o que é, como funciona e para que serve já ajudará muito!

 

PS: tenho até hoje o meu TK-85 (foto a seguir), testemunha daquele momento histórico do nascimento da microinformática no país, nos anos 1980.

Foto: Paulo Silvestre

Foto: Paulo Silvestre

 


Vídeo relacionado:

Joan, protagonista do primeiro episódio da sexta temporada de “Black Mirror”, surta por causa de um mau uso da IA - Foto: divulgação

“Black Mirror” explica ludicamente os riscos da inteligência artificial

By | Tecnologia | No Comments

Em uma sociedade polarizada pelo poder descontrolado dos algoritmos das redes sociais, cresce o debate se a inteligência artificial vai exterminar ou salvar a humanidade. Como costuma acontecer com esses extremismos, a verdade provavelmente fica em algum lugar no meio do caminho. Agora a sexta temporada da série “Black Mirror”, que estreou na Netflix na última quinta (15), surge com uma explicação lúdica de como essa tecnologia pode ser incrível ou devastadora, dependendo apenas de como será usada.

A icônica série, criada em 2011 pelo britânico Charlie Brooker, é conhecida pelas suas perturbadoras críticas ao mau uso de tecnologias. Sem correr risco de “dar spoiler”, o primeiro episódio da nova temporada (“A Joan É Péssima”) concentra-se na inteligência artificial generativa, mas guarda espaço para apontar outros abusos do mundo digital pela sociedade. Sobra até para a própria Netflix, a vilã do episódio!

Como fica claro na história, o poder da inteligência artificial cresce de maneira que chega a ser assustador, alimentando as teorias pessimistas ao redor dela. Se até especialistas se pegam questionando como essas plataformas estão “aprendendo”, para uma pessoa comum isso é praticamente incompreensível, algo ainda no campo da ficção científica.

Mas é real e está a nossa volta, começando pelos nossos smartphones.


Veja esse artigo em vídeo:


Como acontece em tantos episódios de “Black Mirror”, algo dá muito errado. E a culpa não é do digital, mas de como ele é usado por seres humanos movidos por sentimentos ou interesses condenáveis. A lição é que, quanto mais poderosa for a tecnologia, mais incríveis serão os benefícios que ele pode trazer, mas também maiores os riscos associados à sua desvirtuação.

É nesse ponto que estamos com a inteligência artificial. Mas ela não estraga a vida da protagonista do episódio sozinha: tem a “ajuda” de celulares (que estão captando continuamente o que dizemos e fazemos), dos algoritmos das plataformas de streaming (que nos dizem o que assistir), da “ditadura das curtidas”, do sucesso de discursos de ódio e até de instalarmos aplicativos sem lermos seus termos de uso.

A indústria de tecnologia costumava ser regida pela “Lei de Moore”, uma referência a Gordon Moore, um dos fundadores da Intel. Em um artigo em 1965, ele previu que a quantidade de circuitos em chips dobraria a cada 18 meses, pelo mesmo custo. Em 1975, reviu sua previsão para 12 meses. Hoje, o poder da inteligência artificial –que é software, mas depende de um processamento gigantesco– dobra a cada três meses.

O “problema” é que nossa capacidade humana não cresce no mesmo ritmo. E quando não conseguimos acompanhar uma evolução, ela pode nos atropelar. Essa é a gênese de muitos desses problemas, pois tanto poder à disposição pode fazer com que as pessoas deixem cuidados de lado e até passem por cima de limites morais.

É como diz o ditado: “quem nunca comeu melado, quando come, se lambuza!”

 

Faça a coisa certa

Na quarta, participei do AI Forum 2023, promovido pela IBM e pela MIT Sloan Review Brasil. As palestras demonstraram o caminho desse avanço da inteligência artificial e de como ela está se tornando uma ferramenta essencial para empresas de qualquer setor.

De fato, com tantos recursos incríveis que novas plataformas movidas pela IA oferecem aos negócios, fica cada vez mais difícil para uma empresa se manter relevante no mercado sem usar essa tecnologia. É como procurar emprego hoje sem saber usar a Internet ou um smartphone. Por mais experiente e qualificado em outras áreas que se seja, não haveria chance de ser contratado, porque esses pontos fortes seriam facilmente suplantados por outros candidatos que dominassem esses recursos.

Um estudo recém-divulgado pela IBM mostra que, se em 2016 58% dos executivos das empresas estavam familiarizados com a IA tradicional, agora em 2023 83% deles conhecem a IA generativa. Além disso, cerca de dois terços se sentem pressionados a acelerar os investimentos na área, que devem quadruplicar em até três anos.

A mesma pesquisa aponta que o principal fator que atravanca essas decisões é a falta de confiança na tecnologia, especialmente em aspectos de cibersegurança, privacidade e precisão. Outros problemas levantados foram a dificuldade de as decisões tomadas pela IA generativa serem facilmente explicadas, a falta de garantia de segurança e ética, a possibilidade de a tecnologia propagar preconceitos existentes e a falta de confiança nas respostas fornecidas pela IA generativa.

Conversei no evento com Marcela Vairo, diretora de Automação, Dados e IA da IBM (a íntegra da entrevista pode ser vista no vídeo abaixo). Para ela, três premissas devem ser consideradas para que a inteligência artificial nos ajude efetivamente, resolvendo essas preocupações.

A primeira delas é que as aplicações movidas por IA devem ser construídas para tornar as pessoas mais inteligentes e produtivas, e não para substituí-las. Deve existir também um grande cuidado e respeito com os dados dos clientes, que pertencem apenas a eles e não podem ser compartilhados em outra plataforma ou com outros clientes. E por fim, as aplicações devem ser transparentes, para que as pessoas entendam por que elas estão tomando uma determinada decisão e de onde ela veio, o que também ajuda a combater os possíveis vieses que a IA desenvolva.

O que precisamos entender é que essa corrida tecnológica está acontecendo! Não sejamos inocentes em achar que ela será interrompida pelo medo do desconhecido. Os responsáveis por esse desenvolvimento devem incluir travas para que seus sistemas não saiam do controle, garantindo essas premissas.

O que nos leva de volta a “Black Mirror”: tampouco podemos ser inocentes em achar que todos os executivos da indústria serão éticos e preocupados em fazer a coisa certa. É por isso que a inteligência artificial precisa ser regulamentada urgentemente, para pelo menos termos a tranquilidade de continuar usufruindo de seus benefícios incríveis sem o risco de sermos dominados pela máquina.

E no final, sempre temos que ter uma tomada para puxar e desligar a coisa toda se ela sair completamente dos trilhos.


Íntegra de entrevista com Marcela Vairo (IBM):