inteligência artificial

A ministra de Ciência, Tecnologia e Inovação, Luciana Santos - Foto: Fabio Rodrigues-Pozzebom/Agência Brasil

Brasileiros abraçam a IA, mas precisam vencer desafios para sua implantação plena

By | Tecnologia | No Comments

Os brasileiros têm fama de abraçar novas tecnologias rapidamente, especialmente as digitais. Isso se vê, por exemplo, no amplo uso de smartphones e redes sociais no país, que sempre lidera rankings internacionais nisso. Também vem sendo observado no nosso uso entusiasmado da inteligência artificial. Mas essa euforia enfrenta severos obstáculos que podem prejudicar resultados, especialmente nos negócios.

A pesquisa “Inteligência artificial no mundo corporativo”, divulgada no dia 11 pela gigante de software alemã SAP, mostra que 52% dos gestores brasileiros têm percepção muito positiva sobre essa tecnologia e outros 27% a encaram de forma favorável, mas com ressalvas. Na América Latina, esses números são 43% e 38%.

Para 29% desses gestores, o maior desafio é não saber como incorporar a IA no negócio, enquanto 28% afirmam que não há profissionais qualificados para isso, problemas que caminham de mãos dadas. Mas o Brasil enfrenta outra grande barreira nesse setor: dependemos demais de tecnologias importadas.

A princípio, isso não pareceria tão grave. O Brasil historicamente consome tecnologia digital de fora, graças ao sucateamento de nossa indústria e de nossa ciência, principalmente a de base. Continuaremos fazendo isso com a inteligência artificial. Mas suas características tornam essa dependência mais perigosa.

O quadro piora com o posicionamento errático da administração Donald Trump, que já usa a IA como arma geopolítica. No dia 13, a OpenAI, criadora do ChatGPT, apresentou uma série de propostas ao governo americano para supostamente manter a liderança dos EUA no setor. Entre elas, sugere uma restrição de exportações da IA a países “democráticos” (conceito que varia com o vento nos cabelos de Trump).

Isso cria uma divisão geopolítica artificial, condicionando o acesso à IA à subordinação de nações a interesses americanos, reforçando essa dependência tecnológica e perpetuando desigualdades globais. Esse é um risco que o Brasil não pode manter.


Veja esse artigo em vídeo:


Sendo uma tecnologia altamente disruptiva, a IA já transforma diversos setores da economia. Para isso, requer infraestrutura avançada e capacitação de profissionais qualificados. Sem investimentos significativos, o Brasil pode ficar para trás em ambos, dificultando a absorção e o uso eficaz dessa tecnologia, o que pode também aumentar os riscos de segurança e privacidade, pois dados sensíveis ficam sujeitos a leis estrangeiras.

Isso também limita nossa capacidade de inovar e ajustar soluções às nossas necessidades, além de comprometer a autonomia tecnológica do país. Como a IA automatiza muitas funções, a falta de investimentos em capacitação impõe ao Brasil desafios adicionais no mundo do trabalho e na adaptação ao avanço tecnológico.

Diante desse cenário, as empresas se mobilizam. Segundo a pesquisa da SAP, 62% dos gestores locais já capacitam seu pessoal para sanar este gargalo e outras 35% pretendem fazer isso ainda em 2025. “As empresas brasileiras trazem inovação no seu DNA, tanto na geração de diferencial competitivo, quanto na otimização de processos”, afirma Rogério Ceccato, diretor de pré-vendas da SAP Brasil. “Isso se explica com a maior maturidade do mercado brasileiro no cenário latino-americano.”

A IA generativa pode ajudar a reduzir esse problema, dispensando os profissionais de dominarem aspectos técnicos da tecnologia. Ceccato explica que assistentes, como a Joule da SAP, ajudam um profissional de vendas, por exemplo, a criar agentes de IA sem apoio técnico, concentrando-se no seu conhecimento do negócio. “Soluções com estratégia low-code/no-code (sem programação) permitem que mais profissionais dominem a IA”, acrescenta.

Além disso, alguns exemplos internacionais recentes animaram empresários e pesquisadores brasileiros a investirem mais em inteligência artificial. O mais marcante foi o chinês DeepSeek, que em janeiro demonstrou ser possível desenvolver um LLM (modelo de linguagem de grande porte) com qualidade comparável aos melhores do mundo, como o ChatGPT, por uma pequena fração dos seus investimentos.

Criou-se, assim, um novo paradigma, que retirou das big techs o “direito a dominar sozinhas” esse mercado.

 

Investimentos brasileiros

Na época, a ministra de Ciência, Tecnologia e Inovação, Luciana Santos (foto), disse que o Brasil desenvolverá seu próprio modelo de IA, citando o DeepSeek como exemplo. Ela lembrou que existia a ideia de que os investimentos para competir nessa tecnologia seriam proibitivos para países emergentes, mas os chineses mudaram isso, mesmo impedidos pelos EUA de comprar processadores mais poderosos.

Antes disso, no dia 30 de julho, o governo brasileiro anunciou o Plano Brasileiro de Inteligência Artificial. Ele detalha uma estratégia ambiciosa para os padrões brasileiros, com investimento de R$ 23 bilhões até 2028, para o desenvolvimento e aplicação ética e sustentável da IA no país.

O plano prevê a compra de um dos cinco supercomputadores mais avançados do mundo, que deve ser alimentado por energias renováveis. Também propõe o desenvolvimento de modelos de linguagem em português, treinados com conteúdo nacional, que contemplem nossas características culturais, sociais e linguísticas.

Sensível à falta de profissionais no setor, o projeto também destaca a capacitação em larga escala para atender a essa demanda. Por fim, reforça que o desenvolvimento da IA seja ético e responsável, promovendo a transparência algorítmica e a proteção de dados, itens críticos para o setor, mas pouco observados nos produtos americanos.

As propostas são interessantes e muito bem-vindas, mas a sociedade precisa acompanhar sua implantação, para que não se torne mais uma ideia populista que se perca na burocracia. A IA não pode ser mais uma revolução tecnológica que o Brasil apenas observe de longe.

Um esforço coordenado entre governo, academia e setor privado é imprescindível! Os programas já existentes precisam ser ampliados, especialmente para a formação de talentos e o desenvolvimento de propriedade intelectual nacional. Ainda podemos nos tornar protagonistas em nichos do ecossistema de IA.

As atuais restrições podem se traduzir em inovação acelerada. Mas, para isso, o Brasil precisará mobilizar recursos e talentos com a velocidade necessária para superar esse fosso tecnológico antes que se torne intransponível ou que eventuais restrições abalem decisivamente nossa transformação digital.

 

Lara (Ellen Parren) vive drama em “Eu Não Sou um Robô”, por não conseguir passar por um teste em seu computador - Foto: reprodução

Curta vencedor do Oscar alerta sobre nossa desumanização pela dependência tecnológica

By | Tecnologia | No Comments

No domingo de Carnaval, com os brasileiros comemorando o Oscar de Melhor Filme Internacional para “Ainda Estou Aqui” e lamentando que sua protagonista, Fernanda Torres, não levou o de Melhor Atriz, a vitória do holandês “Eu Não Sou um Robô” (“I’m Not a Robot”) no prêmio de Melhor Curta-Metragem, dirigido por Victoria Warmerdam, passou praticamente despercebido. Mas ele promove uma importantíssima reflexão sobre o nosso tempo: estamos nos tornando muito dependentes da tecnologia, e isso pode ameaçar nossa humanidade.

Há décadas, a ficção nos alerta sobre esse risco, mas nunca imaginaríamos que uma validação automática pudesse nos fazer questionar quem somos. É exatamente esse o dilema vivido por Lara (Ellen Parren), a produtora musical protagonista da obra, que mergulha em uma crise existencial após falhar repetidamente em testes CAPTCHA, aqueles desafios online usados para distinguir humanos de robôs, nos quais é preciso clicar, por exemplo, nas “imagens com hidrantes”.

A sociedade vem sendo profundamente influenciada pelas big techs para abraçar a tecnologia como algo quase mágico, sem medir as consequências. Poucas vozes questionam esse movimento. Quem ousa fazer isso recebe rótulos de antiquado ou resistente ao progresso, normalmente injustos.

Apesar de ser uma ficção, o curta toca em questões muito reais. Vivemos em uma era em que sistemas cada vez mais eficazes e surpreendentes nos ajudam muito, mas também trazem consequências nocivas que às vezes ignoramos. Se nada for feito para corrigir essa dependência excessiva, podemos ultrapassar um limiar perigoso, onde a tecnologia não mais nos serve, mas nos define.


Veja esse artigo em vídeo:


Warmerdam criou uma sátira angustiante sobre nossa relação com a tecnologia. A incapacidade de Lara passar nos testes a coloca em uma jornada surreal, levando-a a questionar crescentemente sua própria humanidade. Assim, a obra explora temas como identidade, autonomia e o impacto da tecnologia na percepção humana.

Parren equilibra perfeitamente o humor absurdo com uma crítica social afiada, tornando a personagem ainda mais marcante. Afinal, ela é realmente um robô que desconhece sua verdadeira natureza? Ou será que a tecnologia falha ao identificar o que é ser humano? Esses dilemas existenciais são os elementos mais potentes do curta, reforçando sua crítica à dependência da validação digital, tornando a proposta ainda mais cortante! O absurdo da situação nos faz rir, mas também nos obriga a refletir sobre nossos comportamentos frente à digitalização da vida.

Já terceirizamos nosso pensamento para buscadores, dependemos de GPS para nos locomover e deixamos algoritmos influenciarem nossas decisões diárias, ainda mais com o avanço da inteligência artificial. Quando não têm acesso a essas tecnologias, muitos se sentem perdidos, como se parte de sua identidade tivesse sido removida.

Em alguns casos, um erro técnico pode bloquear nosso acesso a serviços essenciais, tornando-nos praticamente “invisíveis” para a sociedade. Mas precisamos encarar nossa atitude frente a essa dependência tecnológica, que pode prejudicar habilidades cognitivas cruciais, como memória, raciocínio e criatividade. Resolver problemas por conta própria é fundamental para o desenvolvimento humano.

Não dá para dizer que “isso só acontece com os outros”. Quem nunca ficou ansioso por perder o acesso à Internet? A incapacidade de lembrar informações básicas sem consultar o celular, a preferência por interações digitais em detrimento das presenciais, ou a sensação de que nossas realizações só valem quando publicadas e validadas nas redes sociais são outros sinais de que “passamos do ponto”.

Se um sistema de reconhecimento facial falha em nos identificar, um algoritmo de busca não entende nossa pergunta ou quando um assistente virtual não compreende nosso sotaque, sentimos uma frustração que vai além do incômodo prático. É quase uma negação de nossa existência!

 

Recuperando o controle

Para evitar que percamos o controle do que somos, precisamos adotar estratégias conscientes. E isso passa por questionar recomendações das plataformas digitais, tomar decisões sem depender delas e exercitar a memória. Ou seja, lembrar a nós mesmos que podemos também viver sem as máquinas, como sempre fizemos!

O contato humano e o mundo físico precisam ser valorizados. Participar de encontros presenciais e realizar atividades ao ar livre são antídotos eficazes contra a digitalização excessiva da vida. Além disso, falar com pessoas em vez de chatbots preserva o elemento humano nas interações.

Devemos também variar as fontes de informação e usar a tecnologia com propósito claro, em vez de consumir passivamente o que as plataformas sugerem: isso nos ajuda a manter o senso crítico. E pausas regulares no uso desses serviços permitem reavaliar nossa relação com o mundo digital.

“Eu Não Sou um Robô” nos ensina que a tecnologia deve ser uma ferramenta para ampliar nossas capacidades, não um fator determinante da nossa identidade e muito menos da nossa humanidade. Se confiarmos demais nela a ponto de comprometer nossa autonomia, corremos o risco de nos tornarmos reféns daquilo que criamos.

A obra é uma metáfora poderosa sobre a burocracia digital, a vigilância algorítmica e a automação excessiva, que nos transformam em dados e perfis, em vez de seres humanos complexos e autônomos. A tecnologia pode e deve ser usada para facilitar a vida, mas precisamos garantir que ela continue sendo um meio, e não um fim.

Em tempos de IA galopante, a verdadeira inteligência está na capacidade de equilibrar o poder do mundo digital com a experiência humana. Essa é a lição mais valiosa desse pequeno grande filme.

No fim das contas, somos muito mais do que aquilo que um teste CAPTCHA pode definir.

 

Mesmo com digitalização da sala de aula, a figura do professor continua imprescindível - Foto: Zinkevych (Freepik)/Creative Commons

Com a volta às aulas, IA amplia debate sobre a tecnologia na educação

By | Tecnologia | No Comments

Com a inteligência artificial avançando exponencialmente e de maneira transversal em nossas vidas, a volta às aulas, no início de fevereiro, reabriu o debate sobre a digitalização da escola. Apesar da rápida evolução dessa tecnologia, seu uso ainda é limitado nas salas de aula brasileiras, principalmente porque muitos professores não sabem como incorporá-la em seus planos de aula. Enquanto isso, os alunos a abraçam, deixando para os educadores a tarefa espinhosa de encontrar formas de avaliar os estudantes de forma justa e eficaz nessa realidade.

Mas o debate vai muito além disso. Em abril passado, o governo paulista anunciou que passaria a usar a IA na produção do conteúdo didático distribuído a professores da rede estadual de ensino. A proposta foi alvo de muitas críticas, pois a IA generativa ainda erra muito em suas produções. Professores conteudistas responsáveis por verificá-las argumentaram que é mais trabalhoso fazer isso do que produzir um conteúdo totalmente novo. Mesmo assim, o projeto foi implantado.

Resistir a essa tecnologia não faz sentido: ela efetivamente pode ajudar os professores de diferentes formas. Por outro lado, incorporá-la de maneira descuidada ou inconsequente pode trazer muitos prejuízos à educação.

A personalização do ensino pela IA permite adaptar o conteúdo às necessidades individuais dos alunos, enquanto a automação de tarefas administrativas libera tempo precioso para interações ricas e atividades criativas. Ela também pode ajudar na inclusão, oferecendo recursos adaptados para alunos com necessidades especiais.

O problema é que a formação continuada dos professores no tema é insuficiente ou nula! Isso aumenta a desconfiança de muitos deles e atrasa a adoção da tecnologia.

O diálogo aberto e a capacitação contínua são essenciais para se compreender que a IA pode ser uma poderosa aliada, mas também que a educação não se restringe a uma transmissão de conteúdos que possa ser automatizada. Ela envolve empatia, mediação de conflitos, formação do pensamento crítico e desenvolvimento social, habilidades que nenhuma IA tem para substituir a interação humana na sala de aula.


Veja esse artigo em vídeo:


Os professores precisam de apoio para se apropriar da IA. Mesmo quem já a usa, precisa aprender a incorporar esse poder em seus planos de aula. Algumas ilhas de excelência oferecem treinamentos, mas essas iniciativas são pontuais e não atingem a maioria dos professores, especialmente em regiões com menos recursos tecnológicos.

O impacto da IA na avaliação exemplifica isso. Professores que insistam em métodos tradicionais terão mesmo problemas. Agora é preciso diversificar os métodos, apostando em apresentações orais, projetos em grupo em sala e discussões nas quais o professor possa observar o raciocínio. O acompanhamento próximo durante todo o processo de aprendizagem ganha espaço. E o uso da IA pode ser incentivado como ferramenta, mas com os alunos desenvolvendo autonomia e pensamento crítico.

Assim como em qualquer setor, implantar a IA na educação requer planejamento e estrutura. Em primeiro lugar, deve-se identificar necessidades e oportunidades com que a tecnologia possa efetivamente contribuir, criando então objetivos claros em linha com a proposta pedagógica. A partir disso, deve-se descobrir quais plataformas atendem essas demandas.

Nesse contexto, entram o engajamento e a capacitação dos professores. Pela minha experiência, se eles não comprarem a ideia, compreenderem seu funcionamento e usarem no cotidiano, nenhum produto prospera na escola. Ainda assim, a introdução da tecnologia deve ser gradual, monitorando resultados e fazendo ajustes continuamente.

Tudo isso introduz uma mudança considerável no processo pedagógico. Se bem-feita, pode alterar a relação dos alunos com a tecnologia, além dos limites da escola. Por isso, a família precisa ser envolvida.

 

Jamais uma substituta

Alguns pais temem que a inteligência artificial ocupe um espaço maior que o devido na escola. Mais preocupante é que outros, que já demonstram pouco apreço pelos professores, veriam com bons olhos essa substituição.

Para os primeiros, é importante dizer que não há movimentos de substituição dos professores pela inteligência artificial. A tecnologia bem aplicada potencializa o trabalho do professor, não o elimina. Ainda assim, esses pais podem participar construtivamente do processo, aliando-se aos docentes.

Já para o segundo grupo, vale lembrar que educação transcende a mera transmissão de informações. É um processo humano que envolve empatia, valores e desenvolvimento social. A IA não compreende nuances emocionais, não motiva alunos desanimados ou se adapta instantaneamente a situações inesperadas em sala, nem orienta os alunos em sua formação como cidadãos.

Quando o ChatGPT surgiu, apareceu um medo de que a IA criaria uma multidão de desempregados, mesmo nas funções mais criativas. Mas 27 meses após seu lançamento, é um alívio observar que a melhor maneira de escapar disso é justamente usando bem nossas qualidades humanas. E os professores já fazem muito isso, com a empatia para perceber dificuldades emocionais, a criatividade para adaptar métodos de ensino, os relacionamentos interpessoais baseados em confiança, criando ambientes seguros e acolhedores, a mentoria além das questões acadêmicas e a flexibilidade para transformar desafios em oportunidades de aprendizado.

O sucesso da digitalização do ensino passa pelo equilíbrio entre inovação tecnológica e o papel insubstituível do educador. O impacto da inteligência artificial na educação só tende a crescer. Professores, famílias e governantes devem abraçar essa mudança com discernimento, garantindo que a tecnologia seja uma aliada na formação de cidadãos críticos, criativos e preparados para os desafios do futuro.

Mas não se pode esquecer da humanidade, que, combinada ao conhecimento e à paixão pelo ensino, formam a essência do trabalho docente e que nenhuma inteligência artificial, por mais refinada que seja, conseguirá jamais substituir completamente. O professor não é uma peça obsoleta nesse novo cenário, mas o protagonista de uma educação que evolui.

 

A fábula atribuída a Esopo pode ajudar em uma implantação consciente dessa tecnologia – Foto: Paulo Silvestre/Creative Commons

Não mate a galinha dos ovos de ouro do seu negócio com a IA

By | Tecnologia | No Comments

A fábula atribuída a Esopo é uma velha conhecida! Era uma vez um fazendeiro que possuía uma galinha que, todos os dias, botava um ovo de ouro. Com isso, ele ficou muito rico, mas, com o tempo, sucumbiu à ganância. E assim pensou que, se a galinha botava ovos de ouro, dentro dela deveria haver uma grande quantidade do metal. Decidiu matá-la para pegar todo o ouro de uma vez, mas descobriu, ao cortá-la, que, por dentro, era como qualquer outra galinha.

A história demonstra os perigos de se querer resultados imediatos sem pensar nas consequências. E há tempos a relaciono a usos inadequados da inteligência artificial generativa, que deslumbra muitos gestores. Eles a veem como a tecnologia dos “ovos de ouro”: inovação, produtividade e redução de custos! Mas ao usá-la sem planejamento, ética ou compreensão, esses gestores podem “matar sua galinha”.

Ao implantar a IA sem considerar os impactos sociais, regulatórios ou organizacionais, como a perda de empregos, vieses algorítmicos ou uso irresponsável de dados, eles minam a confiança dos clientes, pioram a experiência deles com a marca, prejudicam a sua reputação e até enfrentam consequências legais.

Pensei nisso na semana passada em uma conversa com Tiago Paiva, fundador e CEO da Talkdesk, quando disse que “há muitas empresas que não conseguem perceber que a experiência do cliente é das coisas mais importantes que há.” E ele fala com propriedade, pois seus produtos automatizam o atendimento a clientes com um bom uso da IA, em uma missão declarada de “livrar o mundo da experiência do cliente ruim”.

De fato, o atendimento é uma das áreas mais impactadas pela IA. Usada corretamente, essa tecnologia pode mesmo levar a experiência do cliente a um novo patamar. Porém, muitos gestores ainda “matam suas galinhas” ao usá-la irresponsavelmente para inflar resultados.


Veja esse artigo em vídeo:


É curioso que vivemos um “paradoxo da automação”. Ele indica que clientes esperam que empresas ofereçam suporte automatizado eficiente, mas as que automatizam demais seu atendimento afugentam as pessoas. O segredo é encontrar um equilíbrio, com a IA resolvendo problemas simples, ficando os casos sensíveis para os humanos.

“O problema é que, no passado, com a chegada dos bots, foi criada uma expectativa maior que a capacidade da entrega, e isso danificou a imagem dessas automações”, explicou-me Pedro Andrade, vice-presidente de IA da Talkdesk. “Agora temos que usar essa tecnologia para recuperar essa confiança”, acrescenta.

Infelizmente, muitas companhias usam a IA com automações isoladas, motivadas pelo “ovo de ouro” do corte de custos. Assim, ameaçam a experiência de seus clientes e perdem a oportunidade de transformar o atendimento em um diferencial.

Usada com consciência, a IA pode oferecer personalização refinada, eficiência operacional, proatividade e prevenção. Não se limita a reagir aos clientes, antecipando suas necessidades e otimizando processos, exatamente o que as pessoas querem.

“Não é fácil fazer isso”, avisa Andrade. “Mas para os sistemas de IA, que são capazes de carregar grande quantidade de informação e ajustar o contexto da conversa, torna-se muito mais fácil”, explicando que uma plataforma bem desenvolvida atende a outras demandas dos clientes atuais, como imediatismo, hiperpersonalização e autonomia.

 

“Bazuca para matar uma mosca”

Pouco adianta usar um sistema gigantesco, porém pouco ou nada ajustado à realidade da empresa, como o ChatGPT. Suas respostas acabam sendo imprecisas e genéricas, sem falar que podem custar desnecessariamente caro. Em vez disso, a adoção de modelos menores, mais econômicos, com exigências mais simples de recursos, pode melhorar muito a experiência do cliente.

Os aspectos de segurança, de legislação e de ética também foram amplamente debatidos nessa visita à sede da Talkdesk em Palo Alto (EUA). Os benefícios da implantação da IA nos negócios são mais visíveis, como as já mencionadas eficiência, hiperpersonalização e redução de custos. Mas até que ponto isso é seguro e ético?

Os potenciais riscos dessa adoção recaem no surgimento de vieses algorítmicos, em ameaças à privacidade e ao uso de dados sensíveis, na falta de transparência e de explicabilidade das decisões dos sistemas. Em situações mais extremas, ela pode gerar dependência excessiva da automação e manipulação de clientes e funcionários.

“Muitos clientes erram ao pôr uma plataforma e tentar fazer tudo com ela, pois a inteligência artificial é mais complicada que isso”, alerta Paiva. “Não dá para usar um sistema de LLMs (como o ChatGPT) e achar que tudo funcionará”, conclui.

Para ajudar na criação de um mercado mais maduro, Andrade defende a regulamentação da IA. “Tem que existir regulação, responsabilidades, regras de transparência”, completando que isso não ameaça a inovação e que as empresas que abraçarem isso construirão um diferencial junto a seus clientes. “Essa regulação vai separar as empresas que estão no mercado sério e corporativo de IA, dos players de nicho e dos que estão ainda tentando encontrar o seu lugar.”

Esse é um dos debates mais quentes em torno dessa tecnologia. Para muitos, é bem sedutor tirar qualquer restrição a ela e maximizar os ganhos, sem se preocupar com as consequências. Mas uma IA descolada da ética e da segurança pode ser um dos maiores erros que uma empresa pode cometer, ainda que, em um primeiro momento, colha benefícios aparentes dessa “liberdade”.

O sucesso a longo prazo depende da capacidade de construir um relacionamento sustentável com a IA, cultivando seus benefícios e mitigando seus riscos. O ser humano deve sempre ter a última palavra nas decisões apoiadas por essas plataformas. E os interesses da sociedade devem estar sempre no centro de qualquer ação ligada a essa tecnologia, superando a ganância de empresas e de governos.

Assim como na fábula, a lição é que a implementação de IA requer paciência, planejamento e uma abordagem gradual e responsável. Os “ovos de ouro” virão naturalmente quando a tecnologia for implementada com sabedoria e responsabilidade.


 

Tarefas que exigem criatividade, empatia, crítica e julgamento moral são difíceis de automatizar - Foto: Freepik/Creative Commons

IA avança sobre empregos, mas não quer dizer que você perderá o seu

By | Tecnologia | No Comments

Entre as ações bombásticas de Donald Trump em seu primeiro mês como presidente dos EUA, uma das mais emblemáticas visa demitir 2 milhões de servidores federais. Parte dessas vagas será reposta com pessoas mais alinhadas a suas ideias, mas muitas funções passarão a ser desempenhadas por sistemas de inteligência artificial.

Esse movimento vem se acelerando também na iniciativa privada, mas a magnitude sem precedentes daquela iniciativa reacende o debate global sobre o impacto da IA no mercado de trabalho. A substituição de profissionais por máquinas afeta de funções básicas a cargos de alta qualificação, o que é inédito. E isso gera questionamentos sobre o futuro, incluindo o que acontecerá com uma crescente massa de desempregados que não conseguirá se recolocar.

Para muita gente, o que importa é como “não entrar para a estatística das vítimas da automação”. Tarefas que exigem, por exemplo, criatividade, empatia, pensamento crítico e julgamento moral são difíceis de automatizar. Migrar o trabalho para atividades que exijam essas habilidades pode garantir o salário.

Mas, em qualquer caso, a IA já está transformando as mais diversas funções. Sendo assim, a sociedade deve não apenas preservar empregos, como também garantir que os benefícios da automação sejam distribuídos de forma mais equitativa, para que as pessoas desempenhem suas tarefas com IA, para não serem substituídas por ela.

Resistir a essa tecnologia já não faz sentido. O desafio de todos é se apropriar de seu poder com inteligência, criatividade, ética e segurança.


Veja esse artigo em vídeo:


Recentemente, Jensen Huang, CEO da Nvidia, a fabricante de chips cujo valor de mercado hoje é de US$ 3,3 trilhões graças à IA, disse que essa tecnologia não é uma assassina de empregos. Para ele, todos deveriam usá-la como um tutor pessoal, que lhes ajudaria a coletar qualquer tipo de informação rapidamente, a escrever e até a pensar melhor. Huang ecoa a visão de muitos líderes do setor, que enxergam o futuro do trabalho com as pessoas capacitadas pela IA, e não substituídas por ela.

Claro que ele está “vendendo seu peixe”, por isso sua afirmação deve ser analisada com cautela. É fato que a IA pode ajudar qualquer um em suas tarefas, mas não é verdade que todo mundo sabe como fazer isso! Não é realista esperar que alguém que passou décadas em uma função se torne um “engenheiro de prompt” da noite para o dia.

A verdade nua e crua é que a maioria das pessoas simplesmente não tem habilidades básicas para fazer isso, e não consegue “tirar o atraso”. O problema não é apenas a substituição em si, mas a velocidade com que isso está acontecendo. É a revolução tecnológica mais rápida e abrangente já vista, atropelando muita gente no caminho.

O desafio aumenta com uma requalificação que não acompanha a automação, novas vagas que não repõem as eliminadas, e o consequente aumento da concorrência por trabalho. Isso se agrava pela desigualdade no acesso à educação e à tecnologia e à concentração do mercado em menos setores.

Isso pode levar a um aumento da pobreza e desigualdade social, com crises econômicas causadas por um forte desemprego. Se a IA passar a ser vista como uma vilã pelas massas, isso pode levar a uma resistência à automação maior que a devida.

E isso também esquenta outro debate: o de uma renda básica universal.

 

Garantia de sobrevivência

Ela não surgiu com a inteligência artificial, mas vem sendo apresentada como uma solução caso o desemprego graças às máquinas saia do controle.

Entre os argumentos favoráveis à renda básica universal estão a mitigação dos efeitos de um desemprego em massa, um estímulo ao empreendedorismo e a redução da desigualdade social. Já seus críticos afirmam que não há dinheiro para isso, que ela pode gerar inflação e até desestimular o desejo de trabalhar. Por isso, alguns especialistas sugerem que ela seja apenas parte da solução, garantindo a sobrevivência do indivíduo, mas sem eliminar a necessidade de se trabalhar.

Com ou sem ela, é preciso criar políticas para requalificação de trabalhadores em novas áreas, além da criação de empregos “híbridos” que combinem os benefícios da IA com funções humanas, para evitar a eliminação completa de postos de trabalho. Mas não se pode deixar tudo a cargo do governo: essa responsabilidade deve ser dividida com empresas, instituições educacionais e os próprios trabalhadores.

O que já se observa é que, enquanto profissões inteiras estão sendo eliminadas, as demais não desaparecerão, mas serão transformadas. Quem desenvolver habilidades complementares para usar a IA terá mais oportunidades.

A automação do trabalho é inevitável, mas seu impacto social não precisa ser devastador. Com planejamento adequado, investimento em educação e políticas de proteção social, é possível construir um futuro em que humanos e máquinas não apenas coexistam, mas colaborem para criar uma sociedade mais próspera e equitativa.

Por outro lado, se a implementação for feita sem um planejamento detalhado e sem considerar os impactos sociais, como aparentemente está sendo feito nos EUA, há um grande risco de que os serviços prestados à população percam qualidade, se tornem mais burocráticos e menos acessíveis.

É fundamental considerar as implicações éticas e sociais dessas medidas, garantindo que a implementação da inteligência artificial, seja no setor público ou no privado, aconteça de maneira responsável e equilibrada, aproveitando todos os benefícios que ela traz, mas preservando os direitos dos trabalhadores e a qualidade dos serviços prestados à população.

Precisamos de estratégias que coloquem o ser humano no centro da revolução digital. As lideranças políticas e empresariais devem sair de suas torres de marfim, de onde acham que as oportunidades são as mesmas para todos. Sem isso, corremos o risco de criar uma sociedade ainda mais desigual, onde a tecnologia, em vez de libertar, aprofunda as divisões sociais. E não é para isso que ela está sendo desenvolvida.

 

Sundar Pichai, CEO do Google, fala durante a conferência Google I/O 2024, realizada em 14 de maio do ano passado - Foto: reprodução

Google dá sua bênção para que a IA seja usada em armas e vigilância

By | Tecnologia | No Comments

Em mais um caso de big tech que trai seus princípios, na terça passada (4), o Google alterou suas regras éticas para que a inteligência artificial da empresa possa ser usada no desenvolvimento de armas, na vigilância de pessoas, em produtos que possam causar danos severos à sociedade ou que violem direitos humanos.

Não quer dizer que a companhia entrou no negócio de armas de destruição em massa. Sua posição agora é de “mitigar resultados não intencionais ou prejudiciais” e buscar “princípios amplamente aceitos do direito internacional e dos direitos humanos”. Mas na prática, isso significa pouco ou nada.

É uma mudança profunda, que pode ter impacto global no uso da IA. Pela posição de enorme destaque do Google, ela pode inspirar empresas do mundo todo a fazer o mesmo, provavelmente com ainda menos cuidado.

É inevitável perguntar por que decidiram fazer isso agora, e por que se recusavam até então. Além disso, se a IA poderá ser usada largamente em produtos criados com o objetivo de matar pessoas, qual garantia existe de que essa tecnologia não sairá do controle, com consequências devastadoras?

Vale lembrar o antigo lema do Google: “don’t be evil” (“não seja mau”), um pacto com práticas empresariais éticas e responsáveis. Mas em 2015, a Alphabet, conglomerado que incorporou o Google, trocou o mote por “faça a coisa certa”, bem mais genérico.

E cá estamos discutindo como a recente decisão pode ser tão má!


Veja esse artigo em vídeo:


O Google alega que a decisão reflete a necessidade de empresas de “países democráticos” defenderem seus valores em um cenário geopolítico complexo. Mas especialistas sugerem que a pressão do mercado de IA e a busca por lucrativos contratos militares de um governo nacionalista podem ter influenciado seus gestores.

Qualquer que seja o motivo, a empresa mina a confiança do público e sinaliza que a ética é negociável. Isso estabelece um novo padrão para toda a indústria, em uma competição global impiedosa e menos preocupada com direitos humanos.

Ironicamente, no início do mês, passaram a valer partes da Lei da Inteligência Artificial da União Europeia que proíbem o uso de sistemas de reconhecimento facial em espaços públicos e restringem aplicações consideradas de alto risco, como a manipulação comportamental e a vigilância em massa.

A nova posição do Google se choca com a anterior, que listava as “aplicações que não buscaremos”: armas, vigilância, tecnologias que “causam ou podem causar danos gerais” ou que violam os princípios do direito internacional e dos direitos humanos.

Essas regras que agora foram enterradas surgiram após protestos de funcionários em 2018 contra o projeto Maven, um contrato militar que usava seus algoritmos de visão computacional para analisar imagens de drones. Milhares assinaram uma carta aberta que dizia: “acreditamos que o Google não deveria estar no negócio da guerra”. Por isso, além daquelas regras, o contrato com o Pentágono não foi firmado na época.

O Google não está sozinho nesse novo posicionamento. Concorrentes como Microsoft, Amazon, OpenAI e Anthropic já oferecem suas IAs para aplicações militares. Mas o gigante de busca sempre serviu de inspiração para aqueles que procuram um uso ético da tecnologia. Agora isso acabou!

 

“Skynet feelings”

Algumas das maiores autoridades em IA do mundo, como o canadense Yoshua Bengio, vencedor em 2018 do prêmio Turing (o “Nobel da computação”), afirmam que a busca pela inteligência artificial geral (AGI), que terá autonomia e flexibilidade semelhante ao cérebro humano, pode levar a comportamentos inesperados ou indesejados, até mesmo contrários aos interesses humanos.

Sistemas com aprendizado autônomo podem criar estratégias para autopreservação ou poder, o que poderia torná-los difíceis de controlar. A falta de transparência aumenta o risco de decisões incompreensíveis e não-rastreáveis, dificultando a intervenção humana em casos críticos. Mesmo um botão físico para desligar um servidor (um “kill switch”) poderia ser contornado com a IA se replicando em incontáveis outros servidores antes que fosse possível interromper seu funcionamento.

Adicione a esse caldo a IA sendo usada para o desenvolvimento e operação de armas autônomas. Não entrarei em cenários da ficção em que máquinas decidem exterminar a humanidade, mas isso pode, sem dificuldade, levar a violações de direitos humanos e a escaladas militares perigosas. Pode ainda incentivar o uso de IA para vigilância em massa, especialmente por regimes autoritários, comprometendo as liberdades civis.

Para evitar isso, as big techs deveriam agir de forma oposta ao que estão fazendo. Devem existir regras internas e leis que impeçam o uso da IA em atividades potencialmente perigosas ou que violem direitos individuais. Além disso, os sistemas precisam ser transparentes para auditorias independentes. E isso deve acontecer em todos os países do mundo: talvez o mais difícil de tudo isso, e o que põe tudo a perder.

A decisão do Google de flexibilizar seus princípios éticos não pode ser vista como uma mera decisão empresarial. Como uma das empresas mais valiosas do mundo, cujos produtos são usados diariamente pela maior parte da população global, deveria ser um farol mostrando que responsabilidade e inovação podem coexistir. Mas a gigante decidiu priorizar os lucros em detrimento da segurança e dos direitos humanos.

Essa é uma lógica do capitalismo: companhias não fazem nada que comprometa seus lucros. Assim, é uma ilusão esperar que elas se autorregulem efetivamente por pressões competitivas e financeiras. Diante disso, regulamentações governamentais tornam-se essenciais para estabelecer limites claros e garantir que o desenvolvimento tecnológico continue existindo, mas sem comprometer valores humanos fundamentais.

Nada disso é ficção: vivemos uma realidade que nos brinda com avanços fabulosos, mas que oferece um mundo perigosamente instável por conflitos militares, Estados autoritários que atropelam a civilidade pelos interesses de seus governantes, e uma sociedade cada vez mais fragilizada, em que o cidadão, de tão manipulado pelo meio digital, defende ferozmente seus próprios algozes.

Com tudo isso, quem precisa de robôs assassinos?

 

Liang Wenfeng, CEO da DeepSeek, cujo modelo de IA desafia a liderança americana no setor - Foto: reprodução

Dinheiro, espionagem, boicotes: como a IA dominou o tabuleiro geopolítico

By | Tecnologia | No Comments

O domínio tecnológico sempre garantiu destaque na geopolítica, desde as Grandes Navegações. Países com essa liderança estendem seu poder econômico, político e cultural por grande parte do planeta. A bola da vez é a inteligência artificial, e os EUA estão fazendo de tudo para manter essa liderança. Não é para menos: a IA tem um poder sem precedentes de moldar o mundo seguindo os interesses de seus criadores.

Os EUA pareciam tranquilos nisso, mas, na semana passada, a chinesa DeepSeek surpreendeu o mercado, políticos e pesquisadores, com seu próprio LLM (modelo de linguagem de grande porte) para concorrer com os líderes americanos. Apesar de seus resultados se equipararem aos das plataformas ocidentais, o mais surpreendente dos chineses é o seu custo: enquanto elas já consumiram bilhões de dólares e querem ainda mais, a DeepSeek precisou de “apenas” US$ 5,6 milhões para seu produto!

Foi um “escândalo” os chineses conseguirem esse feito notável, ainda mais depois de os EUA imporem restrições à exportação de tecnologia (especialmente processadores poderosos) para segurar a China “na marra”. Isso deu uma surra no valor de mercado das big techs americanas. A NVIDIA perdeu US$ 589 bilhões em 27 de janeiro, a maior queda já registrada. Com as outras big techs, o saldo negativo foi de US$ 643 bilhões! É o mercado questionando os altos investimentos ocidentais em IA, depois de acreditar que ela só seria possível com uma enxurrada de dinheiro.

Tudo isso aconteceu apenas uma semana depois de o governo americano anunciar um megainvestimento de US$ 500 bilhões para construir datacenters para impulsionar sua IA contra os chineses. Isso certamente chama a atenção, mas os fatos estão demonstrando que inteligência e resiliência podem valer mais que dinheiro e boicotes.


Veja esse artigo em vídeo:


A tentativa de impor travas à IA da China começou ainda na administração Joe Biden. Mas a presença dos CEOs da big techs na primeira fila da posse de Donald Trump, à frente até de seus ministros, escancarou que a tecnologia e a política nunca estiveram tão juntas. Tanto que Elon Musk, dono do X, teve um papel enorme na vitória de Trump, que retribui dando a ele um cargo de grande poder em seu novo governo.

Inaugurou-se assim o período de dominação tecnossocial: o poder se constrói e se mantém com a tecnologia, não apenas pelos seus benefícios inerentes, mas também por oferecer um recurso inigualável de convencimento e de distorção da realidade.

Desde o início do ano passado, eu discuto nesse espaço como a explosão da inteligência artificial generativa pode reescrever a história, impor valores, alterar a cultura e até como as pessoas falam! Ao serem treinadas majoritariamente com conteúdos americanos e europeus, essas plataformas disseminam, de maneira subliminar, como os países dominantes pensam sobre tudo isso, podendo, em longo prazo, influenciar decisivamente pessoas do mundo todo.

A DeepSeek acrescenta um novo ingrediente nesse caldo: a submissão ao governo. Ao questionar a plataforma sobre temas sensíveis para a administração chinesa, como a independência de Taiwan, os protestos contra a política de “Zero Covid” na China, o massacre da praça da Paz Celestial em 1989 e até quem é o presidente chinês Xi Jinping, ela iniciou a exibição de boas respostas, mas subitamente elas foram apagadas e substituídas pela frase em inglês “Desculpe, isso está além do meu escopo atual. Vamos falar de outra coisa.” Em outras perguntas, como sobre a posição do governo chinês sobre a Guerra na Ucrânia, reproduziu o discurso governamental.

É amplamente sabido que o governo chinês obriga empresas locais a “colaborarem” com suas determinações, inclusive censura. Em contrapartida, nos EUA, as big techs já desafiaram a exigências do governo local no passado.

Mas o escandaloso alinhamento delas ao extremismo do recém-empossado Trump cria enorme desconfiança se não veremos nas empresas americanas o mesmo que se vê nas chinesas. Afinal, nesses poucos dias, elas já enterraram medidas que as diferenciavam, como mecanismos de checagem de fatos, restrição a discursos de ódio e intolerância, e incentivo à diversidade e inclusão em seus quadros. Trump, por sua vez, não esconde que exige delas fidelidade canina e total submissão.

A manipulação nos resultados chineses tem a sutileza de um rinoceronte correndo em uma loja de cristais. Por isso, o governo de Taiwan proibiu o uso de produtos da DeepSeek em seu país, para evitar a desinformação. Mas as mudanças adotadas pelas big techs americanas disseminarão amplamente, porém de maneira um pouco mais disfarçada, valores reprováveis até nos EUA. Se o mundo seguir o raciocínio de Taiwan, todos devem bloquear esses produtos americanos então?

 

Reação às restrições

Suprema ironia, as empresas americanas podem estar colhendo frutos amargos plantados pelo seu governo. A tentativa de impedir o avanço chinês na IA ignorou a capacidade de Pequim de incentivar empresas locais dispostas a assumir lideranças tecnológicas. As restrições dos EUA fizeram com que os chineses trocassem os produtos americanos por equivalentes locais ou de outros países, mas principalmente investissem em pesquisa, criatividade e colaboração.

Isso não vem de hoje. Levantamento do Instituto Australiano de Política Estratégica indicou que, até 2007, a China liderava só 3 de 64 tecnologias consideradas críticas. Entre 2019 e 2023, o país tornou-se líder em 57 delas, graças a investimentos de longo prazo em pesquisa e desenvolvimento. No mesmo período, os EUA passaram de líderes em 60 delas para apenas 7.

A DeepSeek mostrou ao mundo que é possível entrar para valer na briga da IA com investimentos modestos. A ministra da Ciência, Tecnologia e Inovação, Luciana Santos, afirmou que o Brasil está nessa corrida. No ano passado, seu ministério anunciou investimentos de R$ 23 bilhões em IA até 2028. Ela lembrou também que o país tem grande oferta de energia limpa e água, outra grande exigência da IA.

As ideias e ações de Trump podem levar a um caos na economia global, por uma crise de confiança generalizada. É difícil saber como isso impactará a China e os próprios EUA. Mas parecem ser inócuas para conter o avanço tecnológico chinês.

Apesar de ter sido péssima para as big techs, a chegada da DeepSeek é ótima para o desenvolvimento dessa tecnologia, pois mostra que ela pode ser criada com muito menos dinheiro, não precisando ficar restrita a empresas multibilionárias.

Resta a questão da dominação cultural e de uma patológica distorção da realidade, que pode vir da China, dos EUA e até do Brasil, caso desenvolvamos um LLM que também seja enviesado por interesses políticos.

Mais do que nunca, a população precisa de senso crítico, educação diversificada e de qualidade para todos, além de amplos programas de educação digital e midiática. Essa tríade fica cada vez mais essencial no mundo em que IA permeia tudo, para que façamos um uso positivo e seguro de todo seu poder.

 

Para Gilson Magalhães, diretor-geral da Red Hat Latin America, IA trará resultados em 2025 com agentes - Foto: Paulo Silvestre

Esse será o ano em que a IA começará a trazer resultados

By | Tecnologia | No Comments

Como não poderia ser diferente, 2025 começa acelerado pela inteligência artificial. Mas esse ano deve trazer algo que empresários desejam desde que começaram a investir pesadamente nessa tecnologia, com o lançamento do ChatGPT: resultados!

Se 2023 foi o ano da curiosidade e 2024 representou a democratização dessa tecnologia, 2025 deve ser aquele em que aplicações realmente transformadoras devem chegar ao mercado. E engana-se quem acredita que isso se dará por uma IA poderosíssima, capaz de resolver qualquer coisa.

Segundo um ditado popular, “os melhores perfumes estão nos pequenos frascos”. Talvez isso também seja verdade na inteligência artificial. E, nesse caso, respondem pelo nome de “agentes”. Eles são sistemas que usam a IA para realizar tarefas específicas de maneira autônoma, com pouca ou nenhuma dependência de um ser humano. Agem de maneira contínua, monitorando o ambiente e analisando dados para tomar decisões seguindo o que lhes foi pedido.

Especializados em uma tarefa e alimentados por dados controlados, os agentes tendem a ser mais baratos e mais confiáveis que um grande LLM, como o ChatGPT, ainda sujeito a suas “alucinações”, quando responde bobagens quando não sabe o que dizer. O desafio agora é tornar a criação desses agentes um processo mais simples.

Claro que continuaremos nos maravilhando com novas aplicações da IA generativa, mas será uma grande notícia vê-la finalmente transformando os negócios.


Veja esse artigo em vídeo:


Para Adriana Aroulho, presidente da SAP Brasil, “2025 será um ano em que o foco permanecerá na Inteligência Artificial Generativa, mas com o diferencial de transformar expectativas em resultados práticos.” Essa percepção é compartilhada por Marco Stefanini, fundador e CEO Global do Grupo Stefanini. Segundo ele, “uma coisa é você implementar IA, outra é você realmente utilizar IA no dia a dia, adotar a solução que realmente fará diferença no seu negócio.”

Esse deve ser também o ano em que o hype, a excitação em torno dessa tecnologia dará espaço a aplicações estruturadas, com resultados mais bem planejados. O tempo de usar grandes IAs “genéricas”, como o ChatGPT, para se resolver soluções empresariais vai ficando para trás.

“As empresas vão dizer: ‘inteligência artificial é legal, mas eu vou aplicá-la criando agentes muito específicos”, afirma Gilson Magalhães, diretor-geral da Red Hat Latin America. Ele explica que esses sistemas, apesar de limitados a uma tarefa, trazem grande ganhos ao negócio. “Ao usar uma quantidade de dados controlada, num ambiente controlado, ele assumirá uma função que era manual e foi automatizada.”

É preciso que fique claro que não se trata de mera automação, existente há décadas. De fato, uma das diferenças da inteligência artificial para um programa convencional de computador é tomar decisões como um ser humano, especialmente diante de imprevistos, a partir do que sabe e do que se espera dela. Um software convencional não consegue fazer isso.

Marcelo Flores, gerente-geral da consultoria da IBM Brasil, inventou o verbo “cognitivar” para diferenciar uma coisa da outra. “Os agentes usam uma tecnologia supernova para fazer aquilo que não é só automação ou só repetição”, explica. “Isso é algo mais sofisticado, que exige cognição, por isso conseguem essa autonomia.”

Tudo isso parece incrível, mas antes de finalmente colher esses resultados, as empresas precisam cuidar de algo que também deve ganhar mais destaque em 2025: “limpar” os seus dados.

 

“Poluição digital”

Dados de baixa qualidade são um problema histórico nas empresas. Elas guardam em seus arquivos informações erradas, desatualizadas e até conflitantes. Isso pode derivar de migrações descuidadas de sistemas, coletas de informações redundantes por critérios diferentes a cada momento, departamentos que não compartilham suas informações e outros pesadelos de TI.

O problema é que nem a melhor inteligência artificial dá bons resultados se for alimentada com dados ruins. “Se a gente não corrigir os dados que estão ‘sujos’, desorganizados, perdidos, a gente não vai a lugar nenhum”, diz categoricamente Magalhães. “E essa é uma tarefa cara, difícil e demorada”, adverte.

Essa não é a única “poluição” ligada à IA. Em 2024, as empresas se deram conta das enormes demandas de recursos dessa tecnologia. Estudo divulgado em novembro pela consultoria Gartner indicou que, nos próximos dois anos, o consumo dos data centers de IA deve crescer até 160%, atingindo 500 terawatts-hora (TWh) por ano. Como comparação, em 2022, a cidade de São Paulo consumiu “apenas” 21,18 TWh.

“Estamos vivendo tempos desafiadores, especialmente com a crise climática nos pressionando a agir”, alerta Aroulho. Por isso, ela afirma que a SAP “renovará o compromisso com a inovação aberta e a sustentabilidade.”

Dados “sujos” e impactos ambientais demonstram como uma tecnologia tão poderosa como a inteligência artificial custa muito caro. Ninguém quer se preocupar com os gastos de conversar com o ChatGPT, mas eles existem e são altos.

“A tecnologia força as pessoas a se reinventarem”, afirma Flores. Para ele, “as empresas têm acesso a tecnologias mais disruptivas, que respondem muitas perguntas, mas, no final, a transformação vem das pessoas”.

Stefanini adverte que “2025 e 2026 serão anos de adoção mais massiva da IA nas empresas”, que permitirá, como já explicado, que comecem finalmente a colher grandes benefícios dessa tecnologia. E isso é muito bom!

Mas temos que cuidar também das discussões associadas a todos esses benefícios. Os próximos 12 meses abrirão espaço para isso. Resta saber quem aparecerá para conversar sobre uma IA mais sustentável. Mas uma coisa é certa: “não existe almoço grátis”.

 

Anúncios dos vencedores do Prêmio Nobel de Física de 2024, pelo seu trabalho nos fundamentos do machine learning - Foto: reprodução

Este ano foi um ano de democratização da inteligência artificial

By | Tecnologia | No Comments

Estamos nos últimos momentos de 2024, um ano de novidades profundas em tecnologias e seus impactos nas empresas e nas vidas das pessoas. Por exemplo, o 5G se difundiu ainda mais, e grandes avanços aconteceram em veículos autônomos, tecnologias sustentáveis, biotecnologia e robótica. Mas no ano em que os prêmios Nobel tanto de Física quanto de Química foram entregues a cientistas com pesquisas ligadas à inteligência artificial, foi ela que deixou indiscutivelmente sua marca.

Vale dizer que a IA já fazia parte da nossa vida há muitos anos, potencializando aplicações e equipamentos, porém de maneira invisível. Tudo mudou em novembro de 2022, quando o ChatGPT ganhou as ruas, dando ao cidadão comum o gostinho de fazer facilmente criações com a inteligência artificial generativa. E isso deflagrou uma corrida para que se buscasse aplicar a IA em tudo.

Obviamente os primeiros resultados disso pareciam protótipos mal-acabados e muitos tinham aplicações questionáveis. O ano de 2023 viu a desconfiança de profissionais, que mesclavam deslumbramento diante das possibilidades da IA e medo de que ela roubasse seus empregos.

Agora, ao fim de 2024, pode-se dizer que ela deixou o terreno da curiosidade: esse foi o ano em que seu uso foi disseminado, com pessoas e principalmente empresas abandonando a especulação e incorporando a IA em seu cotidiano. Mas ainda há muito a se aprender sobre como aproveitá-la de maneira ética, produtiva e segura.


Veja esse artigo em vídeo:


“Estamos em uma fase muito importante, de democratização da IA generativa e também de uma compreensão maior dessa tecnologia”, afirma Adriana Aroulho, presidente da SAP Brasil, subsidiária brasileira da gigante alemã de software que vem incorporando a tecnologia em seus produtos.

Essa percepção é compartilhada por Gilson Magalhães, diretor-geral da Red Hat Latin America. “Não é só aquela questão de você ter perguntas respondidas por uma máquina de forma brilhante, mas como aquilo poderá ser inserido nas empresas”, explica. Segundo ele, depois da fase inicial de experimentação, nesse ano as companhias começaram a colher benefícios na produtividade de suas equipes, com método. “A gente viu algumas empresas já criando processos internos para permitir que a inteligência artificial fosse incorporada, considerando aspectos de segurança, de compliance, de copyright, de soberania de dados”, acrescenta.

É importante notar que, apesar dos impressionantes avanços exponenciais (e para alguns, quase sobrenaturais) dos grandes modelos de linguagem, quando se olha para os ganhos para os negócios pela IA, isso se deve também a um amadurecimento de suas equipes.

“É muito mais do lado das empresas, de os gestores começarem a ter uma visão mais concreta, mas tangível do que pode e do que não pode ser feito, o que é exagerado ou não”, explica Marco Stefanini, fundador e CEO Global do Grupo Stefanini. Isso é muito importante, pois muitos gestores acreditam que a tecnologia sozinha fará “mágicas” em seu negócio, e esse é um caminho fácil para a frustração. Para o executivo, “vem muito mais de maturidade das empresas que da própria tecnologia.”

Esse também foi um ano em que a IA passou a ser usada para melhorar planos de negócios, ajudar a vencer a burocracia, diminuir custos e concretizar ideias. “As pessoas já vinham abrindo negócios nas redes sociais sem apoio da inteligência artificial, mas agora, com ela, ganham muito poder”, sugere Marcelo Flores, gerente-geral da consultoria da IBM Brasil. E vai além nos benefícios da IA nisso: “as pessoas estão tendo mais poder de escolha das suas carreiras.”

Não é exagero, portanto, dizer que a IA é uma das tecnologias mais transformadoras que existiram, ao lado da marcos como a imprensa, o domínio da eletricidade e a Internet. Mas tudo traz consequências e, com a velocidade típica da IA, nem sempre temos tempo de pensar sobre isso.

 

Ética e segurança

Se em 2023, vimos diversos exemplos de sérios problemas decorrentes de usos descuidados da IA, 2024 trouxe alguma conscientização sobre um uso mais responsável dela. “Em um momento de intenso hype em torno da inteligência artificial, reforçamos a importância de uma abordagem equilibrada e construtiva, focada em resultados tangíveis e no impacto a longo prazo nos negócios”, explica Aroulho.

“Houve uma discussão muito grande neste ano para não se entrar de forma inconsequente no uso de uma tecnologia que pode ter desdobramentos em todas as direções, inclusive para divulgação de dados que não deveriam sair de dentro da empresa”, acrescenta Magalhães. “Isso passou a ser uma preocupação, que, de certa forma, trava um avanço mais rápido.”

Essa também foi uma das marcas de 2024: quais os limites éticos do uso da IA? Se ela deve ser regulamentada para proteger o cidadão, como fazer isso sem impedir o seu desenvolvimento?

A Europa puxou a fila das regulamentações dessa tecnologia: o Parlamento Europeu aprovou a sua Lei da Inteligência Artificial em março, criando vários níveis de risco de seus usos, atribuindo a cada um diferentes níveis de responsabilidade de empresas e governos. Ela não trata da tecnologia em si, para evitar empecilhos ao seu desenvolvimento. No Brasil, o projeto de lei 2338/2023, que visa regulamentar a IA e que apresenta forte inspiração na lei europeia, foi aprovado pelo Senado Federal em 10 de dezembro, e começará 2025 em análise na Câmara dos Deputados.

“Não sou contra regulamentação de maneira alguma –é necessária–, mas não pode ser exagerada”, explica Stefanini, dando voz a um debate que movimenta intensamente o setor. “A gente está perdendo essa janela, olhando para um viés muito político, carregado de controle, nocivo para o desenvolvimento da IA no país”, afirma.

A falta de consenso em torno disso foi outra marca de 2024. O lobby das big techs, que preferem pouca ou nenhuma regulamentação para acelerarem o máximo que puderem no desenvolvimento da IA, é intenso! Mas alguns dos maiores especialistas do setor afirmam que isso é um grande risco, pois a IA vem se comportando de maneiras que surpreendem seus próprios desenvolvedores.

O ano termina então com um grande desafio de encontrarmos maneiras de ampliarmos o desenvolvimento e os usos da IA para todos, porém de maneira responsável e segura. Como afirma Flores, “temos que democratizar a tecnologia, porque ela tem que ser benéfica para todos no seu dia a dia.”

Pelo que vimos nesse ano, esse debate se desdobrará de maneiras muito interessantes em 2025.

 

Para Kant (esquerda), não se pode ser imoral, mesmo para um bom fim; já Maquiavel defendia que o fim justifica os meios - Foto: reproduções

Como equilibrar a ética, a competitividade tecnológica e a liberdade de expressão

By | Tecnologia | No Comments

Estamos chegando ao final de um ano em que o debate sobre o equilíbrio entre a ética, a competitividade tecnológica e a liberdade de expressão ganhou novos contornos com o avanço da inteligência artificial, de práticas questionáveis das big techs e com as discussões em torno do Marco Civil da Internet. Enfrentamos uma grande dificuldade para encontrar um caminho razoável para, ao mesmo tempo, proteger as pessoas da voracidade irresponsável das plataformas digitais, evitar a censura, fazer um uso seguro da tecnologia e garantir a competitividade pessoal, nos negócios e até de nações, em uma geopolítica cada vez mais determinada pela tecnologia.

Esse é um dos grandes desafios dessa geração, pois a sociedade não está conseguindo processar as mudanças na velocidade em que estão sendo impostas. Insistimos em medir essa transformação com réguas que foram criadas para um mundo que já não existe. Esse é um processo fadado ao fracasso!

O exemplo mais claro é o impacto social das casas de aposta online, as infames “bets”. Elas crescem exponencialmente no mundo todo, mas no Brasil se tornaram um problema de saúde pública, com pessoas perdendo economias de uma vida e indivíduos das camadas mais pobres gastando o dinheiro da comida na jogatina.

Alguns podem dizer que “aposta quem quiser”. Só que atribuir toda a culpa ao livre arbítrio é um reducionismo de tudo que se discute aqui. A facilidade de se apostar pelo smartphone fica irresistível com a influência dos algoritmos dessas plataformas, com a promessa mentirosa de ganhos fáceis (ampliada por influenciadores pagos), com a interface gamificada e até com um senso de pertencimento no grupo de amigos apostadores.

Em outras palavras, nosso livre arbítrio é manipulado pelas mais diversas plataformas digitais, e engana-se quem acredita ser totalmente imune a isso. A sedução digital insidiosa vence mesmo mentes afiadas, em algum momento. É disso que temos que tratar, sem perder os inegáveis benefícios da tecnologia ou ferir direitos fundamentais.


Veja esse artigo em vídeo:


Agora o Supremo Tribunal Federal (STF) debate a inconstitucionalidade do artigo 19 do Marco Civil da Internet. “Inconstitucionalidade” é uma palavra forte, mas não me parece ser o caso do referido artigo. Ainda assim, os votos já dados por ministros do STF indicam que ele acabará sendo classificado dessa forma.

Historicamente, defendo o artigo 19. Ele determina que cada um seja responsável pelo que publica nas plataformas digitais, que elas não sejam corresponsáveis por isso, e que elas devem retirar do ar apenas conteúdos que a Justiça tenha julgado ofensivos. Já o artigo 21 abre uma exceção para conteúdo com nudez ou sexo não autorizados, quando basta uma notificação extrajudicial para que as redes sejam obrigadas a remover a publicação. Essa combinação de artigos valoriza a liberdade de expressão.

Não há dúvida sobre qualquer um ser responsável, para o bem e para o mal, pelo que publica na Internet. Mas há uma simplificação muito grande sobre o papel das empresas. Elas já retiram sumariamente o que consideram inadequado seguindo seus critérios, muitas vezes questionáveis. O processo ocorre majoritariamente de forma automática, e seus algoritmos erram muito na sua decisão, tanto ao retirar conteúdos legítimos, quanto ao preservar outros, que ferem leis e seus próprios termos de uso.

As plataformas oferecem sistemas de denúncia contra conteúdos inadequados, mas eles são muito falhos. Eu mesmo já fui vítima de diversos delitos digitais, como discurso de ódio e roubo de conteúdo. Sempre utilizo essas ferramentas de denúncia, mas é muito raro que isso produza qualquer resultado.

Pela redação do artigo 19, eu e pessoas vítimas de afrontas online muito mais graves precisamos entrar na Justiça para nos defender, um processo complexo, caro e muito longo. Enquanto isso, o problema continuará no ar, infligindo severos danos. Como as plataformas ficarão isentas, não farão nada, apesar de viabilizarem o crime.

Em sua defesa, elas argumentam que, se tomarem para si a decisão de o que pode ser publicado, correm o risco de promover censura. O argumento é verdadeiro, mas é cínico, pois as mesmas plataformas promovem ostensivamente conteúdos claramente nocivos, pois são os que lhes rendem maiores ganhos. E nada lhes acontece!

Esse é o tipo de conflito que esses tempos digitalmente acelerados nos impõem.

 

A superinteligência digital

Esse debate também se aplica à inteligência artificial.

Na sexta (20), a OpenAI, criadora do ChatGPT, lançou o OpenAI o3, seu novo modelo de IA, com capacidades cognitivas ainda mais impressionantes. A empresa não mede esforços em incensar seus novos produtos como passos em direção à Inteligência Artificial Geral, um estágio teórico em que o sistema deixaria de ser especializado em uma coisa e passaria a pensar como um ser humano, dispensando comandos e sendo capaz de resolver qualquer coisa sem ter sido criado para aquilo, de pintar um quadro a dirigir um carro. Algumas pessoas afirmam que o o3 seria algo ainda maior: o caminho para a superinteligência artificial, um conceito teórico ainda mais ousado, em que a máquina superaria largamente as capacidades humanas em qualquer área.

Todos esses holofotes são ótimos para os negócios da OpenAI, que lidera essa indústria, mas sofre forte concorrência de empresas como o Google e a Anthropic. Mas mostra também que essas empresas parecem dispostas a acelerar contra uma parede, se isso lhes garantir o protagonismo nessas tecnologias.

Alguns dos maiores especialistas do setor, como Geoffrey Hinton, considerado o “padrinho da IA”, demonstram sérias preocupações com isso. Alguns afirmam que nunca chegaremos a esse estágio tecnológico, mas o maior temor é que percamos o controle desses sistemas, que passariam a se autoatualizar seguindo seus interesses, e não mais os da humanidade, algo conhecido no setor como “desalinhamento”.

Caímos novamente na questão de regulações. Como de costume, a Europa saiu na frente, com sua Lei da Inteligência Artificial, focada em proteger os cidadãos de maus usos dessa tecnologia e de abusos de empresas e de governos.

Muita gente acredita que ela reduzirá a competitividade do continente cada vez mais, especialmente diante de nações que regulam pouco ou nada a IA, como a China. No caso dos EUA, há uma grande expectativa de como o país se comportará nisso com o início, em janeiro, do segundo mandato presidencial de Donald Trump, fortemente influenciado pelo libertário Elon Musk, publicamente contrário a regulamentações.

A verdade é que ninguém sabe como equilibrar a ética, a competitividade e os direitos individuais nessa corrida desenfreada e irresponsável da tecnologia. Ela naturalmente deve continuar sendo desenvolvida e precisamos aprender a fazer usos produtivos dela. Mas isso não pode passar por cima da segurança e do bem-estar das pessoas.

O mundo atual vem sendo guiado por princípios do filósofo Nicolau Maquiavel (1469-1527), que defendia que o sucesso e a manutenção do poder justificariam os métodos empregados, mesmo imorais, desde que fossem eficazes. Mas talvez devêssemos olhar mais para as ideias de outro filósofo, Immanuel Kant (1724-1804). Para ele, mentir ou agir imoralmente nunca é justificável, mesmo para alcançar um bom fim.

Temos que fazer isso logo, antes que a sociedade se esfacele irreversivelmente.

 

Em conferência da Meta 2019, seu CEO, Mark Zuckerberg, anunciava que “o futuro é privado” - Foto: Anthony Quintano/Creative Commons

Decisões da Meta reabrem debates sobre uso da IA para identificação de pessoas

By | Tecnologia | No Comments

Quem garante que nós somos quem dizemos ser? Essa provocação faz sentido em um tempo em que a inteligência artificial ajuda a identificar pessoas (incluindo criminosos), mas ainda erra muito nessa tarefa, com resultados indesejáveis, como mandar inocentes para a cadeia. Decisões recentes da Meta esquentam esse debate sobre como equilibrar os benefícios e os riscos dessa tecnologia.

A empresa, que é dona do Facebook, do Instagram e do WhatsApp, anunciou recentemente duas medidas bem-vindas nesse campo. A primeira mapeará rostos de celebridades para evitar que suas imagens sejam usadas em vídeos falsos, em que normalmente aparecem vendendo produtos. Em outra iniciativa, a IA será usada para tentar identificar a idade de usuários, em um movimento para prevenir que crianças e adolescentes sejam expostos a conteúdos inadequados.

Os anúncios, especialmente o primeiro, desfazem uma reviravolta na postura da companhia nessa área: em 2021, o reconhecimento facial dos seus produtos, que já funcionava havia uma década, foi desativado diante da pressão da sociedade, problemas regulatórios e investigações em diferentes países. Agora, ele está de volta, como resposta à demanda pelo combate à usurpação de imagens alheias.

Essas ações da Meta são emblemáticas pela enorme importância de seus produtos na vida de bilhões de pessoas, mas estão longe de serem únicas nessa polêmica. O uso da IA na identificação é cada vez mais comum, e raramente o cidadão sabe desse monitoramento. A sociedade precisa estar consciente desse “Big Brother permanente” a que estamos submetidos, para decidir se seus ganhos superam os problemas.


Veja esse artigo em vídeo:


O reconhecimento de imagem da Meta era usado para automaticamente marcar pessoas nas fotos publicadas nas plataformas, criando vínculos entre as contas dos usuários. Além disso, as pessoas eram avisadas que estavam aparecendo em fotos alheias. Mas diante dos questionamentos sobre como essa tecnologia seria usada, a big tech eliminou o recurso e apagou os dados faciais de mais de 1 bilhão de pessoas.

Agora a empresa está reativando a tecnologia para evitar que as imagens de celebridades e outras pessoas públicas sejam usadas sem permissão em publicidades no Facebook e no Instagram. Se o sistema identificar isso, o anúncio será automaticamente tirado do ar. Já em testes com algumas celebridades, ele valerá para todas elas no ano que vem. Se alguma não quiser que o sistema reconheça sua imagem, deverá informar essa decisão na plataforma.

A Meta também usará o reconhecimento de imagem para restituir contas roubadas a seus verdadeiros donos. Nesse caso, a pessoa deverá gravar um vídeo de seu rosto, que será comparado com as fotos nos perfis do Facebook e do Instagram. A empresa afirma que, tanto nesse recurso quanto na verificação em publicidade, o reconhecimento facial não será usado para nenhuma outra finalidade, e os arquivos usados no processo serão excluídos ao seu final.

Também para o próximo ano, a Meta implantará o recurso “classificador de adultos”, que usará a IA para descobrir a idade real de um usuário. No caso de concluir que tem menos de 18 anos, a conta será automaticamente classificada como de adolescente, o que implica em várias restrições. Para isso, a tecnologia monitorará publicações e gostos do próprio usuário e de seus amigos. Ao se tentar alterar a idade, o sistema poderá exigir que o usuário grave um vídeo para estimá-la por características faciais.

Muitos adolescentes mentem a idade para ficarem livres desses limites. Com isso, ficam expostos a diferentes conteúdos nocivos, que podem causar problemas variados de saúde mental. Ao redor do mundo, há até mesmo diversos casos de suicídio de adolescentes atribuídos a influência do que viram no Facebook e no Instagram.

Ninguém discute as boas intenções dessas iniciativas. Mas há sempre o temor de que isso possa violar diferentes direitos individuais. E apesar de a Meta garantir que essas informações não serão usadas para outra finalidade, o histórico da companhia de lucrar muito com as informações de seus usuários representa uma sombra indelével. Além disso, a IA desses sistemas foi e continua sendo responsável direta por todo tipo de manipulação política e econômica, que levou à insana polarização da sociedade nos últimos anos.

 

Big Brother para todos

Apesar disso, restringir o acesso da Meta aos nossos dados é mais fácil que o visto em outras casos. Ela é uma empresa com produtos claramente identificados e, ainda que contra sua vontade e de maneiras pouco óbvias, o usuário pode impedir que a big tech use seus dados para algumas atividades, como o treinamento de sua IA. Mas não se pode esquecer que seu modelo de negócios é todo construído sobre usar nossas informações para nos entregar anúncios “mais relevantes”.

Quando andamos na rua, a situação fica muito mais grave. Em grandes cidades do mundo, somos continuamente monitorados por incontáveis câmeras públicas e privadas. Entre seus objetivos, estão nos identificar para segurança, interesses de diferentes organizações particulares e governamentais, identificação de padrões de comportamento e muito mais.

Novamente muitos desses serviços trazem benefícios aos indivíduos, mas também podem causar enormes transtornos quando erram. E erram muito! Além disso, as pessoas não são sequer informadas de que estão sendo monitoradas, não dando consentimento para tal, o que, de cara, violaria a Lei Geral de Proteção de Dados. Obviamente elas tampouco têm como impedir essa prática.

Um bom exemplo é o programa Smart Sampa, que espalhou dezenas de milhares de câmeras pela capital paulista. Sua proposta original previa “rastrear uma pessoa suspeita, monitorando todos os seus movimentos e atividades, por características como cor, face, roupas, forma do corpo, aspectos físicos etc.” Além de ser subjetiva, monitorar alguém pela sua cor é ilegal! A redação mudou, mas o objetivo não.

O reconhecimento facial falha em torno de 1% entre brancos e 30% entre negros, especialmente mulheres. Isso acontece porque há muito menos fotos de negros que de brancos no treinamento desses sistemas. Assim muitos inocentes, em várias cidades, já foram presos por serem confundidos com criminosos, e tiveram que provar o contrário, passando por riscos e violências enquanto isso.

Esses são apenas alguns exemplos de como a IA pode causar danos enormes, mesmo quando a intenção de seu uso seja positiva. Seus benefícios são claros, e seu uso é um caminho sem volta. Mas os problemas associados a ela ainda são grandes demais para serem ignorados, e, portanto, devem ser amplamente debatidos.

Não podemos aceitar que nos sejam impostos de maneiras obscuras.

 

Para o CEO da OpenAI, Sam Altman, devemos chegar à IA Geral nos próximos anos: agentes são um possível caminho - Foto: reprodução

Líderes da IA começam nova corrida tecnológica

By | Tecnologia | No Comments

A disputa para dominar a inteligência artificial anda tão acirrada, que se parece cada vez mais a uma corrida de cavalos, em que o ganhador vence “por um nariz”. Agora foi dada a largada para um novo páreo, o dos agentes de IA, e os principais nomes dessa indústria já estão na pista!

Isso não quer dizer que os agentes sejam uma novidade: eles já existem há anos em nossas vidas pessoais e profissionais. Mas até agora são soluções prontas dos fabricantes. Criar o próprio agente é uma tarefa complexa e que exige conhecimentos técnicos. O que Microsoft, OpenAI, Google e Anthropic prometem agora é tornar essa tarefa tão simples quanto conversar com um chatbot, como já nos acostumamos.

Um agente é um sistema que usa a IA para realizar tarefas específicas de maneira autônoma, com pouca ou nenhuma dependência de um ser humano. Ele age de maneira contínua, monitorando o ambiente e analisando dados para tomar decisões seguindo o que lhe foi pedido. Isso é bem diferente de um uso da IA generativa, como conversas com o ChatGPT, em que, por mais incríveis que seus resultados sejam, são atividades pontuais e totalmente dependentes da interação com o usuário.

Essas empresas agora prometem unir o melhor desses dois mundos, de modo que qualquer pessoa possa criar agentes sofisticados de maneira tão simples, quanto pedir que o chatbot escreva um texto. Ainda que isso não vá acontecer imediatamente, a simples abertura desse caminho pode ser realmente revolucionária.


Veja esse artigo em vídeo:


A Microsoft saiu na frente nessa nova etapa, com o lançamento do Copilot Studio. Ele permite criar agentes de IA com relativa facilidade, expandindo as funcionalidades do Copilot ao integrá-lo a bases de dados empresariais, gerando respostas a partir dessas informações, considerando cada contexto específico. Esses agentes podem ser distribuídos para pessoas dentro e fora da organização.

Já a Anthropic, startup de IA ligada ao Google e à Amazon, anunciou recentemente uma abordagem inusitada para sua plataforma Claude, batizada de “uso do computador”. Ainda na fase de testes, ela inova ao adaptar a IA para o uso de sistemas existentes, e não o contrário. Ela pode, por exemplo, assumir o controle de um computador como se fosse o usuário, para realizar tarefas de acordo com o que aparece na tela, até mesmo usando vários programas.

A OpenAI, que continua sendo a estrela mais brilhante do setor com seu ChatGPT, obviamente não quer ficar para trás. A empresa anunciou a versão de testes de um produto para desenvolvedores semelhante à solução da Anthropic. Ela deve ser liberada em janeiro.

O Google também “está dando seus pulos”. A empresa promete novidades na área de agentes ainda nesse ano! Vale lembrar que a empresa impressionou muita gente em 2019, quando ninguém ainda falava de IA generativa, com o lançamento do Google Duplex. Ele permite que o usuário peça que o Assistente realize tarefas simples, com a possibilidade de fazer ligações telefônicas, para, por exemplo, reservar uma mesa de restaurante, interagindo com atendentes humanos. Essas conversas são tão impressionantes, que muita gente se incomodou quando descobria que estava falando com um robô, e não com outra pessoa.

Os agentes que já estão disponíveis em nosso cotidiano se diferenciam de automações convencionais justamente pelas características da IA, especialmente de continuar funcionando se algo não sai como o esperado. Eles também melhoram com o uso, aprendendo coisas novas.

 

O futuro é dos agentes

Nas empresas, os agentes vêm sendo usados cada vez mais no atendimento automatizado a clientes. Eles também são muito úteis ao identificar movimentos do mercado e propor ações mais assertivas para as equipes comerciais, além de ajudar em negociações e de propor ideias aos gestores. Eles também são bastante usados pelo RH, em processo de contratação e até de demissão de profissionais.

Em nosso cotidiano pessoal, os agentes estão em nossos smartphones (no Google Assistente e na Siri) e em alto-falantes inteligentes, como o Amazon Echo. Nesse último, a Alexa pode, entre outras coisas, identificar compras recorrentes e auxiliar em novos pedidos, quando necessário. Relógios inteligentes e outros dispositivos podem monitorar a nossa saúde, e até eletrodomésticos, como aspiradores de pó robôs, realizam tarefas da casa de forma autônoma e cada vez melhor.

Quando a nova geração de agentes sair da fase de testes e chegar ao cidadão comum, ela poderá ampliar seus poderes consideravelmente. As pessoas não ficarão mais restritas aos agentes criados pelos fabricantes dos equipamentos.

Isso permitirá a definição de regras complexas, que combinarão recursos e informações de diferentes serviços aos que o usuário tem acesso. Por exemplo, será possível tirar automaticamente dinheiro de uma aplicação financeira que esteja com baixa rentabilidade para comprar ações de uma empresa com boas perspectivas.

É praticamente um consenso entre especialistas que os agentes representam o futuro da IA. Eles não apenas se tornarão mais diversificados e poderosos, como também serão mais fáceis de se criar. Além disso, veremos cada vez mais soluções complexas resultantes da combinação de vários agentes trabalhando em conjunto.

Muita gente acredita que esse seja o caminho para a Inteligência Artificial Geral (IAG), o “Santo Graal” dessa tecnologia. Quando (e se) estiver disponível, ela tomará decisões de maneira autônoma (ou seja, sem necessidade de comandos de alguém), sobre qualquer assunto e de maneira adaptável. É basicamente como nosso cérebro funciona, mas a IAG terá sobre nós a vantagem de analisar, com velocidade sobre-humana, uma quantidade de dados gigantesca, para tomar decisões mais assertivas.

Ainda existe muita especulação se chegaremos a isso algum dia. Especialistas de alto nível afirmam que a IAG é um conceito teórico inatingível. As big techs apostam fortemente no sucesso, dizendo que isso acontecerá ainda nessa década. Mas não podemos esquecer que elas têm interesses comerciais em afirmações como essas.

Qualquer que seja esse desfecho, devemos nos manter atentos às oportunidades que essa tecnologia oferece, apropriando-nos do que ela pode nos oferecer de bom e nos mantendo vigilantes contra eventuais armadilhas que desenvolvimentos descuidados e usos pouco éticos possam colocar em nosso caminho.

Esse é um trabalho de educação digital importantíssimo, envolvendo empresas, instituições de ensino, governos e outros atores da sociedade civil. As pessoas precisam entender e se apropriar conscientemente da IA e seus agentes, e isso deve chegar a todos.

 

IA pode agravar situação de pessoas já marginalizadas digitalmente - Foto: Freepik/Creative Commons

A desigualdade social faz com que a mesma IA que impulsiona carreiras tire empregos

By | Tecnologia | No Comments

A inteligência artificial pode maximizar nossas habilidades, mas também amplia contradições de nosso tempo. Isso aparece com muita força no âmbito profissional.

Já se tornou quase um mantra do mercado dizer que as pessoas que não abraçarem essa tecnologia perderão os empregos para colegas que o fizerem, e é verdade. Mas ironicamente quem a usar também pode ir para o olho da rua, se não fizer isso direito.

Cria-se então uma zona de contato bastante estreita, entre um “superpoder” para voar aos céus da carreira e a queda em um abismo profissional resultante de uma má educação no uso da IA. E esse não é um mero exercício intelectual. Ela já aumenta, agora mesmo, as vantagens de muitos profissionais e empresas. Do outro lado, vemos cerca de 14% da população brasileira sem qualquer acesso à Internet.

Surgem alguns dilemas sociais profundos. Talvez algumas pessoas gostariam de simplesmente não usar essa tecnologia, e esse seria um direito legítimo. Mas ainda dá para se almejar isso? Na ponta oposta, outras desejariam aproveitá-la, mas estão completamente alijadas desses recursos. Como lhes garantir isso, que já se configura como um direito fundamental?

Quem está no topo da pirâmide social deve parar de olhar para a sociedade como se todos estivessem na mesma situação frente à IA. Existe uma muralha a ser transposta para que se tenha pelo menos algum acesso digital, mas o presente nos empurra para uma desigualdade ainda mais ostensiva. Esse é o dilema que precisa ser solucionado.


Veja esse artigo em vídeo:


Estudo da consultoria Gallup divulgado em outubro indicou que 45% dos profissionais que usam a IA disseram que ela melhorou sua produtividade e eficiência, 26% se disseram mais criativos e inovadores e 23% apontaram melhora nas suas entregas. Apesar disso, 67% dos profissionais entrevistados disseram que nunca usaram a IA no trabalho, e apenas 4% fazem isso diariamente.

Infelizmente o “buraco é mais embaixo”. A pesquisa TIC Domicílios 2023, publicada em novembro passado pelo Cetic.br, órgão de pesquisas ligado ao CGI.br (Comitê Gestor da Internet no Brasil), indicou que, apesar de os 156 milhões de usuários de Internet representarem um recorde de brasileiros conectados, 29,4 milhões de pessoas nunca ficaram online em nosso país.

É importante ressaltar que não basta apenas dar acesso à Internet e à IA: é preciso ensinar as pessoas a fazerem bom uso desses recursos. O levantamento do Cetic.br apontou uma clara correlação entre o uso da Internet e os graus de educação e de renda: dos 29,4 milhões de pessoas desconectadas no Brasil, 24 milhões têm apenas até o Ensino Fundamental e 17 milhões são das classes D ou E.

Os pesquisadores apontaram que o pleno aproveitamento das oportunidades online depende ainda da qualidade da conexão e de dispositivos adequados. Ele é maior entre quem fica online tanto pelo computador quanto pelo smartphone, frente aos que se conectam só por dispositivos móveis. E se 99% dos domicílios da classe A têm computador, isso acontece apenas em 11% dos das classes D e E.

Para se colocar isso na devida perspectiva, é preciso entender que a inteligência artificial generativa não se trata de só mais uma tecnologia, como tantas outras que são lançadas a todo momento. Ela efetivamente oferece a possibilidade de se ampliar as capacidades de qualquer um que esteja disposto a fazer um uso consciente dela.

Mas tanto poder também guarda armadilhas.

 

Benefícios e riscos

A IA generativa embute recursos muito bem-vindos. Certamente o que a distingue de todo o resto é a capacidade de nos entender e dar suas respostas em linguagem natural, como se estivéssemos falando com outra pessoa. Além disso, ela é capaz de processar quantidades imensuráveis de informação para encontrar respostas e padrões. Por fim, ela efetivamente aprende e melhora com o uso.

Essa combinação a torna extremamente poderosa e flexível. Mas nesse funcionamento quase mágico, reside um de seus maiores riscos.

Quando o ChatGPT foi lançado e assombrou o mundo há dois anos, muitos diziam que ele poderia gerar uma “geração de preguiçosos”. Passado esse breve período, esse medo pode estar se concretizando em algumas pessoas.

Assim como uma simples calculadora agiliza as operações matemáticas que fazemos, mas não nos dispensa de sabermos como realizá-las, a inteligência artificial, por mais incrível e eficiente que seja, não pode tirar de nós a compreensão do que está sendo feito e principalmente as decisões que tomemos a partir desses resultados.

Além disso, as entregas em si da IA generativa normalmente têm uma qualidade mediana (na melhor das hipóteses), sofrendo de repetições e estilos limitados. E há ainda o maior de seus problemas: as “alucinações”, quando, diante de não saber o que dizer, entrega absurdos como se fossem verdades, sem qualquer ressalva.

Outra grave falha é a privacidade dos dados, pois essas plataformas podem aprender e depois replicar para estranhos informações confidenciais que usemos com elas. E isso flerta com outro conhecido problema dessa tecnologia: a violação de direitos autorais de conteúdos usados durantes suas etapas de treinamento.

Entre os que já usam a IA profissionalmente, a maioria se descuida em pelo menos um desses problemas, quando não em todos. É nessa hora que a IA deixa de ser uma poderosa aliada e passa a ser uma ameaça. Apesar de serem falhas intrínsecas da tecnologia, os riscos vêm da má utilização pelas pessoas. A revolução da IA invadiu nossas vidas sem manual de instrução, e por isso usos indevidos aparecem a toda hora.

Pior que isso são aqueles que terceirizam sua criatividade e decisões para os robôs: esses profissionais se colocam na posição de dispensáveis. Afinal, se eles não acrescentam nada sobre o que a IA faz, então basta a máquina para fazer o trabalho!

Antes vistos em obras de ficção científica, esses agora são dilemas da vida real! As pessoas precisam ser educadas não apenas para aproveitar os incríveis benefícios da IA, mas também para não cair em suas armadilhas.

Empresas, escolas, mídia, governo devem cuidar disso, mas não podem esquecer daqueles que já são marginalizados digitais. Caso contrário, teremos, em bem pouco tempo, uma “casta” com “superpoderes da IA” e uma massa de pessoas cada vez mais inabilitadas profissionalmente pela mesma tecnologia.

 

Ilustração oficial anuncia os vencedores do Prêmio Nobel de Física de 2024: John Hopfield e Geoffrey Hinton - Foto: reprodução

A IA poderá curar o câncer, mas não podemos ignorar seus riscos pelos benefícios

By | Tecnologia | No Comments

A inteligência artificial já transformou o mundo, e esse processo está apenas engatinhando. Suas potencialidades beiram o inimaginável e devemos nos apropriar de todos esses recursos. Ainda assim, temos que cuidar para que isso não se torne um ópio que turve nossa compreensão dos riscos que ela também embute, mas vejo isso já acontecendo de forma preocupante.

Constato esse problema em pesquisadores, parte da imprensa, grandes empresários e outros líderes da sociedade, que abraçam a IA de maneira inconsequente, como se tudo dela fosse bom para a humanidade. Essas pessoas adotam um discurso deslumbrado e intransigente, criticando aqueles que propõem um debate equilibrado sobre benefícios e riscos da IA.

No dia 8, a Academia Real das Ciências da Suécia concedeu o Prêmio Nobel de Física a Geoffrey Hinton, da Universidade de Toronto (Canadá), e a John Hopfield, da Universidade de Princeton (EUA), pelos seus trabalhos pioneiros com redes neurais artificiais e com machine learning, bases da IA. Essa turma correu para incensar a vitória dessa tecnologia, escondendo que, apesar de ser considerado o “padrinho da IA”, Hinton também é um forte crítico ao seu desenvolvimento descuidado.

A defesa inabalável da IA é criadora e criatura de um profundo processo de desordem informacional que beneficia as empresas do setor. Não é um fenômeno novo: há muitos anos, as big techs manipulam a opinião pública em favor das redes sociais. Com isso, mesmo diante dos seus evidentes problemas, uma parcela significativa da população ainda as apoia irrestritamente por seus inegáveis benefícios, mas ignorando os igualmente óbvios prejuízos.

Falhamos ao impedir que essa desinformação favorável às redes sociais criasse raízes tão profundas, que impediram que essas plataformas evoluíssem de maneira mais benéfica à humanidade. Não podemos repetir o erro com a inteligência artificial!


Veja esse artigo em vídeo:


Além de comemorar o reconhecimento de seu trabalho pelo Nobel, Hinton aproveitou a entrevista que concedeu logo após o anúncio de sua vitória para reforçar essas preocupações. E já no segundo minuto de sua fala, criticou Sam Altman, CEO da OpenAI (criadora do ChatGPT), por, segundo ele, “estar muito menos preocupado com a segurança que com os lucros”, algo que classificou como “lamentável”.

Para ele, as transformações pela IA serão comparáveis às da Revolução Industrial, com a diferença que, em vez de superar as pessoas na força física, superará na força intelectual. “Isso trará aumentos brutais na produtividade, mas também temos de nos preocupar com uma série de possíveis consequências ruins, particularmente com a ameaça de que essas coisas saiam do controle”, disse.

Em maio do ano passado, Hinton se demitiu do Google para, segundo ele, poder criticar livremente os caminhos da IA e a disputa sem limites entre as big techs, o que poderia criar “algo realmente perigoso”. Ao The New York Times, disse na época estar arrependido por ter contribuído com isso. E na entrevista do dia 8, disse que, apesar disso, teria feito tudo de novo, pois, na época, não podia prever esses riscos no futuro.

Hinton comemorou o prêmio na sede do Google, junto com ex-colegas e ex-alunos, entre eles Ilya Sutskever, ex-cientista-chefe da OpenAI que tentou demitir, sem sucesso, Sam Altman no ano passado. E o local escolhido é emblemático, demonstrando como a ciência no setor depende umbilicalmente dos recursos das big techs para financiar suas milionárias pesquisas.

Não há nenhum problema na colaboração de corporações e cientistas, muito pelo contrário: se bem conduzida, isso pode trazer grandes benefícios à humanidade. Deve-se apenas ter cuidado para que isso não se distorça para gerar apenas lucros irresponsáveis, como pode estar acontecendo com a IA.

 

Alterações da realidade

Para que as empresas lucrem mais, a opinião pública precisa ser convencida de que tudo está bem, e que suas decisões são tomadas para o bem comum. E os diferentes atores sociais mencionados anteriormente têm um papel essencial nisso.

É o caso de Bill Gates, que vem, há meses, dando incontáveis entrevistas e palestras sobre como a IA tornará o mundo um lugar melhor para todos. Lançou até uma série na Netflix (muito bem-feita), chamada “O Futuro de Bill Gates”, onde reforça a ideia.

O fundador da Microsoft, maior investidora da OpenAI, afirma repetidamente que a IA permitirá que as pessoas trabalhem menos dias na semana. Em tese, isso poderia acontecer, porém o mais provável é que, com o aumento de produtividade, gestores demitam em massa, com os remanescentes trabalhando todos os dias da semana.

Em 2021, pesquisadores da Universidade de Cambridge (Reino Unido) publicaram um estudo que explicava mecanismos de ataque à capacidade da população de adquirir conhecimento. E uma das principais ameaças são as pessoas que disseminam desinformação, divididas em dois grupos. O primeiro, batizado de “adversários”, deliberadamente manipula informações, promove ataques ou incita seguidores para confundir ou enganar a população para atingir seus objetivos. O segundo, os “trapalhões”, de maneira inocente e até bem-intencionada, espalha essas bobagens, como acontece naquele grupo da família no WhatsApp.

Pelas suas informações privilegiadas, é muito mais provável que Gates e Altman sejam “adversários”, e não “trapalhões”. Nesses últimos, estão aqueles que usam a IA de maneira pouco crítica, achando que ela é uma grande assistente, quando, na verdade, em breve podem perder seu emprego para ela, pelo uso limitado que fazem.

No final das contas, o excesso de informação sobre a IA, a polarização da sociedade e o papel dos “adversários” e dos “trapalhões” podem atrapalhar profundamente o desenvolvimento de bons usos da IA, pois a população pode adquirir uma visão pouco crítica sobre essa tecnologia. Assim como aconteceu as redes sociais, muito mais que as pessoas, as grandes beneficiadas desse processo são a big techs.

Hinton afirma categoricamente que não se sabe como evitar os riscos criados pela IA. Por isso, ele afirma que mais pesquisas independentes sobre isso são urgentes. Caso contrário, esse processo de degradação cognitiva seguirá seu curso, até que eventualmente seja tarde demais e seus temores se concretizem.

Temos que nos apropriar de tudo de bom que a IA nos oferece, e não é pouca coisa. Mas não podemos ser deslumbrados inconsequentes diante disso.

 

Gilson Magalhães, novo diretor-geral da Red Hat Latin America, se apresenta no Summit Connect, em São Paulo, no dia 8 - Foto: Red Hat

Muitos querem “ganhar na loteria” com a IA, mas poucos fazem o necessário para isso

By | Tecnologia | No Comments

A inteligência artificial generativa está prestes a completar dois anos de mercado. Desde o lançamento do ChatGPT, em 30 de novembro de 2022, ela vem redefinindo o mundo com uma velocidade nunca vista, não só pelos 100 milhões de usuários nos seus primeiros dois meses, mas pela avalanche de aplicações que prometem facilitar as mais diversas tarefas. Porém, apesar dessa euforia, não há milagre nisso, e poucas pessoas entendem como tirar o proveito máximo dela.

“Eu tenho convicção de que a tecnologia atual, que ainda é incipiente, é o embrião de uma nova civilização”, proclamou Gilson Magalhães, novo diretor-geral na América Latina da Red Hat, a maior empresa de software open source do mundo. “É preciso ter muita atenção a essa tecnologia, porque ela é de altíssimo impacto, e vai crescer progressivamente, trazendo novos insumos”, acrescentou, durante o Red Hat Summit Connect, principal evento da empresa no país, que aconteceu no dia 8, em São Paulo.

Mas ainda há muito mais entusiasmo que conhecimento em torno da IA. Tanto que um estudo recente da consultoria Gartner indicou que metade das iniciativas com essa tecnologia se limita a ferramentas de produtividade para as equipes, enquanto 30% agem nos processos. Implantações para verdadeiramente transformar o negócio, o que indicaria seu uso mais robusto, acontecem em apenas 20% dos casos.

Magalhães deixa bastante claro: as pessoas querem “mágica” da IA, mas não funciona assim. Como qualquer outra tecnologia, os resultados vêm com informação e trabalho.

É um cenário semelhante aos primórdios de outras tecnologias que transformaram dramaticamente o mundo: a Internet comercial e os smartphones. Nem em seus sonhos mais loucos, os responsáveis por esses lançamentos poderiam imaginar o que surgiria daquilo! Não obstante, cá estamos, com vidas profundamente digitalizadas.

Cabe a essa geração aprender a usar a inteligência artificial de maneira construtiva, segura e ética, criando utilizações que talvez hoje se pareceriam mesmo com mágica.


Veja esse artigo em vídeo:


“Nós precisamos organizar nossa vida, mas temos tantas tarefas diárias, cuidar da agenda, da saúde, dos filhos, da família, e as pessoas estão vivendo mais”, propõe Sandra Vaz, diretora-sênior de Alianças e Canais da Red Hat Latin America. “A inteligência artificial será a nossa grande parceira para que possamos ter mais produtividade e tomar decisões melhores frente à nossa concorrência”, acrescenta.

Há um caminho a ser percorrido. As empresas precisam substituir a euforia por conhecimento, capacitar suas equipes e envolver as pessoas na adoção da IA.

“Todo esse tema de IA Generativa ainda tem uma compreensão baixa no mercado”, explica Thiago Araki, diretor-sênior de Tecnologia da Red Hat Latin America. Ele explica que as empresas começam a entender que não haverá uma IA que resolverá todos os problemas, que serão necessários trabalhar com diferentes modelos. “Então ainda não temos projetos muito avançados, porque é tudo muito novo”, conclui.

Mesmo com tudo isso, cresce no mercado um consenso de que profissionais e empresas que adotem conscientemente a inteligência artificial construirão uma vantagem enorme sobre seus concorrentes. Mas isso dependerá não apenas de bons algoritmos, mas também de bons dados, um tema tratado de maneira displicente em uma parcela assustadoramente grande de empresas.

O problema começa por diferentes departamentos coletarem suas próprias informações, sem compartilhá-las com o resto da empresa. Não raro, esses dados são redundantes –e pior, conflitantes– com os de outros departamentos. O problema se agrava por metodologia frágeis para sua captura e atualização.

Mesmo com o mais incrível algoritmo, a IA trará respostas ruins se for alimentada com informações de baixa qualidade.

 

A era dos agentes

Apesar de já existirem literalmente milhares de aplicações impulsionadas pela inteligência artificial generativa, automatizando tarefas bem específicas, a maioria das pessoas continua usando ferramentas não-especializadas, como o próprio ChatGPT ou o Gemini, do Google. Mas isso tende a mudar, com a ascensão dos agentes.

Eles são sistemas baseados em IA autônomos ou semiautônomos, criados para realizar tarefas específicas, a partir de interações com o usuário ou o ambiente. Eles podem aprender e se refinar com o uso, e funcionam a partir de dados selecionados.

Magalhães acredita que a inteligência artificial não evoluirá para um supercérebro eletrônico, capaz de realizar qualquer coisa, como se vê na ficção científica. Ao invés disso, ele aposta no surgimento de incontáveis agentes aprimorando nossa capacidade de realizar virtualmente qualquer tarefa.

Naturalmente, existirão agentes oferecidos prontos por empresas, melhorando a eficiência de seus produtos. Mas já se pode criar os próprios agentes usando plataformas como o ChatGPT.

Talvez isso ainda pareça ficção científica ou no mínimo algo nada trivial para a maioria das pessoas. Mas o recurso já está disponível e deve ser, pelo menos, aprendido. Afinal, houve uma época em que o Google também era uma novidade, e hoje ele está totalmente integrado à vida de todos nós!

Apesar de ser uma discussão tecnológica, as empresas falham também quando esquecem de incluir as pessoas. Outro estudo do Gartner indica que apenas 14% dos líderes de RH estão envolvidos em conversas sobre IA. É um grande erro, pois, com isso, as pessoas não se sentem parte da jornada da IA na organização.

Tudo isso pode parecer uma exigência um tanto opressora para muita gente, que gostaria de continuar levando uma vida sem IA. São escolhas! É preciso entender que, a médio prazo, isso pode realmente custar a competitividade profissional e até a se demorar mais tempo para fazer as mesmas coisas que seus amigos.

“É um desafio para todos, não tenho como dizer que é um caminho fácil”, afirma Magalhães. “A minha recomendação é: ‘não se afaste da IA’”, conclui.

Como costumo sempre dizer, diante da IA, não podemos ser nem deslumbrados, achando que ela fará tudo sozinha por nós, nem resistentes, rejeitando-a a qualquer custo. Com seu avanço galopante, ela realmente não é mágica, mas pode ajudar de maneira surpreendente a qualquer um que resolva dar os passos necessários para um uso consciente de todo esse poder.


Veja a íntegra em vídeo da entrevista com Gilson Magalhães, novo diretor-geral da Red Hat Latin America: