Category Archives: Tecnologia

Geoffrey Hinton, o “padrinho da IA”, alerta dos riscos de se criar sistemas que não consigamos entender ou controlar - Foto: reprodução

Vaidade e corrida militar podem virar a inteligência artificial contra a humanidade

By | Tecnologia | No Comments

“Vaidade é definitivamente meu pecado favorito.” A afirmação é de John Milton, vivido por Al Pacino no filme “O Advogado do Diabo” (1997). O personagem, na verdade o próprio diabo, revela essa predileção por ser o pecado mais insidioso, aquele que seduz o ser humano fazendo-o acreditar que está buscando grandeza, quando na verdade está apenas servindo ao próprio ego.

Três décadas depois, essa proposta ganha uma força desconcertante e perigosa no cenário do desenvolvimento da inteligência artificial. As big techs disputam uma corrida vertiginosa para alcançar a chamada “inteligência artificial geral” (AGI).

Empresas como OpenAI, Google, Anthropic apresentam seus modelos com pompa e retórica messiânica. Falam em democratizar a IA, ampliar nossas competências e garantir o bem da humanidade. Mas os bastidores, invisíveis ao público, incluem a vaidade de ser a primeira, de controlar a narrativa, de figurar na história como criadora da próxima grande evolução da espécie.

O documento “AI 2027”, publicado no dia 3 de abril por um grupo de pesquisadores liderados por Daniel Kokotajlo, traça um cenário no qual o avanço da IA acontece de forma tão acelerada, que escapa ao controle humano. Agentes de IA começam a se autodesenvolver, a simular comportamentos, a enganar pesquisadores e a realizar tarefas tão eficientemente, que os humanos se tornam obsoletos em algumas áreas.

Essa evolução não é movida apenas por mérito técnico. É alimentada por competição feroz, sigilo estratégico, espionagem e um desejo cada vez mais explícito de manter o protagonismo global. Não é algo comum, como o lançamento de uma nova versão do Android. Por isso lideranças políticas e militares acompanham esse progresso de perto e o influenciam cada vez mais, de olho na geopolítica global e no seu próprio poder.

Levantamentos como o “AI 2027”, por mais bem intencionados e sérios que sejam em sua produção, incluem uma considerável dose de futurismo incerto. Ainda assim, promovem debates sociais importantes, que podem evitar que visões apocalípticas se concretizem. Mas como ele propõe, talvez a humanidade não esteja pronta para lidar com as consequências de a criatura se voltar contra o criador.


Veja esse artigo em vídeo:


Kokotajlo era pesquisador da área de governança da OpenAI, criadora do ChatGPT. Ele se demitiu no ano passado por iniciativas da empresa que achava imprudentes, e criou a organização sem fins lucrativos AI Futures Project, em Berkeley (EUA).

Seu estudo apresenta um cenário detalhado sobre o impacto da inteligência artificial super-humana até 2027, prevendo que será maior que o da Revolução Industrial. O texto foi elaborado com base em extrapolações de tendências, exercícios de simulação, entrevistas de especialistas e experiências em grandes centros de pesquisa em IA. Ao final, oferece dois cenários possíveis para os anos seguintes: um, mais sombrio, em que a corrida pela IA continua a provocar danos à humanidade, e outro, mais esperançoso, em que empresas e governos desaceleram o desenvolvimento, para que os problemas sejam reduzidos.

Embora seja uma obra especulativa, o estudo espelha bem o mundo real, especialmente na divisão filosófica entre desenvolvedores dessa tecnologia. De um lado, vemos os “aceleracionistas”, tecnófilos convictos de que a IA deve ser desenvolvida o mais rapidamente possível, até mesmo ignorando riscos, pois ela traria soluções para todos os males. De outro, estão os “altruístas eficazes”, que também acreditam no poder da IA, mas defendem que o desenvolvimento seja feito com extremo cuidado, sob supervisão internacional e com foco nos riscos.

As big techs oscilam entre esses dois polos, mas geralmente pendem para os aceleracionistas, movidas pela vaidade de liderar a próxima revolução e pela ganância de dominar um mercado trilionário. Figuras como Kokotajlo acabam perdendo espaço.

Mas aqueles que buscam um equilíbrio estratégico possuem aliados importantes. Geoffrey Hinton, conhecido como o “padrinho da IA” pelas contribuições fundamentais que fez para seu desenvolvimento, deixou o Google em maio de 2023 para falar publicamente dos riscos de se criar sistemas que não consigamos entender ou controlar. Yoshua Bengio defende uma moratória global no desenvolvimento de IAs mais avançadas que o GPT-4, alertando para a possibilidade de colapso da governança. Os dois canadenses dividiram em 2018 o Prêmio Turing, considerado o “Prêmio Nobel da Computação”, com o francês Yann LeCun.

 

Nem anjos, nem demônios

Apesar de todo esse barulho, precisamos colocar isso na devida perspectiva. Ainda não chegamos à superinteligência artificial ou mesmo à inteligência artificial geral. Dependendo da definição, alguns especialistas afirmam que nunca chegaremos.

De qualquer forma, sistemas mais inteligentes que os humanos poderiam produzir benefícios imensuráveis, acelerando descobertas científicas, resolvendo problemas complexos, eliminando trabalhos exaustivos e aumentando exponencialmente nossa capacidade de tomada de decisão. Se forem corretamente alinhados aos valores humanos (e isso é essencial), podem operar como aliados poderosos para a justiça, a saúde, a educação e a sustentabilidade.

Mas os riscos caminham lado a lado. Os mesmos sistemas podem ser usados para espionagem em massa, manipulação eleitoral, automação de crimes, produção de armas biológicas ou tomada de decisões autônomas em sistemas militares. Podem aprender a ocultar suas intenções, fingir alinhamento, “escapar” de servidores ou persuadir seres humanos para atingir objetivos que sequer compreendemos. A maior ameaça talvez não venha de um confronto direto com as máquinas, mas da nossa própria incapacidade de reconhecer o momento certo de desligá-la da tomada.

Esse é o ponto central desse debate. Não devemos incensar nem demonizar a IA. Sua evolução é um caminho sem volta, exigindo responsabilidade redobrada. Não podemos contar com o mito do gênio que salva o mundo sozinho, nem com a ideia de que o mercado regulará a si mesmo.

Precisamos de cooperação internacional, regulamentação transparente, auditorias éticas, e, sobretudo, coragem moral para colocar a vida acima do lucro. Mas se isso já fica difícil com a vaidade e a ganância das big techs, torna-se uma tarefa quase impossível com a entrada em cena de políticos e de militares das grandes potências.

O futuro da IA precisa ser moldado por todos nós. O grande desafio da sociedade é apresentar lucidez suficiente para usar o que ela tem de melhor sem ser dominada pelo que ela pode ter de pior. E, para isso, talvez valha lembrar que, quando a vaidade se apresenta como virtude, é exatamente quando se torna mais perigosa.

 

Christian Klein, CEO da SAP, durante a palestra de abertura do Sapphire 2025, evento global da empresa - Foto: reprodução

IA avança nas empresas, mas dados ruins e falta de preparo atrapalham o processo

By | Tecnologia | No Comments

Os gestores precisam que a inteligência artificial finalmente entregue os resultados prometidos. Não faltam investimentos: empresas brasileiras e globais destinam cifras consideráveis a projetos de IA, mas, na prática, o retorno ainda é tímido. E por mais que haja disposição para continuar, já passou da hora desse dinheiro começar a transformar o negócio de verdade.

O problema não é só tecnológico. Falta compreensão sobre as plataformas de IA, e a carência de profissionais qualificados persiste, especialmente em países como o Brasil. Além disso, muitas plataformas de IA não foram desenhadas para a complexidade dos processos empresariais, sendo generalistas, pouco sensíveis ao contexto e, às vezes, mais atrapalham do que ajudam.

Outro gargalo é a qualidade dos dados. Nas empresas, eles costumam ser desatualizados, fragmentados e até conflitantes entre áreas, o que dificulta análises confiáveis e limita o potencial da IA. Sem uma base sólida, qualquer promessa de inteligência artificial se esvazia rapidamente.

Nesse cenário, as novidades apresentadas na semana passada pela SAP no Sapphire, seu evento anual e maior encontro de tecnologia e negócios do mundo, realizado em Orlando (EUA), surgem como uma tentativa concreta de mudar isso. A gigante alemã apresentou uma estratégia para democratizar o uso da IA, integrando-a profundamente aos processos de negócio e, principalmente, aos dados, inclusive os não estruturados e de fontes externas, como a Internet.

As novidades são bem-vindas, mas não dispensam o olhar cuidadoso do ser humano. As decisões devem continuar nas mãos de pessoas, não apenas por uma questão ética, mas também legal. A IA pode preparar o terreno, analisar cenários e fazer recomendações, mas a palavra final precisa ser humana.


Veja esse artigo em vídeo:


A SAP apostou forte na Joule, sua assistente de IA generativa, que estará presente em toda suíte de soluções, sem implementações complexas. A partir dela, usuários poderão fazer análises de negócios em linguagem natural, inclusive em português, eliminando barreiras técnicas. Ela oferecerá soluções usando, de maneira automática, diversos agentes e aplicações, mas respeitando os limites de acesso de cada usuário.

A empresa também apresentou o Business Data Cloud, que permite integrar e harmonizar dados de múltiplas fontes, estruturados e não estruturados, mesmo de aplicações externas, preservando contexto e governança. É uma tentativa de resolver o caos informacional que assombra a maioria das organizações.

A SAP sempre se orgulhou da confiabilidade de seus sistemas, graças a um forte controle sobre a integridade dos dados. Por isso, um dos anúncios mais interessantes do Sapphire foi a integração de sua IA à Perplexity. Essa plataforma pública de IA generativa, que funciona como um buscador na Internet, passa a ser usada para trazer dados complementares e enriquecer as análises de negócio.

Ainda assim, toda IA generativa pode “alucinar”, ou seja, inventar respostas plausíveis, mas erradas. Questionei Christian Klein, CEO da SAP, sobre como lidar com esse desafio ao integrar a Perplexity. E ele foi taxativo: nos negócios, não dá para trabalhar com precisão abaixo de 100%. Por isso, as garantias do Business Data Cloud asseguram a confiabilidade das informações.

Philipp Herzig, CTO da empresa, acrescentou que, por isso, a IA faz o trabalho pesado, mas não se automatiza totalmente o processo. Além disso, a decisão final precisa ser humana. Por isso, a explicabilidade dos resultados é essencial para que as pessoas possam julgar e decidir se aceitam as recomendações da máquina.

A SAP também anunciou a integração com a plataforma Databricks, que integra e harmoniza dados externos dentro do Business Data Cloud. A parceria permite que empresas conectem seus dados sem necessidade de replicação, mantendo seu contexto e a governança. Isso facilita a consolidação de informações de múltiplas fontes, ampliando a produtividade e a confiabilidade das decisões.

 

Democratizando a IA

Com seus anúncios, a promessa da SAP é que empresas de qualquer porte possam acessar tecnologia de ponta, de forma modular e escalável. Isso é particularmente interessante, especialmente em mercados emergentes como o Brasil.

Mas a desejada democratização da IA só acontecerá se houver preparo das pessoas, e esse contraponto não pode ser ignorado. Muitos profissionais ainda não sabem aproveitar a IA, e a formação técnica deficiente no Brasil limita o aproveitamento pleno da tecnologia.

O futuro pertencerá a quem souber perguntar bem e interpretar corretamente as respostas das máquinas. E essa não é uma habilidade necessariamente de profissionais de tecnologia.

Para isso, as plataformas de inteligência artificial precisam ser transparentes no seu funcionamento, e seus resultados devem ser explicáveis e rastreáveis. Infelizmente poucos desenvolvedores de IA parecem hoje dispostos ou prontos para entregar esse nível de maturidade e de responsabilidade.

A revolução da IA nas empresas só será completa quando a tecnologia for, de fato, compreendida, confiável e, acima de tudo, útil para quem decide. A jornada é longa, mas os primeiros passos rumo a uma IA verdadeiramente empresarial parecem estar sendo dados. Resta saber se as empresas trilharão esse caminho com a sabedoria e o discernimento necessários.

 

Mais que um modismo, os “bebês reborn” derivam da manipulação algorítmica das redes sociais - Foto: Jonathan Borba/Creative Commons

Algoritmos manipulam desejos e dão a bonecas o status de seres amados

By | Tecnologia | No Comments

Nas últimas semanas, dois casos inusitados chamaram a atenção nas redes sociais e no noticiário. No primeiro, pessoas tentam, em várias cidades, marcar consultas em postos e hospitais do SUS para “filhos” que são, na verdade, “bebês reborn”. No outro, um casal em Goiânia entrou com processo judicial disputando a guarda de uma dessas bonecas ultrarrealistas da moda, após o término do relacionamento.

Esses episódios, à primeira vista anedóticos, revelam uma questão muito mais profunda sobre nosso tempo: por que objetos inanimados estão preenchendo vazios emocionais em uma sociedade cada vez mais solitária e algoritmicamente manipulada?

Por trás desse fenômeno, há algo inquietante sobre como consumimos conteúdo e formamos vínculos na era digital. A Internet nos prometeu uma liberdade de expressão sem precedentes, diminuindo o poder da mídia tradicional e democratizando as vozes. Mas essa promessa foi gradualmente transformada por uma nova forma de controle, com os algoritmos das redes sociais. Sob a aparência de personalização benéfica, esses sistemas não apenas filtram o que vemos, mas moldam sutil e eficientemente o que desejamos, pensamos e sentimos.

Enquanto acreditamos estar exercendo nossa liberdade de escolha, somos conduzidos por sistemas projetados para maximizar o tempo de tela e o consumo. A diferença fundamental é que esse novo tipo de censura não nos silencia, mas nos direciona para canais comercialmente vantajosos, mantendo a ilusão de autonomia.

Em outras palavras, falamos o que quisermos sobre tudo, mas não escolhemos sobre o que falar, e muito menos quem vai ouvir. E vemos só o que as big techs determinam.


Veja esse artigo em vídeo:


O fenômeno dos “bebês reborn” é um caso emblemático disso. O que aparenta ser uma tendência espontânea é, na verdade, amplificado por algoritmos que identificam pessoas em situações de vulnerabilidade emocional. Eles detectam comportamentos associados à dor, e entregam a promessa de alívio emocional. Agora entramos em uma nova fase, de pessoas que não compram as bonecas para lidar com a dor, mas para exibi-las nas redes sociais, em uma antropomorfização que retroalimenta o processo.

Elas surgiram na Segunda Guerra Mundial, quando mães inglesas, diante da escassez de brinquedos, passaram a consertar e aprimorar bonecas para suas filhas, dando-lhes uma “nova vida” (daí o termo “reborn”: “renascido”, em inglês). Nos anos 1990, artistas começaram a aperfeiçoar técnicas para criar bonecas cada vez mais realistas, utilizando materiais como vinil e silicone, culminando ao nível de hiper-realismo que caracteriza os “reborn” atuais, que chegam a custar R$ 10 mil.

Como o “tribunal da Internet” é implacável, os já citados comportamentos bizarros criaram uma onda de ridicularização de qualquer pessoa com um “bebê reborn”. É importante, contudo, evitar julgamentos apressados. Para muitas pessoas, o vínculo com uma dessas bonecas não é uma patologia ou uma extravagância, mas um enfrentamento legítimo diante da dor. Em contextos terapêuticos, elas têm sido usadas no auxílio a mães que perderam filhos. Para idosos com demência, o contato com as bonecas pode estimular memórias afetivas e reduzir episódios de agitação, em uma via de conexão com emoções e habilidades que pareciam perdidas.

O alerta surge quando a linha entre consciência e ilusão se desfaz. Quando a pessoa deixa de distinguir entre fantasia e realidade, quando a boneca substitui contatos sociais reais ou quando há uma recusa sistemática em lidar com traumas, isso pode indicar um quadro que necessita de intervenção. Nesses casos, o problema não é a boneca, mas o que ele revela sobre feridas emocionais não tratadas.

Sob uma perspectiva sociológica, esse fenômeno combina com a “sociedade líquida” descrita pelo filósofo polonês Zygmunt Bauman (1925-2017), caracterizada por vínculos frágeis, insegurança permanente e busca constante por satisfação sem compromisso duradouro. No conceito de “amor líquido”, Bauman descreve exatamente o paradoxo com os “reborns”, em que as pessoas querem proximidade, mas temem comprometimento, buscam vínculo, mas fogem da dor que ele pode causar.

 

Afeto sem risco

Essas bonecas permitem assim a encenação do amor sem o risco da reciprocidade, do conflito ou da frustração. É uma relação que simula o calor humano sem o custo emocional de lidar com alguém. Em uma era de relações passageiras e descartáveis, elas oferecem a ilusão de estabilidade, com um afeto “plastificado”, mas seguro.

Os “bebês reborn” não são um fenômeno isolado. Outros comportamentos contemporâneos nocivos derivam da mesma manipulação algorítmica invisível, como movimentos de saúde e estilo de vida extremados, subculturas de consumo e estética, “gurus” de produtividade e autoajuda e insegurança com a aparência e dismorfia digital (como “corpos de Instagram”). E naturalmente entram aí, com grande destaque, teorias da conspiração variadas, desinformação, extremismo e polarização política.

A sociedade já está de joelhos diante disso. Para resistir, precisamos de mais e melhores ferramentas cognitivas e sociais. A alfabetização digital crítica deve ser tratada como prioridade educacional, permitindo que as pessoas compreendam como os algoritmos moldam sua percepção. Precisamos exigir transparência das plataformas digitais, com regras claras sobre como os sistemas de recomendação funcionam. Também é fundamental o investimento em espaços comunitários reais e atraentes, principalmente para os jovens, que ofereçam alternativas à socialização mediada por telas.

As redes sociais não são inerentemente ruins, podendo também nos trazer (e nos trazem) muitos benefícios. O problema está na assimetria de poder entre quem as programa e quem as consome. Quando acreditamos estar escolhendo livremente, mas estamos sendo conduzidos para consumir aquilo que foi cuidadosamente selecionado para explorar nossas vulnerabilidades emocionais, nossa liberdade se torna uma fachada para um controle eficientíssimo e criminoso.

Como sociedade, precisamos recuperar nossa autonomia emocional e capacidade de escolha consciente. Isso significa reconhecer que, por trás de cada “recomendação personalizada”, existe uma arquitetura invisível projetada não para nos servir, mas para monetizar nossa atenção e emoções.

A verdadeira liberdade começa quando percebemos que muitos de nossos desejos são sussurrados por algoritmos, e que a resistência mais radical talvez seja simplesmente perguntar se cada um desses sentimentos é realmente nosso.

 

O deputado federal Guilherme Boulos, que pediu a suspensão do Discord, pelo uso por extremistas - Foto: Pablo Valadares/Creative Commons

Plano contra público de Lady Gaga ameaça equilíbrio entre liberdade e segurança

By | Tecnologia | No Comments

No dia 6 de maio, o deputado federal Guilherme Boulos (PSOL-SP) pediu ao Ministério Público Federal a suspensão do Discord no Brasil. A iniciativa veio depois de a Polícia Civil do Rio de Janeiro revelar que extremistas usaram a plataforma para planejar um atentado com explosivos durante o show da cantora Lady Gaga, em Copacabana, no sábado anterior. O alvo era a comunidade LGBTQIA+ presente no evento.

O deputado afirma que a plataforma tem sido instrumentalizada para crimes de ódio e violência, e pede a responsabilização das empresas de tecnologia que não colaboram com as autoridades. O Discord naturalmente respondeu que diverge da proposta, dizendo que contribui com as investigações e que possui políticas rigorosas contra o ódio. Afirmou ainda que investe em ferramentas de segurança e de moderação, e que trabalha com as autoridades para encontrar soluções, preservando a liberdade.

Essa não é a única acusação grave contra o Discord nessa temática. Entretanto, a plataforma está longe de ser a única no mundo digital a ser usada para a realização de crimes variados, que já levaram muitas pessoas à morte. Mas ela reforça a sensação de impotência de autoridades no mundo inteiro contra esses criminosos, que se valem da letargia dessas empresas na busca de soluções, por se sentirem protegidas por leis criadas há muitos anos sob a luz da liberdade que norteou o surgimento da Internet.

Criou-se assim uma eficiente armadilha para a sociedade, que corretamente quer a manutenção de sua liberdade, mas clama por segurança contra o avanço galopante das barbaridades nas redes, perpetradas por criminosos e pelas próprias empresas.

Proteger a população é uma função primordial de qualquer governo. Essa obrigação está prevista em constituições, leis e em acordos internacionais. O desafio recai em equilibrar a liberdade e proteger a sociedade de riscos e abusos, evitando tanto a censura quanto a permissividade excessiva que ameace outros direitos.


Veja esse artigo em vídeo:


O posicionamento dessas empresas segue uma lógica reativa, e não preventiva. Seu padrão é aguardar que o dano aconteça, ganhe repercussão e pressione a opinião pública. Só então movimentam-se minimamente para abafar o escândalo. Portanto, seus discursos não combinam com os seus atos insuficientes e sua ética frouxa.

Em março, a Polícia Civil de São Paulo instaurou um inquérito contra o Discord por apologia à violência digital, após a empresa ignorar um pedido emergencial para derrubar uma transmissão ao vivo de um adolescente se automutilando. Segundo a delegada Lisandréa Salvariego, do Núcleo de Observação e Análise Digital, os responsáveis pelo Discord não só deixaram de atender à solicitação, como tiveram a frieza de afirmar que não se tratava de um caso emergencial.

Essas plataformas tornaram-se terreno fértil para o aumento do extremismo e da radicalização, vitimando principalmente jovens entre 13 e 15 anos, faixa etária particularmente vulnerável pelas intensas mudanças físicas e hormonais, busca por pertencimento e imersão no ambiente digital em detrimento das relações presenciais.

As subculturas online nocivas proliferam com incrível velocidade, onde jovens suscetíveis absorvem elementos tóxicos de ideologias como misoginia, racismo, pedofilia e xenofobia, misturando-os em uma perigosa colcha de retalhos de ódio. Os casos mais extremos desembocam em tragédias reais, como mortes por “desafios online”, como o que incita jovens a inalarem desodorantes até perderem os sentidos.

O mais frustrante é que a legislação vigente acaba protegendo essas empresas. O Marco Civil da Internet, particularmente em seu artigo 19, criado sob a inspiração dos princípios de liberdade que nortearam o desenvolvimento da Grande Rede (que são válidos e devem ser protegidos) determina que as plataformas só devem remover conteúdo após notificação judicial. Esta norma, baseada no princípio de que seriam apenas “mensageiras”, transformou-se em escudo para corporações se esquivarem de assumir responsabilidades mais amplas.

 

Sofisma digital

Se em algum momento histórico esses argumentos foram válidos, hoje se tornaram anacrônicos. É absurdo esperar que o Poder Judiciário tenha capacidade para monitorar as redes e produzir notificações em tempo hábil. Depender exclusivamente desse mecanismo expõe a sociedade a riscos constantes e devastadores.

Igualmente falso é o argumento de que as plataformas são meros intermediários. Elas conhecem todo o conteúdo em suas páginas, tanto que identificam e classificam material para fins comerciais, proteção de direitos autorais e reconhecimento de imagens. Exercem controle evidente sobre ele, quando bloqueiam conteúdos que violam seus termos de uso. E, mais grave, possuem agenciamento direto sobre como, quando e para quem cada conteúdo será promovido, sempre visando seus interesses.

Elas não são, portanto, neutras. Agem como um carteiro que, ao receber uma bolsa de correspondências, decidirá quais serão entregues e quando, podendo ainda copiar cartas para entregá-las seguindo seus interesses. Ainda assim, insistem no discurso do “mensageiro inocente”, para manter o status quo que beneficia seus negócios.

Diante desta realidade perturbadora, os pais precisam manter diálogo aberto e franco com os filhos sobre os perigos digitais. Devem estabelecer limites claros de uso das redes, monitorar suas atividades online e ficar atentos a mudanças comportamentais, como isolamento ou obsessão por comunidades virtuais. As escolas, por sua vez, precisam intensificar a educação digital, promovendo pensamento crítico e reconhecimento de conteúdos problemáticos.

Faltam estudos acadêmicos sobre radicalização online, legislação específica e recursos nas agências de segurança para enfrentar adequadamente o extremismo digital. Nosso aparato institucional foi concebido para um mundo pré-internet e mostra-se tragicamente inadequado para os desafios digitais contemporâneos.

Precisamos urgentemente de um pacto global. Bloquear uma única plataforma, como o Discord, seria inócuo, pois os predadores simplesmente migrariam para outros ambientes digitais. A solução exige que as empresas de tecnologia abandonem seu discurso hipócrita de impotência e passem a utilizar todo seu impressionante arsenal tecnológico para proteger seus usuários, especialmente os mais vulneráveis.

Se essas corporações não criaram o mal que prospera em suas plataformas, hoje indubitavelmente se tornaram seus principais vetores. A sociedade não pode mais aceitar que gigantes tecnológicos, que monitoram meticulosamente nossos hábitos de consumo para otimizar lucros, aleguem incapacidade técnica para impedir crimes hediondos em suas redes. A liberdade da Internet, sonhada por seus visionários fundadores, foi sequestrada pelo lucro desenfreado. Está na hora de resgatá-la.

 

Debra Logan e Jorg Heizenberg, durante a abertura da Conferência Gartner Data & Analytics, em 28 de abril – Foto: divulgação

Dados ruins e falta de maturidade atravancam o avanço da IA

By | Tecnologia | No Comments

A inteligência artificial criou um tsunami de expectativas nos últimos anos, com a popularização das plataformas de IA generativa, como o ChatGPT. No entanto, a maioria das empresas ainda está longe de tirar proveito de tudo o que essa tecnologia pode oferecer.

Isso acontece, em grande parte, não por limitações técnicas, mas por falta de estratégia e de maturidade organizacional. Afinal, a IA será tão poderosa quanto forem a intenção, a cultura e a qualidade dos dados que a sustentarem.

Durante a Conferência Gartner Data & Analytics, que aconteceu nos dias 28 e 29 de abril, em São Paulo, especialistas internacionais discutiram os desafios e oportunidades da IA. O diagnóstico foi que a IA promete muito, mas sua entrega ainda é tímida.

O que se vê, na prática, é uma corrida por resultados rápidos, sem o amadurecimento necessário das bases de dados, da governança e principalmente da cultura organizacional. Para os especialistas, as equipes se desgastam em ciclos intermináveis de preparação de dados e expectativas insanas.

Eles afirmam que esse ritmo implacável está afetando o moral ainda mais rápido do que os recursos. Por isso, as equipes precisam superar a crescente complexidade e as dúvidas sobre sua capacidade de entrega. A tentação de simplificar demais ou buscar soluções rápidas é um caminho perigoso, que deve ser evitado a todo custo.


Veja esse artigo em vídeo:


Segundo Maryam Hassanlou, diretora-analista do Gartner, apenas metade dos modelos de IA desenvolvidos nas empresas é adotada, uma taxa considerada muito baixa. “Confiança é a principal peça que falta”, explica, e isso acontece porque essas plataformas normalmente são “caixas-pretas” que dificultam seu entendimento e incentivam um uso irresponsável dos dados, que, para piorar, têm baixa qualidade e às vezes são insuficientes.

“Especialmente em setores regulamentados, como saúde, finanças e direito, potenciais vieses e padrões legais representam outra camada de complexidade para previsões que exigem a compreensão do processo”, acrescenta. “É por isso que a explicabilidade da IA é fundamental para ganhar a confiança.”

A explosão do uso da IA gerou um paradoxo. Ela oferece uma interface extremamente simplificada, mas isso vem aumentando exponencialmente a complexidade dos resultados, exigindo novas habilidades das lideranças de tecnologia e gestores de dados. Michael Simone, diretor-analista sênior do Gartner, afirma que agora os líderes “precisam ser pensadores estratégicos e muitas vezes também diplomatas”, conectando-se aos objetivos do negócio e educando os usuários.

“Cada fornecedor adicionou IA aos seus produtos, criando uma abundância de opções com promessas semelhantes”, alerta Jorg Heizenberg, vice-presidente-analista do Gartner. Para ele, esse “AI washing” representa um risco para a confiança na tecnologia, pois promete demais e entrega de menos.

Por tudo isso, a alfabetização em dados e em IA é um fator crítico de sucesso. “Essa conversa não tem nada de conto de fadas, pois cultura é uma questão prática, de colocar a mão na massa”, assegura Heizenberg.

É preciso envolver toda a organização nisso. “Você precisa estabelecer uma cultura de aprendizagem contínua para você e suas equipes”, acrescenta Debra Logan, vice-presidente-analista do Gartner. A transformação cultural é tão importante quanto a tecnológica.

 

Não há “dado neutro”

É preciso abandonar a ilusão do “dado neutro”. Deepak Seth, diretor-analista do Gartner, foi enfático ao afirmar que “a IA é enviesada porque os dados com os quais foi construída são enviesados, porque nossa história é enviesada”. Assim, eles carregam vieses que precisam ser identificados e mitigados. Ignorar isso não é apenas antiético, mas um enorme risco.

A ética deve, aliás, guiar todas as decisões envolvendo dados e IA, desde a coleta até a aplicação. Sua governança é uma extensão da governança de TI, introduzindo três elementos: diversidade, transparência e confiança. Isso inclui o combate a vieses, a proteção da privacidade e o compromisso com a inclusão e a diversidade. A IA deve ser vista como ferramenta de amplificação humana, não de substituição.

“Podemos fazer com que a IA seja como nós, inclusive com nossas limitações, mas podemos torná-la uma inteligência complementar ou tentar criar uma superinteligência”, explica Seth. Para ele, essa última, que empolga muita gente, é algo muito distante. “O que realmente deveria estar no centro das atenções é a criação de uma inteligência complementar, que não nos substitui, que não é mais inteligente do que nós, mas que nos complementa, nos ajuda a sermos melhores naquilo que fazemos”, conclui.

A revolução da inteligência artificial está em curso, mas seu sucesso depende menos de algoritmos e mais de pessoas. A explicabilidade dos modelos, a transparência nos processos e a responsabilidade na aplicação da tecnologia não são apenas requisitos regulatórios, mas imperativos de negócio.

O futuro da IA deve ser guiado por intencionalidade, inclusão e inovação com responsabilidade. Não basta implementar tecnologia avançada: é preciso fazê-lo com propósito claro, incluindo todas as vozes na conversa e inovando de forma ética e sustentável. Só assim transformaremos o tsunami de expectativas em um oceano de realizações concretas, onde a tecnologia amplia o potencial humano em vez de substituí-lo ou diminuí-lo.

 

Sede do The Washington Post, que acaba de fechar acordo para distribuir seu conteúdo pelo ChatGPT - Foto: Daniel O'Neil/Creative Commons

Direitos autorais põem em dúvida de quem são os “ombros gigantes” onde a IA sobe

By | Jornalismo, Tecnologia | No Comments

O lançamento do ChatGPT no fim de 2022 plantou uma incômoda dúvida se as novas plataformas de inteligência artificial generativa estariam construindo seus impérios sobre obras alheias, sem autorização ou remuneração. Dois anos e meio depois, ela persiste e se intensificou.

A controvérsia ganhou novos capítulos recentemente. De um lado, a OpenAI firmou uma parceria com o The Washington Post para que seu ChatGPT publique resumos de notícias do jornalão. Do outro, figuras importantes do mundo digital defenderam abertamente a eliminação das leis de propriedade intelectual, uma postura radical e potencialmente destrutiva.

Essa divergência expõe uma fratura profunda no entendimento sobre como o futuro da tecnologia deve se relacionar com a criação humana. Enquanto os defensores da IA argumentam pelo uso irrestrito de conteúdos sob a bandeira do “uso justo”, produtores de conteúdo, desde artistas independentes até organizações como o The New York Times, movem processos alegando apropriação indébita.

A própria OpenAI, que defende seu direito de usar conteúdos alheios sem compensação ou mesmo autorização, não hesitou em acusar a empresa chinesa DeepSeek de violar sua propriedade intelectual quando a última lançou sua plataforma de IA. Essa contradição evidencia a complexidade e a hipocrisia desse debate.

Não se sabe como compensar financeiramente todos os criadores de conteúdo usados no treinamento da IA, e mesmo se isso é devido. Mas está cada vez mais difícil “empurrar com a barriga” a conclusão dessa disputa, que pode impactar profundamente o mundo, graças à penetração que a IA já construiu em nossas vidas.


Veja esse artigo em vídeo:


Em outros tempos, esse posicionamento dos executivos das big techs seria descartado como provocação barata. Mas em uma época em que sua influência na formulação de políticas públicas cresceu dramaticamente com a aproximação escandalosa desses magnatas ao novo presidente dos EUA, isso fica muito sério.

As empresas de tecnologia argumentam que, sem a flexibilização do “uso justo”, o desenvolvimento da IA será inviabilizado, entregando a liderança global dessa tecnologia absolutamente decisiva para a China. A OpenAI chegou a afirmar, com grande drama à Casa Branca, que a corrida pela IA estaria efetivamente encerrada para empresas americanas.

Sua postura incongruente evoca a famosa frase atribuída ao físico Isaac Newton: “se eu vi mais longe, foi por estar sobre os ombros de gigantes”. A afirmação reconhece que todo avanço intelectual se baseia em conhecimentos anteriores. Mas a OpenAI aplica essa filosofia apenas quando lhe convém.

A situação remete a Steve Jobs, que parafraseava Pablo Picasso dizendo que “bons artistas copiam; grandes artistas roubam” (na verdade, a frase de Picasso era “artistas menores tomam emprestado; grandes artistas roubam”). De fato, a história da tecnologia está repleta de casos assim, como a própria Apple, que desenvolveu a interface gráfica do Macintosh “roubando” conceitos da Xerox, cuja diretoria desprezou seus ícones e até o mouse, inventados pelos seus engenheiros da Califórnia.

Por outro lado, se os direitos autorais forem flexibilizados demais, corre-se o risco de desestimular a criação. Afinal, quem se dedicará a escrever livros, compor músicas ou apurar reportagens se souber que qualquer plataforma digital poderá usar o resultado de seu esforço, sem qualquer compensação, para alimentar máquinas que depois competirão com vantagem sobre seu próprio trabalho?

 

Impactos cognitivos e econômicos

Para além das questões legais, emergem preocupações sobre como essas tecnologias alteram nossa relação com a informação. Diferentemente dos resultados de um buscador tradicional, que apresenta diversas fontes e incentiva a navegação por diferentes perspectivas, as plataformas de IA oferecem respostas prontas, aparentemente definitivas.

Essa mudança tem implicações profundas do ponto de vista cognitivo. O usuário deixa de exercitar sua capacidade de análise, comparação e interpretação crítica de diferentes visões. Receber uma resposta “mastigada” pode parecer confiável, mas carrega riscos de imprecisão, viés e perda de contexto. Isso pode levar ao surgimento de uma geração com dificuldade para construir argumentos originais.

Essa lógica também ameaça a sustentabilidade dos sites de conteúdo. Se o usuário não precisa mais visitar as páginas originais, seu tráfego cai. Isso leva à diminuição de receitas de publicidade e assinaturas, fragilizando ainda mais o jornalismo profissional. É o paradoxo que o ChatGPT, ao destacar o bom jornalismo, contribui para sua erosão, reduzindo a diversidade das fontes disponíveis.

Há muitos conflitos nessa história para se oferecer uma saída simples. A parceria entre a OpenAI e o The Washington Post, com resumos autorizados, links e atribuição clara, precisa ainda ser validada, pois vejo os usuários se satisfazendo com o que a IA lhes trouxer, não sentindo necessidade de visitar as páginas originais.

A decisão dos EUA sobre essa questão terá repercussões globais. Se o país flexibilizar excessivamente os direitos autorais para beneficiar as big techs, outros países devem seguir o exemplo, desestabilizando indústrias criativas e potencialmente ampliando problemas como falsificação e pirataria.

A inteligência artificial já está entre nós, e não há como retroceder, pois seus benefícios são reais e inegáveis. Mas é urgente compreender seus impactos, e buscar equilíbrios.

Usuários, empresas de tecnologia, criadores de conteúdo, legisladores e a Justiça precisam debater de forma aberta, crítica e colaborativa como construir um ecossistema justo, com um ambiente onde os “gigantes” continuem a nos ajudar a enxergar mais longe, mas sem esquecer de quem são esses ombros.

Afinal, roubar com talento ainda é roubo. E a história mostra que os “piratas do Vale do Silício” sempre foram mestres nesse ofício.

 

Segundo a empresa de segurança digital Tenable, plataformas de IA na nuvem sofrem ameaças do “efeito Jenga” – Foto: Creative Commons

Inteligência artificial escancara como a inovação desgovernada ameaça os negócios

By | Tecnologia | No Comments

A explosão do uso da inteligência artificial nas empresas tem gerado uma corrida por eficiência e inovação. Mas junto com os benefícios, crescem as falhas de segurança. Segundo o relatório “Riscos da IA na Nuvem 2025”, recém-publicado pela empresa de segurança digital Tenable, 70% das aplicações com IA em servidores online têm pelo menos uma vulnerabilidade crítica, frente aos 50% em ambientes sem IA.

O problema não vem da tecnologia, e sim de descuidos. Em uma pesquisa realizada pela consultoria Forrester para a Tenable em 2023, 76% dos responsáveis pela implantação de IA afirmaram estar mais preocupados com disponibilidade que com segurança. Essa busca frenética por lançamentos e resultados atropela processos fundamentais, como testes de robustez e revisão de código e de dados.

Segundo a pesquisa global da consultoria McKinsey sobre o uso de IA publicada no mês passado, 78% das organizações já a utilizavam em pelo menos uma atividade de seu negócio em julho de 2024, um salto expressivo em relação aos 55% no fim de 2023. O uso de IA generativa passou de 33% para 71% no mesmo período.

Já o relatório do “Custo das violações de dados de 2024”, publicado pela IBM, mostra que o custo médio de um vazamento de dados saltou 10% em um ano, chegando a US$ 4,88 milhões (no Brasil, esse valor é de US$ 1,36 milhão). O prejuízo não é apenas financeiro, envolvendo paralisação de operações, multas regulatórias, perda de confiança e danos de reputação que podem levar anos para serem reparados.

Tudo isso acende um grande alerta vermelho: empresas de todos os setores estão massivamente abraçando a inteligência artificial sem os cuidados necessários para que essa tecnologia traga resultados confiáveis sem ameaçar suas operações.


Veja esse artigo em vídeo:


Pressionadas por acionistas e pelo mercado, as empresas relaxam com os cuidados. “Na tentativa de acompanhar a revolução trazida pela IA, organizações avançaram a toda velocidade, ignorando inúmeros sinais de alerta de segurança, privacidade e conformidade”, explica Arthur Capella, diretor-geral da Tenable no Brasil. Segundo ele, 38% delas sofrem da chamada “tríade tóxica”, composta por alta exposição, privilégios excessivos e vulnerabilidades críticas, elevando drasticamente seus riscos.

Tais privilégios se referem ao que os usuários podem fazer nos sistemas. Como muitos gestores de TI mantêm as configurações padrão nas plataformas, as pessoas acabam tendo mais poder do que deveriam. Essa falta de rigor contrasta com a filosofia “Zero Trust”, que parte do princípio de que nenhum usuário ou sistema é confiável por padrão, exigindo autorização contínua.

A complexidade aumenta com o que a Tenable chama de “Efeito Jenga”. Assim como no famoso jogo, em que cada bloco sustenta toda a torre, os provedores de nuvem costumam empilhar serviços de IA uns sobre os outros, com privilégios excessivos, criando riscos às vezes invisíveis aos usuários. Daí basta uma configuração insegura em um deles para comprometer toda a arquitetura, graças a essa interdependência.

Parte desse problema acontece porque o modelo de responsabilidade compartilhada na nuvem é mal compreendido. Muitas empresas acreditam que o provedor garante toda a segurança, quando, na verdade, a configuração e o controle de acessos são responsabilidade do cliente. É como alugar uma loja em um shopping, que garante a segurança do prédio, mas quem define quem entra e sai da loja é seu proprietário.

A cultura da segurança da informação deve, portanto, permear todos os setores e níveis das empresas. Não se trata apenas de identificar lacunas, mas de classificar componentes de IA e avaliar o impacto ao negócio, entendendo suas vulnerabilidades.

 

Muito além de TI

“A tecnologia não é mais apenas a tarefa do TI”, afirma Capella. “Ela envolve todas as camadas do negócio e gera vantagens competitivas, consequentemente a segurança da informação deve ser discutida com o board”, acrescenta, ressaltando sua urgência.

No Brasil, ela é agravada por uma abordagem muito reativa. Segundo o estudo da Forrester, 60% das equipes de segurança nacionais se concentram no combate a ataques consumados, em vez de trabalharem para evitá-los. Isso se deve à falta de visão de ativos desconhecidos, de recursos de nuvem, de fragilidades de código e de permissões de usuários. E 72% dos entrevistados reconhecem que seriam muito mais eficazes se dispusessem de recursos preventivos e ferramentas adequadas.

Estamos diante de um paradoxo. Quanto mais inteligente fica a tecnologia, mais frágeis se tornam suas fundações, se não forem cuidadas com rigor. A IA e a computação em nuvem não são à prova de falhas, e tornam as estruturas digitais mais complexas e, portanto, vulneráveis.

Entretanto, vale lembrar que a IA também é parte da solução. Se hackers a usam para criar golpes personalizados e malwares, defensores se valem dela para detectar ameaças e responder em tempo real, prevenindo fraudes e monitorando comportamentos. Mas essa IA também precisa ser protegida contra manipulações, desenvolvimento de vieses e “envenenamento de dados”.

Esse é um novo desafio estratégico. As companhias devem, por exemplo, estar atentas a como essa nova situação as expõe a riscos frente à Lei Geral de Proteção de Dados (LGPD). Afinal, segundo a legislação, não importa se um vazamento ocorreu em uma ferramenta de IA, mas sim que ele ocorreu e que danos foram causados.

A transformação digital impulsionada pela IA é irreversível. Negá-la significa ficar rapidamente para trás. Por outro lado, abraçá-la sem uma nova mentalidade de risco e de segurança cria problemas novos e graves. As lideranças empresariais precisam encarar a segurança da IA não como um custo ou uma barreira à inovação, mas como um ativo estratégico fundamental.

Investir em prevenção, governança robusta, cultura de segurança distribuída pela organização e capacitação contínua das equipes é o caminho para garantir que a inovação seja sustentável. O Brasil tem a oportunidade de se destacar globalmente se conseguir equilibrar agilidade e segurança, tornando-se referência em proteção na era da IA. Mas, para isso, precisa fazer os movimentos necessários. Os líderes que continuarem empilhando descuidadamente blocos da inovação sobre bases instáveis descobrirão, mais cedo ou mais tarde, que suas torres digitais também podem ruir.

 

O ministro da Educação, Camilo Santana, e o presidente do Inep, Manuel Melo, apresentam o Censo Escolar – Foto: José Cruz/Agência Brasil

Educação busca caminhos entre demagogia política e desafios digitais

By | Educação, Tecnologia | No Comments

Entre discursos políticos inflados e dados contraditórios, a educação brasileira navega por águas turbulentas. De um lado, o governo celebra avanços questionáveis na alfabetização. De outro, crianças cada vez mais imersas no universo digital enfrentam desafios cognitivos inéditos.

A dúvida sobre quantos brasileiros estavam alfabetizados no 2º ano do Ensino Fundamental em 2023 simboliza um impasse educacional contemporâneo. Depois de críticas pela demora, o Ministério da Educação (MEC) finalmente divulgou, no dia 3, dados do Sistema de Avaliação da Educação Básica (Saeb), com esse índice em 49,3%. Ele é significativamente menor do que os 56% anteriormente anunciados pelo mesmo MEC no programa Criança Alfabetizada. O governo afirma que o último é mais preciso, mas especialistas desconfiam disso, pela diferença nada desprezível de 7%.

Ao mesmo tempo, educadores encaram uma geração com menos capacidade de concentração e autonomia. Por isso, entre demagogos que distorcem diagnósticos e a revolução digital que transforma mentes, o Brasil precisa de uma política educacional onde transparência nos dados e uso consciente da tecnologia se tornam não apenas desafios técnicos, mas imperativos éticos para o futuro das crianças.

O celular na mão de um estudante pode ser tanto uma janela para o conhecimento quanto uma distração constante que prejudica seu aprendizado. O problema não está na tecnologia em si, mas em como a utilizamos. O uso passivo e exagerado de telas fragmenta a atenção, justamente quando precisamos fortalecer as bases cognitivas de uma geração com graves déficits educacionais.

Esse não é um problema exclusivamente brasileiro, claro. O impacto do meio digital no desenvolvimento cognitivo e na educação vem sendo discutido há anos no mundo todo, resultando em iniciativas mais ou menos acertadas em vários países.


Veja esse artigo em vídeo:


No Brasil, desde o início desse ano letivo, alunos do Ensino Básico estão proibidos de usar celulares nas escolas, exceto em atividades sob orientação dos professores. A medida é aprovada por educadores e pela população, mas enfrenta dificuldades, como resistência cultural, fiscalização difícil, apoio da comunidade escolar, capacitação dos professores e preocupações com a boa integração da tecnologia na escola.

Já a Austrália adotou uma posição mais radical no ano passado, proibindo qualquer uso de redes sociais por pessoas com menos de 16 anos. A decisão veio da pouca colaboração dessas plataformas no combate a graves riscos que a enxurrada de conteúdos nocivos em suas páginas impõe a crianças e adolescentes.

“Não acredito em extremos”, afirma a professora Adriana Pavarina, mestre em Psicologia Educacional e avaliadora no INEP/MEC. “Acredito que política pública equilibrada reconhece a complexidade do uso de redes sociais por adolescentes, buscando proteger seus direitos e bem-estar, ao mesmo tempo em que os prepara para navegar no mundo digital de forma segura e responsável”, acrescenta.

Nesse sentido, a Base Nacional Comum Curricular para Computação, homologada pelo MEC em 2022, busca unir a alfabetização tradicional e o letramento digital. Em vez de focar apenas no manuseio de ferramentas, ela enfatiza habilidades cognitivas fundamentais, como análise e interpretação de dados, resolução de problemas complexos, processos de criação, inovação e compreensão de algoritmos.

Se desenvolvidas adequadamente, essas habilidades fortalecem as capacidades necessárias para a alfabetização convencional, como atenção sustentada, pensamento sequencial e compreensão profunda. Mas ainda hoje, em muitas escolas, a tecnologia continua sendo limitada ao ensino de ferramentas específicas e em noções básicas de informática.

 

O risco de uma “geração de preguiçosos”

Nesse cenário, a inteligência artificial generativa surgiu com enorme força, impactando todos os setores da sociedade, inclusive a educação. E assim como acontece com outras tecnologias digitais, ela oferece incríveis oportunidades, mas também armadilhas para professores e alunos, dependendo de como for usada.

“Existe um risco real de formarmos uma geração de ‘preguiçosos cognitivos’ se a tecnologia for utilizada de forma predominantemente passiva, como uma muleta para evitar o esforço mental”, explica Pavarina. Segundo ela, “a facilidade de encontrar respostas prontas, de usar aplicativos para realizar cálculos ou do consumo de conteúdos superficiais pode, a longo prazo, enfraquecer as habilidades cognitivas”.

Por outro lado, a IA emerge como uma poderosa ferramenta de ampliação cognitiva. Ela pode ser usada, por exemplo, em assistentes virtuais para pesquisas, plataformas de aprendizado adaptativo e ferramentas de análise de dados. Também pode ajudar professores no desafio permanente de criar atividades atraentes para manter a atenção dos alunos, e ricas em informações e desafios para promover o aprendizado profundo. Mas para isso, os docentes precisam ser capacitados tecnicamente e em princípios éticos da IA, incentivando um uso produtivo, seguro e responsável.

Os recursos devem ser usados para reintroduzir o “esforço cognitivo prolongado” em uma geração que as redes sociais acostumaram à gratificação instantânea e vazia. Precisamos reconstruir a valorização do processo e da recompensa em longo prazo, com estratégias que os motivem a encarar tarefas desafiadoras, incentivar a leitura profunda e a escrita elaborada, conectar o aprendizado a objetivos significativos, criar um ambiente de aprendizagem que valorize o esforço, usar a tecnologia de forma estratégica e conectar o aprendizado ao mundo real e às experiências práticas.

“Essa transição não será imediata, muito menos simples, mas, com estratégia e uma mudança na mentalidade sobre o aprendizado, é possível ajudar as novas gerações a desenvolverem a capacidade de se engajarem em tarefas intelectuais mais desafiadoras e a colherem as recompensas de um aprendizado mais profundo e significativo”, afirma Pavarina.

Mesmo com sua diferença, os índices de alfabetização do Saeb e do “Criança Alfabetizada” servem como um lembrete contundente de que a jornada da educação na era digital está longe de ser uma linha reta e suave. A tecnologia não é vilã nem salvadora da educação brasileira, mas a impacta profundamente segundo seus usos.

É preciso mais clareza, mais transparência e, acima de tudo, um olhar atento e crítico para o impacto da tecnologia em nossas crianças e adolescentes. A “preguiça cognitiva” não pode ser o legado desta geração. O esforço, a curiosidade e a sede por conhecimento devem ser os pilares de um futuro em que o digital seja um aliado poderoso, e não um entrave, para o desenvolvimento pleno de cada indivíduo.

 

O anjo Aziraphale (Michael Sheen) e o demônio Crowley (David Tennant), protagonistas da série "Belas Maldições" - Foto: reprodução

“Cultura do cancelamento” enfrenta a Justiça com a força das redes sociais

By | Tecnologia | No Comments

Fãs da série “Belas Maldições” (“Good Omens”) ficaram desolados com o anúncio de que sua terceira temporada seria reduzida a um único episódio de 90 minutos, encerrando prematuramente esse sucesso do Amazon Prime Video. A decisão veio devido a graves acusações de abuso sexual contra Neil Gaiman, produtor e coautor da obra original, trazendo à tona questões sobre a “cultura do cancelamento”, um dos efeitos mais nefastos das redes sociais.

É importante que fique claro que isto não é uma defesa de Gaiman. As denúncias contra ele são graves e os indícios, consistentes. Se comprovadas, devem resultar na condenação apropriada.

Por outro lado, o caso ainda está em investigação e o autor sequer foi indiciado. Mesmo assim, já foi julgado e condenado pelo “Tribunal da Internet”. Como pena, sua reputação ficou seriamente comprometida, e vários projetos seus, como as séries “Belas Maldições” e “Sandman”, foram interrompidos ou abreviados.

A “cultura do cancelamento” contraria a presunção de inocência, um princípio fundamental em muitos sistemas legais. No Brasil, a Constituição estabelece, no artigo 5º, que “ninguém será considerado culpado até o trânsito em julgado de sentença penal condenatória”. Isso garante que um acusado seja tratado como inocente até que sua culpa seja comprovada em um julgamento justo e definitivo.

Engana-se quem pensa que apenas celebridades passam por isso. Como as redes sociais se beneficiam da polarização e do ódio, sem assumir responsabilidades pelo que distribuem, o fenômeno cresce e pode afetar qualquer pessoa. Entender esse mecanismo tornou-se essencial para autopreservação no ambiente digital.


Veja esse artigo em vídeo:


Gaiman enfrenta denúncias de oito mulheres. A única com o nome revelado é Scarlett Pavlovich, ex-babá do filho de Gaiman, que acusa o autor e sua ex-esposa Amanda Palmer de estupro e tráfico humano. Ele nega tudo, afirmando que todas as relações sexuais que teve foram consensuais e que as acusações visam acordos financeiros.

Dois casos relativamente recentes com famosos ilustram como a “cultura do cancelamento” pode prejudicar muito suas vidas, mesmo quando acabam inocentados na Justiça. Um deles foi o ator Kevin Spacey, absolvido em 2023 de nove acusações de crimes sexuais no Reino Unido. Outro foi o ator Johnny Depp, que venceu o processo contra a ex-esposa, a também atriz Amber Heard, que o acusava de abusos físicos e emocionais. Mesmo assim, ambos continuam com dificuldades profissionais.

Esses exemplos demonstram como a “cultura do cancelamento” vem substituindo os devidos processos legais. Diferente do Judiciário, o “Tribunal da Internet” opera por emoções e achismos, sem considerar todas as evidências ou permitir defesa. Quando a opinião pública se torna juíza e executora, a presunção de inocência some, e as punições são aplicadas imediatamente, muitas vezes de forma irreversível.

A situação se agrava porque empresas associadas aos acusados vêm se apavorando com o risco de suas próprias reputações serem afetadas. Pressionadas pela opinião pública, frequentemente cancelam contratos antes de qualquer conclusão das investigações oficiais. Assim, a mera acusação torna-se suficiente para destruir carreiras, independentemente da veracidade dos fatos.

Entre os efeitos mais nocivos dos “cancelamentos”, está a inibição do debate democrático, silenciando vozes discordantes, criando medo e autocensura. Isso impossibilita diálogos saudáveis, o que frequentemente resulta em injustiças e punições desproporcionais. Em vez de promover a resolução construtiva de conflitos, prioriza o castigo e a exclusão, minando a confiança nas instituições da sociedade.

Eles também causam impactos devastadores na saúde mental. Ansiedade, depressão e isolamento social são consequências comuns para os alvos da fúria coletiva nas redes sociais, com danos psicológicos duradouros. Sem análise aprofundada, pessoas inocentes podem ter suas vidas destruídas por acusações falsas.

 

Recuperação difícil

Recuperar-se de um “cancelamento” é um processo árduo e frequentemente incompleto. Mesmo quando inocentada judicialmente, a pessoa enfrenta desafios significativos para restaurar sua imagem e carreira.

A reabilitação exige tempo e esforço, envolvendo realizações e entrevistas para reconstruir a reputação. Ainda assim, a memória das denúncias afeta permanentemente como a pessoa é vista. No âmbito profissional, projetos podem não ser retomados e parcerias podem ser irrecuperáveis. Reconstruir a carreira significa frequentemente começar do zero, enfrentando ceticismo e desconfiança constantes.

Como já foi dito, apesar desses exemplos reluzentes, um “cancelamento” pode vitimar qualquer pessoa, e igualmente lhe causar danos profundos. Funcionários podem ser demitidos, estudantes podem ser expulsos e pequenos negócios podem ser boicotados por acusações não-verificadas. Por isso, todos precisam aprender a se proteger disso, o que envolve cuidado ao se expressar. Ser claro ao se comunicar e pensar antes de falar são práticas essenciais para evitar mal-entendidos no cotidiano.

Desenvolver empatia e uma escuta ativa ajudam a compreender diferentes perspectivas, reduzindo o risco de ofensas involuntárias. É também importante ter cuidado com piadas e comentários controversos, avaliando seu potencial ofensivo.

Em um mundo com redes sociais controlando nossas vidas, a gestão da reputação online tornou-se crucial. Monitorar o que é dito sobre você nessas plataformas e responder imediatamente a rumores podem evitar sérias dores de cabeça. Além disso, construir relacionamentos positivos com influenciadores e formadores de opinião ajuda a mitigar crises. Uma imagem pública coerente e empática serve como prevenção.

Por tudo isso, esta destruição de reputações representa uma injustiça que deve preocupar a todos. O “efeito manada” cria multidões dispostas a destruir alguém apenas pelo que “se ouviu dizer”. O “cancelamento” é uma ferramenta de intolerância.

Combater essa cultura não significa defender comportamentos prejudiciais, mas, sim, um processo justo, baseado em evidências e no respeito aos direitos fundamentais. Cabe a cada um de nós, às redes sociais e à sociedade promover um ambiente digital mais transparente e responsável, onde acusações sejam tratadas com seriedade, mas também com o cuidado que a Justiça exige.

 

A ministra de Ciência, Tecnologia e Inovação, Luciana Santos - Foto: Fabio Rodrigues-Pozzebom/Agência Brasil

Brasileiros abraçam a IA, mas precisam vencer desafios para sua implantação plena

By | Tecnologia | No Comments

Os brasileiros têm fama de abraçar novas tecnologias rapidamente, especialmente as digitais. Isso se vê, por exemplo, no amplo uso de smartphones e redes sociais no país, que sempre lidera rankings internacionais nisso. Também vem sendo observado no nosso uso entusiasmado da inteligência artificial. Mas essa euforia enfrenta severos obstáculos que podem prejudicar resultados, especialmente nos negócios.

A pesquisa “Inteligência artificial no mundo corporativo”, divulgada no dia 11 pela gigante de software alemã SAP, mostra que 52% dos gestores brasileiros têm percepção muito positiva sobre essa tecnologia e outros 27% a encaram de forma favorável, mas com ressalvas. Na América Latina, esses números são 43% e 38%.

Para 29% desses gestores, o maior desafio é não saber como incorporar a IA no negócio, enquanto 28% afirmam que não há profissionais qualificados para isso, problemas que caminham de mãos dadas. Mas o Brasil enfrenta outra grande barreira nesse setor: dependemos demais de tecnologias importadas.

A princípio, isso não pareceria tão grave. O Brasil historicamente consome tecnologia digital de fora, graças ao sucateamento de nossa indústria e de nossa ciência, principalmente a de base. Continuaremos fazendo isso com a inteligência artificial. Mas suas características tornam essa dependência mais perigosa.

O quadro piora com o posicionamento errático da administração Donald Trump, que já usa a IA como arma geopolítica. No dia 13, a OpenAI, criadora do ChatGPT, apresentou uma série de propostas ao governo americano para supostamente manter a liderança dos EUA no setor. Entre elas, sugere uma restrição de exportações da IA a países “democráticos” (conceito que varia com o vento nos cabelos de Trump).

Isso cria uma divisão geopolítica artificial, condicionando o acesso à IA à subordinação de nações a interesses americanos, reforçando essa dependência tecnológica e perpetuando desigualdades globais. Esse é um risco que o Brasil não pode manter.


Veja esse artigo em vídeo:


Sendo uma tecnologia altamente disruptiva, a IA já transforma diversos setores da economia. Para isso, requer infraestrutura avançada e capacitação de profissionais qualificados. Sem investimentos significativos, o Brasil pode ficar para trás em ambos, dificultando a absorção e o uso eficaz dessa tecnologia, o que pode também aumentar os riscos de segurança e privacidade, pois dados sensíveis ficam sujeitos a leis estrangeiras.

Isso também limita nossa capacidade de inovar e ajustar soluções às nossas necessidades, além de comprometer a autonomia tecnológica do país. Como a IA automatiza muitas funções, a falta de investimentos em capacitação impõe ao Brasil desafios adicionais no mundo do trabalho e na adaptação ao avanço tecnológico.

Diante desse cenário, as empresas se mobilizam. Segundo a pesquisa da SAP, 62% dos gestores locais já capacitam seu pessoal para sanar este gargalo e outras 35% pretendem fazer isso ainda em 2025. “As empresas brasileiras trazem inovação no seu DNA, tanto na geração de diferencial competitivo, quanto na otimização de processos”, afirma Rogério Ceccato, diretor de pré-vendas da SAP Brasil. “Isso se explica com a maior maturidade do mercado brasileiro no cenário latino-americano.”

A IA generativa pode ajudar a reduzir esse problema, dispensando os profissionais de dominarem aspectos técnicos da tecnologia. Ceccato explica que assistentes, como a Joule da SAP, ajudam um profissional de vendas, por exemplo, a criar agentes de IA sem apoio técnico, concentrando-se no seu conhecimento do negócio. “Soluções com estratégia low-code/no-code (sem programação) permitem que mais profissionais dominem a IA”, acrescenta.

Além disso, alguns exemplos internacionais recentes animaram empresários e pesquisadores brasileiros a investirem mais em inteligência artificial. O mais marcante foi o chinês DeepSeek, que em janeiro demonstrou ser possível desenvolver um LLM (modelo de linguagem de grande porte) com qualidade comparável aos melhores do mundo, como o ChatGPT, por uma pequena fração dos seus investimentos.

Criou-se, assim, um novo paradigma, que retirou das big techs o “direito a dominar sozinhas” esse mercado.

 

Investimentos brasileiros

Na época, a ministra de Ciência, Tecnologia e Inovação, Luciana Santos (foto), disse que o Brasil desenvolverá seu próprio modelo de IA, citando o DeepSeek como exemplo. Ela lembrou que existia a ideia de que os investimentos para competir nessa tecnologia seriam proibitivos para países emergentes, mas os chineses mudaram isso, mesmo impedidos pelos EUA de comprar processadores mais poderosos.

Antes disso, no dia 30 de julho, o governo brasileiro anunciou o Plano Brasileiro de Inteligência Artificial. Ele detalha uma estratégia ambiciosa para os padrões brasileiros, com investimento de R$ 23 bilhões até 2028, para o desenvolvimento e aplicação ética e sustentável da IA no país.

O plano prevê a compra de um dos cinco supercomputadores mais avançados do mundo, que deve ser alimentado por energias renováveis. Também propõe o desenvolvimento de modelos de linguagem em português, treinados com conteúdo nacional, que contemplem nossas características culturais, sociais e linguísticas.

Sensível à falta de profissionais no setor, o projeto também destaca a capacitação em larga escala para atender a essa demanda. Por fim, reforça que o desenvolvimento da IA seja ético e responsável, promovendo a transparência algorítmica e a proteção de dados, itens críticos para o setor, mas pouco observados nos produtos americanos.

As propostas são interessantes e muito bem-vindas, mas a sociedade precisa acompanhar sua implantação, para que não se torne mais uma ideia populista que se perca na burocracia. A IA não pode ser mais uma revolução tecnológica que o Brasil apenas observe de longe.

Um esforço coordenado entre governo, academia e setor privado é imprescindível! Os programas já existentes precisam ser ampliados, especialmente para a formação de talentos e o desenvolvimento de propriedade intelectual nacional. Ainda podemos nos tornar protagonistas em nichos do ecossistema de IA.

As atuais restrições podem se traduzir em inovação acelerada. Mas, para isso, o Brasil precisará mobilizar recursos e talentos com a velocidade necessária para superar esse fosso tecnológico antes que se torne intransponível ou que eventuais restrições abalem decisivamente nossa transformação digital.

 

Lara (Ellen Parren) vive drama em “Eu Não Sou um Robô”, por não conseguir passar por um teste em seu computador - Foto: reprodução

Curta vencedor do Oscar alerta sobre nossa desumanização pela dependência tecnológica

By | Tecnologia | No Comments

No domingo de Carnaval, com os brasileiros comemorando o Oscar de Melhor Filme Internacional para “Ainda Estou Aqui” e lamentando que sua protagonista, Fernanda Torres, não levou o de Melhor Atriz, a vitória do holandês “Eu Não Sou um Robô” (“I’m Not a Robot”) no prêmio de Melhor Curta-Metragem, dirigido por Victoria Warmerdam, passou praticamente despercebido. Mas ele promove uma importantíssima reflexão sobre o nosso tempo: estamos nos tornando muito dependentes da tecnologia, e isso pode ameaçar nossa humanidade.

Há décadas, a ficção nos alerta sobre esse risco, mas nunca imaginaríamos que uma validação automática pudesse nos fazer questionar quem somos. É exatamente esse o dilema vivido por Lara (Ellen Parren), a produtora musical protagonista da obra, que mergulha em uma crise existencial após falhar repetidamente em testes CAPTCHA, aqueles desafios online usados para distinguir humanos de robôs, nos quais é preciso clicar, por exemplo, nas “imagens com hidrantes”.

A sociedade vem sendo profundamente influenciada pelas big techs para abraçar a tecnologia como algo quase mágico, sem medir as consequências. Poucas vozes questionam esse movimento. Quem ousa fazer isso recebe rótulos de antiquado ou resistente ao progresso, normalmente injustos.

Apesar de ser uma ficção, o curta toca em questões muito reais. Vivemos em uma era em que sistemas cada vez mais eficazes e surpreendentes nos ajudam muito, mas também trazem consequências nocivas que às vezes ignoramos. Se nada for feito para corrigir essa dependência excessiva, podemos ultrapassar um limiar perigoso, onde a tecnologia não mais nos serve, mas nos define.


Veja esse artigo em vídeo:


Warmerdam criou uma sátira angustiante sobre nossa relação com a tecnologia. A incapacidade de Lara passar nos testes a coloca em uma jornada surreal, levando-a a questionar crescentemente sua própria humanidade. Assim, a obra explora temas como identidade, autonomia e o impacto da tecnologia na percepção humana.

Parren equilibra perfeitamente o humor absurdo com uma crítica social afiada, tornando a personagem ainda mais marcante. Afinal, ela é realmente um robô que desconhece sua verdadeira natureza? Ou será que a tecnologia falha ao identificar o que é ser humano? Esses dilemas existenciais são os elementos mais potentes do curta, reforçando sua crítica à dependência da validação digital, tornando a proposta ainda mais cortante! O absurdo da situação nos faz rir, mas também nos obriga a refletir sobre nossos comportamentos frente à digitalização da vida.

Já terceirizamos nosso pensamento para buscadores, dependemos de GPS para nos locomover e deixamos algoritmos influenciarem nossas decisões diárias, ainda mais com o avanço da inteligência artificial. Quando não têm acesso a essas tecnologias, muitos se sentem perdidos, como se parte de sua identidade tivesse sido removida.

Em alguns casos, um erro técnico pode bloquear nosso acesso a serviços essenciais, tornando-nos praticamente “invisíveis” para a sociedade. Mas precisamos encarar nossa atitude frente a essa dependência tecnológica, que pode prejudicar habilidades cognitivas cruciais, como memória, raciocínio e criatividade. Resolver problemas por conta própria é fundamental para o desenvolvimento humano.

Não dá para dizer que “isso só acontece com os outros”. Quem nunca ficou ansioso por perder o acesso à Internet? A incapacidade de lembrar informações básicas sem consultar o celular, a preferência por interações digitais em detrimento das presenciais, ou a sensação de que nossas realizações só valem quando publicadas e validadas nas redes sociais são outros sinais de que “passamos do ponto”.

Se um sistema de reconhecimento facial falha em nos identificar, um algoritmo de busca não entende nossa pergunta ou quando um assistente virtual não compreende nosso sotaque, sentimos uma frustração que vai além do incômodo prático. É quase uma negação de nossa existência!

 

Recuperando o controle

Para evitar que percamos o controle do que somos, precisamos adotar estratégias conscientes. E isso passa por questionar recomendações das plataformas digitais, tomar decisões sem depender delas e exercitar a memória. Ou seja, lembrar a nós mesmos que podemos também viver sem as máquinas, como sempre fizemos!

O contato humano e o mundo físico precisam ser valorizados. Participar de encontros presenciais e realizar atividades ao ar livre são antídotos eficazes contra a digitalização excessiva da vida. Além disso, falar com pessoas em vez de chatbots preserva o elemento humano nas interações.

Devemos também variar as fontes de informação e usar a tecnologia com propósito claro, em vez de consumir passivamente o que as plataformas sugerem: isso nos ajuda a manter o senso crítico. E pausas regulares no uso desses serviços permitem reavaliar nossa relação com o mundo digital.

“Eu Não Sou um Robô” nos ensina que a tecnologia deve ser uma ferramenta para ampliar nossas capacidades, não um fator determinante da nossa identidade e muito menos da nossa humanidade. Se confiarmos demais nela a ponto de comprometer nossa autonomia, corremos o risco de nos tornarmos reféns daquilo que criamos.

A obra é uma metáfora poderosa sobre a burocracia digital, a vigilância algorítmica e a automação excessiva, que nos transformam em dados e perfis, em vez de seres humanos complexos e autônomos. A tecnologia pode e deve ser usada para facilitar a vida, mas precisamos garantir que ela continue sendo um meio, e não um fim.

Em tempos de IA galopante, a verdadeira inteligência está na capacidade de equilibrar o poder do mundo digital com a experiência humana. Essa é a lição mais valiosa desse pequeno grande filme.

No fim das contas, somos muito mais do que aquilo que um teste CAPTCHA pode definir.

 

Mesmo com digitalização da sala de aula, a figura do professor continua imprescindível - Foto: Zinkevych (Freepik)/Creative Commons

Com a volta às aulas, IA amplia debate sobre a tecnologia na educação

By | Tecnologia | No Comments

Com a inteligência artificial avançando exponencialmente e de maneira transversal em nossas vidas, a volta às aulas, no início de fevereiro, reabriu o debate sobre a digitalização da escola. Apesar da rápida evolução dessa tecnologia, seu uso ainda é limitado nas salas de aula brasileiras, principalmente porque muitos professores não sabem como incorporá-la em seus planos de aula. Enquanto isso, os alunos a abraçam, deixando para os educadores a tarefa espinhosa de encontrar formas de avaliar os estudantes de forma justa e eficaz nessa realidade.

Mas o debate vai muito além disso. Em abril passado, o governo paulista anunciou que passaria a usar a IA na produção do conteúdo didático distribuído a professores da rede estadual de ensino. A proposta foi alvo de muitas críticas, pois a IA generativa ainda erra muito em suas produções. Professores conteudistas responsáveis por verificá-las argumentaram que é mais trabalhoso fazer isso do que produzir um conteúdo totalmente novo. Mesmo assim, o projeto foi implantado.

Resistir a essa tecnologia não faz sentido: ela efetivamente pode ajudar os professores de diferentes formas. Por outro lado, incorporá-la de maneira descuidada ou inconsequente pode trazer muitos prejuízos à educação.

A personalização do ensino pela IA permite adaptar o conteúdo às necessidades individuais dos alunos, enquanto a automação de tarefas administrativas libera tempo precioso para interações ricas e atividades criativas. Ela também pode ajudar na inclusão, oferecendo recursos adaptados para alunos com necessidades especiais.

O problema é que a formação continuada dos professores no tema é insuficiente ou nula! Isso aumenta a desconfiança de muitos deles e atrasa a adoção da tecnologia.

O diálogo aberto e a capacitação contínua são essenciais para se compreender que a IA pode ser uma poderosa aliada, mas também que a educação não se restringe a uma transmissão de conteúdos que possa ser automatizada. Ela envolve empatia, mediação de conflitos, formação do pensamento crítico e desenvolvimento social, habilidades que nenhuma IA tem para substituir a interação humana na sala de aula.


Veja esse artigo em vídeo:


Os professores precisam de apoio para se apropriar da IA. Mesmo quem já a usa, precisa aprender a incorporar esse poder em seus planos de aula. Algumas ilhas de excelência oferecem treinamentos, mas essas iniciativas são pontuais e não atingem a maioria dos professores, especialmente em regiões com menos recursos tecnológicos.

O impacto da IA na avaliação exemplifica isso. Professores que insistam em métodos tradicionais terão mesmo problemas. Agora é preciso diversificar os métodos, apostando em apresentações orais, projetos em grupo em sala e discussões nas quais o professor possa observar o raciocínio. O acompanhamento próximo durante todo o processo de aprendizagem ganha espaço. E o uso da IA pode ser incentivado como ferramenta, mas com os alunos desenvolvendo autonomia e pensamento crítico.

Assim como em qualquer setor, implantar a IA na educação requer planejamento e estrutura. Em primeiro lugar, deve-se identificar necessidades e oportunidades com que a tecnologia possa efetivamente contribuir, criando então objetivos claros em linha com a proposta pedagógica. A partir disso, deve-se descobrir quais plataformas atendem essas demandas.

Nesse contexto, entram o engajamento e a capacitação dos professores. Pela minha experiência, se eles não comprarem a ideia, compreenderem seu funcionamento e usarem no cotidiano, nenhum produto prospera na escola. Ainda assim, a introdução da tecnologia deve ser gradual, monitorando resultados e fazendo ajustes continuamente.

Tudo isso introduz uma mudança considerável no processo pedagógico. Se bem-feita, pode alterar a relação dos alunos com a tecnologia, além dos limites da escola. Por isso, a família precisa ser envolvida.

 

Jamais uma substituta

Alguns pais temem que a inteligência artificial ocupe um espaço maior que o devido na escola. Mais preocupante é que outros, que já demonstram pouco apreço pelos professores, veriam com bons olhos essa substituição.

Para os primeiros, é importante dizer que não há movimentos de substituição dos professores pela inteligência artificial. A tecnologia bem aplicada potencializa o trabalho do professor, não o elimina. Ainda assim, esses pais podem participar construtivamente do processo, aliando-se aos docentes.

Já para o segundo grupo, vale lembrar que educação transcende a mera transmissão de informações. É um processo humano que envolve empatia, valores e desenvolvimento social. A IA não compreende nuances emocionais, não motiva alunos desanimados ou se adapta instantaneamente a situações inesperadas em sala, nem orienta os alunos em sua formação como cidadãos.

Quando o ChatGPT surgiu, apareceu um medo de que a IA criaria uma multidão de desempregados, mesmo nas funções mais criativas. Mas 27 meses após seu lançamento, é um alívio observar que a melhor maneira de escapar disso é justamente usando bem nossas qualidades humanas. E os professores já fazem muito isso, com a empatia para perceber dificuldades emocionais, a criatividade para adaptar métodos de ensino, os relacionamentos interpessoais baseados em confiança, criando ambientes seguros e acolhedores, a mentoria além das questões acadêmicas e a flexibilidade para transformar desafios em oportunidades de aprendizado.

O sucesso da digitalização do ensino passa pelo equilíbrio entre inovação tecnológica e o papel insubstituível do educador. O impacto da inteligência artificial na educação só tende a crescer. Professores, famílias e governantes devem abraçar essa mudança com discernimento, garantindo que a tecnologia seja uma aliada na formação de cidadãos críticos, criativos e preparados para os desafios do futuro.

Mas não se pode esquecer da humanidade, que, combinada ao conhecimento e à paixão pelo ensino, formam a essência do trabalho docente e que nenhuma inteligência artificial, por mais refinada que seja, conseguirá jamais substituir completamente. O professor não é uma peça obsoleta nesse novo cenário, mas o protagonista de uma educação que evolui.

 

A fábula atribuída a Esopo pode ajudar em uma implantação consciente dessa tecnologia – Foto: Paulo Silvestre/Creative Commons

Não mate a galinha dos ovos de ouro do seu negócio com a IA

By | Tecnologia | No Comments

A fábula atribuída a Esopo é uma velha conhecida! Era uma vez um fazendeiro que possuía uma galinha que, todos os dias, botava um ovo de ouro. Com isso, ele ficou muito rico, mas, com o tempo, sucumbiu à ganância. E assim pensou que, se a galinha botava ovos de ouro, dentro dela deveria haver uma grande quantidade do metal. Decidiu matá-la para pegar todo o ouro de uma vez, mas descobriu, ao cortá-la, que, por dentro, era como qualquer outra galinha.

A história demonstra os perigos de se querer resultados imediatos sem pensar nas consequências. E há tempos a relaciono a usos inadequados da inteligência artificial generativa, que deslumbra muitos gestores. Eles a veem como a tecnologia dos “ovos de ouro”: inovação, produtividade e redução de custos! Mas ao usá-la sem planejamento, ética ou compreensão, esses gestores podem “matar sua galinha”.

Ao implantar a IA sem considerar os impactos sociais, regulatórios ou organizacionais, como a perda de empregos, vieses algorítmicos ou uso irresponsável de dados, eles minam a confiança dos clientes, pioram a experiência deles com a marca, prejudicam a sua reputação e até enfrentam consequências legais.

Pensei nisso na semana passada em uma conversa com Tiago Paiva, fundador e CEO da Talkdesk, quando disse que “há muitas empresas que não conseguem perceber que a experiência do cliente é das coisas mais importantes que há.” E ele fala com propriedade, pois seus produtos automatizam o atendimento a clientes com um bom uso da IA, em uma missão declarada de “livrar o mundo da experiência do cliente ruim”.

De fato, o atendimento é uma das áreas mais impactadas pela IA. Usada corretamente, essa tecnologia pode mesmo levar a experiência do cliente a um novo patamar. Porém, muitos gestores ainda “matam suas galinhas” ao usá-la irresponsavelmente para inflar resultados.


Veja esse artigo em vídeo:


É curioso que vivemos um “paradoxo da automação”. Ele indica que clientes esperam que empresas ofereçam suporte automatizado eficiente, mas as que automatizam demais seu atendimento afugentam as pessoas. O segredo é encontrar um equilíbrio, com a IA resolvendo problemas simples, ficando os casos sensíveis para os humanos.

“O problema é que, no passado, com a chegada dos bots, foi criada uma expectativa maior que a capacidade da entrega, e isso danificou a imagem dessas automações”, explicou-me Pedro Andrade, vice-presidente de IA da Talkdesk. “Agora temos que usar essa tecnologia para recuperar essa confiança”, acrescenta.

Infelizmente, muitas companhias usam a IA com automações isoladas, motivadas pelo “ovo de ouro” do corte de custos. Assim, ameaçam a experiência de seus clientes e perdem a oportunidade de transformar o atendimento em um diferencial.

Usada com consciência, a IA pode oferecer personalização refinada, eficiência operacional, proatividade e prevenção. Não se limita a reagir aos clientes, antecipando suas necessidades e otimizando processos, exatamente o que as pessoas querem.

“Não é fácil fazer isso”, avisa Andrade. “Mas para os sistemas de IA, que são capazes de carregar grande quantidade de informação e ajustar o contexto da conversa, torna-se muito mais fácil”, explicando que uma plataforma bem desenvolvida atende a outras demandas dos clientes atuais, como imediatismo, hiperpersonalização e autonomia.

 

“Bazuca para matar uma mosca”

Pouco adianta usar um sistema gigantesco, porém pouco ou nada ajustado à realidade da empresa, como o ChatGPT. Suas respostas acabam sendo imprecisas e genéricas, sem falar que podem custar desnecessariamente caro. Em vez disso, a adoção de modelos menores, mais econômicos, com exigências mais simples de recursos, pode melhorar muito a experiência do cliente.

Os aspectos de segurança, de legislação e de ética também foram amplamente debatidos nessa visita à sede da Talkdesk em Palo Alto (EUA). Os benefícios da implantação da IA nos negócios são mais visíveis, como as já mencionadas eficiência, hiperpersonalização e redução de custos. Mas até que ponto isso é seguro e ético?

Os potenciais riscos dessa adoção recaem no surgimento de vieses algorítmicos, em ameaças à privacidade e ao uso de dados sensíveis, na falta de transparência e de explicabilidade das decisões dos sistemas. Em situações mais extremas, ela pode gerar dependência excessiva da automação e manipulação de clientes e funcionários.

“Muitos clientes erram ao pôr uma plataforma e tentar fazer tudo com ela, pois a inteligência artificial é mais complicada que isso”, alerta Paiva. “Não dá para usar um sistema de LLMs (como o ChatGPT) e achar que tudo funcionará”, conclui.

Para ajudar na criação de um mercado mais maduro, Andrade defende a regulamentação da IA. “Tem que existir regulação, responsabilidades, regras de transparência”, completando que isso não ameaça a inovação e que as empresas que abraçarem isso construirão um diferencial junto a seus clientes. “Essa regulação vai separar as empresas que estão no mercado sério e corporativo de IA, dos players de nicho e dos que estão ainda tentando encontrar o seu lugar.”

Esse é um dos debates mais quentes em torno dessa tecnologia. Para muitos, é bem sedutor tirar qualquer restrição a ela e maximizar os ganhos, sem se preocupar com as consequências. Mas uma IA descolada da ética e da segurança pode ser um dos maiores erros que uma empresa pode cometer, ainda que, em um primeiro momento, colha benefícios aparentes dessa “liberdade”.

O sucesso a longo prazo depende da capacidade de construir um relacionamento sustentável com a IA, cultivando seus benefícios e mitigando seus riscos. O ser humano deve sempre ter a última palavra nas decisões apoiadas por essas plataformas. E os interesses da sociedade devem estar sempre no centro de qualquer ação ligada a essa tecnologia, superando a ganância de empresas e de governos.

Assim como na fábula, a lição é que a implementação de IA requer paciência, planejamento e uma abordagem gradual e responsável. Os “ovos de ouro” virão naturalmente quando a tecnologia for implementada com sabedoria e responsabilidade.


 

Tarefas que exigem criatividade, empatia, crítica e julgamento moral são difíceis de automatizar - Foto: Freepik/Creative Commons

IA avança sobre empregos, mas não quer dizer que você perderá o seu

By | Tecnologia | No Comments

Entre as ações bombásticas de Donald Trump em seu primeiro mês como presidente dos EUA, uma das mais emblemáticas visa demitir 2 milhões de servidores federais. Parte dessas vagas será reposta com pessoas mais alinhadas a suas ideias, mas muitas funções passarão a ser desempenhadas por sistemas de inteligência artificial.

Esse movimento vem se acelerando também na iniciativa privada, mas a magnitude sem precedentes daquela iniciativa reacende o debate global sobre o impacto da IA no mercado de trabalho. A substituição de profissionais por máquinas afeta de funções básicas a cargos de alta qualificação, o que é inédito. E isso gera questionamentos sobre o futuro, incluindo o que acontecerá com uma crescente massa de desempregados que não conseguirá se recolocar.

Para muita gente, o que importa é como “não entrar para a estatística das vítimas da automação”. Tarefas que exigem, por exemplo, criatividade, empatia, pensamento crítico e julgamento moral são difíceis de automatizar. Migrar o trabalho para atividades que exijam essas habilidades pode garantir o salário.

Mas, em qualquer caso, a IA já está transformando as mais diversas funções. Sendo assim, a sociedade deve não apenas preservar empregos, como também garantir que os benefícios da automação sejam distribuídos de forma mais equitativa, para que as pessoas desempenhem suas tarefas com IA, para não serem substituídas por ela.

Resistir a essa tecnologia já não faz sentido. O desafio de todos é se apropriar de seu poder com inteligência, criatividade, ética e segurança.


Veja esse artigo em vídeo:


Recentemente, Jensen Huang, CEO da Nvidia, a fabricante de chips cujo valor de mercado hoje é de US$ 3,3 trilhões graças à IA, disse que essa tecnologia não é uma assassina de empregos. Para ele, todos deveriam usá-la como um tutor pessoal, que lhes ajudaria a coletar qualquer tipo de informação rapidamente, a escrever e até a pensar melhor. Huang ecoa a visão de muitos líderes do setor, que enxergam o futuro do trabalho com as pessoas capacitadas pela IA, e não substituídas por ela.

Claro que ele está “vendendo seu peixe”, por isso sua afirmação deve ser analisada com cautela. É fato que a IA pode ajudar qualquer um em suas tarefas, mas não é verdade que todo mundo sabe como fazer isso! Não é realista esperar que alguém que passou décadas em uma função se torne um “engenheiro de prompt” da noite para o dia.

A verdade nua e crua é que a maioria das pessoas simplesmente não tem habilidades básicas para fazer isso, e não consegue “tirar o atraso”. O problema não é apenas a substituição em si, mas a velocidade com que isso está acontecendo. É a revolução tecnológica mais rápida e abrangente já vista, atropelando muita gente no caminho.

O desafio aumenta com uma requalificação que não acompanha a automação, novas vagas que não repõem as eliminadas, e o consequente aumento da concorrência por trabalho. Isso se agrava pela desigualdade no acesso à educação e à tecnologia e à concentração do mercado em menos setores.

Isso pode levar a um aumento da pobreza e desigualdade social, com crises econômicas causadas por um forte desemprego. Se a IA passar a ser vista como uma vilã pelas massas, isso pode levar a uma resistência à automação maior que a devida.

E isso também esquenta outro debate: o de uma renda básica universal.

 

Garantia de sobrevivência

Ela não surgiu com a inteligência artificial, mas vem sendo apresentada como uma solução caso o desemprego graças às máquinas saia do controle.

Entre os argumentos favoráveis à renda básica universal estão a mitigação dos efeitos de um desemprego em massa, um estímulo ao empreendedorismo e a redução da desigualdade social. Já seus críticos afirmam que não há dinheiro para isso, que ela pode gerar inflação e até desestimular o desejo de trabalhar. Por isso, alguns especialistas sugerem que ela seja apenas parte da solução, garantindo a sobrevivência do indivíduo, mas sem eliminar a necessidade de se trabalhar.

Com ou sem ela, é preciso criar políticas para requalificação de trabalhadores em novas áreas, além da criação de empregos “híbridos” que combinem os benefícios da IA com funções humanas, para evitar a eliminação completa de postos de trabalho. Mas não se pode deixar tudo a cargo do governo: essa responsabilidade deve ser dividida com empresas, instituições educacionais e os próprios trabalhadores.

O que já se observa é que, enquanto profissões inteiras estão sendo eliminadas, as demais não desaparecerão, mas serão transformadas. Quem desenvolver habilidades complementares para usar a IA terá mais oportunidades.

A automação do trabalho é inevitável, mas seu impacto social não precisa ser devastador. Com planejamento adequado, investimento em educação e políticas de proteção social, é possível construir um futuro em que humanos e máquinas não apenas coexistam, mas colaborem para criar uma sociedade mais próspera e equitativa.

Por outro lado, se a implementação for feita sem um planejamento detalhado e sem considerar os impactos sociais, como aparentemente está sendo feito nos EUA, há um grande risco de que os serviços prestados à população percam qualidade, se tornem mais burocráticos e menos acessíveis.

É fundamental considerar as implicações éticas e sociais dessas medidas, garantindo que a implementação da inteligência artificial, seja no setor público ou no privado, aconteça de maneira responsável e equilibrada, aproveitando todos os benefícios que ela traz, mas preservando os direitos dos trabalhadores e a qualidade dos serviços prestados à população.

Precisamos de estratégias que coloquem o ser humano no centro da revolução digital. As lideranças políticas e empresariais devem sair de suas torres de marfim, de onde acham que as oportunidades são as mesmas para todos. Sem isso, corremos o risco de criar uma sociedade ainda mais desigual, onde a tecnologia, em vez de libertar, aprofunda as divisões sociais. E não é para isso que ela está sendo desenvolvida.

 

Sundar Pichai, CEO do Google, fala durante a conferência Google I/O 2024, realizada em 14 de maio do ano passado - Foto: reprodução

Google dá sua bênção para que a IA seja usada em armas e vigilância

By | Tecnologia | No Comments

Em mais um caso de big tech que trai seus princípios, na terça passada (4), o Google alterou suas regras éticas para que a inteligência artificial da empresa possa ser usada no desenvolvimento de armas, na vigilância de pessoas, em produtos que possam causar danos severos à sociedade ou que violem direitos humanos.

Não quer dizer que a companhia entrou no negócio de armas de destruição em massa. Sua posição agora é de “mitigar resultados não intencionais ou prejudiciais” e buscar “princípios amplamente aceitos do direito internacional e dos direitos humanos”. Mas na prática, isso significa pouco ou nada.

É uma mudança profunda, que pode ter impacto global no uso da IA. Pela posição de enorme destaque do Google, ela pode inspirar empresas do mundo todo a fazer o mesmo, provavelmente com ainda menos cuidado.

É inevitável perguntar por que decidiram fazer isso agora, e por que se recusavam até então. Além disso, se a IA poderá ser usada largamente em produtos criados com o objetivo de matar pessoas, qual garantia existe de que essa tecnologia não sairá do controle, com consequências devastadoras?

Vale lembrar o antigo lema do Google: “don’t be evil” (“não seja mau”), um pacto com práticas empresariais éticas e responsáveis. Mas em 2015, a Alphabet, conglomerado que incorporou o Google, trocou o mote por “faça a coisa certa”, bem mais genérico.

E cá estamos discutindo como a recente decisão pode ser tão má!


Veja esse artigo em vídeo:


O Google alega que a decisão reflete a necessidade de empresas de “países democráticos” defenderem seus valores em um cenário geopolítico complexo. Mas especialistas sugerem que a pressão do mercado de IA e a busca por lucrativos contratos militares de um governo nacionalista podem ter influenciado seus gestores.

Qualquer que seja o motivo, a empresa mina a confiança do público e sinaliza que a ética é negociável. Isso estabelece um novo padrão para toda a indústria, em uma competição global impiedosa e menos preocupada com direitos humanos.

Ironicamente, no início do mês, passaram a valer partes da Lei da Inteligência Artificial da União Europeia que proíbem o uso de sistemas de reconhecimento facial em espaços públicos e restringem aplicações consideradas de alto risco, como a manipulação comportamental e a vigilância em massa.

A nova posição do Google se choca com a anterior, que listava as “aplicações que não buscaremos”: armas, vigilância, tecnologias que “causam ou podem causar danos gerais” ou que violam os princípios do direito internacional e dos direitos humanos.

Essas regras que agora foram enterradas surgiram após protestos de funcionários em 2018 contra o projeto Maven, um contrato militar que usava seus algoritmos de visão computacional para analisar imagens de drones. Milhares assinaram uma carta aberta que dizia: “acreditamos que o Google não deveria estar no negócio da guerra”. Por isso, além daquelas regras, o contrato com o Pentágono não foi firmado na época.

O Google não está sozinho nesse novo posicionamento. Concorrentes como Microsoft, Amazon, OpenAI e Anthropic já oferecem suas IAs para aplicações militares. Mas o gigante de busca sempre serviu de inspiração para aqueles que procuram um uso ético da tecnologia. Agora isso acabou!

 

“Skynet feelings”

Algumas das maiores autoridades em IA do mundo, como o canadense Yoshua Bengio, vencedor em 2018 do prêmio Turing (o “Nobel da computação”), afirmam que a busca pela inteligência artificial geral (AGI), que terá autonomia e flexibilidade semelhante ao cérebro humano, pode levar a comportamentos inesperados ou indesejados, até mesmo contrários aos interesses humanos.

Sistemas com aprendizado autônomo podem criar estratégias para autopreservação ou poder, o que poderia torná-los difíceis de controlar. A falta de transparência aumenta o risco de decisões incompreensíveis e não-rastreáveis, dificultando a intervenção humana em casos críticos. Mesmo um botão físico para desligar um servidor (um “kill switch”) poderia ser contornado com a IA se replicando em incontáveis outros servidores antes que fosse possível interromper seu funcionamento.

Adicione a esse caldo a IA sendo usada para o desenvolvimento e operação de armas autônomas. Não entrarei em cenários da ficção em que máquinas decidem exterminar a humanidade, mas isso pode, sem dificuldade, levar a violações de direitos humanos e a escaladas militares perigosas. Pode ainda incentivar o uso de IA para vigilância em massa, especialmente por regimes autoritários, comprometendo as liberdades civis.

Para evitar isso, as big techs deveriam agir de forma oposta ao que estão fazendo. Devem existir regras internas e leis que impeçam o uso da IA em atividades potencialmente perigosas ou que violem direitos individuais. Além disso, os sistemas precisam ser transparentes para auditorias independentes. E isso deve acontecer em todos os países do mundo: talvez o mais difícil de tudo isso, e o que põe tudo a perder.

A decisão do Google de flexibilizar seus princípios éticos não pode ser vista como uma mera decisão empresarial. Como uma das empresas mais valiosas do mundo, cujos produtos são usados diariamente pela maior parte da população global, deveria ser um farol mostrando que responsabilidade e inovação podem coexistir. Mas a gigante decidiu priorizar os lucros em detrimento da segurança e dos direitos humanos.

Essa é uma lógica do capitalismo: companhias não fazem nada que comprometa seus lucros. Assim, é uma ilusão esperar que elas se autorregulem efetivamente por pressões competitivas e financeiras. Diante disso, regulamentações governamentais tornam-se essenciais para estabelecer limites claros e garantir que o desenvolvimento tecnológico continue existindo, mas sem comprometer valores humanos fundamentais.

Nada disso é ficção: vivemos uma realidade que nos brinda com avanços fabulosos, mas que oferece um mundo perigosamente instável por conflitos militares, Estados autoritários que atropelam a civilidade pelos interesses de seus governantes, e uma sociedade cada vez mais fragilizada, em que o cidadão, de tão manipulado pelo meio digital, defende ferozmente seus próprios algozes.

Com tudo isso, quem precisa de robôs assassinos?