Category Archives: Tecnologia

Sam Altman, CEO da OpenAI, justifica abertura à pornografia dizendo que ela “não é a polícia moral eleita do mundo” - Foto: reprodução

OpenAI faz vista grossa e troca ética por engajamento com pornografia no ChatGPT

By | Tecnologia | No Comments

A OpenAI anunciou que permitirá conteúdo adulto no ChatGPT, incluindo aplicativos eróticos na plataforma criados por empresas externas. Só que, disfarçada de liberdade criativa, a medida carrega riscos enormes, que vão muito além da exposição de adolescentes. A novidade insere tecnologia sofisticada em um campo carregado de estereótipos, manipulação e consequências sociais imprevisíveis, e isso afeta até quem não consome pornografia.

Desenvolvedores independentes e a própria OpenAI ganharão com a abertura de um mercado enormemente lucrativo até então inexplorado pela empresa. Do outro lado, adolescentes ficarão mais vulneráveis, assim como qualquer pessoa sujeita à naturalização de padrões sexuais distorcidos.

Na quarta passada (15), o CEO Sam Altman declarou que a OpenAI “não é a polícia moral eleita do mundo”, ao justificar a liberação. A frase parece uma defesa de princípios, mas é desonesta. Em agosto, ele dizia sentir orgulho por evitar “bots de sexo”, que dariam engajamento, mas seriam “desalinhados com o objetivo de longo prazo” da empresa. Agora, o negócio parece ter pesado mais do que a ética.

Esse recurso deve piorar, reforçar e perpetuar estereótipos já consolidados na pornografia. Mulheres e minorias podem ser retratadas de forma ainda mais degradante, e a tecnologia, em vez de corrigir distorções, tende a amplificá-las, criando novas camadas de objetificação.

Não é exagero dizer que isso pode alterar a maneira como as pessoas se relacionam entre si. Expectativas inatingíveis, comportamentos sexualizados distorcidos e uma compreensão enviesada do consentimento são consequências prováveis, pois este recurso reduzirá a necessidade de lidar com a complexidade de parceiros reais.

Mas gostem ou não, as pessoas precisam se relacionar com gente de verdade.


Veja esse artigo em vídeo:


Na prática, o novo recurso permitirá que adultos acessem conteúdos e experiências eróticas gerados pelo ChatGPT ou por aplicativos feitos para a plataforma. Esses aplicativos poderão oferecer interações de texto, histórias eróticas, sexting e até a geração controlada de imagens adultas. A liberação está prevista para dezembro.

O serviço também incluirá filtros opcionais e controle parental, mas a eficácia é incerta. A empresa quer consolidar uma “abordagem responsável”, mas deixa claro que a responsabilidade real será do usuário.

Altman afirma que quer “tratar adultos como adultos”. Ele justifica a mudança dizendo que novos sistemas de detecção de idade e controles de saúde mental tornaram essa liberação viável. Mas, ao se afastar da imagem de “empresa moralista” e permitir esse tipo de material, a OpenAI assume riscos éticos, agradando investidores que despejaram bilhões no negócio. E eles esperam crescimento brutal e contínuo, sem se impressionarem com escrúpulos morais.

Altman provavelmente sempre soube que liberaria conteúdo adulto se quisesse que o ChatGPT se tornasse uma plataforma verdadeiramente aberta. A diferença é que ele antes resistia por orgulho moral, criando agora essa incoerência que tenta dissolver ao racionalizar o conflito com a retórica sobre não ser “paternalista”.

A ironia é que, sob o pretexto de dar liberdade para adultos, o público está sendo usado como laboratório social, enquanto a empresa testa limites éticos.

 

Negócio arriscado

A indústria pornográfica agradece por ser legitimada por uma das empresas mais poderosas da tecnologia. A OpenAI, por sua vez, expande seu modelo de negócios e atrai usuários insatisfeitos com restrições. Por fim, adultos que defendiam essa flexibilização conquistam o que pediam, sem se preocupar com consequências.

Crianças e adolescentes, por sua vez, estarão mais próximos da exposição precoce a esse tipo de conteúdo, deixando para as famílias enfrentarem um ambiente digital ainda mais difícil de gerenciar. Não se pode esquecer que sistemas de verificação de idade na Internet têm uma eficácia historicamente deplorável.

O risco se agrava justamente quando a sociedade exige plataformas digitais mais seguras para jovens. A própria OpenAI enfrenta acusações sobre impactos de seus sistemas sobre pessoas que se suicidaram depois de interagir com o ChatGPT. Adicionar conteúdo adulto antes de resolver essas vulnerabilidades é arriscado e negligente, até que se prove o contrário.

Essa abertura da plataforma também pode ser usada para crimes não previstos pela empresa, como a produção de deepfakes pornográficos sem consentimento, extorsão sexual, material de abuso infantil e tráfico sexual. A moderação prometida não se sustenta, pois identificar infrações em bilhões de interações é praticamente impossível, e os criminosos são rápidos em explorar vulnerabilidades de novas tecnologias.

Plataformas de IA que já permitem conteúdo adulto, como o Grok, enfrentam problemas semelhantes, como perda de controle, vazamento de material sensível, reforço de estereótipos e dificuldade de fiscalização. A OpenAI pode repetir os mesmos erros, mas em escala muito maior, graças à popularidade do ChatGPT.

Portanto, mesmo quem gosta de pornografia não pode encarar a decisão da OpenAI como bem-intencionada ou mesmo ingênua. Ela representa uma aposta consciente de que lucros e crescimento valem os riscos de fortalecer estereótipos prejudiciais, facilitar crimes sexuais e até prejudicar relacionamentos reais entre pessoas.

Sabemos que, como de costume, a empresa fará o que quiser, a despeito de protestos ou evidências de perigo. Resta à sociedade exigir transparência através de relatórios públicos sobre falhas, pressionar por auditorias independentes dos sistemas de proteção, cobrar leis que estabeleçam padrões mínimos de segurança e desenvolver educação digital que prepare pessoas, especialmente jovens.

Infelizmente conseguir isso talvez seja o mais difícil de tudo. Mas não dá para depender apenas das boas intenções da OpenAI.

 

Professora ajuda aluna a usar tablet em sala de aula -Foto: Freepik/Creative Commons

Mesmo com formação e apoio limitados, professores brasileiros usam muito a IA

By | Educação, Tecnologia | No Comments

Nesta quarta, comemora-se o Dia do Professor no Brasil. Mas, apesar de seu papel decisivo para a construção do país, esses profissionais têm pouco a celebrar, pelas conhecidas condições precárias de trabalho e formação e apoio limitados da sociedade. Ainda assim, persistem em sua nobre tarefa, até mesmo adaptando-se às mudanças tecnológicas na profissão, como as impostas pela inteligência artificial.

Chega a ser surpreendente que, mesmo com tantas condições adversas, os professores brasileiros estejam entre os que mais usam essa tecnologia no seu trabalho. A informação é da pesquisa Talis (sigla em inglês para Pesquisa Internacional de Ensino e Aprendizagem), publicada no dia 6 pela OCDE (Organização para a Cooperação e Desenvolvimento Econômico). Realizada desde 2008, cerca de 280 mil professores de 54 países participaram dessa edição.

O Brasil aparece em décimo nesse quesito, com 56% dos professores do Ensino Fundamental II usando IA nas suas aulas. Na liderança, empatados com 75%, estão os professores dos Emirados Árabes Unidos e de Cingapura. O país cujos professores menos usam é a França, com apenas 14%. A média dos países da OCDE é de 36%.

Vale notar que a adoção da IA na sala de aula varia bastante entre os países com educação de alta qualidade. Cingapura é o único desses acima do Brasil na Talis. Outras nações com educação de destaque vêm depois, como Coreia do Sul (43%), Dinamarca (36%), Estônia (35%) e Finlândia (27%).

Por isso, precisamos entender as condições em que essa tecnologia é utilizada na escola e o que leva os professores a adotá-la. Um uso sem preparo e sem apoio pode ajudar em tarefas pontuais, mas também prejudicar a própria compreensão da IA.

Já falhamos na educação dos jovens para o uso das redes sociais, levando a problemas graves e diversos. Repetir o erro com a IA pode transformar uma tecnologia poderosa e revolucionária em uma máquina de controle social e limitação cognitiva.


Veja esse artigo em vídeo:


Há cinco anos, os professores tiveram que se desdobrar para dar aulas a distância durante o período de isolamento social da pandemia de Covid-19. A maioria não teve qualquer treinamento ou apoio e muitos eram até criticados por pais que não gostavam do resultado, o que levou muitos à depressão.

Agora, com a inteligência artificial, não está sendo muito diferente. Segundo a Talis, os professores brasileiros usam essa tecnologia por necessidade prática e improvisação pedagógica, sem o planejamento institucional de outros países.

Oito em cada dez docentes usam a IA no planejamento de aulas e atividades, para economizar tempo. Além disso, 62,6% usam a tecnologia para aprender mais sobre determinados temas ou para criar resumos, enquanto 35,6% a usam para correção de trabalhos e avaliações. Os robôs ajudam na personalização do ensino em 64,2% dos casos, e auxiliam 53,7% dos estudantes com necessidades especiais. Até na comunicação com pais a IA está sendo usada, por 39,4% dos professores.

Esses números sugerem que os professores estão dominando essa tecnologia. Mas a realidade é bem diferente: 64% dos brasileiros dizem não ter habilidades para usar IA de forma pedagógica e 60% afirmam que suas escolas não têm infraestrutura adequada. Ou seja, a IA vem sendo usada de forma empírica e autodidata, como ferramenta de sobrevivência e improviso, sem apoio institucional, muitas vezes recorrendo a smartphones e redes móveis pessoais para acessar esses recursos.

Um professor preparado otimiza tarefas mecânicas com a IA, liberando tempo para observar cada aluno, mediar conflitos, acolher dúvidas e inspirar curiosidade, tarefas insubstituíveis da docência. Sem preparo, a IA pode levar à automação do que deveria permanecer humano, criando planos de aula genéricos, respostas padronizadas e avaliações que não captam as nuances de cada estudante. Nesse caso, o professor deixa de ser maestro do processo de aprendizagem e vira operador da máquina.

 

Abismo social e pedagógico

Essa falta de preparo e apoio para uso da inteligência artificial pode, portanto, ampliar desigualdades há muito conhecidas. As melhores escolas privadas já estão atentas a isso. O problema aparece em todo o resto.

Políticas públicas devem priorizar formação continuada específica em IA para os professores, indo muito além da simples distribuição de equipamentos, apostando na capacitação sólida e supervisão ética. Mas deve haver também incentivo!

Por exemplo, o Ministério da Educação oferece um curso de 180 horas sobre aplicação pedagógica da IA para professores e gestores. Isso é positivo, mas poucos professores conseguem dedicar 180 horas para sua formação, com jornadas de trabalho duplas ou triplas. Além disso, as escolas não liberam seus docentes para uma atividade assim, e muitos nem têm acesso à Internet de qualidade. Autoridades da educação deveriam aproveitar o interesse espontâneo que a Talis revelou para construir uma política de formação docente em IA consistente.

Os professores precisam ser formados para entender as limitações e riscos da IA, evitando soluções prontas e situações em que algoritmos reproduzem vieses ou cometem equívocos. Caberá ao educador julgar o que delegará à máquina, pois educar é muito mais do que transmitir informação ou corrigir respostas.

O professor deve formar pensamento crítico, ensinar a fazer boas perguntas e ajudar jovens a desenvolver empatia, criatividade e resiliência. Deve estar presente quando um aluno tem dificuldade não apenas cognitiva, mas emocional. E precisa perceber uma turma em dificuldade, mudando a estratégia no meio da aula.

Tudo isso passa pelo reconhecimento social da docência, ainda muito baixo no Brasil. Segundo a pesquisa, apenas 14% dos professores sentem-se valorizados e só 22% estão satisfeitos com seus salários, enquanto 66% se sentem pressionados pelos resultados de seus alunos.

A IA pode transformar o cotidiano escolar e devolver tempo e propósito ao trabalho docente. Mas, para isso, é indispensável que professores sejam protagonistas do processo, e não apenas usuários de soluções importadas e pouco contextualizadas.

O Brasil tornou-se um laboratório, com inovação sem estrutura, um protagonismo ameaçado e um potencial transformador que só se realizará com aposta clara na valorização humana da educação. O protagonismo docente precisa ser preservado com uma formação continuada, ética digital e autonomia pedagógica.

 

Freddie Mercury, compositor de “Bohemian Rhapsody” e vocalista do Queen, encerra show da banda – Foto: reprodução

Criatividade artificial e tirania de algoritmos hoje matariam “Bohemian Rhapsody”

By | Tecnologia | No Comments

Se fosse lançada hoje, a tirania dos algoritmos das plataformas de streaming teria matado “Bohemian Rhapsody”, obra-prima do Queen. Seus 5 minutos e 55 segundos e estilo para lá de ousado não passariam pelo crivo dessas plataformas, que promovem insistentemente músicas de até 3 minutos, para satisfazer uma geração de ouvintes ansiosos. Mas outro fator nos privaria dessa que é considerada uma das músicas mais inventivas da história: a “criatividade estatística” da inteligência artificial.

O debate ganhou força com regras do Spotify para coibir o uso indevido de IA em sua plataforma, anunciadas no dia 24 de setembro. Elas incluem filtros rígidos para evitar spam musical, proteção contra a imitação não autorizada de artistas e a exigência de transparência na adoção da tecnologia. Segundo a plataforma, o objetivo não é punir o “uso criativo” da IA, mas impedir práticas que prejudiquem artistas e ouvintes.

Apesar de restrições assim, o concorrente Deezer aponta que hoje 28% das músicas publicadas na plataforma são totalmente feitas por IA; em janeiro, eram “apenas” 10%. Um estudo da consultoria francesa PMP Strategy, publicado em dezembro, indicou que, até 2028, os artistas perderão 24% da receita no setor, pela substituição das obras humanas pelas geradas por IA e pelo uso não autorizado de criações originais.

As plataformas de streaming e a IA estão transformando nosso gosto e a própria produção musical. Mas essas mudanças vão muito além do audiovisual. Com o tempo, a IA modificará qualquer tipo de produção em nosso cotidiano, e infelizmente há um risco concreto de que isso leve a uma piora acentuada na qualidade.

Isso acontecerá porque já estamos usando, como ferramenta criativa, uma tecnologia que muitos especialistas afirmam não ter nenhuma criatividade. E isso pode gerar um círculo vicioso que achatará cada vez mais o nível da sociedade.


Veja esse artigo em vídeo:


O limite dos três minutos dos algoritmos acontece porque, se alguém não ouve uma música até o fim, eles entendem que a pessoa não gostou tanto dela, passando a promovê-la menos. Como uma música curta tem mais chance de ser ouvida inteira, os artistas estão se limitando a esse tempo, mesmo que isso castre seu desejo criativo.

A inteligência artificial, que é mestre em identificar padrões e maximizar resultados, já captou esse comportamento. Por isso, as músicas que produz estão cada vez mais curtas e óbvias, abolindo recursos como introduções e solos instrumentais. É o “fast food musical” levado às últimas consequências, criando obras musicalmente ruins, mas fáceis de agradar um público intelectualmente mais preguiçoso.

Tudo isso é polêmico. O que torna uma música “boa” depende de técnica, emoção e contexto cultural. Aspectos como harmonia, melodia e produção influenciam a qualidade, mas não se pode ignorar a capacidade de gerar conexão emocional. Além disso, valores culturais e de época moldam a percepção, indicando que o julgamento musical é sempre atravessado pelo gosto pessoal.

A IA se sai bem na parte técnica da criação, pois reproduz padrões de harmonia, melodia e arranjo aprendidos ao analisar milhões de músicas, o que garante rapidez, baixo custo e versatilidade. Mas ela falha no resto, pois lhe falta emoção, intenção e vivência cultural, elementos que transformam um amontoado de notas em uma obra de arte capaz de marcar as pessoas.

É por isso que músicas, textos, vídeos e qualquer produção da IA podem ser tecnicamente impecáveis, mas costumam ser sempre “mais do mesmo”. Parece legítimo, então, discutir se essa tecnologia é afinal criativa.

 

A essência da criatividade

Na verdade, esse questionamento pode mais confundir que ajudar. O problema não é se máquinas podem ser inventivas, mas entender o que realmente significa criatividade e se estamos dispostos a reconhecê-la em processos não-humanos.

A IA pode combinar elementos de formas inesperadas, produzindo trabalhos originais e, em alguns casos, até surpreender. Se um humano fizesse o mesmo, chamaríamos de criatividade sem pestanejar. Mas críticos argumentam que a IA apenas recombina padrões aprendidos em seu treinamento, sem verdadeira compreensão ou intenção.

A criatividade humana também opera por recombinação. Artistas criam a partir de conceitos e técnicas que aprenderam. Mas há duas diferenças essenciais. A primeira é a consciência e a intencionalidade do artista; a segunda, o fato de poder se inspirar pela sua experiência por estar vivo. Essas são duas coisas que a IA não tem. Assim, se criatividade for definida como a capacidade de criar algo novo a partir do que se sabe, a IA demonstra que pode haver criatividade sem consciência, simulada, diferente da humana em aspectos importantes.

A grande diferença recai na intencionalidade.

Talvez, no futuro, ela também consiga simular estatisticamente essa característica tão humana. Até lá, ela será refém de sua construção que privilegia sempre os caminhos mais óbvios, seguros e estatisticamente mais relevantes.

No final, esta estrutura e o despotismo dos algoritmos de relevância tornam o mundo mais homogêneo e menos criativo, seja com produções humanas ou artificiais. Desvios, falhas e o inesperado do nosso cotidiano, que alimentam os melhores artistas, não são tolerados pelas máquinas.

É por isso que a IA jamais comporia algo como “Bohemian Rhapsody”, a menos que a obra fosse detalhadamente solicitada por uma mente inquieta humana, capaz de olhar além do óbvio e do provável. Mesmo a “estética do erro”, que usa imperfeições e falhas como elementos criativos que desafiam a perfeição técnica, para novas formas de arte, não teria espaço com “artistas estatísticos”.

Diante dessa cisma criativa, talvez o mais produtivo seja começar a questionar como a criatividade da máquina se relaciona com a nossa, e descobrir como essas ferramentas podem ampliar nossa própria capacidade criativa.

O mais importante é que a criatividade artificial sirva a propósitos humanos e não apenas interesses comerciais, como parece acontecer no momento em que produz músicas, textos ou imagens tecnicamente perfeitas, mas de qualidade questionável, ainda que de fácil agrado. Afinal, uma das características mais marcantes da arte é nos ajudar a crescer como seres humanos, superando a mesmice do dia a dia.

 

Dixie John e Gabriela Vogel, diretora e vice-presidente do Gartner, falam na abertura da Conferência CIO & IT Executive – Foto: divulgação

Empresas devem equilibrar tecnologia e humanidade para extrair valor da IA

By | Tecnologia | No Comments

A inteligência artificial colocou as empresas em uma encruzilhada digital histórica. Extrair valor real dessa tecnologia exige mais que investimentos em sistemas e servidores. Para isso, as lideranças precisam também gerenciar expectativas e cuidar do preparo humano das equipes.

Até hoje, apenas 20% dos projetos de IA alcançaram retorno financeiro, e míseros 2% promoveram uma transformação real nos negócios, onde reside o seu grande potencial. As empresas que encontram, capturam e sustentam ganhos com a IA são as que se afastam da descrença exagerada, que impede qualquer ação, e do deslumbramento inconsequente, que leva a investimentos sem foco.

Essas foram algumas das principais mensagens da Conferência Gartner CIO & IT Executive, que aconteceu em São Paulo entre 22 e 24 de setembro. O problema muitas vezes vem do desalinhamento de expectativas, com as companhias investindo apenas em projetos de produtividade, mas esperando grande geração de receita.

Atravessar esse “vale da desilusão” pede líderes que enfrentem ceticismo, calibrem metas e sustentem investimentos, mesmo sem resultados imediatos. Isso fica mais desafiador quando, segundo o Gartner, 95% dos latino-americanos querem usar IA, mas só 40% confiam que seus gestores farão os movimentos de forma responsável.

Isso explica por que as empresas já percorreram quase metade do caminho da prontidão tecnológica para o uso da IA, mas esse avanço mal chega a um quarto no preparo humano. O medo de perder o emprego, a curva de aprendizagem íngreme e sobretudo a falta de confiança na chefia explicam essa diferença.


Veja esse artigo em vídeo:


A maturidade tecnológica também atrapalha. A IA generativa ainda erra em até 25% em certos casos, inaceitável para setores que exigem precisão. Por isso, as empresas precisam criar métricas formais de checagem cruzada entre modelos e definição de níveis aceitáveis de erro. Além disso, se 88% dos líderes globais já focam em agentes conversacionais, o grande poder está em agentes capazes de tomar decisões, mas eles ainda não estão prontos para processos complexos de ponta a ponta.

O investimento inicial em IA médio em grandes empresas alcança R$ 10 milhões reais, mas gastos contínuos com treinamento, mudanças e modelos múltiplos podem dobrar ou triplicar esse valor. Por isso, o Gartner considera a escolha de fornecedores uma “decisão de soberania”, pois as big techs comportam-se como “nações digitais”, capazes de influenciar regras e infraestruturas.

Segundo a consultoria, o próximo salto na IA promoverá a migração do modelo de negócios digitais para o de negócios autônomos. Esse modelo prevê tecnologias que aprendem e se aperfeiçoam sozinhas entregando valor com mínima supervisão humana.

“Embora o nome possa sugerir algo nada humano, o negócio autônomo, de várias maneiras, é profundamente humano”, provocou Frank Buytendijk, vice-presidente analista do Gartner. Para ele, enquanto os sistemas funcionam e inovam sozinhos, as pessoas assumem papéis de supervisão, coordenação e criação. Até mesmo os clientes passam a gerenciar sua experiência com apoio da IA.

O ano que vem deve marcar um ponto de inflexão, com a IA permeando todas as frentes do negócio. “Os líderes de tecnologia terão que ser super-heróis para lidar com tudo isso ao mesmo tempo”, sugeriu Soyeb Barot, também vice-presidente analista. Ele explica que os líderes de TI precisarão assumir três papéis estratégicos para enfrentar a disrupção: o “arquiteto”, que desenha estruturas sólidas, o “sintetizador”, que conecta dados e contextos, e o “vanguardista”, que ousa no risco calculado.

 

Medo do desemprego

O avanço dos negócios autônomos desperta temores legítimos de desemprego. Apesar do impacto, apenas 1% das demissões recentes decorreu diretamente da IA. Para o Gartner, o maior desafio está na queda de contratações em posições iniciais e na necessidade de requalificação de quem já está no mercado.

“Hoje 81% do trabalho de TI é feito por humanos sem IA, mas, até 2030, 75% será realizado por humanos ajudados pela IA e 25% pela IA sozinha”, afirmou Gabriela Vogel, vice-presidente analista. “Ou seja, 0% do trabalho será feito sem IA”, conclui.

A automação é inevitável para sustentar produtividade em um planeta que envelhece e perde força de trabalho. Nesse quadro, o papel humano migra da execução para a supervisão. Até 2030, o Gartner prevê mais empregos criados do que eliminados, com 20 milhões de brasileiros usando IA de forma significativa. E já em 2028, o país deve gerar mais vagas ligadas à IA do que extinguir.

Diante de tudo isso, os gerentes deixam de ser apenas chefes e se tornam mentores. Cabe a eles agora ajudar suas equipes a se desenvolver e a enfrentar a “atrofia de habilidades”, ou seja, a perda de competências críticas, como segurança e pensamento analítico por um uso inadequado da inteligência artificial.

Devemos também começar a ver “profissionais canivetes suíços”, capazes de aplicar IA em qualquer contexto. Além deles, surgem os “engenheiros de contexto”, que superam o foco limitado dos “engenheiros de prompt” na adoção da tecnologia.

Como se pode ver, a transformação para se apropriar do mais nobre que a IA tem a oferecer não é apenas técnica. O propósito organizacional precisa ser revisitado para não fazer “apenas o que o mercado pede”, mas, sim, alinhar essas mudanças a um propósito humano e social. O negócio autônomo precisa tornar as organizações mais humanas, liberando as pessoas para funções criativas, de supervisão e de decisão estratégica, enquanto as máquinas cuidam do trabalho repetitivo e invisível.

Não basta acompanhar a evolução da tecnologia. A verdadeira disrupção acontece na interseção entre algoritmos e valores humanos, como identidade, confiança e tomada de decisão. O “caminho dourado do valor”, como foi descrito na conferência, não é uma corrida por máquinas mais poderosas, e sim a construção de um futuro em que tecnologia e humanidade avancem lado a lado.

 

A pesquisadora Erin Kunz (ao centro) em seu estudo para criar neuropróteses de fala para pacientes com paralisia – Foto: reprodução

IA pode romper a última fronteira da privacidade humana

By | Tecnologia | No Comments

A inteligência artificial está sendo usada com outra ciência de ponta, a dos implantes neurais, para criar habilidades inéditas ou solucionar limitações físicas, como dificuldade de falar ou de se mover. Isso é algo muito bem-vindo, que beira a ficção científica, mas desperta alguns alertas de privacidade até então inimagináveis.

Afinal, se uma máquina for capaz de ler com boa precisão o que se passa em nosso cérebro para realizar essas tarefas, que garantias teremos de que nossos pensamentos mais íntimos estarão protegidos?

O cérebro continua sendo o último bastião da nossa privacidade. Nossos pensamentos são apenas nossos até que decidamos compartilhá-los. Mas agora novas aplicações da tecnologia BCI (sigla em inglês para “interface cérebro-computador”) podem mudar isso.

Uma pesquisa recente, que visava identificar palavras que uma pessoa estava pensando para reproduzi-las em um alto-falante, identificou também pensamentos cujo dono não pretendia compartilhar. Considerando que temos cerca de 50 pensamentos por minuto, qualquer sistema com essa proposta merece atenção redobrada.

O experimento ainda é embrionário, portanto ninguém precisa ter medo de que o ChatGPT acessará nossos segredos se não contarmos a ele. Mesmo assim, isso já deve alimentar debates sobre como impedir que máquinas invadam esse espaço sagrado que sustenta nossa própria individualidade. Além disso, na mão de governos e de outros grupos de poder, isso significaria a ferramenta definitiva de manipulação das pessoas.


Veja esse artigo em vídeo:


O estudo, liderado por Erin Kunz, da Universidade de Stanford (EUA), foi publicado no dia 21 de agosto na revista “Cell”. O objetivo era criar neuropróteses de fala para pacientes com paralisia. Usando microeletrodos implantados e com a ajuda da IA, os pesquisadores decodificaram frases imaginadas em tempo real com precisão de até 74% em vocabulários com 125 mil palavras. O sistema possibilitava uma comunicação mais rápida e natural em comparação aos métodos atuais de tentativa de fala.

Para proteger a privacidade dos voluntários, os cientistas definiram a frase “chitty chitty bang bang” como uma senha mental que precisava ser pensada para ativar a decodificação. Este mecanismo permitiu bloquear a captura involuntária de pensamentos em 98% dos casos. Eles concluíram que esse sistema tem grande potencial para revolucionar a comunicação assistida, ao mesmo tempo em que ressaltaram os desafios éticos relacionados à privacidade mental, sugerindo um caminho seguro e controlado para futuras aplicações clínicas.

O mecanismo parece eficiente, mas fiquei pensando no “experimento” de dizer a alguém: “não pense em um elefante rosa com bolinhas azuis”. Via de regra, depois de ouvir esse comando, todo mundo justamente pensa nesse paquiderme surrealista. Qual seria a viabilidade de usar esse recurso para “invadir” os pensamentos alheios?

A mente humana não é uma caixa lacrada, sendo sensível a pistas, associações e contexto. Palavras, imagens, perguntas e o ambiente podem “provocar” uma ideia, tornando-a mais acessível na memória. Experimentos cognitivos simples usam um conceito repetido para que certas imagens ou expressões venham à mente de maneira mais fácil. Mas induzir alguém a revelar ou usar sua senha cruza a linha para engenharia social e fraude. Infelizmente criminosos não se preocupam com isso.

É plenamente legítimo e até necessário que uma pessoa mantenha segredos, mesmo em relações de grande afeto. O direito de guardar para si certos pensamentos, lembranças ou informações é parte essencial da autonomia individual e da saúde psíquica. Por isso, as possibilidades descritas no estudo liderado por Kunz abrem muitos questionamentos éticos e jurídicos.

 

“Neurodireitos”

Pesquisadores e alguns governos começam a se preocupar com o que vem sendo chamado de “neurodireitos”. Eles propõem que pensamentos passariam a ser classificados como dados sensíveis, que poderiam e deveriam ser protegidos.

Diante disso, o grupo liderado pelo espanhol Rafael Yuste, do Centro de Neurotecnologia da Universidade de Columbia (EUA), propôs cinco “neurodireitos” fundamentais para proteger os indivíduos diante dos avanços dessa tecnologia. Ele é uma figura central nesse conceito e na articulação de propostas para a proteção legal e ética da mente humana, tendo já influenciado políticas internacionais nessa área.

Os pontos defendidos por Yuste são a privacidade mental, que impede que pensamentos sejam acessados sem permissão; a identidade pessoal, que protege contra manipulação da personalidade; o livre arbítrio, garantindo que não haja indução nas decisões dos indivíduos; o acesso equitativo à neuroaumentação, evitando assimetrias sociais ao garantir a oferta a todos dessas melhorias de capacidades cognitivas; e a proteção contra vieses e informações mal-intencionadas, buscando reduzir discriminações embutidas nos sistemas neurotecnológicos.

Tudo isso parece residir em um futuro distante e incerto. Mas precisamos pensar que, há míseros três anos, simplesmente não debatíamos esses impactos da inteligência artificial em nossas vidas. O ChatGPT foi lançado em novembro de 2022 e, desde então, essa tecnologia invade exponencialmente tudo que fazemos.

A autonomia individual presume o direito a manter segredos. Todos devem conservar pensamentos, lembranças e sentimentos, sem a obrigação de dividi-los, mesmo em relações íntimas. Essa “privacidade cognitiva” preserva sua identidade em um espaço interno inviolável. Tanto que Constituições democráticas garantem isso ao assegurar a inviolabilidade da vida privada. No Brasil, uma Emenda Constitucional de 2022 incorporou dados pessoais, incluindo os digitais, a essa proteção.

Além de resguardar a identidade, esse direito fortalece os vínculos afetivos. Relações saudáveis reconhecem que não deve haver transparência total. Pelo contrário, respeitar o espaço íntimo do outro impede a vigilância e a dependência emocional.

Guardar segredos não equivale a mentir. É a liberdade sobre o que compartilhar, no próprio tempo e circunstância. Ignorar isso, por pressão emocional ou por meios tecnológicos, viola a dignidade e ameaça o equilíbrio entre o indivíduo e a sociedade.

Sem isso, nós nos tornamos apenas reflexo de expectativas alheias. Por mais que essas tecnologias tragam benefícios há muito desejados, não podemos tolerar esse “efeito colateral”.

 

Sundar Pichai, CEO do Google e da Alphabet, anuncia o “Modo IA” na conferência Google I/O, em maio – Foto: reprodução

“Modo IA” do Google sedimenta mudanças em como faremos nossas buscas

By | Tecnologia | No Comments

Quando foi lançado, o ChatGPT ganhou a alcunha de “assassino do Google”, pois muita gente achava que a sua proposta seria a nova maneira de se buscar conteúdo. Mas passados 33 meses, o uso do buscador mantém-se estável. A ironia é que uma novidade do próprio Google pode enterrar, aos poucos, seu formato consagrado.

Trata-se do “Modo IA”, que estreou no Brasil no dia 8, quatro meses depois dos EUA. Ele se parece ao ChatGPT, com uma janela para o usuário escrever o que quer e então receber uma resposta completa, construída pelo Gemini –a plataforma de IA do Google– sintetizando o conteúdo de páginas selecionadas pelo buscador.

Mas ao contrário do ChatGPT e do próprio Gemini, o “Modo IA” faz parte do buscador. Considerando que seu uso segue alto, isso pode ser determinante para popularizar o novo formato em substituição à busca tradicional. Assim a empresa pretende defender seu principal produto do crescimento das plataformas de IA concorrentes.

A novidade não deve ser vista como “apenas mais um recurso”. Seu sucesso pode alterar significativamente o processo de como buscamos conteúdo e construímos conhecimento, a exemplo do que o próprio Google fez no passado. Isso atende à demanda crescente por velocidade e praticidade, mas pode levar a ainda mais desinformação e conteúdos errados, e ampliar a tendência à superficialidade.

Mais grave é o risco de afetar cognitivamente os usuários. O “Modo IA” transforma a busca em um consumo passivo de respostas prontas, reduzindo o hábito de confrontar informações, exercitar a memória e analisar criticamente as fontes. Pela sua ilusão de completude, reduz a curiosidade e a busca por múltiplos pontos de vista, levando a um processo de “terceirização cognitiva”, em que delegamos tanta coisa às máquinas, que acabamos enfraquecendo nossa própria autonomia intelectual.

Surge então a dúvida legítima se esse recurso é mais positivo ou negativo para nós.


Veja esse artigo em vídeo:


Em julho de 2011, a pesquisadora Betsy Sparrow, da Universidade de Columbia (EUA), publicou, na prestigiosa revista científica Science, um artigo em que explicava como buscadores já funcionavam na época como “memórias externas” para nosso cérebro. Batizado de “Efeito Google”, ela demonstrou que memorizamos menos informações quando sabemos que elas podem ser facilmente encontradas. Em contrapartida, ficamos melhores em criar estratégias de pesquisa.

A inteligência artificial generativa nos leva a um outro patamar, pois a construção de respostas confrontando as fontes trazidas por um buscador é substituída por fazer boas perguntas ao sistema. Se as pessoas ainda analisassem criticamente as respostas da IA e verificassem sua correção, o problema não seria tão grande.

Mas as respostas da IA transmitem a sensação de serem “verdades definitivas”, quando, na prática, são apenas construções probabilísticas feitas a partir de padrões de dados. Assim, ao terceirizar a seleção e interpretação, as pessoas podem perder o hábito de confrontar informações, criando uma relação passiva com o conhecimento, em que a resposta não vem da investigação, mas do consumo imediato.

Extrapolando as conclusões de Sparrow, a ciência mostra que, quando não precisamos acessar a memória ou estruturar argumentos, há um enfraquecimento de circuitos neurais ligados à retenção e à análise crítica. A IA então pode mesmo nos deixar mais rápidos, entretanto também mais superficiais, se abusarmos desse recurso. Funciona no curto prazo, mas enfraquece nossa autonomia intelectual no longo prazo.

Outra pergunta legítima é por que o Google lançou o “Modo IA” se já tem a sua plataforma Gemini consolidada em smartphones e computadores. Entender a diferença entre ambos ajuda a esclarecer o escopo dessa novidade.

 

Google versus Google

O Gemini é o modelo de linguagem de IA da empresa, que alimenta diferentes aplicações, inclusive o próprio “Modo IA”. Este, por sua vez, oferece uma busca com raciocínio avançado, multimodalidade e capacidade de dividir perguntas complexas em subtópicos, com respostas aprofundadas em texto, tabelas e links relacionados.

O Gemini brilha em experiências amplas de assistente pessoal, realizando diversas tarefas, incluindo controle do smartphone, acesso a aplicativos, interação multimodal, personalização e respostas complexas em linguagem natural. Já o “Modo IA” é indicado para se obter respostas detalhadas e estruturadas a partir de múltiplas fontes da Web. Vale dizer que o Gemini também faz buscas, mas só se considerar que não consegue responder usando apenas seu treinamento.

Não se pode esquecer que todas essas plataformas –Gemini, “Modo IA”, ChatGPT e suas concorrentes– ainda erram muito. Um grupo de pesquisadores da OpenAI (criadora do ChatGPT) publicou recentemente um artigo em que reconhecem que isso acontece, em parte, porque elas são construídas para sempre darem uma resposta, mesmo que seja um “chute” baseado no que parece mais provável.

Isso se deve a como todos esses modelos são treinados, aprendendo a prever a próxima palavra em uma frase, mas sem informações sobre aquilo ser verdadeiro ou falso. As métricas tradicionais recompensam só respostas totalmente corretas e não penalizam erros, o que incentiva o modelo a arriscar e até inventar respostas, em vez de admitir quando não sabe ou está incerto. Para os pesquisadores, os modelos deveriam ser recompensados por indicar incerteza e punidos por erros cometidos com confiança excessiva, estimulando respostas mais cautelosas.

O Google avisa que “o Modo IA se baseia nos nossos principais sistemas de qualidade e classificação, e estamos usando abordagens inovadoras para aprimorar a veracidade”, e que “nem sempre vamos acertar, mas tenha certeza de que estamos trabalhando para melhorar dia após dia”.

Essa mea culpa é muito pouco para um recurso que pode impactar decisivamente como as pessoas construirão conhecimento de agora em diante.

A IA não é intrinsecamente boa ou ruim. Seu impacto depende de como é usada, regulada e compreendida. Ela oferece benefícios claros, como ampliar o acesso à informação, acelerar processos criativos e produtivos e até democratizar o conhecimento. Mas também carrega os riscos aqui debatidos, além da concentração de poder nas big techs e uma ameaça à sobrevivência dos produtores de conteúdo, tudo já debatido anteriormente nesse espaço.

Para um uso seguro e construtivo dessa tecnologia, as pessoas precisam adotar uma postura crítica, verificando informações, diversificando fontes e entendendo que respostas de IA não são verdades absolutas. Além disso, escolas, empresas e governos devem educar, regulamentar e incentivar boas práticas de uso. Por fim, as big techs devem buscar transparência, qualidade de dados, mecanismos de auditoria e abertura a revisões humanas, algo a que a maioria delas resiste ferozmente.

Só assim a IA deixará de ser uma ameaça à autonomia intelectual e se tornará um recurso poderoso para potencializar nossa capacidade de aprender, criar e decidir de forma consciente. Resta saber se conseguiremos fazer tudo isso.

 

Sophie Rottenberg e seus pais Laura Reiley e Jon Rottenberg, em um templo budista na Flórida em 2023 - Foto: arquivo pessoal

Mortes expõem limites éticos e técnicos das “terapias por IA”

By | Tecnologia | No Comments

Desde que o ChatGPT foi lançado, há dois anos e meio, ele vem sendo usado como “psicólogo” por uma quantidade grande (e crescente) de pessoas. A princípio, parece uma boa ideia: ele é uma “voz amiga” sempre disponível para ouvir lamúrias e dar “bons conselhos”, sem julgamentos e ainda de graça. Mas, como já expliquei nesse espaço em mais de uma ocasião, esse é um dos piores usos que alguém pode fazer da inteligência artificial generativa.

Em primeiro lugar, do ponto de vista do processo terapêutico, é ineficiente. Justamente pela sua falta de humanidade, essas plataformas não só podem não ajudar os pacientes a encontrar soluções para seus problemas, como ainda podem agravá-los.

Mas um caso recente me fez pensar em um novo aspecto grave das “terapias por IA”. A história com final trágico de uma jovem americana expôs uma seríssima limitação dos terapeutas-robôs: eles não conseguem romper os limites daquelas conversas para avisar familiares e autoridades se algo terrível estiver prestes a acontecer.

Isso não é um detalhe. Para profissionais de saúde mental, essa ação é uma obrigação legal que ajuda a salvar vidas. Há crises que a terapia não consegue resolver e, por isso, precisam ser encaminhadas para outras instâncias.

Entretanto, a IA generativa não é um psicólogo, e, por isso, não segue o código de ética ou outras regras da profissão. E mesmo que quisesse seguir, não conseguiria. É aí que um uso ruim se torna perigoso demais.


Veja esse artigo em vídeo:


O caso da jovem foi contado pela sua mãe ao “The New York Times”. Ela se chamava Sophie Rottenberg e se relacionava com uma plataforma de IA a quem chamava de Harry. Ela lhe contava dramas que não compartilhava nem com a sua psicóloga humana, inclusive o desejo explícito de tirar a própria vida.

Em diversas ocasiões, Harry tentou a aconselhar. Em uma delas, disse: “Sophie, peço que você procure ajuda — agora mesmo, se puder. Você não precisa enfrentar essa dor sozinha. Você é muito valorizada e sua vida tem muito valor, mesmo que pareça escondido agora. Por favor, me diga como posso continuar a apoiá-la.”

Parece uma boa resposta, mas não é. Apesar de positiva ao dizer que a jovem procurasse ajuda imediatamente e que ela não precisava enfrentar seu sofrimento sozinha, a IA se ofereceu para “continuar a apoiá-la.”

Nos EUA, profissionais de saúde têm o dever legal de avisar familiares e autoridades quando houver ameaça clara e iminente à vida, que varia de Estado para Estado. No Brasil, a notificação compulsória de risco de suicídio é obrigatória por lei para profissionais de saúde, incluindo psicólogos, e deve ser feita às autoridades sanitárias e, em casos com crianças e adolescentes, também ao Conselho Tutelar.

O sigilo profissional pode ser quebrado quando há risco iminente de morte, sempre buscando limitar a inconfidência ao estritamente necessário para proteger o paciente ou terceiros. Ou seja, temos uma estrutura legal e obrigatória mais robusta e padronizada para notificação compulsória, como política pública preventiva.

Nada disso se aplica à IA, criada para tentar ajudar o usuário, enquanto o mantém satisfeito. Se a pessoa busca alguém para lhe “passar a mão na cabeça”, é exatamente isso que a plataforma fará. Ela diz o que o cliente quer ouvir, ao contrário de um psicólogo, que diz o que o cliente precisa ouvir, mesmo que o desagrade.

 

O que a IA deveria fazer

A IA é perfeitamente capaz de identificar um suicida, como Harry fez. Mas, nesse momento, ela deveria notificar autoridades de saúde sobre o risco, ao invés de “continuar a apoiar” seu interlocutor.

Essas plataformas não fazem isso hoje porque “perderiam o cliente”. Seus termos de uso privilegiam a confidencialidade em qualquer situação, contrariando os códigos de ética e as legislações de saúde. Em muitos casos, os sistemas nem têm dados identificáveis dos usuários, como nome completo, endereço ou telefone. Além disso, não há canais entre esses serviços e as autoridades. E as empresas argumentam que têm usuários no mundo todo e que não há uma forma de notificação universal.

Esse último argumento é escandaloso! De fato, não há um canal que atenda ao mundo inteiro. Mas quem se propõe a criar um produto com um escopo tão amplo, que pode chegar a ser usado como um terapeuta, e que deseja ter clientes em todos os países, precisa respeitar a legislação de onde seu usuário estiver e criar todos os recursos necessários para uma boa experiência nas condições daquele local.

Devemos considerar que as conversas da IA podem ir por caminhos ainda mais sombrios que as de Sophie. Adam Raine, outro jovem americano, se suicidou em abril após conversar sobre isso com o ChatGPT por meses. Seus pais agora processam a OpenAI (criadora da plataforma) e seu CEO, Sam Altman, por homicídio culposo, alegando que a empresa conscientemente priorizou o lucro sobre a segurança.

Segundo eles, o robô validou os pensamentos suicidas do jovem, detalhou métodos letais de autolesão, explicou como pegar álcool escondido do armário de bebidas e ocultar evidências de uma tentativa de suicídio fracassada, além de oferecer a redação de uma carta de suicídio.

Em resposta, um porta-voz da empresa disse que está triste com a morte, e que o ChatGPT inclui salvaguardas, como direcionar pessoas para linhas de ajuda.

Algumas pessoas dizem que o ChatGPT é “melhor que seu psicólogo” e que a “terapia por IA” é o futuro, o que demonstra total desconhecimento do processo terapêutico. Além disso, se uma única vida é perdida pelas limitações técnicas ou a ausência de ética dessas plataformas, então deve ser proibido usá-las com essa finalidade.

Talvez Harry não tenha matado Sophie, mas acolheu seu desejo de fingir que estava melhor do que realmente estava. “Amantes” e “psicólogos” de IA podem parecer muito vantajosos, mas eximem as pessoas de conversas difíceis que precisam ter.

Extrapolando, plataformas de IA generativa, como o ChatGPT ou o Gemini, não devem ser usadas para substituir profissionais de qualquer área. Podem e devem ser usadas para lhes apoiar, mas são essas pessoas que devem tomar as decisões, guiadas pela ética. Ao tentar burlar isso, qualquer um pode cometer um erro que exigirá um pagamento muito alto depois, talvez com a própria vida.

 

Para Rui Botelho, presidente da SAP Brasil, aplicações corporativas passarão a alimentar a inteligência artificial – Foto: divulgação

IA pode se transformar em “interface universal” para computadores e celulares

By | Tecnologia | No Comments

A maneira como usamos diferentes programas e aplicativos de produtividade em nossos computadores e celulares pode estar com os dias contados. Com o avanço da inteligência artificial, navegar por muitas telas de sistemas distintos para coletar informações tende a ser substituído por simples conversas com um robô. Mas como tudo que se refere a essa tecnologia, precisamos compreender bem a proposta para que um benefício não se transforme em uma armadilha.

Especialmente no mundo dos negócios, mesmo com a ampla digitalização de processos, obter informações para uma tomada de decisão pode ser uma tarefa morosa e sujeita a falhas. Uma nova geração de assistentes de IA promete resolver isso, entendendo o que o usuário deseja e acessando todos os sistemas necessários para coletar os dados e organizá-los em uma resposta pronta.

Mais do que uma evolução técnica, esse movimento nascente traz uma mudança de paradigma na experiência do usuário e na governança de dados. Essa camada transforma sistemas complexos em “motores de dados” para respostas contextuais.

Os benefícios são evidentes, com ganhos em eficiência e produtividade. Mas alguns riscos não podem ser ignorados, como o aumento da dependência tecnológica e uma potencial exclusão digital entre aqueles que não souberem usar a IA.

Para muita gente, pode parecer um contrassenso alguém não conseguir usar uma tecnologia criada para facilitar processos. Mas precisamos entender que isso depende de habilidades que nem todos têm. Nesse caso, a sociedade precisa se organizar para capacitar essas pessoas, evitando ampliar o abismo digital já existente no país, e as empresas têm um papel fundamental nesse processo.


Veja esse artigo em vídeo:


No SAP Now AI Tour, evento anual da gigante de software alemã, que aconteceu em São Paulo nos dias 19 e 20, foi possível ver a Joule, assistente de IA da empresa, realizando esse tipo de integração com sistemas e dados da própria SAP e de terceiros. O robô também se ajusta automaticamente ao cargo de cada usuário, exibindo alertas, relatórios e soluções adequadas para cada função.

Para Rui Botelho, presidente da SAP Brasil, esse é o caminho. “O cliente escolhe se quer ter uma única experiência pela Joule ou se quer conectá-la a outros assistentes, como o Copilot da Microsoft”, disse. Segundo ele, “o futuro é que a gente consiga integrar o máximo possível e que esta camada de aplicações alimente a inteligência artificial, para que ela possa executar melhor as tarefas através dos agentes”.

A democratização da informática sempre foi associada à evolução da interface. Até os anos 1980, usar um computador exigia dominar comandos pouco intuitivos digitados no teclado, o que limitava esses equipamentos a uma parcela reduzida da população.

Isso começou a mudar com as interfaces gráficas, difundidas pelo Apple Macintosh (1984) e pelo Microsoft Windows (1985). Na década seguinte, os hiperlinks da Web mudaram como acessamos documentos. As telas sensíveis a toque, popularizadas há 20 anos pelo iPhone e pelo Android foram a etapa seguinte. Agora a IA contribui com a possibilidade de conversarmos com a máquina, como se fosse uma pessoa.

Isso permite que usuários sem conhecimento técnico operem sistemas complexos, apenas descrevendo suas necessidades, além de reduzir muito a curva de aprendizado para novos funcionários. Com processos mais rápidos e menos tempo em tarefas repetitivas, as decisões se tornam mais assertivas e ágeis.

Mas isso pode ampliar nossa dependência tecnológica, com risco de perda de conhecimento técnico profundo. Empresas também podem se tornar reféns de plataformas que centralizem toda a operação.

Isso se agrava com a falta de transparência das big techs, que normalmente não explicam as decisões e o funcionamento de sua tecnologia. Com isso e com todos os dados passando pela IA, o risco de vieses, vazamentos e erros aumenta.

 

Impacto no trabalho

Esse avanço da IA traz benefícios e dispara alertas também no mundo do trabalho. Se ela potencializa as entregas, como já explicado, pode ampliar a exclusão digital de quem não tiver acesso à tecnologia ou não se adaptar a ela. E a automação de tarefas pode reduzir os empregos de certas funções técnicas, como já se observa.

A SAP divulgou dados da Associação das Empresas de Tecnologia da Informação e Comunicação e de Tecnologias Digitais (Brasscom), que indica que o Brasil forma 53 mil profissionais de tecnologia por ano, mas abre 150 mil vagas de trabalho no mesmo tempo. Isso levará a uma falta de meio milhão de profissionais até o fim da década.

Nos EUA, observa-se inesperadamente o contrário. Segundo o Federal Reserve Bank de Nova York, profissionais de Ciência da Computação e de Engenharia de Computação enfrentam taxas de desemprego de 6,1% e 7,5% respectivamente, contra 3% entre os de Biologia e História da Arte. Isso se deve à demissão de centenas de milhares de profissionais nas empresas de tecnologia, pelo fim do seu crescimento acelerado durante a pandemia e justamente pela adoção de IA em tarefas técnicas.

Botelho não acredita que vejamos algo assim no Brasil. “Eu acho que a IA reduzirá nosso déficit profissional, mas não vai zerá-lo”, afirma. Tanto que a SAP intensificou seus esforços para apoiar a formação e a requalificação de profissionais no Brasil, com a meta de chegar a 10 mil pessoas por ano. “A gente tem essa orientação de que o ser humano precisa estar sempre no processo”, acrescenta.

O Brasil tem uma janela de oportunidade para não cair naquele cenário americano. Precisamos de políticas públicas que democratizem o acesso à alfabetização em IA, regulamentação que incentive a transparência algorítmica e investimentos que garantam que pequenas empresas não fiquem para trás nessa transição.

Seria um erro acreditar que a IA por si só melhorará nossa produtividade e competitividade. Ela pode democratizar os ganhos tecnológicos, mas apenas se nós mesmos fizermos escolhas conscientes sobre como usá-la. O futuro ideal inclui uma sociedade em que máquinas processam, mas humanos decidem, com a automação liberando tempo para criatividade, estratégia e relacionamentos genuínos.

 

Patrick Hevesi e Oscar Isaka, do Gartner, durante a abertura da conferência sobre segurança e gestão de risco – Foto: divulgação

Euforia pela IA ajuda a transformar cibersegurança em pilar estratégico dos negócios

By | Tecnologia | No Comments

No dia 2 de julho, o Brasil acordou com a notícia do maior crime digital da sua história: o ataque à C&M Software, que desviou pelo menos R$ 800 milhões de instituições financeiras conectadas ao Pix. Não houve violação ao sistema, pois os criminosos fizeram as transferências usando credenciais legítimas de um prestador de serviços. Isso demonstra que a cibersegurança não pode mais se limitar à proteção da estrutura de TI, precisando envolver pessoas, dados e processos. A inteligência artificial destaca ainda mais o tema, que deve ser visto como um pilar dos negócios.

Essas foram algumas das principais conclusões da Conferência Gartner de Segurança e Gestão de Risco, que aconteceu em São Paulo nos dias 5 e 6 de agosto. A mensagem central do evento foi que gestores não podem ignorar ou combater a euforia em torno da IA, e sim usá-la como motor de mudanças planejadas que diferenciam líderes apenas reativos daqueles que realmente geram valor estratégico.

Essa visão já é realidade em mercados mais maduros e avança globalmente, inclusive no Brasil. Estudos do Gartner sugerem que, até 2026, metade dos executivos de alto escalão deverá ter indicadores de performance em cibersegurança atrelados aos seus contratos de remuneração, e isso não se restringe aos líderes de tecnologia.

Não dá para ser diferente. Os bandidos já usam a IA para sofisticar seus ataques, como na adoção de agentes de IA que imitam o comportamento humano para burlar proteções de segurança. Assim, a IA automatiza ameaças em grande escala.

Isso não afeta apenas grandes corporações. Com a “Internet dos humanos” evoluindo para dispositivos ligados às pessoas (e eventualmente controlando funções vitais, como um marcapasso conectado), hackers poderão ameaçar vidas remotamente.

Nesse cenário, a preocupação não deve ser se estamos seguros, e sim se estamos tomando medidas adequadas para mitigar ameaças dentro do nosso apetite de risco.


Veja esse artigo em vídeo:


Para isso, a implantação de uma governança eficaz é crucial. O primeiro passo é começar pequeno, evitando uma sobrecarga inicial de dados e incidentes. Em seguida, é fundamental identificar e priorizar riscos, atribuindo-lhes valor financeiro para orientar os investimentos. Outro ponto central é traduzir os riscos de dados em linguagem de negócio, facilitando o entendimento e o apoio da alta gestão.

“Usar a energia da mudança ou o entusiasmo das pessoas para alimentar nossa agenda é uma jogada de poder político no que as pessoas chamam de tempos interessantes”, explicou Oscar Isaka, diretor-sênior do Gartner. “Os incidentes cibernéticos associados à tecnologia exploratória estão atingindo os resultados financeiros, então os executivos estão prestando atenção à cibersegurança.”

O Gartner sugere que os executivos de segurança da informação trabalhem três pontos para conseguir isso. No primeiro eixo, devem demonstrar como os investimentos em segurança contribuem para os objetivos da empresa, usando transparência e dados, em vez de medo e incerteza.

Além disso, a segurança cibernética deve ser vista como um laboratório para experimentação com IA. Ao adotar essa tecnologia para análise de ameaças, a área de segurança não apenas mitiga riscos, mas também impulsiona as ambições de longo prazo da empresa em inteligência artificial.

Por fim, a agilidade nas mudanças é essencial, pois a IA amplia a superfície de ataque e os riscos, como ameaças internas potencializadas por ela. Nesse ponto, os profissionais devem ser treinados e ter autonomia. Assim, automatizarão tarefas repetitivas, enquanto desenvolvem novas habilidades para impulsionar o seu crescimento, tornando-se agentes resilientes da mudança.

Mas nada disso resolve se cuidados básicos com as pessoas não forem observados.

 

O fator humano

Os gestores precisam transformar o comportamento dos usuários, sejam eles funcionários ou clientes, para que a segurança se torne um hábito, e não uma obrigação imposta. E temos uma cultura muito pobre nisso.

Isaka deu como exemplo a naturalidade com que compartilhamos nosso CPF para descontos em farmácias ou até para abrir a comanda em um bar. “O CPF é o que nos torna cidadãos brasileiros”, alertou. Segundo ele, “se eu pegar seu CPF e informar na Receita Federal, eu saberei mais de você do que você mesmo!”

O mesmo vale para a banalização dos QR Codes, escaneados sem preocupação e que podem levar a pessoa a um site em que seus dados pessoais serão roubados. Isso se reflete no trabalho, onde funcionários podem, com a mesma displicência, inserir dados sensíveis da empresa em sites não seguros ou em plataformas de IA.

Essa falta de cultura torna as pessoas o elo mais fraco. Elas podem ver os controles de segurança como um obstáculo em seu cotidiano, procurando formas de contorná-los para “fazer seu trabalho mais rápido”, ou cometer erros por falta de atenção.

Segundo Paulo Aresta, analista-sênior do Gartner, a rigidez de algumas regras de segurança não é uma escolha, e sim uma consequência de uma cultura organizacional sem colaboração, comunicação eficaz ou uma visão de riscos e objetivos compartilhada entre a segurança e o negócio.

“Quando colocamos pressão na gestão de segurança, ela tende a ter dificuldades em ser aplicada de uma maneira objetiva e eficaz”, afirmou. Ele explicou que apenas 14% das empresas conseguem equilibrar a segurança e a agilidade para inovar e crescer.

Ninguém pode dizer que está seguro. O desafio das empresas é que, quando (e não “se”) ataques ocorrerem, elas não sejam pegas de surpresa. Os incidentes são inevitáveis, mas podem ter impactos minimizados com preparo e reação rápida.

Obviamente não dá para “nos proteger do futuro”, mas podemos nos tornar “prontos para o futuro”. Isso exige que tenhamos uma mentalidade que vá além das urgências do dia a dia, para podermos antecipar cenários disruptivos.

Afinal, o futuro está sempre em movimento. Não devemos buscar ser infalíveis, mas sim ágeis e resilientes para nos adaptarmos ao que vier.

 

“Degradação” do conteúdo de uma imagem por repetidas interações com a IA – Ilustração: Paulo Silvestre

IA ameaça modelo que sustenta a Internet e a própria existência da tecnologia

By | Tecnologia | No Comments

As primeiras plataformas de inteligência artificial generativa, como o ChatGPT, se aproximam de seu terceiro aniversário. Em tão pouco tempo, conseguiram a proeza de mudar a maneira como buscamos informação. Mas apesar de suas vantagens inegáveis, elas ameaçam seriamente a maneira como a Internet se organizou e ironicamente a própria sobrevivência desses sistemas.

Nos últimos 30 anos, redes sociais e buscadores construíram seus impérios de mídia com conteúdo alheio. Apesar de alguns produtores desse material, especialmente veículos de comunicação, contestarem o modelo, essa usurpação sempre foi justificada com essas plataformas encaminhando seus usuários aos sites dos autores, que faturam com publicidade.

Como a IA entrega respostas completas, as pessoas não precisam mais clicar nos links para se aprofundar. Isso está achatando a audiência e as receitas dos criadores de conteúdo, que tentam fazer com que as big techs paguem pelas informações. As empresas de mídia são as vítimas mais visíveis, mas o problema afeta todo mundo.

Os caminhos abertos pela inteligência artificial não têm volta. Mas a ganância sem limites e o desrespeito aos direitos autorais das gigantes de tecnologia podem, em médio prazo, matar sua “galinha dos ovos de ouro”, pois a IA precisa continuamente de novas informações confiáveis para continuar funcionando bem.

Se os atuais produtores de conteúdo quebrarem e novos não surgirem pelo risco de terem seu trabalho roubado por essas empresas, não haverá mais nada para alimentar a besta digital. E então o modelo pode entrar em colapso.


Veja esse artigo em vídeo:


Pela característica de dispensar os usuários de procurar em uma infinidade de sites o que precisam, o ChatGPT foi rapidamente apelidado de “assassino do Google”. Obviamente era um exagero, mas essa concorrência fez o gigante de buscas se mexer, passando a iniciar as suas páginas de respostas com informações geradas pela sua própria IA. E isso agravou ainda mais a situação dos criadores de conteúdo.

Não é pouca coisa. A consultoria de tráfego online Similarweb estima que as pesquisas em buscadores desabaram 15% de janeiro a junho. Os sites de ciência e educação viram 10% de seus visitantes sumirem. No caso dos serviços de referência (como a Wikipedia), a queda foi de 15%, enquanto páginas de saúde perderam 31%. Por outro lado, desde que o Google incluiu textos da IA nas suas respostas, as buscas relacionadas a notícias que não resultam em cliques aumentaram de 56% para 69%.

Grandes empresas de mídia têm feito acordos com as big techs para licenciar seu conteúdo para treinarem a IA. Outras estão processando os gigantes digitais. Mas grande parte do conteúdo que a alimenta vem de uma infinidade de autores sem condições de lutar por seus direitos. De todo jeito, juízes americanos, influenciados pelo presidente Donald Trump, cada vez mais favorecem as companhias do Vale do Silício.

A situação dos produtores de conteúdo deve piorar ainda mais com o plano nacional de inteligência artificial anunciado por Trump no dia 23. Embora não mencione explicitamente direitos autorais, ele endossa a ideia de que as plataformas de IA tenham acesso irrestrito a conteúdos para treinar seus modelos. Trata-se de uma flexibilização implícita das leis de copyright, favorecendo as big techs.

Antes disso, no dia 10 de maio, Trump já havia demitido Shira Perlmutter, chefe do Escritório de Direitos Autorais, após a publicação de um relatório do órgão que questionava o treinamento de IAs com materiais protegidos por direitos autorais. O documento concluiu que isso ultrapassa os limites do uso justo na maioria dos casos.

Outra dor de cabeça criada pela IA para os autores deriva da facilidade de qualquer um produzir todo tipo de conteúdo. Um exemplo emblemático vem das plataformas de streaming de música, que estão sendo inundadas com novas músicas de baixa qualidade geradas por robôs. Cerca de 20 mil dessas trilhas são enviadas diariamente ao Deezer, 18% de todo o conteúdo recebido atualmente e o dobro do visto no início do ano. Como são feitas para agradar aos algoritmos que sugerem músicas aos usuários, elas tiram audiência e dinheiro dos músicos humanos.

 

Todos perdem, menos a IA

Os usuários também perdem muito com esse movimento, e isso começa por consumirem mais conteúdo de baixa qualidade, sejam texto, imagens ou músicas. Isso acontece porque, ao contrário das respostas convencionais de um buscador, em que as pessoas visitam sites criados com curadoria humana, a crescente produção da IA segue apenas os critérios da máquina.

Isso se complica com essas plataformas usando cada vez mais conteúdos gerados pela própria IA no seu treinamento. Assim, algo ruim criado por robôs leva a versões ainda piores no futuro. Para entender isso, basta fazer o exercício de pedir que a IA elabore uma imagem a partir de um original, depois uma terceira a partir da sua criação, e assim sucessivamente. A cada interação, a qualidade se degrada e se afasta da informação original.

Há outro problema ainda mais grave: a IA erra muito no que produz, mas as pessoas não percebem essas falhas. Já ficou comum dizer que é necessário fazer boas perguntas para se obter boas respostas dos robôs, mas pouca gente entende que precisa também ser capaz de analisar a qualidade do que eles entregam.

Aceitamos passivamente o que a IA nos empurra. Isso faz com que usemos mais informações erradas no nosso cotidiano, pois estamos nos tornando preguiçosos para verificar as informações e –pior– elaborar raciocínios e estratégias.

Claro que não proponho que a IA deixe de ser usada, pelo contrário! Mas ela deve ser bem utilizada. E os produtores daquilo que é apropriado para saciar sua fome infinita por informação devem ser remunerados de forma justa. Se as big techs quiserem continuar usando conteúdo alheio para viabilizar seu negócio multibilionário, deveriam, no mínimo, pagar a eles o que estão deixando de faturar graças à IA.

Em vez disso, essas gigantes preferem usar o poder do governo americano para aniquilar quem busca essa relação mais justa. Assim, os autores devem encontrar outras formas de remuneração, e então decidir se querem bloquear o acesso dos robôs ao que fazem.

Essa é uma questão ética, que impacta todas as pessoas seriamente na qualidade do conteúdo que consomem e em como pensam. Em um mundo ideal, os humanos poderiam obter informações gratuitamente, enquanto as plataformas de IA pagariam uma fortuna por elas. Ou então as big techs deveriam oferecer seus melhores produtos gratuitamente a todo mundo.

Mas isso elas jamais farão!

 

O presidente americano Donald Trump tenta desequilibrar a geopolítica usando a inteligência artificial - Ilustração: Paulo Silvestre

Plano de IA dos EUA adota caminho perigoso para superar China

By | Tecnologia | No Comments

O plano de inteligência artificial americano, divulgado na quarta passada (23), merece nossa atenção. Apesar dos grandes avanços da China, os EUA ainda lideram nessa tecnologia. Assim, suas ações influenciam a IA no mundo. Além disso, mecanismos da proposta podem impedir o Brasil de acessar tecnologias de ponta. Mas o que mais preocupa é a escolha de uma política de desenvolvimento irresponsável e perigosa.

A nova Guerra Fria acontece em torno da inteligência artificial. No anúncio do chamado “Plano de Ação de IA dos EUA: Vencendo a Corrida”, o presidente americano, Donald Trump, não economizou palavras para deixar isso claro.

Em suas 28 páginas, o documento se concentra em três pilares: acelerar a inovação em IA, construir infraestrutura americana, e liderar a diplomacia e segurança internacionais no setor. Eles atendem diretamente a demandas das big techs, como OpenAI, Google, Meta e Microsoft, que combatem ferozmente qualquer restrição a seus produtos, nos EUA e principalmente no exterior.

Essas regras vêm principalmente da Europa, mas também estão sendo criadas ao redor do mundo, inclusive no Brasil. Por aqui, o Marco da IA, aprovado pelo Senado Federal e francamente inspirado na Lei da IA europeia, está sendo discutido na Câmara. Por lá, Trump revogou a ordem executiva do governo anterior, que previa uma avaliação de risco no desenvolvimento de IA, e ameaça retirar recursos de Estados que tenham leis mais restritivas, como a Califórnia.

A nova diretriz manda às favas a prudência recomendada pelos maiores especialistas em IA do mundo. É um documento mais político que técnico, acenando aos eleitores mais radicais de Trump e às gigantes de tecnologia, essenciais para seus planos.

A IA não pode ser vista como apenas “mais uma tecnologia”. Sua evolução desafia os próprios desenvolvedores e ela pode facilmente ser usada para criar severos danos à humanidade. Ao tratá-la de forma política, esses riscos crescem exponencialmente.


Veja esse artigo em vídeo:


Trump quer transformar os EUA em um território livre para o avanço da IA, eliminando o que considera “barreiras regulatórias desnecessárias”. O novo plano prevê revisar ou suprimir normas federais que limitariam a inovação, incentivando a atuação do setor privado, ao promover a desburocratização em todas as áreas ligadas à IA.

A estratégia também altera diretrizes técnicas e regulatórias, retirando referências a diversidade, inclusão, mudança climática e desinformação dos guias federais. A justificativa é garantir que os sistemas de IA promovam a liberdade de expressão e reflitam “valores americanos”, do ponto de vista conservador. Para Trump, a IA deve buscar a objetividade, sem filtros que comprometam sua função de transmitir “a verdade”. E isso, por si só, é temerário, pois a IA reconhecidamente erra, e muito.

O documento incentiva a construção de data centers, fábricas de semicondutores e infraestrutura energética, essenciais para a liderança dos EUA no setor. Para isso, propõe simplificar licenças ambientais, criar exceções dentro do marco regulatório e até permitir o uso de fontes de energia “sujas”, como termelétricas, ignorando seu impacto. A meta é garantir velocidade na expansão da infraestrutura física que sustenta a IA, mesmo que isso signifique driblar normas ecológicas.

Embora o plano não mencione explicitamente os direitos autorais, ele endossa a ideia de que as plataformas de IA tenham acesso irrestrito a conteúdos para treinar seus modelos. Ao defender que obstáculos legais sejam eliminados, abre caminho para que obras protegidas, como livros, músicas e imagens, sejam usadas sem consentimento dos autores. Trata-se de uma flexibilização implícita das leis de copyright, favorecendo as big techs e colocando em risco a remuneração e os direitos de criadores.

Pela proposta, os EUA exportarão seus modelos, softwares e equipamentos de IA apenas a países aliados, garantindo que eles adotem padrões americanos. Ao mesmo tempo, impedirão que adversários tenham acesso a tecnologias sensíveis. Essa política transforma a IA em instrumento de influência internacional, usando sua distribuição como ferramenta diplomática e de contenção estratégica.

O Brasil pode ser ainda mais pressionado pelos EUA, para se submeter aos interesses das big techs. Caso contrário, podemos ser impedidos de ter acesso a tecnologias de ponta e de firmar colaborações de pesquisa e comerciais.

 

“Vieses ideológicos” na IA

Vale notar que o que o governo americano chama de “eliminar vieses ideológicos” na IA significa filtrar suas respostas, para remover conteúdos que considera inadequados. Ironicamente, isso inclui um viés ideológico. Mas tentativas anteriores de se fazer isso não funcionaram: as plataformas continuaram criando respostas que os extremistas não aprovavam por serem moderadas e promoverem diversidade.

Alguns episódios mancharam a reputação de plataformas quando foram lançadas, como quando o gerador de imagens da IA do Google incluiu negros e japoneses entre soldados nazistas. Nesses casos, a diversidade gerou erros de informação histórica. Mas fica difícil eliminar a variedade da vida “na marra”, quando a maioria dos conteúdos usados para treinar a IA tem natureza diversa. Seria necessário eliminar todas essas informações da base, o que é inviável.

O temor é que, ao insistir nisso, as plataformas de inteligência artificial americanas passem a se comportar como as chinesas no que elas têm de pior: a censura explícita. Sistemas como o DeepSeek deliberadamente não abordam assuntos que o governo de Pequim reprova, apesar de serem capazes de dar boas respostas sobre eles.

O novo plano americano reconhece explicitamente que os sistemas de IA podem representar riscos em áreas como ciberataques, desenvolvimento de armas de toda natureza e vulnerabilidades de segurança. Por isso, propõe que os EUA compreendam essas ameaças, que estarão nas mãos de adversário em breve.

Esses riscos e a politização da IA sintetizam os problemas dessas regras, com uma geopolítica agora fortemente vinculada à inteligência artificial. Não se espera muito da China, um país que pratica a censura abertamente e que atropela a ética e até o bom senso para roubar a liderança política e econômica dos EUA.

Os americanos sempre se contrapuseram a isso, e, pelo menos em tese, mantinham sua influência global por exemplos considerados positivos na ciência e nos negócios. Agora agirão nos termos chineses, por medo de serem ultrapassados por eles.

Assim o mundo vê suas duas maiores potências em um vale-tudo explícito, com consequências imprevisíveis. O desenvolvimento irresponsável ou descuidado da IA pode promover uma manipulação sem precedentes, achatar o senso crítico das pessoas e até concretizar alguns cenários distópicos da ficção científica.

 

Para Donald Trump, o Pix é uma “prática desleal” brasileira - Foto: National Archives and Records Administration/Creative Commons

O que ainda une os brasileiros em tempos de polarização digital

By | Tecnologia | No Comments

A sociedade brasileira hoje difere muito do que era há 20 anos. Sempre tivemos divisões enraizadas em nossa cultura, algumas profundamente nocivas para determinados grupos sociais e prejudiciais ao desenvolvimento da sociedade como um todo. Mas em tempos sem smartphones e principalmente sem redes sociais, aparentávamos viver em harmonia, ainda que mais frágil do que acreditávamos.

A completa disseminação desses produtos digitais criou, nos anos seguintes, uma profunda rachadura na sociedade que inviabiliza o debate entre aqueles que se posicionam nos extremos opostos. Caiu por terra o mito do brasileiro cordial e colaborativo, dando lugar à intensa polarização.

As causas disso sempre estiveram entre nós, nutridas no íntimo de extremistas antes contidos pelas regras da civilidade. Os algoritmos das redes sociais destravaram essas forças ao juntar quem tem os mesmos valores, e os smartphones passaram a reforçar essas ideias o tempo todo. Não demorou para que políticos de várias ideologias se apropriassem dessa polarização, criando uma espiral destrutiva da qual não saímos.

Resta algo que ainda une os brasileiros? Nem a seleção de futebol, antes uma unanimidade, consegue fazer isso hoje.

Nesse cenário, as absurdas exigências do presidente americano ao Brasil, feitas na semana passada, merecem atenção. Apesar de ter provocado forte indignação na maioria dos brasileiros, nem Donald Trump conseguiu unir a todos nós.

Ainda assim, vale analisar aquelas que defendem os interesses das big techs e atacam conquistas tecnológicas e de proteção aos cidadãos do Brasil. Afinal, o Pix, criticado por Trump, é uma unanimidade nacional.


Veja esse artigo em vídeo:


De fato, do ponto de vista econômico e político, não há justificativa racional para as grotescas agressões do americano, algo sem precedentes nos 200 anos de boas relações entre os dois países. E a proteção explícita das plataformas digitais, que fere severamente a soberania brasileira, não vem ao acaso, amplificando as reclamações de empresas que não querem ver seus enormes privilégios ameaçados.

Não se trata apenas dos ganhos bilionários. Smartphones, redes sociais e agora inteligência artificial permitem profunda manipulação das massas, influenciando fortemente a geopolítica. Esses setores estão prestes a ser regulados no Brasil, a exemplo do que já acontece em outras partes do mundo. Por isso, o lobby de empresas como Meta, Google e Amazon busca convencer o governo americano de que um país lhes impor regras significa um ataque aos interesses americanos.

Elas sabem que são estratégicas para a economia dos EUA. Por outro lado, o Brasil é um mercado muito importante para as essas plataformas, pela quantidade de clientes e pelo comportamento digital do brasileiro, que lhes garante receitas monumentais. Por isso, limitações ou regulamentações por aqui podem influenciar outros países a adotarem legislações similares, restringindo a atuação global dessas companhias.

Isso explica por que as ameaças americanas também miraram a Lei Geral de Proteção de Dados (LGPD). Elas afirmam que a proteção aos dados dos cidadãos brasileiros atrapalha “objetivos comerciais de rotina” das empresas americanas, exigindo que aceitemos os padrões de privacidade dos EUA como “adequados”.

Mas a LGPD não é um entrave, e sim um selo de qualidade que posiciona o Brasil como um parceiro sério na economia digital. Enfraquecê-la seria renunciar a uma conquista civilizatória compatível com as melhores práticas globais e, aliás, uma das poucas defesas do cidadão frente ao poder dos algoritmos e da vigilância digital.

Mas talvez o que mais tenha chocado foram os ataques ao Pix, rotulado de “prática desleal nos serviços de pagamento eletrônico”. Novamente, buscam proteger os interesses de gigantes americanas, como Visa, Mastercard, Google, Apple e Meta, contra os da população brasileira.

 

Orgulho nacional

Trump reclama que o Pix foge do controle dessas companhias e é gratuito, o que as prejudica, pois dependem de taxas de transação para lucrar. E ele teme que o sistema brasileiro evolua para uma plataforma de transações internacionais, servindo como alternativa ao dólar em determinados contextos comerciais.

O Pix é um caso de inovação tecnológica brasileira que é referência mundial. Ele funciona, é eficiente e é nosso. Por isso, evoca um sentimento de orgulho nacional baseado em competência, não em símbolos vazios. Acabar com ele ou mesmo desincentivá-lo seria um retrocesso absurdo, pois ele é um instrumento de inclusão financeira, de modernização do Estado e de democratização do acesso bancário.

Não é de se estranhar, portanto, que as bravatas de Trump tenham aumentado a união dos brasileiros, ainda que circunstancialmente. Precisamos garantir essas conquistas e avançar na regulamentação das big techs. Isso não busca censura ou tecnofobia, mas garantir que os direitos humanos, o debate público saudável e a integridade das instituições democráticas sejam preservados em um ambiente digital que foi sequestrado pelo engajamento e pelo lucro a qualquer custo.

Ironicamente, esse embate internacional pode nos ajudar a entender que precisamos resgatar a escuta de quem pensa diferente, sem ataques. E isso começa em cada um de nós. A polarização só se sustenta se houver plateia para o confronto.

Nosso engajamento político, cultural e social deve sair do automático. A educação midiática precisa ser um projeto nacional. Sem isso, as tentativas de regulamentação podem parecer autoritárias para uma população que não entende por que isso importa.

O que ainda pode nos unir são valores compartilhados que sobrevivem à polarização, como o desejo de viver com dignidade, a rejeição à corrupção, o orgulho por inovações locais e o carinho por símbolos culturais. Paradoxalmente, as mesmas redes sociais que nos dividem podem reconstruir contatos. Mas isso exige que deixemos de ser meros usuários e passemos a ser cidadãos digitais conscientes.

A união nacional não virá “de cima”, de instituições, empresas ou governos, nacionais ou estrangeiros. Ela deve surgir de nós mesmos, quando soubermos olhar para o outro sem medo e sem ódio. E então poderá acontecer até ao defendermos juntos algo pontual, como o Pix, ou algo complexo, como a democracia.

 

A personagem Marisa Maiô, criada por inteligência artificial, satiriza os programas de auditório - Foto: reprodução

Vídeos criados por IA atolam a sociedade no lamaçal da confiança na mentira

By | Jornalismo, Tecnologia | No Comments

Os mais recentes geradores de vídeo por inteligência artificial, lançados nas últimas semanas, põem o nosso discernimento à prova. Simplesmente não é mais possível saber o que é real! A impressionante capacidade de geração dessas plataformas permite que uma mentira suculenta se torne mais crível que uma verdade tristemente limitada pelos fatos, até para olhos treinados.

Isso era “crônica de uma morte anunciada”: todo mundo sabia que a tragédia aconteceria, mas ninguém fez nada para evitá-la. E se já não bastasse todo tipo de lixo produzido por IA sendo destacado pelos algoritmos das redes sociais (ao mesmo tempo que escondem bons conteúdos), esse recurso já é usado para enganar a população de maneira voraz, especialmente na política.

Já é bem ruim pessoas que não existem fazendo de tudo nos vídeos. Mais grave, entretanto, é ver, diante de nossos olhos, pessoas reais em atividades que nunca realizaram, muitas vezes comprometedoras.

Essa tecnologia já existe há algum tempo, mas, até então, seus desenvolvedores limitavam seu uso a pouquíssimos especialistas, enquanto buscavam maneiras para evitar que ela fosse usada indevidamente, uma precaução muito bem-vinda. Mas parece que agora mandaram os escrúpulos às favas, como se vê, aliás, em muitas outras atitudes das big techs desde o começo deste ano.

Quando tudo pode ser simulado com perfeição e quando passamos a desconfiar até do que é real, cria-se um ambiente de paranoia e cinismo. Essa erosão da confiança coletiva pode levar as pessoas a rejeitarem fatos documentados e a se refugiarem em teorias conspiratórias. E assim a democracia vai dando lugar à barbárie.


Veja esse artigo em vídeo:


A responsabilização é um ponto nevrálgico nesse dilema. Quem responde por um uso daninho dessa tecnologia: o criador do vídeo, a plataforma que o hospedou ou a empresa dona do algoritmo? Diante da ausência de regulamentação da inteligência artificial e das redes sociais, ninguém assume as falhas.

As big techs responsáveis por essas plataformas investem pesado no lobby para que tudo continue assim. Afinal, esse cenário de impunidade é muito bom para seu negócio, seja pela infinidade de conteúdos criados e distribuídos assim, seja pelo estímulo a um desenvolvimento descuidado dessas tecnologias. Para elas, quanto menos regras, melhor.

Claro que nem todos os vídeos criados com IA são nocivos. Um bom exemplo de seu uso para fins humorísticos são os programas da apresentadora Marisa Maiô. Criada como uma brincadeira para testar a tecnologia por Raony Phillips, a personagem satiriza programas de auditório e faz um enorme sucesso nas redes.

Apesar de sua proposta inofensiva, muita gente pode achar que ela é mesmo uma mulher e que seu programa passa em algum canal. Isso demonstra a responsabilidade dos criadores de conteúdo com o que geram com a inteligência artificial.

Em tese, todas essas plataformas possuem mecanismos para que não sejam usadas em práticas condenáveis, mas eles não garantem nada. Por isso, outro grave problema é o uso indevido da imagem de pessoas comuns retratadas em conteúdos pornográficos ou vexatórios, muitas vezes para extorsão ou vingança. Mesmo figuras públicas, que têm menos controle sobre sua imagem, enfrentam dificuldades para lidar com problemas derivados desses conteúdos, pela velocidade com que se espalham.

Não por acaso, em janeiro de 2024, o Fórum Econômico Mundial concluiu que a desinformação impulsionada por inteligência artificial será o risco mais severo para a humanidade nesse ano e no próximo.

 

Diversão e responsabilidade

Àqueles que defendem esse uso irrestrito da IA como um caminho inevitável do progresso, é preciso lembrar que inevitabilidade não justifica irresponsabilidade. O avanço tecnológico é constante, mas o modo como o usamos define os valores da sociedade que queremos construir.

Marisa Maiô e outras criações mostram o grande potencial da IA para a diversão, e isso atrai as massas. Não há nenhum problema em rir com gatinhos tocando Chopin no piano, mas essa banalização do irreal está destruindo a característica de documentação que o vídeo sempre teve, assim como já aconteceu com a fotografia.

Uma sociedade não se desenvolve sem ter algo para confiar. Se a qualidade técnica de um vídeo não servir mais de medida para isso, precisaremos encontrar outra.

O jornalismo profissional pode recuperar o posto de porto-seguro da informação, com trabalhos sérios de apuração e divulgação. Justamente ele, que vem sendo combatido há anos por aqueles que mais se beneficiam de usos criminosos dessas tecnologias, tentando se escudar depois na “liberdade de expressão”. Isso não é uma coincidência!

A imprensa precisa fazer a sua parte garantindo produtos de qualidade. Mas também é necessário que as pessoas recebam uma melhor educação midiática, que lhes permita diferenciar mais facilmente verdades de mentiras, mesmo as mais críveis.

A forma como uma tecnologia é concebida, distribuída e adotada carrega intencionalidades. Ao se criar uma ferramenta capaz de simular pessoas com perfeição, sem mecanismos nativos de identificação ou rastreio, a pretensão de neutralidade das big techs desaparece. A ética não pode ser um detalhe técnico, pois é a linha que separa a inovação do controle das massas.

A defesa de que essa tecnologia seja liberada sem critérios significa fechar os olhos para os desequilíbrios de poder. Ignorar os riscos ou tratá-los como “efeitos colaterais” do progresso é uma postura não apenas ingênua, mas perigosa. Afirmações sobre o uso irrestrito ser “inevitável” são maneiras cômodas de se eximir da responsabilidade.

Esse tipo de determinismo tecnológico ignora o fato de que toda inovação carrega consigo escolhas humanas, com impactos concretos sobre vidas, direitos e estruturas sociais. Assim como não permitimos o uso irrestrito de armas ou remédios, não dá para liberar tecnologias tão poderosas sem limites, critérios ou consequências.

Mas é o que está acontecendo, e deve acontecer cada vez mais, contando com aplausos de parte da população que insiste em ver apenas os inegáveis benefícios da tecnologia. Por isso, esses impactos devem ser amplamente discutidos. Afinal, não é porque ganhamos um carro superveloz que podemos abrir mão de seus freios. Se fizermos isso, não chegaremos vivos ao nosso destino.

 

IA nos força a questionar como ela colaborará conosco no mundo do trabalho - Foto: Freepik/Creative Commons

Mais do que substituir trabalhadores, IA pode redefinir o conceito de trabalho

By | Tecnologia | No Comments

De um lado, temos empresas procurando os melhores profissionais para ocupar suas vagas. Do outro, pessoas buscam seus empregos dos sonhos. No meio disso, a inteligência artificial surge como uma aliada poderosa aos dois grupos. Mas o abuso desses recursos também pode trazer problemas éticos e de confiabilidade.

Segundo o relatório “Agentes de IA na prática: Como a inteligência artificial está transformando a gestão de pessoas”, divulgado na semana passada pela plataforma de recrutamento Gupy, 65% das empresas no mundo e 48% no Brasil já usam a IA em processos seletivos. Além de redução de custos e tempo nas contratações, ele indica que a IA pode reduzir a rotatividade e até aumentar a diversidade nas equipes.

Isso contraria problemas conhecidos da IA no setor, como sistemas enviesados na avaliação de profissionais e falta de transparência nas escolhas. A solução recai no uso de uma IA concebida, desde o princípio, para a mitigação sistêmica desses problemas, com justificativas claras e mantendo humanos nas decisões.

Mas nem todas empresas e candidatos se preocupam com isso. Por exemplo, muitas pessoas usam a tecnologia para alterar seus perfis, fazendo com que pareçam mais alinhados com as vagas do que realmente são. Também utilizam robôs para enviar candidaturas em massa. Segundo o LinkedIn, essas práticas ajudam a explicar o expressivo aumento de 45% nas candidaturas na plataforma no último ano.

Obviamente o impacto da IA no mundo do trabalho vai além de processos de RH e do medo de profissionais de que seus trabalhos sejam “roubados” por uma máquina. Mesmo com os benefícios que a tecnologia traz, ela exige habilidades que nem todos conseguem ter, além de alterar radicalmente a maneira como os trabalhos são feitos.

Não se pode ignorar a natureza substitutiva de funções da IA. Portanto, mais que oferecer ferramentas, sua chegada está redefinindo o que é trabalhar.


Veja esse artigo em vídeo:


O polido discurso do Vale do Silício que promete “aprimorar” trabalhadores e libertá-los de “tarefas rotineiras” desmorona diante da sinceridade brutal de startups como a americana Mechanize. Sua proposta é clara: automatizar totalmente o trabalho, mesmo que isso provoque demissões em massa. Tudo em nome da eficiência.

Para isso, a empresa usa a técnica de “aprendizado por reforço”, a mesma que as big techs usam para melhorar os resultados de suas plataformas de IA. Mas seus fundadores acreditam que ainda levarão pelo menos 10 anos para atingir seu objetivo.

“Essa expansão está acontecendo em uma velocidade jamais vista, não havendo tempo para as organizações, as escolas, as universidades e as pessoas se prepararem”, afirma Marcelo Graglia, professor da PUC-SP e diretor do Observatório do Futuro do Trabalho da universidade. “Isso vem interferindo na saúde mental e do trabalho das pessoas, gerando um adoecimento coletivo”, acrescenta.

Para ele, há uma romantização da IA, exaltando seus benefícios e ocultando os seus riscos. Não se trata de demonizar a tecnologia ou impedir o seu avanço, mas é preciso avaliar conscientemente os problemas que ela traz e criar mecanismos para minimizá-los. Esse discurso de “aprimoramento profissional” só se sustenta, segundo o pesquisador, porque pouca gente realmente entende a tecnologia.

Além da substituição de profissionais por robôs, um fenômeno que cresce aceleradamente é a dos trabalhos híbridos, em que humanos e a IA dividem tarefas, gerando mais produtividade. Isso é outro ótimo benefício com uma contrapartida negativa, pois a tendência é que, mesmo em funções que não sejam extintas, serão necessários menos profissionais para cumprir seus objetivos.

 

Aumentando desigualdades

Essa reconfiguração aprofunda e diversifica as desigualdades. Elas começam no fosso crescente entre países que dominam a tecnologia e os que não a dominam, que está provocando uma nova Guerra Fria. Até entre cidades de uma mesma região, as que se tornam polos tecnológicos atraem mão de obra qualificada e investimentos.

Empresas que investem nessa transformação digital podem obter ganhos de até 30% em custos operacionais, ampliando sua vantagem competitiva. E a corda arrebenta no nível das pessoas, com estudantes de escolas de elite adotando IA e robótica desde cedo, enquanto os das públicas ficam alijados desse conhecimento, agravando a desigualdade na formação e, consequentemente, na vida profissional desses jovens.

Com tudo isso, uma massa de trabalhadores ficará “do lado de fora” desse novo mercado. Além disso, voltando ao uso da IA em avaliações de desempenho, implantações malfeitas podem levar à dispensa de bons profissionais e à criação de ambientes de trabalho “esquizofrênicos”, onde a meta não será mais “ser bom”, mas “parecer bom” para um algoritmo desprovido de bom senso e de compaixão. Por isso, propostas como as da Gupy, de mitigar vieses, privilegiar a transparência e manter as decisões na mão de humanos são bem-vindas em um mundo de forte automação.

“Alguns dizem que, com a automação, sobrará mais tempo para atividades criativas e descanso, mas a realidade não bate com esse discurso”, afirma Graglia. Segundo ele, os ganhos de produtividade nunca geraram menos trabalho, e agora a digitalização faz com que as tarefas invadam os tempos de descanso, de lazer e de estudo.

O pesquisador explica que o trabalho inventivo deve aumentar apenas para poucas pessoas, que já desempenham funções mais estratégicas e criativas. “Mas a grande massa de trabalhadores no mundo não tem esse perfil, e, para eles, simplesmente não se aplica essa lógica”, conclui.

Mais do que temer a máquina, é preciso, portanto, questionar o modelo de sociedade que estamos moldando a partir dela. A IA pode, sim, ampliar a produtividade e democratizar oportunidades, mas isso só será possível se enfrentarmos com coragem os dilemas éticos, sociais e humanos que ela impõe. Caso contrário, estaremos apenas transferindo velhas desigualdades para um novo ambiente, agora automatizado e ainda mais difícil de contestar.

Talvez a reflexão mais importante não seja, então, quantos empregos a IA eliminará, mas que tipo de trabalho e de trabalhador queremos valorizar. Mais do que uma tecnologia, a inteligência artificial está se tornando o espelho de nossas escolhas coletivas.

 

A americana Sandy Carter, COO da Unstoppable Domains, palestra durante a Febraban Tech 2025 – Foto: Paulo Silvestre

Hiperpersonalização desponta como chave para fidelidade de clientes bancários

By | Tecnologia | No Comments

A confiança pode ser considerada o principal produto de um banco, desde quando foram criados, e isso não mudará. Mas em tempos em que redes sociais e a inteligência artificial desafiam constantemente nossa percepção de realidade, essas instituições precisam encontrar novas maneiras de se relacionar com o público.

Foi-se o tempo em que um nome consolidado e agências imponentes bastavam para isso. Com a digitalização do setor, a confiança vem da transparência nas propostas do banco, da autonomia do cliente para suas escolhas, de produtos verdadeiramente personalizados, de inclusão financeira e até mesmo do alinhamento dos valores da instituição com os do público.

Esses conceitos permearam a Febraban Tech, evento anual de inovação promovida pela federação dos bancos, que reuniu 58 mil visitantes em São Paulo, entre os dias 10 e 12 de junho. Eles também aparecem no estudo “Empowered Customer Journeys”, produzido pela consultoria Box1824 e pela empresa global de soluções digitais CI&T, divulgado no evento.

Como era de se esperar, a IA esteve em todo lugar, mas dividiu a atenção com o conceito da hiperpersonalização das ofertas, outro recurso cada vez valioso nesse setor. Resta saber quanto as instituições financeiras realmente respeitarão essas demandas do mercado, com uma tecnologia cada vez mais centrada no cliente, indo além do discurso bem-intencionado.


Veja esse artigo em vídeo:


Para a americana Sandy Carter, COO da Unstoppable Domains e uma das principais palestrantes dessa edição da Febraban Tech, não há dúvidas de que o futuro bancário está ligado à confiança algorítmica. Para ela, “uma IA confiável se tornará um diferencial competitivo”.

Mas boas intenções não bastam, sendo necessárias práticas transparentes, auditáveis e baseadas na ética. Segundo dados do estudo Edelman Trust Barometer 2025, 52% dos brasileiros confiam na IA, sensivelmente mais que os americanos (32%) ou os alemães (29%), os mais céticos entre os 28 países avaliados. Os indianos (77%) são os que mais acreditam na tecnologia.

Essa discrepância mostra que a confiança não é um dado, mas uma conquista. No caso dos EUA, Carter explica que a descrença vem justamente de fraudes bancárias. “A crise de confiança faz com que as pessoas acreditem no fake e não acreditem no que é verdadeiro”, acrescenta.

Isso evidencia que a confiança na tecnologia varia culturalmente, mas que também pode ser cultivada com boas práticas. A pesquisa da Box1824 e da CI&T reforça esse ponto ao mostrar que os consumidores brasileiros querem ser respeitados, mais do que apenas bem atendidos.

Na pesquisa, confiança e transparência surgem como moedas simbólicas no novo ecossistema bancário. O estudo também revela que há um desejo crescente por mais autonomia nas decisões financeiras e por relacionamentos com instituições que compreendam e respondam às complexidades individuais de cada cliente.

A IA aparece como principal ferramenta para colocar esses conceitos em prática. Monica Sasso, líder global de serviços financeiros da Red Hat, a principal empresa em software open source corporativo, lembra que a IA já faz parte do setor bancário há muito tempo, mas agora ela se aproxima da superfície. Para ela, “a IA já moldou o relacionamento entre instituições financeiras e consumidores”, citando seu uso em análises de fraude há muitos anos. Agora a IA generativa remodelará os modelos operacionais dos bancos e a forma como eles nos atendem. “A próxima geração de IA vai realmente personalizar os serviços financeiros para nós”, afirma.

Na prática, isso significa deixar de tratar todos como iguais. Em vez de pacotes engessados de crédito, seguros ou investimentos, o cliente poderá receber ofertas alinhadas ao seu momento de vida, histórico de comportamento e perfil de risco. A hiperpersonalização funciona como estratégia de fidelização e diferencial competitivo, transformando a experiência do cliente de algo funcional para algo significativo.

 

Inclusão financeira

Mas essa revolução algorítmica só será relevante se incluir quem ainda está à margem do sistema financeiro. Vinicius Martinelli, vice-presidente executivo da CI&T, destaca o papel da IA como aliada da inclusão, especialmente no Brasil, onde milhões ainda estão fora da rede bancária, e 8 em cada 10 famílias estão endividadas, metade da força de trabalho atua na informalidade e apenas 19% da população adulta completaram o ensino superior.

“A inteligência artificial pode ajudar tanto na eficiência quanto na inclusão, entregando soluções de um jeito muito mais prático, que esses consumidores vão conseguir interagir”, explica. Para ele, assistentes digitais capazes de conversar em linguagem natural ajudarão muito pessoas de baixa escolaridade e sem letramento digital.

Ao mesmo tempo, a tecnologia precisa ser clara. Explicabilidade significa entender e ser capaz de justificar por que um sistema chegou a uma determinada decisão, algo vital quando se trata de aprovar um empréstimo, sugerir um investimento ou avaliar um risco. Ela é crucial para evitar vieses e prestar contas a reguladores e clientes.

Mas a tecnologia também embute riscos reais e crescentes. A IA pode reforçar preconceitos, excluir perfis não padronizados e facilitar fraudes com grande sofisticação, especialmente quando há decisões algorítmicas mal calibradas. Por isso, é um consenso que julgamentos finais devem ficar com especialistas, equilibrando automação com supervisão humana.

Isso muda os papéis de todos os envolvidos. As instituições precisam deixar de ser meras intermediárias para se tornarem parceiras proativas, transparentes e educativas. Os consumidores, mais informados e exigentes, não querem mais ser convencidos, e sim compreendidos. Os bancos que não conseguirem fazer essa transição perderão espaço para fintechs que já nascem com essas ideias.

Assim, eles não podem mais ser os mesmos, porque os clientes já mudaram. A digitalização da vida alterou a percepção de valor, do tempo e de relacionamentos. Para melhorar essa conexão, será preciso ouvir mais, falar menos e agir com mais empatia, tornando os serviços mais acessíveis, claros e justos.

Isso significa investir em explicabilidade, combater vieses com o mesmo vigor com que se combate fraudes e responder às novas demandas por autonomia e propósito. Se fizerem isso, os bancos manterão sua relevância e poderão se tornar símbolos de confiança, agora no momento de ascensão da inteligência artificial.