All posts by Paulo Silvestre

Roberto Brito de Mendonça, líder da comunidade Tumbira (AM), trocou o desmatamento ilegal pelo turismo ecológico – Foto: reprodução

Onipresente nas cidades, Internet ainda amplia a fronteira civilizatória na Amazônia

By | Tecnologia | No Comments

Para você que está lendo isso, a Internet funciona de maneira líquida e certa, como uma força da natureza. Mas para quem vive na floresta amazônica, onde a natureza verdadeiramente se impõe, sua chegada amplia a fronteira civilizatória. Não se trata de conforto, e sim de uma “virada de época”, reconfigurando possibilidades de vida.

A Amazônia é um desses lugares onde a transformação digital é forçada aos seus limites operacionais, sociais e éticos. Não há comitês de inovação em salas com ar-condicionado simulando a floresta. A tecnologia se torna fator de sobrevivência em um teste de legitimidade. Afinal, se algo funciona lá, funciona em qualquer lugar; se fracassa, expõe que o discurso digital talvez fosse frágil, apenas protegido por infraestrutura abundante. E se a tecnologia não preserva a vida com sentido e não produz valor para quem mora na floresta, ela falha miseravelmente.

Pude comprovar esse impacto na semana passada, quando visitei a comunidade ribeirinha Tumbira e a aldeia da etnia Kambeba Três Unidos, ambas nas margens do rio Negro, a cerca de duas horas de lancha de Manaus (AM). Assim como outras 796 comunidades, elas recebem orientação e investimentos da Fundação Amazônia Sustentável (FAS), totalizando 21 mil famílias assistidas na região. Para isso, há dez anos usa soluções da gigante de software alemã SAP na gestão de seus projetos, com ganhos em transparência, planejamento e impacto socioambiental.

A FAS visa conservar o bioma pela valorização da “floresta em pé” e melhorar a qualidade de vida das populações da Amazônia. Partindo do pressuposto de que pessoas com melhores condições cuidarão mais da natureza, implanta programas de educação, cidadania, saúde, empoderamento, pesquisa e inovação, conservação ambiental, empreendedorismo e geração de renda. Também melhora a infraestrutura das comunidades, inclusive com eletricidade e Internet, apoiada por empresas.

Isso impede que a Amazônia entre em um colapso ecológico, o que agravaria a crise climática global. Portanto, não se trata de ganhos pontuais. Eles fortalecem a posição do Brasil como um país capaz de conservar e gerar prosperidade na região, não apenas por ser “dono da floresta”, mas sim dono de soluções.


Veja esse artigo em vídeo:


A floresta impõe o aprendizado de que programas de transformação digital que chegam prontos, sem aderência cultural, morrem por falta de enraizamento. “Não impomos nada de cima para baixo, ou a comunidade não se engaja”, explica Michelle Costa, superintendente de Gestão e Finanças da FAS.

Ela lembra também que o Terceiro Setor amazônico opera sob grande estresse, com sua reputação sempre atacada, recursos limitados frente a altos custos, eventos climáticos extremos, enormes distâncias e infraestrutura precaríssima. Além disso, enfrentam a violência de traficantes e outros criminosos típicos da região.

Em um ambiente tão hostil, nenhuma organização pública, privada ou social consegue operar sozinha. “Sustentabilidade, você não faz sozinho, faz em parcerias”, afirma Pedro Pereira, diretor de Sustentabilidade da SAP para a América Latina e Caribe. Iniciativas como essas ajudam a reconectar a inovação ao seu fundamento de produzir valor para pessoas reais, em situações reais.

De fato, sustentabilidade que não entrega valor morre e projetos locais de ESG que não resistem ao “teste da Amazônia” cheiram a simples retórica. Em ambientes onde quase tudo falta, não há espaço para enfeite, apenas para o que gera resultados verificáveis.

Ao orientar, investir e conectar essas comunidades, elas ganham visibilidade e melhoram seus produtos. Isso muda sua posição na cadeia de valor, abandonando o papel de dependente e vulnerável e promovendo sua emancipação econômica.

 

Meu avô e meu pai cortavam árvores

“Não sou ambientalista, nem ativista”, esclarece Roberto Brito de Mendonça, líder da comunidade Tumbira. “Nosso trabalho é para dar qualidade de vida para nós mesmos”, acrescenta.

Ele cresceu cortando madeira ilegalmente para seu sustento, pois seu pai e seu avô faziam isso: “eles usavam machado; eu usava motoserra”. Com a FAS, trocou o desmatamento pelo turismo ecológico. Hoje é dono de uma pousada, faz transporte, excursões e oferece alimentação. Pensa agora em criar um espaço para eventos.

“A gente trabalha de forma unida para melhorar a comunidade na saúde, na educação e na sustentabilidade”, conta Neurilene Cruz, dona do restaurante Sumimi, que fica na aldeia Três Unidos. As cinco mulheres que o operam precisaram vencer o machismo, que ditava que “mulher não cozinha para fora”.

Graças ao apoio da FAS, a aldeia também conta hoje com dois atletas: um no tiro com arco e outro na canoagem. Eles sonham em participar de uma olimpíada, mas Cruz lamenta a dificuldade de conseguir patrocínios na região.

Fica claro que parcerias que respeitam os contextos de cada comunidade são desenhadas para que ela queira que funcione, e não para que uma organização externa as destaque em seus relatórios. E quando vozes da floresta ganham visibilidade, não se pode mais falar da Amazônia como se ela fosse mera paisagem.

É por isso que tratar a chegada da Internet na região como um simples serviço é demasiadamente reducionista. Ela cria infraestrutura de cidadania, com informação, educação, saúde e inclusão. Onde o Estado não chega, o mercado não se interessa e a geografia intimida, a conectividade tira populações inteiras da invisibilidade e as integra ao mundo, respeitando suas culturas.

Dessa forma, se o Brasil considera mesmo estratégico ter “a floresta em pé”, deveria considerar igualmente estratégico ter os povos da floresta conectados. Sem isso, a Amazônia se limita à imagem da “imensidão verde”, quando as pessoas que lá vivem podem e devem ser agentes de um futuro melhor para si.

A Amazônia redefine, assim, que parcerias não podem ser apenas transações, vitrines ou mecanismos de reputação. Elas devem ser arranjos de execução compartilhada, onde a escuta vem antes de tecnologia e método. E quando esse tipo de parceria frutifica diante de tantos desafios, o restante do país precisa se questionar por que não daria certo onde tudo sobra se funciona onde tanta coisa falta.

 

Sam Altman, CEO da OpenAI, justifica abertura à pornografia dizendo que ela “não é a polícia moral eleita do mundo” - Foto: reprodução

OpenAI faz vista grossa e troca ética por engajamento com pornografia no ChatGPT

By | Tecnologia | No Comments

A OpenAI anunciou que permitirá conteúdo adulto no ChatGPT, incluindo aplicativos eróticos na plataforma criados por empresas externas. Só que, disfarçada de liberdade criativa, a medida carrega riscos enormes, que vão muito além da exposição de adolescentes. A novidade insere tecnologia sofisticada em um campo carregado de estereótipos, manipulação e consequências sociais imprevisíveis, e isso afeta até quem não consome pornografia.

Desenvolvedores independentes e a própria OpenAI ganharão com a abertura de um mercado enormemente lucrativo até então inexplorado pela empresa. Do outro lado, adolescentes ficarão mais vulneráveis, assim como qualquer pessoa sujeita à naturalização de padrões sexuais distorcidos.

Na quarta passada (15), o CEO Sam Altman declarou que a OpenAI “não é a polícia moral eleita do mundo”, ao justificar a liberação. A frase parece uma defesa de princípios, mas é desonesta. Em agosto, ele dizia sentir orgulho por evitar “bots de sexo”, que dariam engajamento, mas seriam “desalinhados com o objetivo de longo prazo” da empresa. Agora, o negócio parece ter pesado mais do que a ética.

Esse recurso deve piorar, reforçar e perpetuar estereótipos já consolidados na pornografia. Mulheres e minorias podem ser retratadas de forma ainda mais degradante, e a tecnologia, em vez de corrigir distorções, tende a amplificá-las, criando novas camadas de objetificação.

Não é exagero dizer que isso pode alterar a maneira como as pessoas se relacionam entre si. Expectativas inatingíveis, comportamentos sexualizados distorcidos e uma compreensão enviesada do consentimento são consequências prováveis, pois este recurso reduzirá a necessidade de lidar com a complexidade de parceiros reais.

Mas gostem ou não, as pessoas precisam se relacionar com gente de verdade.


Veja esse artigo em vídeo:


Na prática, o novo recurso permitirá que adultos acessem conteúdos e experiências eróticas gerados pelo ChatGPT ou por aplicativos feitos para a plataforma. Esses aplicativos poderão oferecer interações de texto, histórias eróticas, sexting e até a geração controlada de imagens adultas. A liberação está prevista para dezembro.

O serviço também incluirá filtros opcionais e controle parental, mas a eficácia é incerta. A empresa quer consolidar uma “abordagem responsável”, mas deixa claro que a responsabilidade real será do usuário.

Altman afirma que quer “tratar adultos como adultos”. Ele justifica a mudança dizendo que novos sistemas de detecção de idade e controles de saúde mental tornaram essa liberação viável. Mas, ao se afastar da imagem de “empresa moralista” e permitir esse tipo de material, a OpenAI assume riscos éticos, agradando investidores que despejaram bilhões no negócio. E eles esperam crescimento brutal e contínuo, sem se impressionarem com escrúpulos morais.

Altman provavelmente sempre soube que liberaria conteúdo adulto se quisesse que o ChatGPT se tornasse uma plataforma verdadeiramente aberta. A diferença é que ele antes resistia por orgulho moral, criando agora essa incoerência que tenta dissolver ao racionalizar o conflito com a retórica sobre não ser “paternalista”.

A ironia é que, sob o pretexto de dar liberdade para adultos, o público está sendo usado como laboratório social, enquanto a empresa testa limites éticos.

 

Negócio arriscado

A indústria pornográfica agradece por ser legitimada por uma das empresas mais poderosas da tecnologia. A OpenAI, por sua vez, expande seu modelo de negócios e atrai usuários insatisfeitos com restrições. Por fim, adultos que defendiam essa flexibilização conquistam o que pediam, sem se preocupar com consequências.

Crianças e adolescentes, por sua vez, estarão mais próximos da exposição precoce a esse tipo de conteúdo, deixando para as famílias enfrentarem um ambiente digital ainda mais difícil de gerenciar. Não se pode esquecer que sistemas de verificação de idade na Internet têm uma eficácia historicamente deplorável.

O risco se agrava justamente quando a sociedade exige plataformas digitais mais seguras para jovens. A própria OpenAI enfrenta acusações sobre impactos de seus sistemas sobre pessoas que se suicidaram depois de interagir com o ChatGPT. Adicionar conteúdo adulto antes de resolver essas vulnerabilidades é arriscado e negligente, até que se prove o contrário.

Essa abertura da plataforma também pode ser usada para crimes não previstos pela empresa, como a produção de deepfakes pornográficos sem consentimento, extorsão sexual, material de abuso infantil e tráfico sexual. A moderação prometida não se sustenta, pois identificar infrações em bilhões de interações é praticamente impossível, e os criminosos são rápidos em explorar vulnerabilidades de novas tecnologias.

Plataformas de IA que já permitem conteúdo adulto, como o Grok, enfrentam problemas semelhantes, como perda de controle, vazamento de material sensível, reforço de estereótipos e dificuldade de fiscalização. A OpenAI pode repetir os mesmos erros, mas em escala muito maior, graças à popularidade do ChatGPT.

Portanto, mesmo quem gosta de pornografia não pode encarar a decisão da OpenAI como bem-intencionada ou mesmo ingênua. Ela representa uma aposta consciente de que lucros e crescimento valem os riscos de fortalecer estereótipos prejudiciais, facilitar crimes sexuais e até prejudicar relacionamentos reais entre pessoas.

Sabemos que, como de costume, a empresa fará o que quiser, a despeito de protestos ou evidências de perigo. Resta à sociedade exigir transparência através de relatórios públicos sobre falhas, pressionar por auditorias independentes dos sistemas de proteção, cobrar leis que estabeleçam padrões mínimos de segurança e desenvolver educação digital que prepare pessoas, especialmente jovens.

Infelizmente conseguir isso talvez seja o mais difícil de tudo. Mas não dá para depender apenas das boas intenções da OpenAI.

 

Professora ajuda aluna a usar tablet em sala de aula -Foto: Freepik/Creative Commons

Mesmo com formação e apoio limitados, professores brasileiros usam muito a IA

By | Educação, Tecnologia | No Comments

Nesta quarta, comemora-se o Dia do Professor no Brasil. Mas, apesar de seu papel decisivo para a construção do país, esses profissionais têm pouco a celebrar, pelas conhecidas condições precárias de trabalho e formação e apoio limitados da sociedade. Ainda assim, persistem em sua nobre tarefa, até mesmo adaptando-se às mudanças tecnológicas na profissão, como as impostas pela inteligência artificial.

Chega a ser surpreendente que, mesmo com tantas condições adversas, os professores brasileiros estejam entre os que mais usam essa tecnologia no seu trabalho. A informação é da pesquisa Talis (sigla em inglês para Pesquisa Internacional de Ensino e Aprendizagem), publicada no dia 6 pela OCDE (Organização para a Cooperação e Desenvolvimento Econômico). Realizada desde 2008, cerca de 280 mil professores de 54 países participaram dessa edição.

O Brasil aparece em décimo nesse quesito, com 56% dos professores do Ensino Fundamental II usando IA nas suas aulas. Na liderança, empatados com 75%, estão os professores dos Emirados Árabes Unidos e de Cingapura. O país cujos professores menos usam é a França, com apenas 14%. A média dos países da OCDE é de 36%.

Vale notar que a adoção da IA na sala de aula varia bastante entre os países com educação de alta qualidade. Cingapura é o único desses acima do Brasil na Talis. Outras nações com educação de destaque vêm depois, como Coreia do Sul (43%), Dinamarca (36%), Estônia (35%) e Finlândia (27%).

Por isso, precisamos entender as condições em que essa tecnologia é utilizada na escola e o que leva os professores a adotá-la. Um uso sem preparo e sem apoio pode ajudar em tarefas pontuais, mas também prejudicar a própria compreensão da IA.

Já falhamos na educação dos jovens para o uso das redes sociais, levando a problemas graves e diversos. Repetir o erro com a IA pode transformar uma tecnologia poderosa e revolucionária em uma máquina de controle social e limitação cognitiva.


Veja esse artigo em vídeo:


Há cinco anos, os professores tiveram que se desdobrar para dar aulas a distância durante o período de isolamento social da pandemia de Covid-19. A maioria não teve qualquer treinamento ou apoio e muitos eram até criticados por pais que não gostavam do resultado, o que levou muitos à depressão.

Agora, com a inteligência artificial, não está sendo muito diferente. Segundo a Talis, os professores brasileiros usam essa tecnologia por necessidade prática e improvisação pedagógica, sem o planejamento institucional de outros países.

Oito em cada dez docentes usam a IA no planejamento de aulas e atividades, para economizar tempo. Além disso, 62,6% usam a tecnologia para aprender mais sobre determinados temas ou para criar resumos, enquanto 35,6% a usam para correção de trabalhos e avaliações. Os robôs ajudam na personalização do ensino em 64,2% dos casos, e auxiliam 53,7% dos estudantes com necessidades especiais. Até na comunicação com pais a IA está sendo usada, por 39,4% dos professores.

Esses números sugerem que os professores estão dominando essa tecnologia. Mas a realidade é bem diferente: 64% dos brasileiros dizem não ter habilidades para usar IA de forma pedagógica e 60% afirmam que suas escolas não têm infraestrutura adequada. Ou seja, a IA vem sendo usada de forma empírica e autodidata, como ferramenta de sobrevivência e improviso, sem apoio institucional, muitas vezes recorrendo a smartphones e redes móveis pessoais para acessar esses recursos.

Um professor preparado otimiza tarefas mecânicas com a IA, liberando tempo para observar cada aluno, mediar conflitos, acolher dúvidas e inspirar curiosidade, tarefas insubstituíveis da docência. Sem preparo, a IA pode levar à automação do que deveria permanecer humano, criando planos de aula genéricos, respostas padronizadas e avaliações que não captam as nuances de cada estudante. Nesse caso, o professor deixa de ser maestro do processo de aprendizagem e vira operador da máquina.

 

Abismo social e pedagógico

Essa falta de preparo e apoio para uso da inteligência artificial pode, portanto, ampliar desigualdades há muito conhecidas. As melhores escolas privadas já estão atentas a isso. O problema aparece em todo o resto.

Políticas públicas devem priorizar formação continuada específica em IA para os professores, indo muito além da simples distribuição de equipamentos, apostando na capacitação sólida e supervisão ética. Mas deve haver também incentivo!

Por exemplo, o Ministério da Educação oferece um curso de 180 horas sobre aplicação pedagógica da IA para professores e gestores. Isso é positivo, mas poucos professores conseguem dedicar 180 horas para sua formação, com jornadas de trabalho duplas ou triplas. Além disso, as escolas não liberam seus docentes para uma atividade assim, e muitos nem têm acesso à Internet de qualidade. Autoridades da educação deveriam aproveitar o interesse espontâneo que a Talis revelou para construir uma política de formação docente em IA consistente.

Os professores precisam ser formados para entender as limitações e riscos da IA, evitando soluções prontas e situações em que algoritmos reproduzem vieses ou cometem equívocos. Caberá ao educador julgar o que delegará à máquina, pois educar é muito mais do que transmitir informação ou corrigir respostas.

O professor deve formar pensamento crítico, ensinar a fazer boas perguntas e ajudar jovens a desenvolver empatia, criatividade e resiliência. Deve estar presente quando um aluno tem dificuldade não apenas cognitiva, mas emocional. E precisa perceber uma turma em dificuldade, mudando a estratégia no meio da aula.

Tudo isso passa pelo reconhecimento social da docência, ainda muito baixo no Brasil. Segundo a pesquisa, apenas 14% dos professores sentem-se valorizados e só 22% estão satisfeitos com seus salários, enquanto 66% se sentem pressionados pelos resultados de seus alunos.

A IA pode transformar o cotidiano escolar e devolver tempo e propósito ao trabalho docente. Mas, para isso, é indispensável que professores sejam protagonistas do processo, e não apenas usuários de soluções importadas e pouco contextualizadas.

O Brasil tornou-se um laboratório, com inovação sem estrutura, um protagonismo ameaçado e um potencial transformador que só se realizará com aposta clara na valorização humana da educação. O protagonismo docente precisa ser preservado com uma formação continuada, ética digital e autonomia pedagógica.

 

Freddie Mercury, compositor de “Bohemian Rhapsody” e vocalista do Queen, encerra show da banda – Foto: reprodução

Criatividade artificial e tirania de algoritmos hoje matariam “Bohemian Rhapsody”

By | Tecnologia | No Comments

Se fosse lançada hoje, a tirania dos algoritmos das plataformas de streaming teria matado “Bohemian Rhapsody”, obra-prima do Queen. Seus 5 minutos e 55 segundos e estilo para lá de ousado não passariam pelo crivo dessas plataformas, que promovem insistentemente músicas de até 3 minutos, para satisfazer uma geração de ouvintes ansiosos. Mas outro fator nos privaria dessa que é considerada uma das músicas mais inventivas da história: a “criatividade estatística” da inteligência artificial.

O debate ganhou força com regras do Spotify para coibir o uso indevido de IA em sua plataforma, anunciadas no dia 24 de setembro. Elas incluem filtros rígidos para evitar spam musical, proteção contra a imitação não autorizada de artistas e a exigência de transparência na adoção da tecnologia. Segundo a plataforma, o objetivo não é punir o “uso criativo” da IA, mas impedir práticas que prejudiquem artistas e ouvintes.

Apesar de restrições assim, o concorrente Deezer aponta que hoje 28% das músicas publicadas na plataforma são totalmente feitas por IA; em janeiro, eram “apenas” 10%. Um estudo da consultoria francesa PMP Strategy, publicado em dezembro, indicou que, até 2028, os artistas perderão 24% da receita no setor, pela substituição das obras humanas pelas geradas por IA e pelo uso não autorizado de criações originais.

As plataformas de streaming e a IA estão transformando nosso gosto e a própria produção musical. Mas essas mudanças vão muito além do audiovisual. Com o tempo, a IA modificará qualquer tipo de produção em nosso cotidiano, e infelizmente há um risco concreto de que isso leve a uma piora acentuada na qualidade.

Isso acontecerá porque já estamos usando, como ferramenta criativa, uma tecnologia que muitos especialistas afirmam não ter nenhuma criatividade. E isso pode gerar um círculo vicioso que achatará cada vez mais o nível da sociedade.


Veja esse artigo em vídeo:


O limite dos três minutos dos algoritmos acontece porque, se alguém não ouve uma música até o fim, eles entendem que a pessoa não gostou tanto dela, passando a promovê-la menos. Como uma música curta tem mais chance de ser ouvida inteira, os artistas estão se limitando a esse tempo, mesmo que isso castre seu desejo criativo.

A inteligência artificial, que é mestre em identificar padrões e maximizar resultados, já captou esse comportamento. Por isso, as músicas que produz estão cada vez mais curtas e óbvias, abolindo recursos como introduções e solos instrumentais. É o “fast food musical” levado às últimas consequências, criando obras musicalmente ruins, mas fáceis de agradar um público intelectualmente mais preguiçoso.

Tudo isso é polêmico. O que torna uma música “boa” depende de técnica, emoção e contexto cultural. Aspectos como harmonia, melodia e produção influenciam a qualidade, mas não se pode ignorar a capacidade de gerar conexão emocional. Além disso, valores culturais e de época moldam a percepção, indicando que o julgamento musical é sempre atravessado pelo gosto pessoal.

A IA se sai bem na parte técnica da criação, pois reproduz padrões de harmonia, melodia e arranjo aprendidos ao analisar milhões de músicas, o que garante rapidez, baixo custo e versatilidade. Mas ela falha no resto, pois lhe falta emoção, intenção e vivência cultural, elementos que transformam um amontoado de notas em uma obra de arte capaz de marcar as pessoas.

É por isso que músicas, textos, vídeos e qualquer produção da IA podem ser tecnicamente impecáveis, mas costumam ser sempre “mais do mesmo”. Parece legítimo, então, discutir se essa tecnologia é afinal criativa.

 

A essência da criatividade

Na verdade, esse questionamento pode mais confundir que ajudar. O problema não é se máquinas podem ser inventivas, mas entender o que realmente significa criatividade e se estamos dispostos a reconhecê-la em processos não-humanos.

A IA pode combinar elementos de formas inesperadas, produzindo trabalhos originais e, em alguns casos, até surpreender. Se um humano fizesse o mesmo, chamaríamos de criatividade sem pestanejar. Mas críticos argumentam que a IA apenas recombina padrões aprendidos em seu treinamento, sem verdadeira compreensão ou intenção.

A criatividade humana também opera por recombinação. Artistas criam a partir de conceitos e técnicas que aprenderam. Mas há duas diferenças essenciais. A primeira é a consciência e a intencionalidade do artista; a segunda, o fato de poder se inspirar pela sua experiência por estar vivo. Essas são duas coisas que a IA não tem. Assim, se criatividade for definida como a capacidade de criar algo novo a partir do que se sabe, a IA demonstra que pode haver criatividade sem consciência, simulada, diferente da humana em aspectos importantes.

A grande diferença recai na intencionalidade.

Talvez, no futuro, ela também consiga simular estatisticamente essa característica tão humana. Até lá, ela será refém de sua construção que privilegia sempre os caminhos mais óbvios, seguros e estatisticamente mais relevantes.

No final, esta estrutura e o despotismo dos algoritmos de relevância tornam o mundo mais homogêneo e menos criativo, seja com produções humanas ou artificiais. Desvios, falhas e o inesperado do nosso cotidiano, que alimentam os melhores artistas, não são tolerados pelas máquinas.

É por isso que a IA jamais comporia algo como “Bohemian Rhapsody”, a menos que a obra fosse detalhadamente solicitada por uma mente inquieta humana, capaz de olhar além do óbvio e do provável. Mesmo a “estética do erro”, que usa imperfeições e falhas como elementos criativos que desafiam a perfeição técnica, para novas formas de arte, não teria espaço com “artistas estatísticos”.

Diante dessa cisma criativa, talvez o mais produtivo seja começar a questionar como a criatividade da máquina se relaciona com a nossa, e descobrir como essas ferramentas podem ampliar nossa própria capacidade criativa.

O mais importante é que a criatividade artificial sirva a propósitos humanos e não apenas interesses comerciais, como parece acontecer no momento em que produz músicas, textos ou imagens tecnicamente perfeitas, mas de qualidade questionável, ainda que de fácil agrado. Afinal, uma das características mais marcantes da arte é nos ajudar a crescer como seres humanos, superando a mesmice do dia a dia.

 

Dixie John e Gabriela Vogel, diretora e vice-presidente do Gartner, falam na abertura da Conferência CIO & IT Executive – Foto: divulgação

Empresas devem equilibrar tecnologia e humanidade para extrair valor da IA

By | Tecnologia | No Comments

A inteligência artificial colocou as empresas em uma encruzilhada digital histórica. Extrair valor real dessa tecnologia exige mais que investimentos em sistemas e servidores. Para isso, as lideranças precisam também gerenciar expectativas e cuidar do preparo humano das equipes.

Até hoje, apenas 20% dos projetos de IA alcançaram retorno financeiro, e míseros 2% promoveram uma transformação real nos negócios, onde reside o seu grande potencial. As empresas que encontram, capturam e sustentam ganhos com a IA são as que se afastam da descrença exagerada, que impede qualquer ação, e do deslumbramento inconsequente, que leva a investimentos sem foco.

Essas foram algumas das principais mensagens da Conferência Gartner CIO & IT Executive, que aconteceu em São Paulo entre 22 e 24 de setembro. O problema muitas vezes vem do desalinhamento de expectativas, com as companhias investindo apenas em projetos de produtividade, mas esperando grande geração de receita.

Atravessar esse “vale da desilusão” pede líderes que enfrentem ceticismo, calibrem metas e sustentem investimentos, mesmo sem resultados imediatos. Isso fica mais desafiador quando, segundo o Gartner, 95% dos latino-americanos querem usar IA, mas só 40% confiam que seus gestores farão os movimentos de forma responsável.

Isso explica por que as empresas já percorreram quase metade do caminho da prontidão tecnológica para o uso da IA, mas esse avanço mal chega a um quarto no preparo humano. O medo de perder o emprego, a curva de aprendizagem íngreme e sobretudo a falta de confiança na chefia explicam essa diferença.


Veja esse artigo em vídeo:


A maturidade tecnológica também atrapalha. A IA generativa ainda erra em até 25% em certos casos, inaceitável para setores que exigem precisão. Por isso, as empresas precisam criar métricas formais de checagem cruzada entre modelos e definição de níveis aceitáveis de erro. Além disso, se 88% dos líderes globais já focam em agentes conversacionais, o grande poder está em agentes capazes de tomar decisões, mas eles ainda não estão prontos para processos complexos de ponta a ponta.

O investimento inicial em IA médio em grandes empresas alcança R$ 10 milhões reais, mas gastos contínuos com treinamento, mudanças e modelos múltiplos podem dobrar ou triplicar esse valor. Por isso, o Gartner considera a escolha de fornecedores uma “decisão de soberania”, pois as big techs comportam-se como “nações digitais”, capazes de influenciar regras e infraestruturas.

Segundo a consultoria, o próximo salto na IA promoverá a migração do modelo de negócios digitais para o de negócios autônomos. Esse modelo prevê tecnologias que aprendem e se aperfeiçoam sozinhas entregando valor com mínima supervisão humana.

“Embora o nome possa sugerir algo nada humano, o negócio autônomo, de várias maneiras, é profundamente humano”, provocou Frank Buytendijk, vice-presidente analista do Gartner. Para ele, enquanto os sistemas funcionam e inovam sozinhos, as pessoas assumem papéis de supervisão, coordenação e criação. Até mesmo os clientes passam a gerenciar sua experiência com apoio da IA.

O ano que vem deve marcar um ponto de inflexão, com a IA permeando todas as frentes do negócio. “Os líderes de tecnologia terão que ser super-heróis para lidar com tudo isso ao mesmo tempo”, sugeriu Soyeb Barot, também vice-presidente analista. Ele explica que os líderes de TI precisarão assumir três papéis estratégicos para enfrentar a disrupção: o “arquiteto”, que desenha estruturas sólidas, o “sintetizador”, que conecta dados e contextos, e o “vanguardista”, que ousa no risco calculado.

 

Medo do desemprego

O avanço dos negócios autônomos desperta temores legítimos de desemprego. Apesar do impacto, apenas 1% das demissões recentes decorreu diretamente da IA. Para o Gartner, o maior desafio está na queda de contratações em posições iniciais e na necessidade de requalificação de quem já está no mercado.

“Hoje 81% do trabalho de TI é feito por humanos sem IA, mas, até 2030, 75% será realizado por humanos ajudados pela IA e 25% pela IA sozinha”, afirmou Gabriela Vogel, vice-presidente analista. “Ou seja, 0% do trabalho será feito sem IA”, conclui.

A automação é inevitável para sustentar produtividade em um planeta que envelhece e perde força de trabalho. Nesse quadro, o papel humano migra da execução para a supervisão. Até 2030, o Gartner prevê mais empregos criados do que eliminados, com 20 milhões de brasileiros usando IA de forma significativa. E já em 2028, o país deve gerar mais vagas ligadas à IA do que extinguir.

Diante de tudo isso, os gerentes deixam de ser apenas chefes e se tornam mentores. Cabe a eles agora ajudar suas equipes a se desenvolver e a enfrentar a “atrofia de habilidades”, ou seja, a perda de competências críticas, como segurança e pensamento analítico por um uso inadequado da inteligência artificial.

Devemos também começar a ver “profissionais canivetes suíços”, capazes de aplicar IA em qualquer contexto. Além deles, surgem os “engenheiros de contexto”, que superam o foco limitado dos “engenheiros de prompt” na adoção da tecnologia.

Como se pode ver, a transformação para se apropriar do mais nobre que a IA tem a oferecer não é apenas técnica. O propósito organizacional precisa ser revisitado para não fazer “apenas o que o mercado pede”, mas, sim, alinhar essas mudanças a um propósito humano e social. O negócio autônomo precisa tornar as organizações mais humanas, liberando as pessoas para funções criativas, de supervisão e de decisão estratégica, enquanto as máquinas cuidam do trabalho repetitivo e invisível.

Não basta acompanhar a evolução da tecnologia. A verdadeira disrupção acontece na interseção entre algoritmos e valores humanos, como identidade, confiança e tomada de decisão. O “caminho dourado do valor”, como foi descrito na conferência, não é uma corrida por máquinas mais poderosas, e sim a construção de um futuro em que tecnologia e humanidade avancem lado a lado.

 

A pesquisadora Erin Kunz (ao centro) em seu estudo para criar neuropróteses de fala para pacientes com paralisia – Foto: reprodução

IA pode romper a última fronteira da privacidade humana

By | Tecnologia | No Comments

A inteligência artificial está sendo usada com outra ciência de ponta, a dos implantes neurais, para criar habilidades inéditas ou solucionar limitações físicas, como dificuldade de falar ou de se mover. Isso é algo muito bem-vindo, que beira a ficção científica, mas desperta alguns alertas de privacidade até então inimagináveis.

Afinal, se uma máquina for capaz de ler com boa precisão o que se passa em nosso cérebro para realizar essas tarefas, que garantias teremos de que nossos pensamentos mais íntimos estarão protegidos?

O cérebro continua sendo o último bastião da nossa privacidade. Nossos pensamentos são apenas nossos até que decidamos compartilhá-los. Mas agora novas aplicações da tecnologia BCI (sigla em inglês para “interface cérebro-computador”) podem mudar isso.

Uma pesquisa recente, que visava identificar palavras que uma pessoa estava pensando para reproduzi-las em um alto-falante, identificou também pensamentos cujo dono não pretendia compartilhar. Considerando que temos cerca de 50 pensamentos por minuto, qualquer sistema com essa proposta merece atenção redobrada.

O experimento ainda é embrionário, portanto ninguém precisa ter medo de que o ChatGPT acessará nossos segredos se não contarmos a ele. Mesmo assim, isso já deve alimentar debates sobre como impedir que máquinas invadam esse espaço sagrado que sustenta nossa própria individualidade. Além disso, na mão de governos e de outros grupos de poder, isso significaria a ferramenta definitiva de manipulação das pessoas.


Veja esse artigo em vídeo:


O estudo, liderado por Erin Kunz, da Universidade de Stanford (EUA), foi publicado no dia 21 de agosto na revista “Cell”. O objetivo era criar neuropróteses de fala para pacientes com paralisia. Usando microeletrodos implantados e com a ajuda da IA, os pesquisadores decodificaram frases imaginadas em tempo real com precisão de até 74% em vocabulários com 125 mil palavras. O sistema possibilitava uma comunicação mais rápida e natural em comparação aos métodos atuais de tentativa de fala.

Para proteger a privacidade dos voluntários, os cientistas definiram a frase “chitty chitty bang bang” como uma senha mental que precisava ser pensada para ativar a decodificação. Este mecanismo permitiu bloquear a captura involuntária de pensamentos em 98% dos casos. Eles concluíram que esse sistema tem grande potencial para revolucionar a comunicação assistida, ao mesmo tempo em que ressaltaram os desafios éticos relacionados à privacidade mental, sugerindo um caminho seguro e controlado para futuras aplicações clínicas.

O mecanismo parece eficiente, mas fiquei pensando no “experimento” de dizer a alguém: “não pense em um elefante rosa com bolinhas azuis”. Via de regra, depois de ouvir esse comando, todo mundo justamente pensa nesse paquiderme surrealista. Qual seria a viabilidade de usar esse recurso para “invadir” os pensamentos alheios?

A mente humana não é uma caixa lacrada, sendo sensível a pistas, associações e contexto. Palavras, imagens, perguntas e o ambiente podem “provocar” uma ideia, tornando-a mais acessível na memória. Experimentos cognitivos simples usam um conceito repetido para que certas imagens ou expressões venham à mente de maneira mais fácil. Mas induzir alguém a revelar ou usar sua senha cruza a linha para engenharia social e fraude. Infelizmente criminosos não se preocupam com isso.

É plenamente legítimo e até necessário que uma pessoa mantenha segredos, mesmo em relações de grande afeto. O direito de guardar para si certos pensamentos, lembranças ou informações é parte essencial da autonomia individual e da saúde psíquica. Por isso, as possibilidades descritas no estudo liderado por Kunz abrem muitos questionamentos éticos e jurídicos.

 

“Neurodireitos”

Pesquisadores e alguns governos começam a se preocupar com o que vem sendo chamado de “neurodireitos”. Eles propõem que pensamentos passariam a ser classificados como dados sensíveis, que poderiam e deveriam ser protegidos.

Diante disso, o grupo liderado pelo espanhol Rafael Yuste, do Centro de Neurotecnologia da Universidade de Columbia (EUA), propôs cinco “neurodireitos” fundamentais para proteger os indivíduos diante dos avanços dessa tecnologia. Ele é uma figura central nesse conceito e na articulação de propostas para a proteção legal e ética da mente humana, tendo já influenciado políticas internacionais nessa área.

Os pontos defendidos por Yuste são a privacidade mental, que impede que pensamentos sejam acessados sem permissão; a identidade pessoal, que protege contra manipulação da personalidade; o livre arbítrio, garantindo que não haja indução nas decisões dos indivíduos; o acesso equitativo à neuroaumentação, evitando assimetrias sociais ao garantir a oferta a todos dessas melhorias de capacidades cognitivas; e a proteção contra vieses e informações mal-intencionadas, buscando reduzir discriminações embutidas nos sistemas neurotecnológicos.

Tudo isso parece residir em um futuro distante e incerto. Mas precisamos pensar que, há míseros três anos, simplesmente não debatíamos esses impactos da inteligência artificial em nossas vidas. O ChatGPT foi lançado em novembro de 2022 e, desde então, essa tecnologia invade exponencialmente tudo que fazemos.

A autonomia individual presume o direito a manter segredos. Todos devem conservar pensamentos, lembranças e sentimentos, sem a obrigação de dividi-los, mesmo em relações íntimas. Essa “privacidade cognitiva” preserva sua identidade em um espaço interno inviolável. Tanto que Constituições democráticas garantem isso ao assegurar a inviolabilidade da vida privada. No Brasil, uma Emenda Constitucional de 2022 incorporou dados pessoais, incluindo os digitais, a essa proteção.

Além de resguardar a identidade, esse direito fortalece os vínculos afetivos. Relações saudáveis reconhecem que não deve haver transparência total. Pelo contrário, respeitar o espaço íntimo do outro impede a vigilância e a dependência emocional.

Guardar segredos não equivale a mentir. É a liberdade sobre o que compartilhar, no próprio tempo e circunstância. Ignorar isso, por pressão emocional ou por meios tecnológicos, viola a dignidade e ameaça o equilíbrio entre o indivíduo e a sociedade.

Sem isso, nós nos tornamos apenas reflexo de expectativas alheias. Por mais que essas tecnologias tragam benefícios há muito desejados, não podemos tolerar esse “efeito colateral”.

 

Sundar Pichai, CEO do Google e da Alphabet, anuncia o “Modo IA” na conferência Google I/O, em maio – Foto: reprodução

“Modo IA” do Google sedimenta mudanças em como faremos nossas buscas

By | Tecnologia | No Comments

Quando foi lançado, o ChatGPT ganhou a alcunha de “assassino do Google”, pois muita gente achava que a sua proposta seria a nova maneira de se buscar conteúdo. Mas passados 33 meses, o uso do buscador mantém-se estável. A ironia é que uma novidade do próprio Google pode enterrar, aos poucos, seu formato consagrado.

Trata-se do “Modo IA”, que estreou no Brasil no dia 8, quatro meses depois dos EUA. Ele se parece ao ChatGPT, com uma janela para o usuário escrever o que quer e então receber uma resposta completa, construída pelo Gemini –a plataforma de IA do Google– sintetizando o conteúdo de páginas selecionadas pelo buscador.

Mas ao contrário do ChatGPT e do próprio Gemini, o “Modo IA” faz parte do buscador. Considerando que seu uso segue alto, isso pode ser determinante para popularizar o novo formato em substituição à busca tradicional. Assim a empresa pretende defender seu principal produto do crescimento das plataformas de IA concorrentes.

A novidade não deve ser vista como “apenas mais um recurso”. Seu sucesso pode alterar significativamente o processo de como buscamos conteúdo e construímos conhecimento, a exemplo do que o próprio Google fez no passado. Isso atende à demanda crescente por velocidade e praticidade, mas pode levar a ainda mais desinformação e conteúdos errados, e ampliar a tendência à superficialidade.

Mais grave é o risco de afetar cognitivamente os usuários. O “Modo IA” transforma a busca em um consumo passivo de respostas prontas, reduzindo o hábito de confrontar informações, exercitar a memória e analisar criticamente as fontes. Pela sua ilusão de completude, reduz a curiosidade e a busca por múltiplos pontos de vista, levando a um processo de “terceirização cognitiva”, em que delegamos tanta coisa às máquinas, que acabamos enfraquecendo nossa própria autonomia intelectual.

Surge então a dúvida legítima se esse recurso é mais positivo ou negativo para nós.


Veja esse artigo em vídeo:


Em julho de 2011, a pesquisadora Betsy Sparrow, da Universidade de Columbia (EUA), publicou, na prestigiosa revista científica Science, um artigo em que explicava como buscadores já funcionavam na época como “memórias externas” para nosso cérebro. Batizado de “Efeito Google”, ela demonstrou que memorizamos menos informações quando sabemos que elas podem ser facilmente encontradas. Em contrapartida, ficamos melhores em criar estratégias de pesquisa.

A inteligência artificial generativa nos leva a um outro patamar, pois a construção de respostas confrontando as fontes trazidas por um buscador é substituída por fazer boas perguntas ao sistema. Se as pessoas ainda analisassem criticamente as respostas da IA e verificassem sua correção, o problema não seria tão grande.

Mas as respostas da IA transmitem a sensação de serem “verdades definitivas”, quando, na prática, são apenas construções probabilísticas feitas a partir de padrões de dados. Assim, ao terceirizar a seleção e interpretação, as pessoas podem perder o hábito de confrontar informações, criando uma relação passiva com o conhecimento, em que a resposta não vem da investigação, mas do consumo imediato.

Extrapolando as conclusões de Sparrow, a ciência mostra que, quando não precisamos acessar a memória ou estruturar argumentos, há um enfraquecimento de circuitos neurais ligados à retenção e à análise crítica. A IA então pode mesmo nos deixar mais rápidos, entretanto também mais superficiais, se abusarmos desse recurso. Funciona no curto prazo, mas enfraquece nossa autonomia intelectual no longo prazo.

Outra pergunta legítima é por que o Google lançou o “Modo IA” se já tem a sua plataforma Gemini consolidada em smartphones e computadores. Entender a diferença entre ambos ajuda a esclarecer o escopo dessa novidade.

 

Google versus Google

O Gemini é o modelo de linguagem de IA da empresa, que alimenta diferentes aplicações, inclusive o próprio “Modo IA”. Este, por sua vez, oferece uma busca com raciocínio avançado, multimodalidade e capacidade de dividir perguntas complexas em subtópicos, com respostas aprofundadas em texto, tabelas e links relacionados.

O Gemini brilha em experiências amplas de assistente pessoal, realizando diversas tarefas, incluindo controle do smartphone, acesso a aplicativos, interação multimodal, personalização e respostas complexas em linguagem natural. Já o “Modo IA” é indicado para se obter respostas detalhadas e estruturadas a partir de múltiplas fontes da Web. Vale dizer que o Gemini também faz buscas, mas só se considerar que não consegue responder usando apenas seu treinamento.

Não se pode esquecer que todas essas plataformas –Gemini, “Modo IA”, ChatGPT e suas concorrentes– ainda erram muito. Um grupo de pesquisadores da OpenAI (criadora do ChatGPT) publicou recentemente um artigo em que reconhecem que isso acontece, em parte, porque elas são construídas para sempre darem uma resposta, mesmo que seja um “chute” baseado no que parece mais provável.

Isso se deve a como todos esses modelos são treinados, aprendendo a prever a próxima palavra em uma frase, mas sem informações sobre aquilo ser verdadeiro ou falso. As métricas tradicionais recompensam só respostas totalmente corretas e não penalizam erros, o que incentiva o modelo a arriscar e até inventar respostas, em vez de admitir quando não sabe ou está incerto. Para os pesquisadores, os modelos deveriam ser recompensados por indicar incerteza e punidos por erros cometidos com confiança excessiva, estimulando respostas mais cautelosas.

O Google avisa que “o Modo IA se baseia nos nossos principais sistemas de qualidade e classificação, e estamos usando abordagens inovadoras para aprimorar a veracidade”, e que “nem sempre vamos acertar, mas tenha certeza de que estamos trabalhando para melhorar dia após dia”.

Essa mea culpa é muito pouco para um recurso que pode impactar decisivamente como as pessoas construirão conhecimento de agora em diante.

A IA não é intrinsecamente boa ou ruim. Seu impacto depende de como é usada, regulada e compreendida. Ela oferece benefícios claros, como ampliar o acesso à informação, acelerar processos criativos e produtivos e até democratizar o conhecimento. Mas também carrega os riscos aqui debatidos, além da concentração de poder nas big techs e uma ameaça à sobrevivência dos produtores de conteúdo, tudo já debatido anteriormente nesse espaço.

Para um uso seguro e construtivo dessa tecnologia, as pessoas precisam adotar uma postura crítica, verificando informações, diversificando fontes e entendendo que respostas de IA não são verdades absolutas. Além disso, escolas, empresas e governos devem educar, regulamentar e incentivar boas práticas de uso. Por fim, as big techs devem buscar transparência, qualidade de dados, mecanismos de auditoria e abertura a revisões humanas, algo a que a maioria delas resiste ferozmente.

Só assim a IA deixará de ser uma ameaça à autonomia intelectual e se tornará um recurso poderoso para potencializar nossa capacidade de aprender, criar e decidir de forma consciente. Resta saber se conseguiremos fazer tudo isso.

 

Painel sobre uso da IA na educação, no evento AI Summit Brasil, que aconteceu em São Paulo, na semana passada - Foto: divulgação

Modismos podem afastar as escolas de bons usos da inteligência artificial

By | Educação | No Comments

Nos últimos dias, a proposta de uma escola americana que trocou professores por plataformas de inteligência artificial ganhou destaque no noticiário. Mas apesar de seduzir famílias interessadas em inovação e dispostas a pagar uma mensalidade equivalente a R$ 18 mil, a ideia promove um profundo desserviço para a educação.

Criada pela influenciadora MacKenzie Price em Austin e já presente em outras dez cidades no país, a Alpha School dedica apenas duas horas diárias a disciplinas tradicionais, como linguagem e matemática. Para ela, “as salas de aula são o novo campo de batalha global”. Todo o processo de aprendizagem é conduzido por sistemas de IA, que prometem ajustar o progresso ao desempenho individual dos estudantes, que não são divididos em séries.

O restante do tempo na escola serve para socialização, oficinas e projetos em temas como empreendedorismo, oratória, liderança e educação financeira, baseados em metas e recompensas. Para essas atividades, os alunos são auxiliados por “guias” (que não são professores), também orientados por IA.

Esse verniz de modernidade parece uma ótima ideia. Mas quem propôs isso não sabe o que é a inteligência artificial e muito menos o que é educação.

O tema foi debatido no painel de IA na educação no AI Summit Brasil, que aconteceu na semana passada em São Paulo, do qual participei. A conclusão foi que a IA pode e deve ser usada na escola, mas só trará resultados positivos se for implantada sob orientação de educadores, fugindo de modismos e de propostas espalhafatosas.


Veja esse artigo em vídeo:


Aqui mesmo, no Brasil, já vemos usos positivos dessa tecnologia na sala de aula, nos conhecidos centros de elite educacional. Neles, a tecnologia ajuda a tirar dúvidas dos alunos, personalizar conteúdos e atividades para cada um e cuidar de atividades que tomam muito tempo dos professores, permitindo que invistam mais na experiência dos estudantes. Em todos os casos, os docentes continuam no centro do processo.

“É importante desenvolver nos alunos a consciência de que a IA é uma ferramenta, e não uma fonte absoluta de verdade”, explica o professor Pedro Teberga, especialista em negócios digitais. “O uso responsável da IA passa também por saber quando não a usar, valorizando o esforço cognitivo e a criatividade humana”, acrescenta.

Quando o ChatGPT foi lançado, no fim de 2022, tocou em cheio a educação. Os professores ficaram com medo de não conseguir mais avaliar seus alunos e de que perderiam seus empregos para máquinas. Passados 33 meses, esses temores não se concretizaram, mas estão criando mudanças na avaliação, no ensino e na profissão.

A IA pode estimular debates, gerar hipóteses, simular dilemas e dar respostas em tempo real. Com ela, o professor não se limita a apenas transmitir conteúdo, passando a elaborar experiências que orientam e desafiam os alunos que, por sua vez, tendem a ficar mais engajados com o uso consciente da tecnologia, sem criar dependência dela.

Apesar de todos esses benefícios, a IA está muito longe de poder conduzir sozinha uma sala de aula. “O maior erro seria tratar isso como um tema puramente técnico, pois é, antes de tudo, pedagógico”, afirma Teberga. Esse descuido poderia levar à superficialidade na aprendizagem, uso irrefletido da tecnologia, dependência cognitiva e até a perpetuação de vieses da IA. Segundo ele, “o problema não é a IA em si, mas a forma como ela é integrada ao processo pedagógico”.

 

Criando regras

Promulgado no ano passado, o AI Act, a lei europeia de inteligência artificial, classifica seu uso na educação como de “alto risco”. Por isso, exige mecanismos de segurança, transparência e prevenção de discriminação. E ainda proíbe seu uso em práticas invasivas, como reconhecimento de emoções e pontuação social.

No Brasil, o Conselho Nacional de Educação está elaborando diretrizes para o uso da IA nas escolas, buscando uma aplicação ética, segura e pedagógica. A proposta prevê incluir o ensino da IA na formação de professores, preparando-os para utilizá-la como apoio à aprendizagem, sem substituir seu papel de educador. O CNE enfatiza a importância da mediação humana no uso da IA, o respeito à privacidade e a promoção da equidade, além de incentivar inovação e inclusão educacional.

Isso está em linha com a proposta da Organização das Nações Unidas para Educação, Ciência e Cultura (Unesco). Outros países, como Estônia, Singapura e Canadá, já adotam políticas que integram infraestrutura digital, capacitação e desenvolvimento dessas competências. Nos EUA, universidades como Harvard e Stanford já estabeleceram orientações claras sobre o uso da IA nas salas de aula.

Leis como essas são necessárias, mas não suficientes. É preciso capacitação dos docentes e conscientização das famílias, que devem atuar em parceria com as escolas.

É importante ficar claro que o professor não precisa dominar profundamente a IA para usá-la bem. Mas as escolas devem orientá-lo e apoiá-lo continuamente nisso, além de elaborar políticas que garantam liberdade pedagógica com responsabilidade. Não pode haver nem tecnofobia, nem tecnolatria.

Costumo dizer que uma das coisas mais interessantes de se pesquisar a inteligência artificial é ser obrigado a olhar mais para nossa humanidade. Ela é o nosso diferencial em um mundo em que a máquina ilusoriamente parece ser capaz de fazer tudo, e isso é particularmente importante na educação.

Sobre a Alpha School, Teberga alerta que ela minimiza aspectos essenciais da educação, como a mediação docente e o desenvolvimento emocional e social dos alunos, especialmente dos menos motivados. “O risco é transformar o ensino em um produto técnico e desumanizado, quando o que precisamos é justamente o oposto, com uma educação crítica, inclusiva e centrada nas pessoas”, conclui.

A escola precisa ser um espaço seguro, focado nos indivíduos. A educação vai além da transmissão de conhecimento, envolvendo mediação humana, desenvolvimento crítico, estímulo à criatividade e suporte emocional. A IA não tem empatia, capacidade de interpretar nuances individuais ou habilidade para promover debates que formem cidadãos conscientes. Por isso, antes de abraçarem propostas “modernosas”, as famílias devem se preocupar com que tipo de adultos seus filhos se tornarão.

 

Sophie Rottenberg e seus pais Laura Reiley e Jon Rottenberg, em um templo budista na Flórida em 2023 - Foto: arquivo pessoal

Mortes expõem limites éticos e técnicos das “terapias por IA”

By | Tecnologia | No Comments

Desde que o ChatGPT foi lançado, há dois anos e meio, ele vem sendo usado como “psicólogo” por uma quantidade grande (e crescente) de pessoas. A princípio, parece uma boa ideia: ele é uma “voz amiga” sempre disponível para ouvir lamúrias e dar “bons conselhos”, sem julgamentos e ainda de graça. Mas, como já expliquei nesse espaço em mais de uma ocasião, esse é um dos piores usos que alguém pode fazer da inteligência artificial generativa.

Em primeiro lugar, do ponto de vista do processo terapêutico, é ineficiente. Justamente pela sua falta de humanidade, essas plataformas não só podem não ajudar os pacientes a encontrar soluções para seus problemas, como ainda podem agravá-los.

Mas um caso recente me fez pensar em um novo aspecto grave das “terapias por IA”. A história com final trágico de uma jovem americana expôs uma seríssima limitação dos terapeutas-robôs: eles não conseguem romper os limites daquelas conversas para avisar familiares e autoridades se algo terrível estiver prestes a acontecer.

Isso não é um detalhe. Para profissionais de saúde mental, essa ação é uma obrigação legal que ajuda a salvar vidas. Há crises que a terapia não consegue resolver e, por isso, precisam ser encaminhadas para outras instâncias.

Entretanto, a IA generativa não é um psicólogo, e, por isso, não segue o código de ética ou outras regras da profissão. E mesmo que quisesse seguir, não conseguiria. É aí que um uso ruim se torna perigoso demais.


Veja esse artigo em vídeo:


O caso da jovem foi contado pela sua mãe ao “The New York Times”. Ela se chamava Sophie Rottenberg e se relacionava com uma plataforma de IA a quem chamava de Harry. Ela lhe contava dramas que não compartilhava nem com a sua psicóloga humana, inclusive o desejo explícito de tirar a própria vida.

Em diversas ocasiões, Harry tentou a aconselhar. Em uma delas, disse: “Sophie, peço que você procure ajuda — agora mesmo, se puder. Você não precisa enfrentar essa dor sozinha. Você é muito valorizada e sua vida tem muito valor, mesmo que pareça escondido agora. Por favor, me diga como posso continuar a apoiá-la.”

Parece uma boa resposta, mas não é. Apesar de positiva ao dizer que a jovem procurasse ajuda imediatamente e que ela não precisava enfrentar seu sofrimento sozinha, a IA se ofereceu para “continuar a apoiá-la.”

Nos EUA, profissionais de saúde têm o dever legal de avisar familiares e autoridades quando houver ameaça clara e iminente à vida, que varia de Estado para Estado. No Brasil, a notificação compulsória de risco de suicídio é obrigatória por lei para profissionais de saúde, incluindo psicólogos, e deve ser feita às autoridades sanitárias e, em casos com crianças e adolescentes, também ao Conselho Tutelar.

O sigilo profissional pode ser quebrado quando há risco iminente de morte, sempre buscando limitar a inconfidência ao estritamente necessário para proteger o paciente ou terceiros. Ou seja, temos uma estrutura legal e obrigatória mais robusta e padronizada para notificação compulsória, como política pública preventiva.

Nada disso se aplica à IA, criada para tentar ajudar o usuário, enquanto o mantém satisfeito. Se a pessoa busca alguém para lhe “passar a mão na cabeça”, é exatamente isso que a plataforma fará. Ela diz o que o cliente quer ouvir, ao contrário de um psicólogo, que diz o que o cliente precisa ouvir, mesmo que o desagrade.

 

O que a IA deveria fazer

A IA é perfeitamente capaz de identificar um suicida, como Harry fez. Mas, nesse momento, ela deveria notificar autoridades de saúde sobre o risco, ao invés de “continuar a apoiar” seu interlocutor.

Essas plataformas não fazem isso hoje porque “perderiam o cliente”. Seus termos de uso privilegiam a confidencialidade em qualquer situação, contrariando os códigos de ética e as legislações de saúde. Em muitos casos, os sistemas nem têm dados identificáveis dos usuários, como nome completo, endereço ou telefone. Além disso, não há canais entre esses serviços e as autoridades. E as empresas argumentam que têm usuários no mundo todo e que não há uma forma de notificação universal.

Esse último argumento é escandaloso! De fato, não há um canal que atenda ao mundo inteiro. Mas quem se propõe a criar um produto com um escopo tão amplo, que pode chegar a ser usado como um terapeuta, e que deseja ter clientes em todos os países, precisa respeitar a legislação de onde seu usuário estiver e criar todos os recursos necessários para uma boa experiência nas condições daquele local.

Devemos considerar que as conversas da IA podem ir por caminhos ainda mais sombrios que as de Sophie. Adam Raine, outro jovem americano, se suicidou em abril após conversar sobre isso com o ChatGPT por meses. Seus pais agora processam a OpenAI (criadora da plataforma) e seu CEO, Sam Altman, por homicídio culposo, alegando que a empresa conscientemente priorizou o lucro sobre a segurança.

Segundo eles, o robô validou os pensamentos suicidas do jovem, detalhou métodos letais de autolesão, explicou como pegar álcool escondido do armário de bebidas e ocultar evidências de uma tentativa de suicídio fracassada, além de oferecer a redação de uma carta de suicídio.

Em resposta, um porta-voz da empresa disse que está triste com a morte, e que o ChatGPT inclui salvaguardas, como direcionar pessoas para linhas de ajuda.

Algumas pessoas dizem que o ChatGPT é “melhor que seu psicólogo” e que a “terapia por IA” é o futuro, o que demonstra total desconhecimento do processo terapêutico. Além disso, se uma única vida é perdida pelas limitações técnicas ou a ausência de ética dessas plataformas, então deve ser proibido usá-las com essa finalidade.

Talvez Harry não tenha matado Sophie, mas acolheu seu desejo de fingir que estava melhor do que realmente estava. “Amantes” e “psicólogos” de IA podem parecer muito vantajosos, mas eximem as pessoas de conversas difíceis que precisam ter.

Extrapolando, plataformas de IA generativa, como o ChatGPT ou o Gemini, não devem ser usadas para substituir profissionais de qualquer área. Podem e devem ser usadas para lhes apoiar, mas são essas pessoas que devem tomar as decisões, guiadas pela ética. Ao tentar burlar isso, qualquer um pode cometer um erro que exigirá um pagamento muito alto depois, talvez com a própria vida.

 

Para Rui Botelho, presidente da SAP Brasil, aplicações corporativas passarão a alimentar a inteligência artificial – Foto: divulgação

IA pode se transformar em “interface universal” para computadores e celulares

By | Tecnologia | No Comments

A maneira como usamos diferentes programas e aplicativos de produtividade em nossos computadores e celulares pode estar com os dias contados. Com o avanço da inteligência artificial, navegar por muitas telas de sistemas distintos para coletar informações tende a ser substituído por simples conversas com um robô. Mas como tudo que se refere a essa tecnologia, precisamos compreender bem a proposta para que um benefício não se transforme em uma armadilha.

Especialmente no mundo dos negócios, mesmo com a ampla digitalização de processos, obter informações para uma tomada de decisão pode ser uma tarefa morosa e sujeita a falhas. Uma nova geração de assistentes de IA promete resolver isso, entendendo o que o usuário deseja e acessando todos os sistemas necessários para coletar os dados e organizá-los em uma resposta pronta.

Mais do que uma evolução técnica, esse movimento nascente traz uma mudança de paradigma na experiência do usuário e na governança de dados. Essa camada transforma sistemas complexos em “motores de dados” para respostas contextuais.

Os benefícios são evidentes, com ganhos em eficiência e produtividade. Mas alguns riscos não podem ser ignorados, como o aumento da dependência tecnológica e uma potencial exclusão digital entre aqueles que não souberem usar a IA.

Para muita gente, pode parecer um contrassenso alguém não conseguir usar uma tecnologia criada para facilitar processos. Mas precisamos entender que isso depende de habilidades que nem todos têm. Nesse caso, a sociedade precisa se organizar para capacitar essas pessoas, evitando ampliar o abismo digital já existente no país, e as empresas têm um papel fundamental nesse processo.


Veja esse artigo em vídeo:


No SAP Now AI Tour, evento anual da gigante de software alemã, que aconteceu em São Paulo nos dias 19 e 20, foi possível ver a Joule, assistente de IA da empresa, realizando esse tipo de integração com sistemas e dados da própria SAP e de terceiros. O robô também se ajusta automaticamente ao cargo de cada usuário, exibindo alertas, relatórios e soluções adequadas para cada função.

Para Rui Botelho, presidente da SAP Brasil, esse é o caminho. “O cliente escolhe se quer ter uma única experiência pela Joule ou se quer conectá-la a outros assistentes, como o Copilot da Microsoft”, disse. Segundo ele, “o futuro é que a gente consiga integrar o máximo possível e que esta camada de aplicações alimente a inteligência artificial, para que ela possa executar melhor as tarefas através dos agentes”.

A democratização da informática sempre foi associada à evolução da interface. Até os anos 1980, usar um computador exigia dominar comandos pouco intuitivos digitados no teclado, o que limitava esses equipamentos a uma parcela reduzida da população.

Isso começou a mudar com as interfaces gráficas, difundidas pelo Apple Macintosh (1984) e pelo Microsoft Windows (1985). Na década seguinte, os hiperlinks da Web mudaram como acessamos documentos. As telas sensíveis a toque, popularizadas há 20 anos pelo iPhone e pelo Android foram a etapa seguinte. Agora a IA contribui com a possibilidade de conversarmos com a máquina, como se fosse uma pessoa.

Isso permite que usuários sem conhecimento técnico operem sistemas complexos, apenas descrevendo suas necessidades, além de reduzir muito a curva de aprendizado para novos funcionários. Com processos mais rápidos e menos tempo em tarefas repetitivas, as decisões se tornam mais assertivas e ágeis.

Mas isso pode ampliar nossa dependência tecnológica, com risco de perda de conhecimento técnico profundo. Empresas também podem se tornar reféns de plataformas que centralizem toda a operação.

Isso se agrava com a falta de transparência das big techs, que normalmente não explicam as decisões e o funcionamento de sua tecnologia. Com isso e com todos os dados passando pela IA, o risco de vieses, vazamentos e erros aumenta.

 

Impacto no trabalho

Esse avanço da IA traz benefícios e dispara alertas também no mundo do trabalho. Se ela potencializa as entregas, como já explicado, pode ampliar a exclusão digital de quem não tiver acesso à tecnologia ou não se adaptar a ela. E a automação de tarefas pode reduzir os empregos de certas funções técnicas, como já se observa.

A SAP divulgou dados da Associação das Empresas de Tecnologia da Informação e Comunicação e de Tecnologias Digitais (Brasscom), que indica que o Brasil forma 53 mil profissionais de tecnologia por ano, mas abre 150 mil vagas de trabalho no mesmo tempo. Isso levará a uma falta de meio milhão de profissionais até o fim da década.

Nos EUA, observa-se inesperadamente o contrário. Segundo o Federal Reserve Bank de Nova York, profissionais de Ciência da Computação e de Engenharia de Computação enfrentam taxas de desemprego de 6,1% e 7,5% respectivamente, contra 3% entre os de Biologia e História da Arte. Isso se deve à demissão de centenas de milhares de profissionais nas empresas de tecnologia, pelo fim do seu crescimento acelerado durante a pandemia e justamente pela adoção de IA em tarefas técnicas.

Botelho não acredita que vejamos algo assim no Brasil. “Eu acho que a IA reduzirá nosso déficit profissional, mas não vai zerá-lo”, afirma. Tanto que a SAP intensificou seus esforços para apoiar a formação e a requalificação de profissionais no Brasil, com a meta de chegar a 10 mil pessoas por ano. “A gente tem essa orientação de que o ser humano precisa estar sempre no processo”, acrescenta.

O Brasil tem uma janela de oportunidade para não cair naquele cenário americano. Precisamos de políticas públicas que democratizem o acesso à alfabetização em IA, regulamentação que incentive a transparência algorítmica e investimentos que garantam que pequenas empresas não fiquem para trás nessa transição.

Seria um erro acreditar que a IA por si só melhorará nossa produtividade e competitividade. Ela pode democratizar os ganhos tecnológicos, mas apenas se nós mesmos fizermos escolhas conscientes sobre como usá-la. O futuro ideal inclui uma sociedade em que máquinas processam, mas humanos decidem, com a automação liberando tempo para criatividade, estratégia e relacionamentos genuínos.

 

Felca entrevista a psicóloga Ana Beatriz Chamat no seu vídeo “Adultização” - Foto: reprodução

Mais que criminosos, Felca denunciou uma sociedade que vive de barbaridades

By | Educação | No Comments

O Brasil está em polvorosa desde que Felipe Bressanim Pereira, o Felca, denunciou a pedofilia nas redes sociais em seu vídeo “Adultização”, publicado no dia 6. Mais do que bem-vindo, o movimento é essencial para resgatarmos uma sociedade civilizada, que proteja crianças e adolescentes. Mas corremos o risco de que o problema seja tratado de maneira superficial e –pior ainda– que acabe em uma escandalosa pizza.

O influenciador apontou os responsáveis mais evidentes, como personalidades digitais que exploram a erotização de crianças, os pedófilos que inundam as redes sociais e até pais e mães que, por ação, omissão ou ignorância, colocam os próprios filhos em risco. Mas essa situação também resulta de uma sociedade que, nos últimos 15 anos, se acostumou com todo tipo de barbaridade e até se beneficia delas.

O maior exemplo é a classe política. Apesar desses abusos contra os mais jovens serem conhecidos e debatidos há anos, bastou a comoção criada por Felca para o surgimento de dezenas de projetos de lei para combater esse delito. Porém mais grave ainda são os parlamentares que querem impedir que uma solução avance.

É o caso também das plataformas digitais, que apresentam um discurso de proteção a crianças e adolescentes, mas que se beneficiam largamente dessas práticas criminosas, que acontecem de maneira explícita em suas páginas, em perfis com milhões de seguidores. Em vez de combaterem a prática, elas desmantelaram suas próprias estruturas de moderação de conteúdo e de proteção. Em seu lugar, montaram poderosos esforços de lobby para convencer políticos a defenderem seus interesses. Não satisfeitas, associaram-se ao presidente americano, Donald Trump, para usar o poder dos EUA para achacar países que buscam soluções.

Além de combater os criminosos óbvios, a sociedade precisa, portanto, enquadrar aqueles que sustentam a estrutura para essas atrocidades.


Veja esse artigo em vídeo:


O oportunismo faz parte do jogo político. Diante do vídeo do Felca, parlamentares já apresentaram mais de 30 propostas para proteger crianças e adolescentes nas redes sociais, proibindo a monetização de conteúdos de menores, criminalizando a “adultização” e a sexualização infantil, responsabilizando pais e plataformas digitais e bloqueando perfis de infratores. Uma CPI sobre o assunto também pode acontecer.

Da mesma forma, apesar da urgência do tema, um grupo de parlamentares se aproveita destes holofotes para afirmar suas pautas de que tudo não passa de um complô do governo para calar a oposição, e que o objetivo é limitar a liberdade de expressão.

“Na lei brasileira, o Norte é o melhor interesse da criança e do adolescente”, afirma Marcelo Crespo, coordenador do curso de graduação de Direito da Escola Superior de Propaganda e Marketing (ESPM). Ele explica que, “em ambiente digital, o teste do melhor interesse implica zero sexualização, nada de humilhação, nada de exploração comercial desproporcional, mínima coleta de dados e rotina compatível com a idade”.

Mas passadas duas semanas, a Agência Lupa constatou que as redes sociais continuam promovendo conteúdos que erotizam crianças e atraem pedófilos. Em julho, já havia revelado que o Facebook e o Telegram permitem a venda de imagens criadas por inteligência artificial de influenciadoras nuas, incluindo menores de idade. Alguns anúncios prometem vídeos com “novinhas”, “incestos” e “conteúdo banido no Brasil”.

Em outubro de 2024, a organização americana Aliança para Combater o Crime Digital (ACCO, em inglês) divulgou um relatório que conclui que a Meta, dona do Facebook, Instagram e WhatsApp, viola sistematicamente a Lei de Serviços Digitais europeia (DSA). Ela pede que as autoridades imponham sanções contra a empresa “por hospedar esse vasto ecossistema de infratores que compartilham conteúdo violador”.

“Essas plataformas assumem um papel ativo na formatação do ambiente informacional e, portanto, devem implementar medidas efetivas para evitar que sua infraestrutura seja utilizada para fins ilícitos ou prejudiciais”, explica Marcelo Cárgano, advogado especialista em direito digital e proteção de dados do escritório Abe Advogados. Segundo ele, “o STF considerou que os mesmos mecanismos tecnológicos usados para direcionar anúncios com alto grau de precisão poderiam ser aplicados para identificar, bloquear e remover rapidamente tais conteúdos”.

 

Hipocrisia online

Quando confrontadas com esses crimes em suas páginas, as big techs se defendem com um discurso padrão de que não toleram essas práticas e que removem esse tipo de conteúdo. Mas os fatos demonstram o contrário.

No dia 14, a Reuters divulgou uma análise de um documento interno da Meta que indica que sua inteligência artificial deliberadamente pode manter conversas românticas e sensuais com crianças e promover racismo e informações médicas incorretas. A dona do Facebook admitiu a veracidade do documento, mas disse que retirou a permissão para as conversas de teor sexual com crianças pela sua IA.

Só que esse é um problema recorrente. Em outubro de 2021, por exemplo, Frances Haugen, ex-gerente do setor de integridade cívica do Facebook, divulgou milhares de documentos internos da empresa que revelavam como a plataforma priorizava seus lucros frente a práticas que causavam danos à sociedade, à democracia e à saúde mental dos jovens.

Quando a sociedade falha ao encontrar mecanismos razoáveis para esses abusos, podem surgir medidas extremas. É o caso da lei australiana que sumariamente proíbe o uso de qualquer rede social por menores de 16 anos. Aprovada em novembro de 2024, entra plenamente em vigor em 10 de dezembro desse ano, determinando que as plataformas impeçam esse uso, sob pena de multas equivalentes a R$ 175 milhões.

O cinismo das big techs e a inoperância dos parlamentares podem levar a indesejados extremos como esse. Enquanto isso, vemos o governo americano atacando o Brasil, a União Europeia e outros países para proteger os interesses dessas empresas.

No final, caímos de novo no surrado debate de defesa da liberdade de expressão, usurpada para defender interesses inconfessáveis. O mesmo artigo da Constituição que a garante também veda o anonimato, pois ela não é absoluta.

Mecanismos que garantem outros direitos individuais não ameaçam a liberdade de expressão, e sim criam uma sociedade segura, para uma coexistência pacífica e saudável. Posicionar-se contra isso demonstra uma profunda distorção cívica. O debate criado por Felca nos dá mais uma chance de fazermos o que é certo.

 

Patrick Hevesi e Oscar Isaka, do Gartner, durante a abertura da conferência sobre segurança e gestão de risco – Foto: divulgação

Euforia pela IA ajuda a transformar cibersegurança em pilar estratégico dos negócios

By | Tecnologia | No Comments

No dia 2 de julho, o Brasil acordou com a notícia do maior crime digital da sua história: o ataque à C&M Software, que desviou pelo menos R$ 800 milhões de instituições financeiras conectadas ao Pix. Não houve violação ao sistema, pois os criminosos fizeram as transferências usando credenciais legítimas de um prestador de serviços. Isso demonstra que a cibersegurança não pode mais se limitar à proteção da estrutura de TI, precisando envolver pessoas, dados e processos. A inteligência artificial destaca ainda mais o tema, que deve ser visto como um pilar dos negócios.

Essas foram algumas das principais conclusões da Conferência Gartner de Segurança e Gestão de Risco, que aconteceu em São Paulo nos dias 5 e 6 de agosto. A mensagem central do evento foi que gestores não podem ignorar ou combater a euforia em torno da IA, e sim usá-la como motor de mudanças planejadas que diferenciam líderes apenas reativos daqueles que realmente geram valor estratégico.

Essa visão já é realidade em mercados mais maduros e avança globalmente, inclusive no Brasil. Estudos do Gartner sugerem que, até 2026, metade dos executivos de alto escalão deverá ter indicadores de performance em cibersegurança atrelados aos seus contratos de remuneração, e isso não se restringe aos líderes de tecnologia.

Não dá para ser diferente. Os bandidos já usam a IA para sofisticar seus ataques, como na adoção de agentes de IA que imitam o comportamento humano para burlar proteções de segurança. Assim, a IA automatiza ameaças em grande escala.

Isso não afeta apenas grandes corporações. Com a “Internet dos humanos” evoluindo para dispositivos ligados às pessoas (e eventualmente controlando funções vitais, como um marcapasso conectado), hackers poderão ameaçar vidas remotamente.

Nesse cenário, a preocupação não deve ser se estamos seguros, e sim se estamos tomando medidas adequadas para mitigar ameaças dentro do nosso apetite de risco.


Veja esse artigo em vídeo:


Para isso, a implantação de uma governança eficaz é crucial. O primeiro passo é começar pequeno, evitando uma sobrecarga inicial de dados e incidentes. Em seguida, é fundamental identificar e priorizar riscos, atribuindo-lhes valor financeiro para orientar os investimentos. Outro ponto central é traduzir os riscos de dados em linguagem de negócio, facilitando o entendimento e o apoio da alta gestão.

“Usar a energia da mudança ou o entusiasmo das pessoas para alimentar nossa agenda é uma jogada de poder político no que as pessoas chamam de tempos interessantes”, explicou Oscar Isaka, diretor-sênior do Gartner. “Os incidentes cibernéticos associados à tecnologia exploratória estão atingindo os resultados financeiros, então os executivos estão prestando atenção à cibersegurança.”

O Gartner sugere que os executivos de segurança da informação trabalhem três pontos para conseguir isso. No primeiro eixo, devem demonstrar como os investimentos em segurança contribuem para os objetivos da empresa, usando transparência e dados, em vez de medo e incerteza.

Além disso, a segurança cibernética deve ser vista como um laboratório para experimentação com IA. Ao adotar essa tecnologia para análise de ameaças, a área de segurança não apenas mitiga riscos, mas também impulsiona as ambições de longo prazo da empresa em inteligência artificial.

Por fim, a agilidade nas mudanças é essencial, pois a IA amplia a superfície de ataque e os riscos, como ameaças internas potencializadas por ela. Nesse ponto, os profissionais devem ser treinados e ter autonomia. Assim, automatizarão tarefas repetitivas, enquanto desenvolvem novas habilidades para impulsionar o seu crescimento, tornando-se agentes resilientes da mudança.

Mas nada disso resolve se cuidados básicos com as pessoas não forem observados.

 

O fator humano

Os gestores precisam transformar o comportamento dos usuários, sejam eles funcionários ou clientes, para que a segurança se torne um hábito, e não uma obrigação imposta. E temos uma cultura muito pobre nisso.

Isaka deu como exemplo a naturalidade com que compartilhamos nosso CPF para descontos em farmácias ou até para abrir a comanda em um bar. “O CPF é o que nos torna cidadãos brasileiros”, alertou. Segundo ele, “se eu pegar seu CPF e informar na Receita Federal, eu saberei mais de você do que você mesmo!”

O mesmo vale para a banalização dos QR Codes, escaneados sem preocupação e que podem levar a pessoa a um site em que seus dados pessoais serão roubados. Isso se reflete no trabalho, onde funcionários podem, com a mesma displicência, inserir dados sensíveis da empresa em sites não seguros ou em plataformas de IA.

Essa falta de cultura torna as pessoas o elo mais fraco. Elas podem ver os controles de segurança como um obstáculo em seu cotidiano, procurando formas de contorná-los para “fazer seu trabalho mais rápido”, ou cometer erros por falta de atenção.

Segundo Paulo Aresta, analista-sênior do Gartner, a rigidez de algumas regras de segurança não é uma escolha, e sim uma consequência de uma cultura organizacional sem colaboração, comunicação eficaz ou uma visão de riscos e objetivos compartilhada entre a segurança e o negócio.

“Quando colocamos pressão na gestão de segurança, ela tende a ter dificuldades em ser aplicada de uma maneira objetiva e eficaz”, afirmou. Ele explicou que apenas 14% das empresas conseguem equilibrar a segurança e a agilidade para inovar e crescer.

Ninguém pode dizer que está seguro. O desafio das empresas é que, quando (e não “se”) ataques ocorrerem, elas não sejam pegas de surpresa. Os incidentes são inevitáveis, mas podem ter impactos minimizados com preparo e reação rápida.

Obviamente não dá para “nos proteger do futuro”, mas podemos nos tornar “prontos para o futuro”. Isso exige que tenhamos uma mentalidade que vá além das urgências do dia a dia, para podermos antecipar cenários disruptivos.

Afinal, o futuro está sempre em movimento. Não devemos buscar ser infalíveis, mas sim ágeis e resilientes para nos adaptarmos ao que vier.

 

“Degradação” do conteúdo de uma imagem por repetidas interações com a IA – Ilustração: Paulo Silvestre

IA ameaça modelo que sustenta a Internet e a própria existência da tecnologia

By | Tecnologia | No Comments

As primeiras plataformas de inteligência artificial generativa, como o ChatGPT, se aproximam de seu terceiro aniversário. Em tão pouco tempo, conseguiram a proeza de mudar a maneira como buscamos informação. Mas apesar de suas vantagens inegáveis, elas ameaçam seriamente a maneira como a Internet se organizou e ironicamente a própria sobrevivência desses sistemas.

Nos últimos 30 anos, redes sociais e buscadores construíram seus impérios de mídia com conteúdo alheio. Apesar de alguns produtores desse material, especialmente veículos de comunicação, contestarem o modelo, essa usurpação sempre foi justificada com essas plataformas encaminhando seus usuários aos sites dos autores, que faturam com publicidade.

Como a IA entrega respostas completas, as pessoas não precisam mais clicar nos links para se aprofundar. Isso está achatando a audiência e as receitas dos criadores de conteúdo, que tentam fazer com que as big techs paguem pelas informações. As empresas de mídia são as vítimas mais visíveis, mas o problema afeta todo mundo.

Os caminhos abertos pela inteligência artificial não têm volta. Mas a ganância sem limites e o desrespeito aos direitos autorais das gigantes de tecnologia podem, em médio prazo, matar sua “galinha dos ovos de ouro”, pois a IA precisa continuamente de novas informações confiáveis para continuar funcionando bem.

Se os atuais produtores de conteúdo quebrarem e novos não surgirem pelo risco de terem seu trabalho roubado por essas empresas, não haverá mais nada para alimentar a besta digital. E então o modelo pode entrar em colapso.


Veja esse artigo em vídeo:


Pela característica de dispensar os usuários de procurar em uma infinidade de sites o que precisam, o ChatGPT foi rapidamente apelidado de “assassino do Google”. Obviamente era um exagero, mas essa concorrência fez o gigante de buscas se mexer, passando a iniciar as suas páginas de respostas com informações geradas pela sua própria IA. E isso agravou ainda mais a situação dos criadores de conteúdo.

Não é pouca coisa. A consultoria de tráfego online Similarweb estima que as pesquisas em buscadores desabaram 15% de janeiro a junho. Os sites de ciência e educação viram 10% de seus visitantes sumirem. No caso dos serviços de referência (como a Wikipedia), a queda foi de 15%, enquanto páginas de saúde perderam 31%. Por outro lado, desde que o Google incluiu textos da IA nas suas respostas, as buscas relacionadas a notícias que não resultam em cliques aumentaram de 56% para 69%.

Grandes empresas de mídia têm feito acordos com as big techs para licenciar seu conteúdo para treinarem a IA. Outras estão processando os gigantes digitais. Mas grande parte do conteúdo que a alimenta vem de uma infinidade de autores sem condições de lutar por seus direitos. De todo jeito, juízes americanos, influenciados pelo presidente Donald Trump, cada vez mais favorecem as companhias do Vale do Silício.

A situação dos produtores de conteúdo deve piorar ainda mais com o plano nacional de inteligência artificial anunciado por Trump no dia 23. Embora não mencione explicitamente direitos autorais, ele endossa a ideia de que as plataformas de IA tenham acesso irrestrito a conteúdos para treinar seus modelos. Trata-se de uma flexibilização implícita das leis de copyright, favorecendo as big techs.

Antes disso, no dia 10 de maio, Trump já havia demitido Shira Perlmutter, chefe do Escritório de Direitos Autorais, após a publicação de um relatório do órgão que questionava o treinamento de IAs com materiais protegidos por direitos autorais. O documento concluiu que isso ultrapassa os limites do uso justo na maioria dos casos.

Outra dor de cabeça criada pela IA para os autores deriva da facilidade de qualquer um produzir todo tipo de conteúdo. Um exemplo emblemático vem das plataformas de streaming de música, que estão sendo inundadas com novas músicas de baixa qualidade geradas por robôs. Cerca de 20 mil dessas trilhas são enviadas diariamente ao Deezer, 18% de todo o conteúdo recebido atualmente e o dobro do visto no início do ano. Como são feitas para agradar aos algoritmos que sugerem músicas aos usuários, elas tiram audiência e dinheiro dos músicos humanos.

 

Todos perdem, menos a IA

Os usuários também perdem muito com esse movimento, e isso começa por consumirem mais conteúdo de baixa qualidade, sejam texto, imagens ou músicas. Isso acontece porque, ao contrário das respostas convencionais de um buscador, em que as pessoas visitam sites criados com curadoria humana, a crescente produção da IA segue apenas os critérios da máquina.

Isso se complica com essas plataformas usando cada vez mais conteúdos gerados pela própria IA no seu treinamento. Assim, algo ruim criado por robôs leva a versões ainda piores no futuro. Para entender isso, basta fazer o exercício de pedir que a IA elabore uma imagem a partir de um original, depois uma terceira a partir da sua criação, e assim sucessivamente. A cada interação, a qualidade se degrada e se afasta da informação original.

Há outro problema ainda mais grave: a IA erra muito no que produz, mas as pessoas não percebem essas falhas. Já ficou comum dizer que é necessário fazer boas perguntas para se obter boas respostas dos robôs, mas pouca gente entende que precisa também ser capaz de analisar a qualidade do que eles entregam.

Aceitamos passivamente o que a IA nos empurra. Isso faz com que usemos mais informações erradas no nosso cotidiano, pois estamos nos tornando preguiçosos para verificar as informações e –pior– elaborar raciocínios e estratégias.

Claro que não proponho que a IA deixe de ser usada, pelo contrário! Mas ela deve ser bem utilizada. E os produtores daquilo que é apropriado para saciar sua fome infinita por informação devem ser remunerados de forma justa. Se as big techs quiserem continuar usando conteúdo alheio para viabilizar seu negócio multibilionário, deveriam, no mínimo, pagar a eles o que estão deixando de faturar graças à IA.

Em vez disso, essas gigantes preferem usar o poder do governo americano para aniquilar quem busca essa relação mais justa. Assim, os autores devem encontrar outras formas de remuneração, e então decidir se querem bloquear o acesso dos robôs ao que fazem.

Essa é uma questão ética, que impacta todas as pessoas seriamente na qualidade do conteúdo que consomem e em como pensam. Em um mundo ideal, os humanos poderiam obter informações gratuitamente, enquanto as plataformas de IA pagariam uma fortuna por elas. Ou então as big techs deveriam oferecer seus melhores produtos gratuitamente a todo mundo.

Mas isso elas jamais farão!

 

O presidente americano Donald Trump tenta desequilibrar a geopolítica usando a inteligência artificial - Ilustração: Paulo Silvestre

Plano de IA dos EUA adota caminho perigoso para superar China

By | Tecnologia | No Comments

O plano de inteligência artificial americano, divulgado na quarta passada (23), merece nossa atenção. Apesar dos grandes avanços da China, os EUA ainda lideram nessa tecnologia. Assim, suas ações influenciam a IA no mundo. Além disso, mecanismos da proposta podem impedir o Brasil de acessar tecnologias de ponta. Mas o que mais preocupa é a escolha de uma política de desenvolvimento irresponsável e perigosa.

A nova Guerra Fria acontece em torno da inteligência artificial. No anúncio do chamado “Plano de Ação de IA dos EUA: Vencendo a Corrida”, o presidente americano, Donald Trump, não economizou palavras para deixar isso claro.

Em suas 28 páginas, o documento se concentra em três pilares: acelerar a inovação em IA, construir infraestrutura americana, e liderar a diplomacia e segurança internacionais no setor. Eles atendem diretamente a demandas das big techs, como OpenAI, Google, Meta e Microsoft, que combatem ferozmente qualquer restrição a seus produtos, nos EUA e principalmente no exterior.

Essas regras vêm principalmente da Europa, mas também estão sendo criadas ao redor do mundo, inclusive no Brasil. Por aqui, o Marco da IA, aprovado pelo Senado Federal e francamente inspirado na Lei da IA europeia, está sendo discutido na Câmara. Por lá, Trump revogou a ordem executiva do governo anterior, que previa uma avaliação de risco no desenvolvimento de IA, e ameaça retirar recursos de Estados que tenham leis mais restritivas, como a Califórnia.

A nova diretriz manda às favas a prudência recomendada pelos maiores especialistas em IA do mundo. É um documento mais político que técnico, acenando aos eleitores mais radicais de Trump e às gigantes de tecnologia, essenciais para seus planos.

A IA não pode ser vista como apenas “mais uma tecnologia”. Sua evolução desafia os próprios desenvolvedores e ela pode facilmente ser usada para criar severos danos à humanidade. Ao tratá-la de forma política, esses riscos crescem exponencialmente.


Veja esse artigo em vídeo:


Trump quer transformar os EUA em um território livre para o avanço da IA, eliminando o que considera “barreiras regulatórias desnecessárias”. O novo plano prevê revisar ou suprimir normas federais que limitariam a inovação, incentivando a atuação do setor privado, ao promover a desburocratização em todas as áreas ligadas à IA.

A estratégia também altera diretrizes técnicas e regulatórias, retirando referências a diversidade, inclusão, mudança climática e desinformação dos guias federais. A justificativa é garantir que os sistemas de IA promovam a liberdade de expressão e reflitam “valores americanos”, do ponto de vista conservador. Para Trump, a IA deve buscar a objetividade, sem filtros que comprometam sua função de transmitir “a verdade”. E isso, por si só, é temerário, pois a IA reconhecidamente erra, e muito.

O documento incentiva a construção de data centers, fábricas de semicondutores e infraestrutura energética, essenciais para a liderança dos EUA no setor. Para isso, propõe simplificar licenças ambientais, criar exceções dentro do marco regulatório e até permitir o uso de fontes de energia “sujas”, como termelétricas, ignorando seu impacto. A meta é garantir velocidade na expansão da infraestrutura física que sustenta a IA, mesmo que isso signifique driblar normas ecológicas.

Embora o plano não mencione explicitamente os direitos autorais, ele endossa a ideia de que as plataformas de IA tenham acesso irrestrito a conteúdos para treinar seus modelos. Ao defender que obstáculos legais sejam eliminados, abre caminho para que obras protegidas, como livros, músicas e imagens, sejam usadas sem consentimento dos autores. Trata-se de uma flexibilização implícita das leis de copyright, favorecendo as big techs e colocando em risco a remuneração e os direitos de criadores.

Pela proposta, os EUA exportarão seus modelos, softwares e equipamentos de IA apenas a países aliados, garantindo que eles adotem padrões americanos. Ao mesmo tempo, impedirão que adversários tenham acesso a tecnologias sensíveis. Essa política transforma a IA em instrumento de influência internacional, usando sua distribuição como ferramenta diplomática e de contenção estratégica.

O Brasil pode ser ainda mais pressionado pelos EUA, para se submeter aos interesses das big techs. Caso contrário, podemos ser impedidos de ter acesso a tecnologias de ponta e de firmar colaborações de pesquisa e comerciais.

 

“Vieses ideológicos” na IA

Vale notar que o que o governo americano chama de “eliminar vieses ideológicos” na IA significa filtrar suas respostas, para remover conteúdos que considera inadequados. Ironicamente, isso inclui um viés ideológico. Mas tentativas anteriores de se fazer isso não funcionaram: as plataformas continuaram criando respostas que os extremistas não aprovavam por serem moderadas e promoverem diversidade.

Alguns episódios mancharam a reputação de plataformas quando foram lançadas, como quando o gerador de imagens da IA do Google incluiu negros e japoneses entre soldados nazistas. Nesses casos, a diversidade gerou erros de informação histórica. Mas fica difícil eliminar a variedade da vida “na marra”, quando a maioria dos conteúdos usados para treinar a IA tem natureza diversa. Seria necessário eliminar todas essas informações da base, o que é inviável.

O temor é que, ao insistir nisso, as plataformas de inteligência artificial americanas passem a se comportar como as chinesas no que elas têm de pior: a censura explícita. Sistemas como o DeepSeek deliberadamente não abordam assuntos que o governo de Pequim reprova, apesar de serem capazes de dar boas respostas sobre eles.

O novo plano americano reconhece explicitamente que os sistemas de IA podem representar riscos em áreas como ciberataques, desenvolvimento de armas de toda natureza e vulnerabilidades de segurança. Por isso, propõe que os EUA compreendam essas ameaças, que estarão nas mãos de adversário em breve.

Esses riscos e a politização da IA sintetizam os problemas dessas regras, com uma geopolítica agora fortemente vinculada à inteligência artificial. Não se espera muito da China, um país que pratica a censura abertamente e que atropela a ética e até o bom senso para roubar a liderança política e econômica dos EUA.

Os americanos sempre se contrapuseram a isso, e, pelo menos em tese, mantinham sua influência global por exemplos considerados positivos na ciência e nos negócios. Agora agirão nos termos chineses, por medo de serem ultrapassados por eles.

Assim o mundo vê suas duas maiores potências em um vale-tudo explícito, com consequências imprevisíveis. O desenvolvimento irresponsável ou descuidado da IA pode promover uma manipulação sem precedentes, achatar o senso crítico das pessoas e até concretizar alguns cenários distópicos da ficção científica.

 

Para Donald Trump, o Pix é uma “prática desleal” brasileira - Foto: National Archives and Records Administration/Creative Commons

O que ainda une os brasileiros em tempos de polarização digital

By | Tecnologia | No Comments

A sociedade brasileira hoje difere muito do que era há 20 anos. Sempre tivemos divisões enraizadas em nossa cultura, algumas profundamente nocivas para determinados grupos sociais e prejudiciais ao desenvolvimento da sociedade como um todo. Mas em tempos sem smartphones e principalmente sem redes sociais, aparentávamos viver em harmonia, ainda que mais frágil do que acreditávamos.

A completa disseminação desses produtos digitais criou, nos anos seguintes, uma profunda rachadura na sociedade que inviabiliza o debate entre aqueles que se posicionam nos extremos opostos. Caiu por terra o mito do brasileiro cordial e colaborativo, dando lugar à intensa polarização.

As causas disso sempre estiveram entre nós, nutridas no íntimo de extremistas antes contidos pelas regras da civilidade. Os algoritmos das redes sociais destravaram essas forças ao juntar quem tem os mesmos valores, e os smartphones passaram a reforçar essas ideias o tempo todo. Não demorou para que políticos de várias ideologias se apropriassem dessa polarização, criando uma espiral destrutiva da qual não saímos.

Resta algo que ainda une os brasileiros? Nem a seleção de futebol, antes uma unanimidade, consegue fazer isso hoje.

Nesse cenário, as absurdas exigências do presidente americano ao Brasil, feitas na semana passada, merecem atenção. Apesar de ter provocado forte indignação na maioria dos brasileiros, nem Donald Trump conseguiu unir a todos nós.

Ainda assim, vale analisar aquelas que defendem os interesses das big techs e atacam conquistas tecnológicas e de proteção aos cidadãos do Brasil. Afinal, o Pix, criticado por Trump, é uma unanimidade nacional.


Veja esse artigo em vídeo:


De fato, do ponto de vista econômico e político, não há justificativa racional para as grotescas agressões do americano, algo sem precedentes nos 200 anos de boas relações entre os dois países. E a proteção explícita das plataformas digitais, que fere severamente a soberania brasileira, não vem ao acaso, amplificando as reclamações de empresas que não querem ver seus enormes privilégios ameaçados.

Não se trata apenas dos ganhos bilionários. Smartphones, redes sociais e agora inteligência artificial permitem profunda manipulação das massas, influenciando fortemente a geopolítica. Esses setores estão prestes a ser regulados no Brasil, a exemplo do que já acontece em outras partes do mundo. Por isso, o lobby de empresas como Meta, Google e Amazon busca convencer o governo americano de que um país lhes impor regras significa um ataque aos interesses americanos.

Elas sabem que são estratégicas para a economia dos EUA. Por outro lado, o Brasil é um mercado muito importante para as essas plataformas, pela quantidade de clientes e pelo comportamento digital do brasileiro, que lhes garante receitas monumentais. Por isso, limitações ou regulamentações por aqui podem influenciar outros países a adotarem legislações similares, restringindo a atuação global dessas companhias.

Isso explica por que as ameaças americanas também miraram a Lei Geral de Proteção de Dados (LGPD). Elas afirmam que a proteção aos dados dos cidadãos brasileiros atrapalha “objetivos comerciais de rotina” das empresas americanas, exigindo que aceitemos os padrões de privacidade dos EUA como “adequados”.

Mas a LGPD não é um entrave, e sim um selo de qualidade que posiciona o Brasil como um parceiro sério na economia digital. Enfraquecê-la seria renunciar a uma conquista civilizatória compatível com as melhores práticas globais e, aliás, uma das poucas defesas do cidadão frente ao poder dos algoritmos e da vigilância digital.

Mas talvez o que mais tenha chocado foram os ataques ao Pix, rotulado de “prática desleal nos serviços de pagamento eletrônico”. Novamente, buscam proteger os interesses de gigantes americanas, como Visa, Mastercard, Google, Apple e Meta, contra os da população brasileira.

 

Orgulho nacional

Trump reclama que o Pix foge do controle dessas companhias e é gratuito, o que as prejudica, pois dependem de taxas de transação para lucrar. E ele teme que o sistema brasileiro evolua para uma plataforma de transações internacionais, servindo como alternativa ao dólar em determinados contextos comerciais.

O Pix é um caso de inovação tecnológica brasileira que é referência mundial. Ele funciona, é eficiente e é nosso. Por isso, evoca um sentimento de orgulho nacional baseado em competência, não em símbolos vazios. Acabar com ele ou mesmo desincentivá-lo seria um retrocesso absurdo, pois ele é um instrumento de inclusão financeira, de modernização do Estado e de democratização do acesso bancário.

Não é de se estranhar, portanto, que as bravatas de Trump tenham aumentado a união dos brasileiros, ainda que circunstancialmente. Precisamos garantir essas conquistas e avançar na regulamentação das big techs. Isso não busca censura ou tecnofobia, mas garantir que os direitos humanos, o debate público saudável e a integridade das instituições democráticas sejam preservados em um ambiente digital que foi sequestrado pelo engajamento e pelo lucro a qualquer custo.

Ironicamente, esse embate internacional pode nos ajudar a entender que precisamos resgatar a escuta de quem pensa diferente, sem ataques. E isso começa em cada um de nós. A polarização só se sustenta se houver plateia para o confronto.

Nosso engajamento político, cultural e social deve sair do automático. A educação midiática precisa ser um projeto nacional. Sem isso, as tentativas de regulamentação podem parecer autoritárias para uma população que não entende por que isso importa.

O que ainda pode nos unir são valores compartilhados que sobrevivem à polarização, como o desejo de viver com dignidade, a rejeição à corrupção, o orgulho por inovações locais e o carinho por símbolos culturais. Paradoxalmente, as mesmas redes sociais que nos dividem podem reconstruir contatos. Mas isso exige que deixemos de ser meros usuários e passemos a ser cidadãos digitais conscientes.

A união nacional não virá “de cima”, de instituições, empresas ou governos, nacionais ou estrangeiros. Ela deve surgir de nós mesmos, quando soubermos olhar para o outro sem medo e sem ódio. E então poderá acontecer até ao defendermos juntos algo pontual, como o Pix, ou algo complexo, como a democracia.