All posts by Paulo Silvestre

Debra Logan e Jorg Heizenberg, durante a abertura da Conferência Gartner Data & Analytics, em 28 de abril – Foto: divulgação

Dados ruins e falta de maturidade atravancam o avanço da IA

By | Tecnologia | No Comments

A inteligência artificial criou um tsunami de expectativas nos últimos anos, com a popularização das plataformas de IA generativa, como o ChatGPT. No entanto, a maioria das empresas ainda está longe de tirar proveito de tudo o que essa tecnologia pode oferecer.

Isso acontece, em grande parte, não por limitações técnicas, mas por falta de estratégia e de maturidade organizacional. Afinal, a IA será tão poderosa quanto forem a intenção, a cultura e a qualidade dos dados que a sustentarem.

Durante a Conferência Gartner Data & Analytics, que aconteceu nos dias 28 e 29 de abril, em São Paulo, especialistas internacionais discutiram os desafios e oportunidades da IA. O diagnóstico foi que a IA promete muito, mas sua entrega ainda é tímida.

O que se vê, na prática, é uma corrida por resultados rápidos, sem o amadurecimento necessário das bases de dados, da governança e principalmente da cultura organizacional. Para os especialistas, as equipes se desgastam em ciclos intermináveis de preparação de dados e expectativas insanas.

Eles afirmam que esse ritmo implacável está afetando o moral ainda mais rápido do que os recursos. Por isso, as equipes precisam superar a crescente complexidade e as dúvidas sobre sua capacidade de entrega. A tentação de simplificar demais ou buscar soluções rápidas é um caminho perigoso, que deve ser evitado a todo custo.


Veja esse artigo em vídeo:


Segundo Maryam Hassanlou, diretora-analista do Gartner, apenas metade dos modelos de IA desenvolvidos nas empresas é adotada, uma taxa considerada muito baixa. “Confiança é a principal peça que falta”, explica, e isso acontece porque essas plataformas normalmente são “caixas-pretas” que dificultam seu entendimento e incentivam um uso irresponsável dos dados, que, para piorar, têm baixa qualidade e às vezes são insuficientes.

“Especialmente em setores regulamentados, como saúde, finanças e direito, potenciais vieses e padrões legais representam outra camada de complexidade para previsões que exigem a compreensão do processo”, acrescenta. “É por isso que a explicabilidade da IA é fundamental para ganhar a confiança.”

A explosão do uso da IA gerou um paradoxo. Ela oferece uma interface extremamente simplificada, mas isso vem aumentando exponencialmente a complexidade dos resultados, exigindo novas habilidades das lideranças de tecnologia e gestores de dados. Michael Simone, diretor-analista sênior do Gartner, afirma que agora os líderes “precisam ser pensadores estratégicos e muitas vezes também diplomatas”, conectando-se aos objetivos do negócio e educando os usuários.

“Cada fornecedor adicionou IA aos seus produtos, criando uma abundância de opções com promessas semelhantes”, alerta Jorg Heizenberg, vice-presidente-analista do Gartner. Para ele, esse “AI washing” representa um risco para a confiança na tecnologia, pois promete demais e entrega de menos.

Por tudo isso, a alfabetização em dados e em IA é um fator crítico de sucesso. “Essa conversa não tem nada de conto de fadas, pois cultura é uma questão prática, de colocar a mão na massa”, assegura Heizenberg.

É preciso envolver toda a organização nisso. “Você precisa estabelecer uma cultura de aprendizagem contínua para você e suas equipes”, acrescenta Debra Logan, vice-presidente-analista do Gartner. A transformação cultural é tão importante quanto a tecnológica.

 

Não há “dado neutro”

É preciso abandonar a ilusão do “dado neutro”. Deepak Seth, diretor-analista do Gartner, foi enfático ao afirmar que “a IA é enviesada porque os dados com os quais foi construída são enviesados, porque nossa história é enviesada”. Assim, eles carregam vieses que precisam ser identificados e mitigados. Ignorar isso não é apenas antiético, mas um enorme risco.

A ética deve, aliás, guiar todas as decisões envolvendo dados e IA, desde a coleta até a aplicação. Sua governança é uma extensão da governança de TI, introduzindo três elementos: diversidade, transparência e confiança. Isso inclui o combate a vieses, a proteção da privacidade e o compromisso com a inclusão e a diversidade. A IA deve ser vista como ferramenta de amplificação humana, não de substituição.

“Podemos fazer com que a IA seja como nós, inclusive com nossas limitações, mas podemos torná-la uma inteligência complementar ou tentar criar uma superinteligência”, explica Seth. Para ele, essa última, que empolga muita gente, é algo muito distante. “O que realmente deveria estar no centro das atenções é a criação de uma inteligência complementar, que não nos substitui, que não é mais inteligente do que nós, mas que nos complementa, nos ajuda a sermos melhores naquilo que fazemos”, conclui.

A revolução da inteligência artificial está em curso, mas seu sucesso depende menos de algoritmos e mais de pessoas. A explicabilidade dos modelos, a transparência nos processos e a responsabilidade na aplicação da tecnologia não são apenas requisitos regulatórios, mas imperativos de negócio.

O futuro da IA deve ser guiado por intencionalidade, inclusão e inovação com responsabilidade. Não basta implementar tecnologia avançada: é preciso fazê-lo com propósito claro, incluindo todas as vozes na conversa e inovando de forma ética e sustentável. Só assim transformaremos o tsunami de expectativas em um oceano de realizações concretas, onde a tecnologia amplia o potencial humano em vez de substituí-lo ou diminuí-lo.

 

Sede do The Washington Post, que acaba de fechar acordo para distribuir seu conteúdo pelo ChatGPT - Foto: Daniel O'Neil/Creative Commons

Direitos autorais põem em dúvida de quem são os “ombros gigantes” onde a IA sobe

By | Jornalismo, Tecnologia | No Comments

O lançamento do ChatGPT no fim de 2022 plantou uma incômoda dúvida se as novas plataformas de inteligência artificial generativa estariam construindo seus impérios sobre obras alheias, sem autorização ou remuneração. Dois anos e meio depois, ela persiste e se intensificou.

A controvérsia ganhou novos capítulos recentemente. De um lado, a OpenAI firmou uma parceria com o The Washington Post para que seu ChatGPT publique resumos de notícias do jornalão. Do outro, figuras importantes do mundo digital defenderam abertamente a eliminação das leis de propriedade intelectual, uma postura radical e potencialmente destrutiva.

Essa divergência expõe uma fratura profunda no entendimento sobre como o futuro da tecnologia deve se relacionar com a criação humana. Enquanto os defensores da IA argumentam pelo uso irrestrito de conteúdos sob a bandeira do “uso justo”, produtores de conteúdo, desde artistas independentes até organizações como o The New York Times, movem processos alegando apropriação indébita.

A própria OpenAI, que defende seu direito de usar conteúdos alheios sem compensação ou mesmo autorização, não hesitou em acusar a empresa chinesa DeepSeek de violar sua propriedade intelectual quando a última lançou sua plataforma de IA. Essa contradição evidencia a complexidade e a hipocrisia desse debate.

Não se sabe como compensar financeiramente todos os criadores de conteúdo usados no treinamento da IA, e mesmo se isso é devido. Mas está cada vez mais difícil “empurrar com a barriga” a conclusão dessa disputa, que pode impactar profundamente o mundo, graças à penetração que a IA já construiu em nossas vidas.


Veja esse artigo em vídeo:


Em outros tempos, esse posicionamento dos executivos das big techs seria descartado como provocação barata. Mas em uma época em que sua influência na formulação de políticas públicas cresceu dramaticamente com a aproximação escandalosa desses magnatas ao novo presidente dos EUA, isso fica muito sério.

As empresas de tecnologia argumentam que, sem a flexibilização do “uso justo”, o desenvolvimento da IA será inviabilizado, entregando a liderança global dessa tecnologia absolutamente decisiva para a China. A OpenAI chegou a afirmar, com grande drama à Casa Branca, que a corrida pela IA estaria efetivamente encerrada para empresas americanas.

Sua postura incongruente evoca a famosa frase atribuída ao físico Isaac Newton: “se eu vi mais longe, foi por estar sobre os ombros de gigantes”. A afirmação reconhece que todo avanço intelectual se baseia em conhecimentos anteriores. Mas a OpenAI aplica essa filosofia apenas quando lhe convém.

A situação remete a Steve Jobs, que parafraseava Pablo Picasso dizendo que “bons artistas copiam; grandes artistas roubam” (na verdade, a frase de Picasso era “artistas menores tomam emprestado; grandes artistas roubam”). De fato, a história da tecnologia está repleta de casos assim, como a própria Apple, que desenvolveu a interface gráfica do Macintosh “roubando” conceitos da Xerox, cuja diretoria desprezou seus ícones e até o mouse, inventados pelos seus engenheiros da Califórnia.

Por outro lado, se os direitos autorais forem flexibilizados demais, corre-se o risco de desestimular a criação. Afinal, quem se dedicará a escrever livros, compor músicas ou apurar reportagens se souber que qualquer plataforma digital poderá usar o resultado de seu esforço, sem qualquer compensação, para alimentar máquinas que depois competirão com vantagem sobre seu próprio trabalho?

 

Impactos cognitivos e econômicos

Para além das questões legais, emergem preocupações sobre como essas tecnologias alteram nossa relação com a informação. Diferentemente dos resultados de um buscador tradicional, que apresenta diversas fontes e incentiva a navegação por diferentes perspectivas, as plataformas de IA oferecem respostas prontas, aparentemente definitivas.

Essa mudança tem implicações profundas do ponto de vista cognitivo. O usuário deixa de exercitar sua capacidade de análise, comparação e interpretação crítica de diferentes visões. Receber uma resposta “mastigada” pode parecer confiável, mas carrega riscos de imprecisão, viés e perda de contexto. Isso pode levar ao surgimento de uma geração com dificuldade para construir argumentos originais.

Essa lógica também ameaça a sustentabilidade dos sites de conteúdo. Se o usuário não precisa mais visitar as páginas originais, seu tráfego cai. Isso leva à diminuição de receitas de publicidade e assinaturas, fragilizando ainda mais o jornalismo profissional. É o paradoxo que o ChatGPT, ao destacar o bom jornalismo, contribui para sua erosão, reduzindo a diversidade das fontes disponíveis.

Há muitos conflitos nessa história para se oferecer uma saída simples. A parceria entre a OpenAI e o The Washington Post, com resumos autorizados, links e atribuição clara, precisa ainda ser validada, pois vejo os usuários se satisfazendo com o que a IA lhes trouxer, não sentindo necessidade de visitar as páginas originais.

A decisão dos EUA sobre essa questão terá repercussões globais. Se o país flexibilizar excessivamente os direitos autorais para beneficiar as big techs, outros países devem seguir o exemplo, desestabilizando indústrias criativas e potencialmente ampliando problemas como falsificação e pirataria.

A inteligência artificial já está entre nós, e não há como retroceder, pois seus benefícios são reais e inegáveis. Mas é urgente compreender seus impactos, e buscar equilíbrios.

Usuários, empresas de tecnologia, criadores de conteúdo, legisladores e a Justiça precisam debater de forma aberta, crítica e colaborativa como construir um ecossistema justo, com um ambiente onde os “gigantes” continuem a nos ajudar a enxergar mais longe, mas sem esquecer de quem são esses ombros.

Afinal, roubar com talento ainda é roubo. E a história mostra que os “piratas do Vale do Silício” sempre foram mestres nesse ofício.

 

Segundo a empresa de segurança digital Tenable, plataformas de IA na nuvem sofrem ameaças do “efeito Jenga” – Foto: Creative Commons

Inteligência artificial escancara como a inovação desgovernada ameaça os negócios

By | Tecnologia | No Comments

A explosão do uso da inteligência artificial nas empresas tem gerado uma corrida por eficiência e inovação. Mas junto com os benefícios, crescem as falhas de segurança. Segundo o relatório “Riscos da IA na Nuvem 2025”, recém-publicado pela empresa de segurança digital Tenable, 70% das aplicações com IA em servidores online têm pelo menos uma vulnerabilidade crítica, frente aos 50% em ambientes sem IA.

O problema não vem da tecnologia, e sim de descuidos. Em uma pesquisa realizada pela consultoria Forrester para a Tenable em 2023, 76% dos responsáveis pela implantação de IA afirmaram estar mais preocupados com disponibilidade que com segurança. Essa busca frenética por lançamentos e resultados atropela processos fundamentais, como testes de robustez e revisão de código e de dados.

Segundo a pesquisa global da consultoria McKinsey sobre o uso de IA publicada no mês passado, 78% das organizações já a utilizavam em pelo menos uma atividade de seu negócio em julho de 2024, um salto expressivo em relação aos 55% no fim de 2023. O uso de IA generativa passou de 33% para 71% no mesmo período.

Já o relatório do “Custo das violações de dados de 2024”, publicado pela IBM, mostra que o custo médio de um vazamento de dados saltou 10% em um ano, chegando a US$ 4,88 milhões (no Brasil, esse valor é de US$ 1,36 milhão). O prejuízo não é apenas financeiro, envolvendo paralisação de operações, multas regulatórias, perda de confiança e danos de reputação que podem levar anos para serem reparados.

Tudo isso acende um grande alerta vermelho: empresas de todos os setores estão massivamente abraçando a inteligência artificial sem os cuidados necessários para que essa tecnologia traga resultados confiáveis sem ameaçar suas operações.


Veja esse artigo em vídeo:


Pressionadas por acionistas e pelo mercado, as empresas relaxam com os cuidados. “Na tentativa de acompanhar a revolução trazida pela IA, organizações avançaram a toda velocidade, ignorando inúmeros sinais de alerta de segurança, privacidade e conformidade”, explica Arthur Capella, diretor-geral da Tenable no Brasil. Segundo ele, 38% delas sofrem da chamada “tríade tóxica”, composta por alta exposição, privilégios excessivos e vulnerabilidades críticas, elevando drasticamente seus riscos.

Tais privilégios se referem ao que os usuários podem fazer nos sistemas. Como muitos gestores de TI mantêm as configurações padrão nas plataformas, as pessoas acabam tendo mais poder do que deveriam. Essa falta de rigor contrasta com a filosofia “Zero Trust”, que parte do princípio de que nenhum usuário ou sistema é confiável por padrão, exigindo autorização contínua.

A complexidade aumenta com o que a Tenable chama de “Efeito Jenga”. Assim como no famoso jogo, em que cada bloco sustenta toda a torre, os provedores de nuvem costumam empilhar serviços de IA uns sobre os outros, com privilégios excessivos, criando riscos às vezes invisíveis aos usuários. Daí basta uma configuração insegura em um deles para comprometer toda a arquitetura, graças a essa interdependência.

Parte desse problema acontece porque o modelo de responsabilidade compartilhada na nuvem é mal compreendido. Muitas empresas acreditam que o provedor garante toda a segurança, quando, na verdade, a configuração e o controle de acessos são responsabilidade do cliente. É como alugar uma loja em um shopping, que garante a segurança do prédio, mas quem define quem entra e sai da loja é seu proprietário.

A cultura da segurança da informação deve, portanto, permear todos os setores e níveis das empresas. Não se trata apenas de identificar lacunas, mas de classificar componentes de IA e avaliar o impacto ao negócio, entendendo suas vulnerabilidades.

 

Muito além de TI

“A tecnologia não é mais apenas a tarefa do TI”, afirma Capella. “Ela envolve todas as camadas do negócio e gera vantagens competitivas, consequentemente a segurança da informação deve ser discutida com o board”, acrescenta, ressaltando sua urgência.

No Brasil, ela é agravada por uma abordagem muito reativa. Segundo o estudo da Forrester, 60% das equipes de segurança nacionais se concentram no combate a ataques consumados, em vez de trabalharem para evitá-los. Isso se deve à falta de visão de ativos desconhecidos, de recursos de nuvem, de fragilidades de código e de permissões de usuários. E 72% dos entrevistados reconhecem que seriam muito mais eficazes se dispusessem de recursos preventivos e ferramentas adequadas.

Estamos diante de um paradoxo. Quanto mais inteligente fica a tecnologia, mais frágeis se tornam suas fundações, se não forem cuidadas com rigor. A IA e a computação em nuvem não são à prova de falhas, e tornam as estruturas digitais mais complexas e, portanto, vulneráveis.

Entretanto, vale lembrar que a IA também é parte da solução. Se hackers a usam para criar golpes personalizados e malwares, defensores se valem dela para detectar ameaças e responder em tempo real, prevenindo fraudes e monitorando comportamentos. Mas essa IA também precisa ser protegida contra manipulações, desenvolvimento de vieses e “envenenamento de dados”.

Esse é um novo desafio estratégico. As companhias devem, por exemplo, estar atentas a como essa nova situação as expõe a riscos frente à Lei Geral de Proteção de Dados (LGPD). Afinal, segundo a legislação, não importa se um vazamento ocorreu em uma ferramenta de IA, mas sim que ele ocorreu e que danos foram causados.

A transformação digital impulsionada pela IA é irreversível. Negá-la significa ficar rapidamente para trás. Por outro lado, abraçá-la sem uma nova mentalidade de risco e de segurança cria problemas novos e graves. As lideranças empresariais precisam encarar a segurança da IA não como um custo ou uma barreira à inovação, mas como um ativo estratégico fundamental.

Investir em prevenção, governança robusta, cultura de segurança distribuída pela organização e capacitação contínua das equipes é o caminho para garantir que a inovação seja sustentável. O Brasil tem a oportunidade de se destacar globalmente se conseguir equilibrar agilidade e segurança, tornando-se referência em proteção na era da IA. Mas, para isso, precisa fazer os movimentos necessários. Os líderes que continuarem empilhando descuidadamente blocos da inovação sobre bases instáveis descobrirão, mais cedo ou mais tarde, que suas torres digitais também podem ruir.

 

O ministro da Educação, Camilo Santana, e o presidente do Inep, Manuel Melo, apresentam o Censo Escolar – Foto: José Cruz/Agência Brasil

Educação busca caminhos entre demagogia política e desafios digitais

By | Educação, Tecnologia | No Comments

Entre discursos políticos inflados e dados contraditórios, a educação brasileira navega por águas turbulentas. De um lado, o governo celebra avanços questionáveis na alfabetização. De outro, crianças cada vez mais imersas no universo digital enfrentam desafios cognitivos inéditos.

A dúvida sobre quantos brasileiros estavam alfabetizados no 2º ano do Ensino Fundamental em 2023 simboliza um impasse educacional contemporâneo. Depois de críticas pela demora, o Ministério da Educação (MEC) finalmente divulgou, no dia 3, dados do Sistema de Avaliação da Educação Básica (Saeb), com esse índice em 49,3%. Ele é significativamente menor do que os 56% anteriormente anunciados pelo mesmo MEC no programa Criança Alfabetizada. O governo afirma que o último é mais preciso, mas especialistas desconfiam disso, pela diferença nada desprezível de 7%.

Ao mesmo tempo, educadores encaram uma geração com menos capacidade de concentração e autonomia. Por isso, entre demagogos que distorcem diagnósticos e a revolução digital que transforma mentes, o Brasil precisa de uma política educacional onde transparência nos dados e uso consciente da tecnologia se tornam não apenas desafios técnicos, mas imperativos éticos para o futuro das crianças.

O celular na mão de um estudante pode ser tanto uma janela para o conhecimento quanto uma distração constante que prejudica seu aprendizado. O problema não está na tecnologia em si, mas em como a utilizamos. O uso passivo e exagerado de telas fragmenta a atenção, justamente quando precisamos fortalecer as bases cognitivas de uma geração com graves déficits educacionais.

Esse não é um problema exclusivamente brasileiro, claro. O impacto do meio digital no desenvolvimento cognitivo e na educação vem sendo discutido há anos no mundo todo, resultando em iniciativas mais ou menos acertadas em vários países.


Veja esse artigo em vídeo:


No Brasil, desde o início desse ano letivo, alunos do Ensino Básico estão proibidos de usar celulares nas escolas, exceto em atividades sob orientação dos professores. A medida é aprovada por educadores e pela população, mas enfrenta dificuldades, como resistência cultural, fiscalização difícil, apoio da comunidade escolar, capacitação dos professores e preocupações com a boa integração da tecnologia na escola.

Já a Austrália adotou uma posição mais radical no ano passado, proibindo qualquer uso de redes sociais por pessoas com menos de 16 anos. A decisão veio da pouca colaboração dessas plataformas no combate a graves riscos que a enxurrada de conteúdos nocivos em suas páginas impõe a crianças e adolescentes.

“Não acredito em extremos”, afirma a professora Adriana Pavarina, mestre em Psicologia Educacional e avaliadora no INEP/MEC. “Acredito que política pública equilibrada reconhece a complexidade do uso de redes sociais por adolescentes, buscando proteger seus direitos e bem-estar, ao mesmo tempo em que os prepara para navegar no mundo digital de forma segura e responsável”, acrescenta.

Nesse sentido, a Base Nacional Comum Curricular para Computação, homologada pelo MEC em 2022, busca unir a alfabetização tradicional e o letramento digital. Em vez de focar apenas no manuseio de ferramentas, ela enfatiza habilidades cognitivas fundamentais, como análise e interpretação de dados, resolução de problemas complexos, processos de criação, inovação e compreensão de algoritmos.

Se desenvolvidas adequadamente, essas habilidades fortalecem as capacidades necessárias para a alfabetização convencional, como atenção sustentada, pensamento sequencial e compreensão profunda. Mas ainda hoje, em muitas escolas, a tecnologia continua sendo limitada ao ensino de ferramentas específicas e em noções básicas de informática.

 

O risco de uma “geração de preguiçosos”

Nesse cenário, a inteligência artificial generativa surgiu com enorme força, impactando todos os setores da sociedade, inclusive a educação. E assim como acontece com outras tecnologias digitais, ela oferece incríveis oportunidades, mas também armadilhas para professores e alunos, dependendo de como for usada.

“Existe um risco real de formarmos uma geração de ‘preguiçosos cognitivos’ se a tecnologia for utilizada de forma predominantemente passiva, como uma muleta para evitar o esforço mental”, explica Pavarina. Segundo ela, “a facilidade de encontrar respostas prontas, de usar aplicativos para realizar cálculos ou do consumo de conteúdos superficiais pode, a longo prazo, enfraquecer as habilidades cognitivas”.

Por outro lado, a IA emerge como uma poderosa ferramenta de ampliação cognitiva. Ela pode ser usada, por exemplo, em assistentes virtuais para pesquisas, plataformas de aprendizado adaptativo e ferramentas de análise de dados. Também pode ajudar professores no desafio permanente de criar atividades atraentes para manter a atenção dos alunos, e ricas em informações e desafios para promover o aprendizado profundo. Mas para isso, os docentes precisam ser capacitados tecnicamente e em princípios éticos da IA, incentivando um uso produtivo, seguro e responsável.

Os recursos devem ser usados para reintroduzir o “esforço cognitivo prolongado” em uma geração que as redes sociais acostumaram à gratificação instantânea e vazia. Precisamos reconstruir a valorização do processo e da recompensa em longo prazo, com estratégias que os motivem a encarar tarefas desafiadoras, incentivar a leitura profunda e a escrita elaborada, conectar o aprendizado a objetivos significativos, criar um ambiente de aprendizagem que valorize o esforço, usar a tecnologia de forma estratégica e conectar o aprendizado ao mundo real e às experiências práticas.

“Essa transição não será imediata, muito menos simples, mas, com estratégia e uma mudança na mentalidade sobre o aprendizado, é possível ajudar as novas gerações a desenvolverem a capacidade de se engajarem em tarefas intelectuais mais desafiadoras e a colherem as recompensas de um aprendizado mais profundo e significativo”, afirma Pavarina.

Mesmo com sua diferença, os índices de alfabetização do Saeb e do “Criança Alfabetizada” servem como um lembrete contundente de que a jornada da educação na era digital está longe de ser uma linha reta e suave. A tecnologia não é vilã nem salvadora da educação brasileira, mas a impacta profundamente segundo seus usos.

É preciso mais clareza, mais transparência e, acima de tudo, um olhar atento e crítico para o impacto da tecnologia em nossas crianças e adolescentes. A “preguiça cognitiva” não pode ser o legado desta geração. O esforço, a curiosidade e a sede por conhecimento devem ser os pilares de um futuro em que o digital seja um aliado poderoso, e não um entrave, para o desenvolvimento pleno de cada indivíduo.

 

Donald Trump toma posse como presidente dos EUA pela segunda vez - Foto: Congresso americano/Creative Commons

Convicção, ignorância e interesses pisoteiam a verdade e mantêm pessoas nas trevas

By | Jornalismo | No Comments

No dia 16 de março, Any Awuada, pseudônimo de Nayara Macedo, ganhou grande destaque nas redes sociais por um vídeo em que disse que não engravidaria do jogador Neymar, com quem afirmou ter tido relações sexuais no Carnaval, por ter urinado logo após o sexo. Adultos se relacionam como e com quem quiserem. Mas afirmar, em um vídeo visto por milhões, de pessoas que a urina impede uma gravidez é uma irresponsabilidade inominável, pois muita gente acreditará nisso e passará a usar o próprio xixi como método anticoncepcional, o que evidentemente é falso.

Esse é só um exemplo recente da pilha interminável de mentiras que se acumulam nas redes sociais, mas que podem passar a ser encaradas como verdadeiras, pela visibilidade digital de seus autores. Alguns promovem os engodos por convicção, outros fazem por ignorância. Mas há também aqueles que pisoteiam a verdade porque têm interesses por trás daquilo, normalmente econômicos ou políticos.

O maior exemplo de embusteiro compulsivo beneficiado pelo meio digital é o atual presidente dos EUA, Donald Trump, amplamente conhecido por mentir despudoradamente para atingir seus objetivos. Apesar de, como líder da nação mais poderosa do mundo, estampar as manchetes de veículos de comunicação o tempo todo, ele continua usando o meio digital para espalhar suas desinformações mais absurdas, escapando do crivo dos jornalistas.

A enorme penetração das redes sociais, a falta de responsabilização dessas plataformas por ativamente promoverem mentiras, e os maus exemplos de governantes e celebridades continuam esgarçando o tecido social e criando novas gerações de propagadores de desinformação, que veem nisso uma forma de ascensão pela fama e pelo dinheiro. E as consequências sociais são gravíssimas.


Veja esse artigo em vídeo:


As redes sociais há muito se tornaram a principal fonte de consumo de informação boa e ruim no Brasil e no mundo. A pesquisa “Retrospectiva Digital 2024: Definindo o rumo para 2025”, publicado pela consultoria Comscore no dia 25 de março, indica que o Brasil tem 131 milhões de internautas, que gastaram 70 bilhões de horas no ano passado em redes sociais, contra apenas 1,1 bilhão em sites e aplicativos de notícias.

Trump sabe muito bem o poder disso, por isso explora a desinformação. Uma das mais perversas é a que relaciona vacinas a autismo. Essa mentira surgiu em 1998, quando o médico inglês Andrew Wakefield publicou um artigo na revista “The Lancet”, sugerindo essa relação com a vacina tríplice viral. O estudo foi formalmente retratado pela publicação em 2010, pois o autor havia manipulado dados para sustentar suas conclusões. Investigações revelaram que ele tinha conflitos de interesse, incluindo patentes de uma vacina concorrente e vínculos financeiros com advogados de famílias processando fabricantes de vacinas. Wakefield acabou perdendo sua licença médica.

Embora a relação entre vacinas e autismo tenha sido refutada por estudos científicos sérios, o artigo foi devastador. Ele fortaleceu o movimento global contra vacinas, levando à queda na vacinação e ao ressurgimento de doenças evitáveis. Um exemplo emblemático é o do sarampo. A doença havia sido declarada eliminada nos EUA no ano 2000, mas ressurgiu com força graças a esses movimentos, especialmente nos Estados do Texas e do Novo México, onde eles são mais influentes.

Trump capitaliza o medo dos imunizantes para angariar votos de quem acredita nessa teoria desmentida. Tanto que, para reforçar sua retórica, ele nomeou, no seu segundo mandato, Robert Kennedy Jr., um conhecido ativista antivacinação, para liderar o Departamento de Saúde e Serviços Humanos dos EUA.

Pela sua posição, Trump tem o maior megafone do mundo, e isso influencia multidões pelo globo, que abraçam a desinformação. Isso acontece até com profissionais de uma determinada área, que atacam a própria ciência. Por exemplo, em outubro, aqui no Brasil, uma médica afirmou nas redes sociais que o câncer de mama não existe e um médico disse que a doença pode ser causada por mamografias. Ainda mais por serem médicos, essas declarações legitimaram crenças de uma legião de pessoas que, por qualquer motivo “não acreditam na doença”. Ambos respondem por investigações dos Conselhos de Medicina e processos.

 

“Me engana que eu gosto”

Em 2021, o instituto britânico Alan Turing publicou um estudo sobre como uma sociedade ameaça a própria sobrevivência com ataques deliberados à capacidade de adquirir conhecimento. A líder dos pesquisadores, Elizabeth Seger, da Universidade de Cambridge, explicou que, “mesmo que estivesse claro como salvar o mundo, um ecossistema de informações estragado e não-confiável poderia impedir que isso acontecesse”. Isso surge da desinformação (intencional ou não), do excesso de informação, da rejeição ao que contraria crenças do grupo e da dificuldade de julgar fontes nas redes. No fim, as pessoas confiam no que reforça sua visão de mundo.

Outro estudo, publicado em 2017 pelo Conselho da Europa e liderado por Claire Wardle, da Universidade de Harvard, detalha a “desordem informacional”. Ela se divide em desinformação (informação deliberadamente errada para causar danos), informação falsa (errada, mas sem intenção de causar danos) e informação maliciosa (correta, mas usada para causar danos). Também explica que é preciso considerar quem são os agentes (quem cria e distribui a mensagem, e qual sua motivação), as mensagens em si e os intérpretes (quem as recebe e suas interpretações).

Isso afeta pessoas de todas as idades, grupos sociais e níveis educacionais. Os promotores da desinformação combatem a educação e a imprensa, que são contrárias aos seus interesses. Infelizmente são bem-sucedidos: o Digital News Report 2024, publicado em junho pelo Instituto Reuters e pela Universidade de Oxford, mostrou que 47% dos brasileiros deliberadamente se recusam a consumir notícias, e que apenas 43% confiam no noticiário, o pior índice já registrado no país.

Em seu livro “A Manipulação da Verdade” (Contexto, 2022), o destacado linguista francês Patrick Charaudeau afirma que “uma indiferença pela verdade, que se tornou ‘não essencial’, seria a marca registrada de nossa era pós-moderna”. E conclui que “o desafio não está mais em acreditar ou não acreditar, está no sucesso do fazer crer.”

Em um cenário em que as plataformas digitais fazem vista grossa e até, em alguns casos, incentivam a desinformação para aumentar seus lucros, em que legisladores se furtam a criar leis para combater esse mal, em que governantes a praticam diariamente, e em que influenciadores normalizam a prática irresponsavelmente, cabe a cada um de nós encontrar maneiras de nos informarmos melhor e de reforçarmos nosso senso crítico. Caso contrário, veremos mais e mais crianças nascendo porque seus pais acharam que a gravidez teria sido evitada com uma ida ao banheiro.

 

Para Stephen Buckley, do “Dallas Morning News”, a reputação depende de transparência, responsabilização e humildade - Foto: reprodução

Desinformação escancara como o relacionamento pode salvar a confiança do público

By | Jornalismo | No Comments

A confiança sempre foi essencial para o sucesso de qualquer relacionamento, inclusive os comerciais. Mas em uma época em que a desinformação se tornou uma ferramenta cotidiana para abalar reputações e conseguir clientes e apoiadores, o contato genuíno com o público pode reforçar laços e construir um vínculo duradouro.

Isso vale para qualquer atividade, mas é crítico para o jornalismo. Seu produto é a notícia, e a verdade é seu principal ativo. Por isso, a confiança do público foi um tema central no 26º Simpósio Internacional de Jornalismo Online, promovido na semana passada pela Universidade do Texas em Austin (EUA). Mas as conclusões do evento podem ser aproveitadas por profissionais de setores da economia bem diversos.

Apesar de ser um dos pilares de qualquer democracia, o jornalismo sofre como negócio. O “Digital News Report 2024”, publicado pelo Reuters Institute em junho, revelou que apenas 40% da população mundial acredita no noticiário. Mais grave que isso é que 39% dos entrevistados admitem evitar deliberadamente o consumo de notícias, uma perigosa escolha pela alienação, que vem crescendo ano após ano. No Brasil, a situação é ainda mais grave, com 47% da população evitando se informar.

Parte dessa desolação está sendo construída há duas décadas, por grupos de poder que veem na fiscalização jornalística um obstáculo a seus interesses escusos. Mas outro tanto cabe à própria mídia, que se distanciou do seu público, ao longo dos anos. Muitas pessoas a sentem como elitizada, longe de seus cotidianos, com linguagem e formato antigos, e “vendida”. E esses profissionais não conseguem reverter essa percepção, enquanto seus detratores se esbaldam com o apoio das redes sociais.

Ninguém tem o poder de decidir se é confiável ou sequer útil para a sociedade: são as pessoas que escolhem. Esse é um ingrediente essencial na confiança e uma verdade incômoda de que a credibilidade não é autoproclamada, mas conferida pelo outro. Por isso, jornalistas e qualquer outro profissional precisam encontrar o caminho para que seus públicos se sintam próximos, compreendidos e cuidados.


Veja esse artigo em vídeo:


Quando se trata de confiança, competência e caráter são fundamentais. A primeira refere-se à capacidade técnica de apresentar informações precisas, contextualizadas e aprofundadas. O segundo, menos tangível, mas igualmente decisivo, diz respeito às motivações, sinceridade e integridade percebidas pelo público.

Essa dupla exigência não se restringe à imprensa. Médicos, advogados, professores, empresários e muitos outros enfrentam o mesmo desafio: não basta dominar técnicas e conhecimentos específicos se falta a percepção de que existe uma genuína preocupação com o impacto do seu trabalho na vida das pessoas.

O desafio cresce no jornalismo, pois o público quer ouvir vozes como as suas, além de outras muito diferentes. A diversidade de perspectivas não é apenas uma questão de justiça social, mas um fator determinante para a credibilidade de qualquer instituição ou profissional.

A ausência dessa representatividade leva a coberturas jornalísticas enviesadas, mas também a serviços de saúde que ignoram especificidades culturais, sistemas educacionais que não contemplam diferentes formas de aprendizado ou empresas cujos produtos não consideram a diversidade de seus consumidores.

O simpósio dedicou atenção especial ao fenômeno dos influenciadores que, cada vez mais, ocupam espaços tradicionalmente reservados a jornalistas. As linhas entre jornalismo tradicional e conteúdo produzido por criadores independentes, e a fronteira entre noticiário e entretenimento ficam cada vez mais tênues, gerando debates sobre quem pode ser considerado fonte confiável de informação.

O fenômeno não se limita à comunicação. Consultores de saúde no lugar de médicos, coaches substituindo terapeutas, mentores digitais concorrendo com professores ilustram como a autoridade antes conferida por títulos e instituições agora é disputada com figuras que conquistam credibilidade não apenas por dominar os espaços digitais, mas pela sua capacidade de criar uma forte identificação com o público.

 

Concorrência heterogênea

Há de tudo nesses criadores de conteúdo, inclusive aqueles que se profissionalizam.

“Embora eu não me considere um jornalista ou mesmo alguém que dê notícias de última hora, se as pessoas me veem assim, então, em muitos aspectos, eu tenho a responsabilidade de fazer tudo o que o jornalismo tradicional faria, que é verificar os fatos para garantir que não esteja apenas espalhando desinformação”, explicou o uruguaio Carlos Eduardo Espina, um criador de conteúdo sobre direitos de imigrantes nos EUA, com 12,4 milhões de seguidores no TikTok, 3 milhões no Facebook e 1,2 milhão no Instagram. “Mas vemos muitas pessoas que simplesmente vão para as mídias sociais e mentem, pois isso é bom para o engajamento”, afirma, expondo um dilema que muitos jornalistas também enfrentam: o de serem envolventes e, ao mesmo tempo, responsáveis.

Outro ponto importante debatido é que grande parte do público não compreende como funciona o trabalho jornalístico, o que pode gerar desconfiança e esconder o trabalho minucioso e ético desses profissionais, que aumentaria muito a sua credibilidade, se fosse conhecido. Este problema se repete em diversos campos, por exemplo com as linguagens técnicas de médicos e advogados. Cada termo não explicado, cada processo não compartilhado torna-se um tijolo no muro da desconfiança.

Diante disso tudo, a transparência surge como uma poderosa aliada para se aproximar do público e reconstruir a confiança. Ela manifesta-se na clareza sobre processos, fontes de financiamento e valores editoriais, admissão de limitações, reconhecimento de vieses e, crucialmente, no reconhecimento e correção de erros.

“Jornalistas passam muito tempo responsabilizando outras pessoas e, portanto, faz todo o sentido que nós mesmos sejamos responsabilizados”, explicou Stephen Buckley, editor do “Dallas Morning News”, que disse que fica feliz quando percebe que muitas pessoas genuinamente tentam entender o trabalho dos jornalistas e até querem ajudá-los a fazer um trabalho melhor. Para ele, a conexão com o público e o aumento da reputação dependem de três pilares profissionais: transparência, responsabilização e humildade.

“Não estamos acima ou abaixo das pessoas: estamos com as pessoas”, afirmou Buckley. “Essa é uma mensagem realmente importante e ressonante, e as pessoas entendem isso e sentem quando estamos agindo assim”, concluiu.

 

O anjo Aziraphale (Michael Sheen) e o demônio Crowley (David Tennant), protagonistas da série "Belas Maldições" - Foto: reprodução

“Cultura do cancelamento” enfrenta a Justiça com a força das redes sociais

By | Tecnologia | No Comments

Fãs da série “Belas Maldições” (“Good Omens”) ficaram desolados com o anúncio de que sua terceira temporada seria reduzida a um único episódio de 90 minutos, encerrando prematuramente esse sucesso do Amazon Prime Video. A decisão veio devido a graves acusações de abuso sexual contra Neil Gaiman, produtor e coautor da obra original, trazendo à tona questões sobre a “cultura do cancelamento”, um dos efeitos mais nefastos das redes sociais.

É importante que fique claro que isto não é uma defesa de Gaiman. As denúncias contra ele são graves e os indícios, consistentes. Se comprovadas, devem resultar na condenação apropriada.

Por outro lado, o caso ainda está em investigação e o autor sequer foi indiciado. Mesmo assim, já foi julgado e condenado pelo “Tribunal da Internet”. Como pena, sua reputação ficou seriamente comprometida, e vários projetos seus, como as séries “Belas Maldições” e “Sandman”, foram interrompidos ou abreviados.

A “cultura do cancelamento” contraria a presunção de inocência, um princípio fundamental em muitos sistemas legais. No Brasil, a Constituição estabelece, no artigo 5º, que “ninguém será considerado culpado até o trânsito em julgado de sentença penal condenatória”. Isso garante que um acusado seja tratado como inocente até que sua culpa seja comprovada em um julgamento justo e definitivo.

Engana-se quem pensa que apenas celebridades passam por isso. Como as redes sociais se beneficiam da polarização e do ódio, sem assumir responsabilidades pelo que distribuem, o fenômeno cresce e pode afetar qualquer pessoa. Entender esse mecanismo tornou-se essencial para autopreservação no ambiente digital.


Veja esse artigo em vídeo:


Gaiman enfrenta denúncias de oito mulheres. A única com o nome revelado é Scarlett Pavlovich, ex-babá do filho de Gaiman, que acusa o autor e sua ex-esposa Amanda Palmer de estupro e tráfico humano. Ele nega tudo, afirmando que todas as relações sexuais que teve foram consensuais e que as acusações visam acordos financeiros.

Dois casos relativamente recentes com famosos ilustram como a “cultura do cancelamento” pode prejudicar muito suas vidas, mesmo quando acabam inocentados na Justiça. Um deles foi o ator Kevin Spacey, absolvido em 2023 de nove acusações de crimes sexuais no Reino Unido. Outro foi o ator Johnny Depp, que venceu o processo contra a ex-esposa, a também atriz Amber Heard, que o acusava de abusos físicos e emocionais. Mesmo assim, ambos continuam com dificuldades profissionais.

Esses exemplos demonstram como a “cultura do cancelamento” vem substituindo os devidos processos legais. Diferente do Judiciário, o “Tribunal da Internet” opera por emoções e achismos, sem considerar todas as evidências ou permitir defesa. Quando a opinião pública se torna juíza e executora, a presunção de inocência some, e as punições são aplicadas imediatamente, muitas vezes de forma irreversível.

A situação se agrava porque empresas associadas aos acusados vêm se apavorando com o risco de suas próprias reputações serem afetadas. Pressionadas pela opinião pública, frequentemente cancelam contratos antes de qualquer conclusão das investigações oficiais. Assim, a mera acusação torna-se suficiente para destruir carreiras, independentemente da veracidade dos fatos.

Entre os efeitos mais nocivos dos “cancelamentos”, está a inibição do debate democrático, silenciando vozes discordantes, criando medo e autocensura. Isso impossibilita diálogos saudáveis, o que frequentemente resulta em injustiças e punições desproporcionais. Em vez de promover a resolução construtiva de conflitos, prioriza o castigo e a exclusão, minando a confiança nas instituições da sociedade.

Eles também causam impactos devastadores na saúde mental. Ansiedade, depressão e isolamento social são consequências comuns para os alvos da fúria coletiva nas redes sociais, com danos psicológicos duradouros. Sem análise aprofundada, pessoas inocentes podem ter suas vidas destruídas por acusações falsas.

 

Recuperação difícil

Recuperar-se de um “cancelamento” é um processo árduo e frequentemente incompleto. Mesmo quando inocentada judicialmente, a pessoa enfrenta desafios significativos para restaurar sua imagem e carreira.

A reabilitação exige tempo e esforço, envolvendo realizações e entrevistas para reconstruir a reputação. Ainda assim, a memória das denúncias afeta permanentemente como a pessoa é vista. No âmbito profissional, projetos podem não ser retomados e parcerias podem ser irrecuperáveis. Reconstruir a carreira significa frequentemente começar do zero, enfrentando ceticismo e desconfiança constantes.

Como já foi dito, apesar desses exemplos reluzentes, um “cancelamento” pode vitimar qualquer pessoa, e igualmente lhe causar danos profundos. Funcionários podem ser demitidos, estudantes podem ser expulsos e pequenos negócios podem ser boicotados por acusações não-verificadas. Por isso, todos precisam aprender a se proteger disso, o que envolve cuidado ao se expressar. Ser claro ao se comunicar e pensar antes de falar são práticas essenciais para evitar mal-entendidos no cotidiano.

Desenvolver empatia e uma escuta ativa ajudam a compreender diferentes perspectivas, reduzindo o risco de ofensas involuntárias. É também importante ter cuidado com piadas e comentários controversos, avaliando seu potencial ofensivo.

Em um mundo com redes sociais controlando nossas vidas, a gestão da reputação online tornou-se crucial. Monitorar o que é dito sobre você nessas plataformas e responder imediatamente a rumores podem evitar sérias dores de cabeça. Além disso, construir relacionamentos positivos com influenciadores e formadores de opinião ajuda a mitigar crises. Uma imagem pública coerente e empática serve como prevenção.

Por tudo isso, esta destruição de reputações representa uma injustiça que deve preocupar a todos. O “efeito manada” cria multidões dispostas a destruir alguém apenas pelo que “se ouviu dizer”. O “cancelamento” é uma ferramenta de intolerância.

Combater essa cultura não significa defender comportamentos prejudiciais, mas, sim, um processo justo, baseado em evidências e no respeito aos direitos fundamentais. Cabe a cada um de nós, às redes sociais e à sociedade promover um ambiente digital mais transparente e responsável, onde acusações sejam tratadas com seriedade, mas também com o cuidado que a Justiça exige.

 

A ministra de Ciência, Tecnologia e Inovação, Luciana Santos - Foto: Fabio Rodrigues-Pozzebom/Agência Brasil

Brasileiros abraçam a IA, mas precisam vencer desafios para sua implantação plena

By | Tecnologia | No Comments

Os brasileiros têm fama de abraçar novas tecnologias rapidamente, especialmente as digitais. Isso se vê, por exemplo, no amplo uso de smartphones e redes sociais no país, que sempre lidera rankings internacionais nisso. Também vem sendo observado no nosso uso entusiasmado da inteligência artificial. Mas essa euforia enfrenta severos obstáculos que podem prejudicar resultados, especialmente nos negócios.

A pesquisa “Inteligência artificial no mundo corporativo”, divulgada no dia 11 pela gigante de software alemã SAP, mostra que 52% dos gestores brasileiros têm percepção muito positiva sobre essa tecnologia e outros 27% a encaram de forma favorável, mas com ressalvas. Na América Latina, esses números são 43% e 38%.

Para 29% desses gestores, o maior desafio é não saber como incorporar a IA no negócio, enquanto 28% afirmam que não há profissionais qualificados para isso, problemas que caminham de mãos dadas. Mas o Brasil enfrenta outra grande barreira nesse setor: dependemos demais de tecnologias importadas.

A princípio, isso não pareceria tão grave. O Brasil historicamente consome tecnologia digital de fora, graças ao sucateamento de nossa indústria e de nossa ciência, principalmente a de base. Continuaremos fazendo isso com a inteligência artificial. Mas suas características tornam essa dependência mais perigosa.

O quadro piora com o posicionamento errático da administração Donald Trump, que já usa a IA como arma geopolítica. No dia 13, a OpenAI, criadora do ChatGPT, apresentou uma série de propostas ao governo americano para supostamente manter a liderança dos EUA no setor. Entre elas, sugere uma restrição de exportações da IA a países “democráticos” (conceito que varia com o vento nos cabelos de Trump).

Isso cria uma divisão geopolítica artificial, condicionando o acesso à IA à subordinação de nações a interesses americanos, reforçando essa dependência tecnológica e perpetuando desigualdades globais. Esse é um risco que o Brasil não pode manter.


Veja esse artigo em vídeo:


Sendo uma tecnologia altamente disruptiva, a IA já transforma diversos setores da economia. Para isso, requer infraestrutura avançada e capacitação de profissionais qualificados. Sem investimentos significativos, o Brasil pode ficar para trás em ambos, dificultando a absorção e o uso eficaz dessa tecnologia, o que pode também aumentar os riscos de segurança e privacidade, pois dados sensíveis ficam sujeitos a leis estrangeiras.

Isso também limita nossa capacidade de inovar e ajustar soluções às nossas necessidades, além de comprometer a autonomia tecnológica do país. Como a IA automatiza muitas funções, a falta de investimentos em capacitação impõe ao Brasil desafios adicionais no mundo do trabalho e na adaptação ao avanço tecnológico.

Diante desse cenário, as empresas se mobilizam. Segundo a pesquisa da SAP, 62% dos gestores locais já capacitam seu pessoal para sanar este gargalo e outras 35% pretendem fazer isso ainda em 2025. “As empresas brasileiras trazem inovação no seu DNA, tanto na geração de diferencial competitivo, quanto na otimização de processos”, afirma Rogério Ceccato, diretor de pré-vendas da SAP Brasil. “Isso se explica com a maior maturidade do mercado brasileiro no cenário latino-americano.”

A IA generativa pode ajudar a reduzir esse problema, dispensando os profissionais de dominarem aspectos técnicos da tecnologia. Ceccato explica que assistentes, como a Joule da SAP, ajudam um profissional de vendas, por exemplo, a criar agentes de IA sem apoio técnico, concentrando-se no seu conhecimento do negócio. “Soluções com estratégia low-code/no-code (sem programação) permitem que mais profissionais dominem a IA”, acrescenta.

Além disso, alguns exemplos internacionais recentes animaram empresários e pesquisadores brasileiros a investirem mais em inteligência artificial. O mais marcante foi o chinês DeepSeek, que em janeiro demonstrou ser possível desenvolver um LLM (modelo de linguagem de grande porte) com qualidade comparável aos melhores do mundo, como o ChatGPT, por uma pequena fração dos seus investimentos.

Criou-se, assim, um novo paradigma, que retirou das big techs o “direito a dominar sozinhas” esse mercado.

 

Investimentos brasileiros

Na época, a ministra de Ciência, Tecnologia e Inovação, Luciana Santos (foto), disse que o Brasil desenvolverá seu próprio modelo de IA, citando o DeepSeek como exemplo. Ela lembrou que existia a ideia de que os investimentos para competir nessa tecnologia seriam proibitivos para países emergentes, mas os chineses mudaram isso, mesmo impedidos pelos EUA de comprar processadores mais poderosos.

Antes disso, no dia 30 de julho, o governo brasileiro anunciou o Plano Brasileiro de Inteligência Artificial. Ele detalha uma estratégia ambiciosa para os padrões brasileiros, com investimento de R$ 23 bilhões até 2028, para o desenvolvimento e aplicação ética e sustentável da IA no país.

O plano prevê a compra de um dos cinco supercomputadores mais avançados do mundo, que deve ser alimentado por energias renováveis. Também propõe o desenvolvimento de modelos de linguagem em português, treinados com conteúdo nacional, que contemplem nossas características culturais, sociais e linguísticas.

Sensível à falta de profissionais no setor, o projeto também destaca a capacitação em larga escala para atender a essa demanda. Por fim, reforça que o desenvolvimento da IA seja ético e responsável, promovendo a transparência algorítmica e a proteção de dados, itens críticos para o setor, mas pouco observados nos produtos americanos.

As propostas são interessantes e muito bem-vindas, mas a sociedade precisa acompanhar sua implantação, para que não se torne mais uma ideia populista que se perca na burocracia. A IA não pode ser mais uma revolução tecnológica que o Brasil apenas observe de longe.

Um esforço coordenado entre governo, academia e setor privado é imprescindível! Os programas já existentes precisam ser ampliados, especialmente para a formação de talentos e o desenvolvimento de propriedade intelectual nacional. Ainda podemos nos tornar protagonistas em nichos do ecossistema de IA.

As atuais restrições podem se traduzir em inovação acelerada. Mas, para isso, o Brasil precisará mobilizar recursos e talentos com a velocidade necessária para superar esse fosso tecnológico antes que se torne intransponível ou que eventuais restrições abalem decisivamente nossa transformação digital.

 

Lara (Ellen Parren) vive drama em “Eu Não Sou um Robô”, por não conseguir passar por um teste em seu computador - Foto: reprodução

Curta vencedor do Oscar alerta sobre nossa desumanização pela dependência tecnológica

By | Tecnologia | No Comments

No domingo de Carnaval, com os brasileiros comemorando o Oscar de Melhor Filme Internacional para “Ainda Estou Aqui” e lamentando que sua protagonista, Fernanda Torres, não levou o de Melhor Atriz, a vitória do holandês “Eu Não Sou um Robô” (“I’m Not a Robot”) no prêmio de Melhor Curta-Metragem, dirigido por Victoria Warmerdam, passou praticamente despercebido. Mas ele promove uma importantíssima reflexão sobre o nosso tempo: estamos nos tornando muito dependentes da tecnologia, e isso pode ameaçar nossa humanidade.

Há décadas, a ficção nos alerta sobre esse risco, mas nunca imaginaríamos que uma validação automática pudesse nos fazer questionar quem somos. É exatamente esse o dilema vivido por Lara (Ellen Parren), a produtora musical protagonista da obra, que mergulha em uma crise existencial após falhar repetidamente em testes CAPTCHA, aqueles desafios online usados para distinguir humanos de robôs, nos quais é preciso clicar, por exemplo, nas “imagens com hidrantes”.

A sociedade vem sendo profundamente influenciada pelas big techs para abraçar a tecnologia como algo quase mágico, sem medir as consequências. Poucas vozes questionam esse movimento. Quem ousa fazer isso recebe rótulos de antiquado ou resistente ao progresso, normalmente injustos.

Apesar de ser uma ficção, o curta toca em questões muito reais. Vivemos em uma era em que sistemas cada vez mais eficazes e surpreendentes nos ajudam muito, mas também trazem consequências nocivas que às vezes ignoramos. Se nada for feito para corrigir essa dependência excessiva, podemos ultrapassar um limiar perigoso, onde a tecnologia não mais nos serve, mas nos define.


Veja esse artigo em vídeo:


Warmerdam criou uma sátira angustiante sobre nossa relação com a tecnologia. A incapacidade de Lara passar nos testes a coloca em uma jornada surreal, levando-a a questionar crescentemente sua própria humanidade. Assim, a obra explora temas como identidade, autonomia e o impacto da tecnologia na percepção humana.

Parren equilibra perfeitamente o humor absurdo com uma crítica social afiada, tornando a personagem ainda mais marcante. Afinal, ela é realmente um robô que desconhece sua verdadeira natureza? Ou será que a tecnologia falha ao identificar o que é ser humano? Esses dilemas existenciais são os elementos mais potentes do curta, reforçando sua crítica à dependência da validação digital, tornando a proposta ainda mais cortante! O absurdo da situação nos faz rir, mas também nos obriga a refletir sobre nossos comportamentos frente à digitalização da vida.

Já terceirizamos nosso pensamento para buscadores, dependemos de GPS para nos locomover e deixamos algoritmos influenciarem nossas decisões diárias, ainda mais com o avanço da inteligência artificial. Quando não têm acesso a essas tecnologias, muitos se sentem perdidos, como se parte de sua identidade tivesse sido removida.

Em alguns casos, um erro técnico pode bloquear nosso acesso a serviços essenciais, tornando-nos praticamente “invisíveis” para a sociedade. Mas precisamos encarar nossa atitude frente a essa dependência tecnológica, que pode prejudicar habilidades cognitivas cruciais, como memória, raciocínio e criatividade. Resolver problemas por conta própria é fundamental para o desenvolvimento humano.

Não dá para dizer que “isso só acontece com os outros”. Quem nunca ficou ansioso por perder o acesso à Internet? A incapacidade de lembrar informações básicas sem consultar o celular, a preferência por interações digitais em detrimento das presenciais, ou a sensação de que nossas realizações só valem quando publicadas e validadas nas redes sociais são outros sinais de que “passamos do ponto”.

Se um sistema de reconhecimento facial falha em nos identificar, um algoritmo de busca não entende nossa pergunta ou quando um assistente virtual não compreende nosso sotaque, sentimos uma frustração que vai além do incômodo prático. É quase uma negação de nossa existência!

 

Recuperando o controle

Para evitar que percamos o controle do que somos, precisamos adotar estratégias conscientes. E isso passa por questionar recomendações das plataformas digitais, tomar decisões sem depender delas e exercitar a memória. Ou seja, lembrar a nós mesmos que podemos também viver sem as máquinas, como sempre fizemos!

O contato humano e o mundo físico precisam ser valorizados. Participar de encontros presenciais e realizar atividades ao ar livre são antídotos eficazes contra a digitalização excessiva da vida. Além disso, falar com pessoas em vez de chatbots preserva o elemento humano nas interações.

Devemos também variar as fontes de informação e usar a tecnologia com propósito claro, em vez de consumir passivamente o que as plataformas sugerem: isso nos ajuda a manter o senso crítico. E pausas regulares no uso desses serviços permitem reavaliar nossa relação com o mundo digital.

“Eu Não Sou um Robô” nos ensina que a tecnologia deve ser uma ferramenta para ampliar nossas capacidades, não um fator determinante da nossa identidade e muito menos da nossa humanidade. Se confiarmos demais nela a ponto de comprometer nossa autonomia, corremos o risco de nos tornarmos reféns daquilo que criamos.

A obra é uma metáfora poderosa sobre a burocracia digital, a vigilância algorítmica e a automação excessiva, que nos transformam em dados e perfis, em vez de seres humanos complexos e autônomos. A tecnologia pode e deve ser usada para facilitar a vida, mas precisamos garantir que ela continue sendo um meio, e não um fim.

Em tempos de IA galopante, a verdadeira inteligência está na capacidade de equilibrar o poder do mundo digital com a experiência humana. Essa é a lição mais valiosa desse pequeno grande filme.

No fim das contas, somos muito mais do que aquilo que um teste CAPTCHA pode definir.

 

Mesmo com digitalização da sala de aula, a figura do professor continua imprescindível - Foto: Zinkevych (Freepik)/Creative Commons

Com a volta às aulas, IA amplia debate sobre a tecnologia na educação

By | Tecnologia | No Comments

Com a inteligência artificial avançando exponencialmente e de maneira transversal em nossas vidas, a volta às aulas, no início de fevereiro, reabriu o debate sobre a digitalização da escola. Apesar da rápida evolução dessa tecnologia, seu uso ainda é limitado nas salas de aula brasileiras, principalmente porque muitos professores não sabem como incorporá-la em seus planos de aula. Enquanto isso, os alunos a abraçam, deixando para os educadores a tarefa espinhosa de encontrar formas de avaliar os estudantes de forma justa e eficaz nessa realidade.

Mas o debate vai muito além disso. Em abril passado, o governo paulista anunciou que passaria a usar a IA na produção do conteúdo didático distribuído a professores da rede estadual de ensino. A proposta foi alvo de muitas críticas, pois a IA generativa ainda erra muito em suas produções. Professores conteudistas responsáveis por verificá-las argumentaram que é mais trabalhoso fazer isso do que produzir um conteúdo totalmente novo. Mesmo assim, o projeto foi implantado.

Resistir a essa tecnologia não faz sentido: ela efetivamente pode ajudar os professores de diferentes formas. Por outro lado, incorporá-la de maneira descuidada ou inconsequente pode trazer muitos prejuízos à educação.

A personalização do ensino pela IA permite adaptar o conteúdo às necessidades individuais dos alunos, enquanto a automação de tarefas administrativas libera tempo precioso para interações ricas e atividades criativas. Ela também pode ajudar na inclusão, oferecendo recursos adaptados para alunos com necessidades especiais.

O problema é que a formação continuada dos professores no tema é insuficiente ou nula! Isso aumenta a desconfiança de muitos deles e atrasa a adoção da tecnologia.

O diálogo aberto e a capacitação contínua são essenciais para se compreender que a IA pode ser uma poderosa aliada, mas também que a educação não se restringe a uma transmissão de conteúdos que possa ser automatizada. Ela envolve empatia, mediação de conflitos, formação do pensamento crítico e desenvolvimento social, habilidades que nenhuma IA tem para substituir a interação humana na sala de aula.


Veja esse artigo em vídeo:


Os professores precisam de apoio para se apropriar da IA. Mesmo quem já a usa, precisa aprender a incorporar esse poder em seus planos de aula. Algumas ilhas de excelência oferecem treinamentos, mas essas iniciativas são pontuais e não atingem a maioria dos professores, especialmente em regiões com menos recursos tecnológicos.

O impacto da IA na avaliação exemplifica isso. Professores que insistam em métodos tradicionais terão mesmo problemas. Agora é preciso diversificar os métodos, apostando em apresentações orais, projetos em grupo em sala e discussões nas quais o professor possa observar o raciocínio. O acompanhamento próximo durante todo o processo de aprendizagem ganha espaço. E o uso da IA pode ser incentivado como ferramenta, mas com os alunos desenvolvendo autonomia e pensamento crítico.

Assim como em qualquer setor, implantar a IA na educação requer planejamento e estrutura. Em primeiro lugar, deve-se identificar necessidades e oportunidades com que a tecnologia possa efetivamente contribuir, criando então objetivos claros em linha com a proposta pedagógica. A partir disso, deve-se descobrir quais plataformas atendem essas demandas.

Nesse contexto, entram o engajamento e a capacitação dos professores. Pela minha experiência, se eles não comprarem a ideia, compreenderem seu funcionamento e usarem no cotidiano, nenhum produto prospera na escola. Ainda assim, a introdução da tecnologia deve ser gradual, monitorando resultados e fazendo ajustes continuamente.

Tudo isso introduz uma mudança considerável no processo pedagógico. Se bem-feita, pode alterar a relação dos alunos com a tecnologia, além dos limites da escola. Por isso, a família precisa ser envolvida.

 

Jamais uma substituta

Alguns pais temem que a inteligência artificial ocupe um espaço maior que o devido na escola. Mais preocupante é que outros, que já demonstram pouco apreço pelos professores, veriam com bons olhos essa substituição.

Para os primeiros, é importante dizer que não há movimentos de substituição dos professores pela inteligência artificial. A tecnologia bem aplicada potencializa o trabalho do professor, não o elimina. Ainda assim, esses pais podem participar construtivamente do processo, aliando-se aos docentes.

Já para o segundo grupo, vale lembrar que educação transcende a mera transmissão de informações. É um processo humano que envolve empatia, valores e desenvolvimento social. A IA não compreende nuances emocionais, não motiva alunos desanimados ou se adapta instantaneamente a situações inesperadas em sala, nem orienta os alunos em sua formação como cidadãos.

Quando o ChatGPT surgiu, apareceu um medo de que a IA criaria uma multidão de desempregados, mesmo nas funções mais criativas. Mas 27 meses após seu lançamento, é um alívio observar que a melhor maneira de escapar disso é justamente usando bem nossas qualidades humanas. E os professores já fazem muito isso, com a empatia para perceber dificuldades emocionais, a criatividade para adaptar métodos de ensino, os relacionamentos interpessoais baseados em confiança, criando ambientes seguros e acolhedores, a mentoria além das questões acadêmicas e a flexibilidade para transformar desafios em oportunidades de aprendizado.

O sucesso da digitalização do ensino passa pelo equilíbrio entre inovação tecnológica e o papel insubstituível do educador. O impacto da inteligência artificial na educação só tende a crescer. Professores, famílias e governantes devem abraçar essa mudança com discernimento, garantindo que a tecnologia seja uma aliada na formação de cidadãos críticos, criativos e preparados para os desafios do futuro.

Mas não se pode esquecer da humanidade, que, combinada ao conhecimento e à paixão pelo ensino, formam a essência do trabalho docente e que nenhuma inteligência artificial, por mais refinada que seja, conseguirá jamais substituir completamente. O professor não é uma peça obsoleta nesse novo cenário, mas o protagonista de uma educação que evolui.

 

A fábula atribuída a Esopo pode ajudar em uma implantação consciente dessa tecnologia – Foto: Paulo Silvestre/Creative Commons

Não mate a galinha dos ovos de ouro do seu negócio com a IA

By | Tecnologia | No Comments

A fábula atribuída a Esopo é uma velha conhecida! Era uma vez um fazendeiro que possuía uma galinha que, todos os dias, botava um ovo de ouro. Com isso, ele ficou muito rico, mas, com o tempo, sucumbiu à ganância. E assim pensou que, se a galinha botava ovos de ouro, dentro dela deveria haver uma grande quantidade do metal. Decidiu matá-la para pegar todo o ouro de uma vez, mas descobriu, ao cortá-la, que, por dentro, era como qualquer outra galinha.

A história demonstra os perigos de se querer resultados imediatos sem pensar nas consequências. E há tempos a relaciono a usos inadequados da inteligência artificial generativa, que deslumbra muitos gestores. Eles a veem como a tecnologia dos “ovos de ouro”: inovação, produtividade e redução de custos! Mas ao usá-la sem planejamento, ética ou compreensão, esses gestores podem “matar sua galinha”.

Ao implantar a IA sem considerar os impactos sociais, regulatórios ou organizacionais, como a perda de empregos, vieses algorítmicos ou uso irresponsável de dados, eles minam a confiança dos clientes, pioram a experiência deles com a marca, prejudicam a sua reputação e até enfrentam consequências legais.

Pensei nisso na semana passada em uma conversa com Tiago Paiva, fundador e CEO da Talkdesk, quando disse que “há muitas empresas que não conseguem perceber que a experiência do cliente é das coisas mais importantes que há.” E ele fala com propriedade, pois seus produtos automatizam o atendimento a clientes com um bom uso da IA, em uma missão declarada de “livrar o mundo da experiência do cliente ruim”.

De fato, o atendimento é uma das áreas mais impactadas pela IA. Usada corretamente, essa tecnologia pode mesmo levar a experiência do cliente a um novo patamar. Porém, muitos gestores ainda “matam suas galinhas” ao usá-la irresponsavelmente para inflar resultados.


Veja esse artigo em vídeo:


É curioso que vivemos um “paradoxo da automação”. Ele indica que clientes esperam que empresas ofereçam suporte automatizado eficiente, mas as que automatizam demais seu atendimento afugentam as pessoas. O segredo é encontrar um equilíbrio, com a IA resolvendo problemas simples, ficando os casos sensíveis para os humanos.

“O problema é que, no passado, com a chegada dos bots, foi criada uma expectativa maior que a capacidade da entrega, e isso danificou a imagem dessas automações”, explicou-me Pedro Andrade, vice-presidente de IA da Talkdesk. “Agora temos que usar essa tecnologia para recuperar essa confiança”, acrescenta.

Infelizmente, muitas companhias usam a IA com automações isoladas, motivadas pelo “ovo de ouro” do corte de custos. Assim, ameaçam a experiência de seus clientes e perdem a oportunidade de transformar o atendimento em um diferencial.

Usada com consciência, a IA pode oferecer personalização refinada, eficiência operacional, proatividade e prevenção. Não se limita a reagir aos clientes, antecipando suas necessidades e otimizando processos, exatamente o que as pessoas querem.

“Não é fácil fazer isso”, avisa Andrade. “Mas para os sistemas de IA, que são capazes de carregar grande quantidade de informação e ajustar o contexto da conversa, torna-se muito mais fácil”, explicando que uma plataforma bem desenvolvida atende a outras demandas dos clientes atuais, como imediatismo, hiperpersonalização e autonomia.

 

“Bazuca para matar uma mosca”

Pouco adianta usar um sistema gigantesco, porém pouco ou nada ajustado à realidade da empresa, como o ChatGPT. Suas respostas acabam sendo imprecisas e genéricas, sem falar que podem custar desnecessariamente caro. Em vez disso, a adoção de modelos menores, mais econômicos, com exigências mais simples de recursos, pode melhorar muito a experiência do cliente.

Os aspectos de segurança, de legislação e de ética também foram amplamente debatidos nessa visita à sede da Talkdesk em Palo Alto (EUA). Os benefícios da implantação da IA nos negócios são mais visíveis, como as já mencionadas eficiência, hiperpersonalização e redução de custos. Mas até que ponto isso é seguro e ético?

Os potenciais riscos dessa adoção recaem no surgimento de vieses algorítmicos, em ameaças à privacidade e ao uso de dados sensíveis, na falta de transparência e de explicabilidade das decisões dos sistemas. Em situações mais extremas, ela pode gerar dependência excessiva da automação e manipulação de clientes e funcionários.

“Muitos clientes erram ao pôr uma plataforma e tentar fazer tudo com ela, pois a inteligência artificial é mais complicada que isso”, alerta Paiva. “Não dá para usar um sistema de LLMs (como o ChatGPT) e achar que tudo funcionará”, conclui.

Para ajudar na criação de um mercado mais maduro, Andrade defende a regulamentação da IA. “Tem que existir regulação, responsabilidades, regras de transparência”, completando que isso não ameaça a inovação e que as empresas que abraçarem isso construirão um diferencial junto a seus clientes. “Essa regulação vai separar as empresas que estão no mercado sério e corporativo de IA, dos players de nicho e dos que estão ainda tentando encontrar o seu lugar.”

Esse é um dos debates mais quentes em torno dessa tecnologia. Para muitos, é bem sedutor tirar qualquer restrição a ela e maximizar os ganhos, sem se preocupar com as consequências. Mas uma IA descolada da ética e da segurança pode ser um dos maiores erros que uma empresa pode cometer, ainda que, em um primeiro momento, colha benefícios aparentes dessa “liberdade”.

O sucesso a longo prazo depende da capacidade de construir um relacionamento sustentável com a IA, cultivando seus benefícios e mitigando seus riscos. O ser humano deve sempre ter a última palavra nas decisões apoiadas por essas plataformas. E os interesses da sociedade devem estar sempre no centro de qualquer ação ligada a essa tecnologia, superando a ganância de empresas e de governos.

Assim como na fábula, a lição é que a implementação de IA requer paciência, planejamento e uma abordagem gradual e responsável. Os “ovos de ouro” virão naturalmente quando a tecnologia for implementada com sabedoria e responsabilidade.


 

Tarefas que exigem criatividade, empatia, crítica e julgamento moral são difíceis de automatizar - Foto: Freepik/Creative Commons

IA avança sobre empregos, mas não quer dizer que você perderá o seu

By | Tecnologia | No Comments

Entre as ações bombásticas de Donald Trump em seu primeiro mês como presidente dos EUA, uma das mais emblemáticas visa demitir 2 milhões de servidores federais. Parte dessas vagas será reposta com pessoas mais alinhadas a suas ideias, mas muitas funções passarão a ser desempenhadas por sistemas de inteligência artificial.

Esse movimento vem se acelerando também na iniciativa privada, mas a magnitude sem precedentes daquela iniciativa reacende o debate global sobre o impacto da IA no mercado de trabalho. A substituição de profissionais por máquinas afeta de funções básicas a cargos de alta qualificação, o que é inédito. E isso gera questionamentos sobre o futuro, incluindo o que acontecerá com uma crescente massa de desempregados que não conseguirá se recolocar.

Para muita gente, o que importa é como “não entrar para a estatística das vítimas da automação”. Tarefas que exigem, por exemplo, criatividade, empatia, pensamento crítico e julgamento moral são difíceis de automatizar. Migrar o trabalho para atividades que exijam essas habilidades pode garantir o salário.

Mas, em qualquer caso, a IA já está transformando as mais diversas funções. Sendo assim, a sociedade deve não apenas preservar empregos, como também garantir que os benefícios da automação sejam distribuídos de forma mais equitativa, para que as pessoas desempenhem suas tarefas com IA, para não serem substituídas por ela.

Resistir a essa tecnologia já não faz sentido. O desafio de todos é se apropriar de seu poder com inteligência, criatividade, ética e segurança.


Veja esse artigo em vídeo:


Recentemente, Jensen Huang, CEO da Nvidia, a fabricante de chips cujo valor de mercado hoje é de US$ 3,3 trilhões graças à IA, disse que essa tecnologia não é uma assassina de empregos. Para ele, todos deveriam usá-la como um tutor pessoal, que lhes ajudaria a coletar qualquer tipo de informação rapidamente, a escrever e até a pensar melhor. Huang ecoa a visão de muitos líderes do setor, que enxergam o futuro do trabalho com as pessoas capacitadas pela IA, e não substituídas por ela.

Claro que ele está “vendendo seu peixe”, por isso sua afirmação deve ser analisada com cautela. É fato que a IA pode ajudar qualquer um em suas tarefas, mas não é verdade que todo mundo sabe como fazer isso! Não é realista esperar que alguém que passou décadas em uma função se torne um “engenheiro de prompt” da noite para o dia.

A verdade nua e crua é que a maioria das pessoas simplesmente não tem habilidades básicas para fazer isso, e não consegue “tirar o atraso”. O problema não é apenas a substituição em si, mas a velocidade com que isso está acontecendo. É a revolução tecnológica mais rápida e abrangente já vista, atropelando muita gente no caminho.

O desafio aumenta com uma requalificação que não acompanha a automação, novas vagas que não repõem as eliminadas, e o consequente aumento da concorrência por trabalho. Isso se agrava pela desigualdade no acesso à educação e à tecnologia e à concentração do mercado em menos setores.

Isso pode levar a um aumento da pobreza e desigualdade social, com crises econômicas causadas por um forte desemprego. Se a IA passar a ser vista como uma vilã pelas massas, isso pode levar a uma resistência à automação maior que a devida.

E isso também esquenta outro debate: o de uma renda básica universal.

 

Garantia de sobrevivência

Ela não surgiu com a inteligência artificial, mas vem sendo apresentada como uma solução caso o desemprego graças às máquinas saia do controle.

Entre os argumentos favoráveis à renda básica universal estão a mitigação dos efeitos de um desemprego em massa, um estímulo ao empreendedorismo e a redução da desigualdade social. Já seus críticos afirmam que não há dinheiro para isso, que ela pode gerar inflação e até desestimular o desejo de trabalhar. Por isso, alguns especialistas sugerem que ela seja apenas parte da solução, garantindo a sobrevivência do indivíduo, mas sem eliminar a necessidade de se trabalhar.

Com ou sem ela, é preciso criar políticas para requalificação de trabalhadores em novas áreas, além da criação de empregos “híbridos” que combinem os benefícios da IA com funções humanas, para evitar a eliminação completa de postos de trabalho. Mas não se pode deixar tudo a cargo do governo: essa responsabilidade deve ser dividida com empresas, instituições educacionais e os próprios trabalhadores.

O que já se observa é que, enquanto profissões inteiras estão sendo eliminadas, as demais não desaparecerão, mas serão transformadas. Quem desenvolver habilidades complementares para usar a IA terá mais oportunidades.

A automação do trabalho é inevitável, mas seu impacto social não precisa ser devastador. Com planejamento adequado, investimento em educação e políticas de proteção social, é possível construir um futuro em que humanos e máquinas não apenas coexistam, mas colaborem para criar uma sociedade mais próspera e equitativa.

Por outro lado, se a implementação for feita sem um planejamento detalhado e sem considerar os impactos sociais, como aparentemente está sendo feito nos EUA, há um grande risco de que os serviços prestados à população percam qualidade, se tornem mais burocráticos e menos acessíveis.

É fundamental considerar as implicações éticas e sociais dessas medidas, garantindo que a implementação da inteligência artificial, seja no setor público ou no privado, aconteça de maneira responsável e equilibrada, aproveitando todos os benefícios que ela traz, mas preservando os direitos dos trabalhadores e a qualidade dos serviços prestados à população.

Precisamos de estratégias que coloquem o ser humano no centro da revolução digital. As lideranças políticas e empresariais devem sair de suas torres de marfim, de onde acham que as oportunidades são as mesmas para todos. Sem isso, corremos o risco de criar uma sociedade ainda mais desigual, onde a tecnologia, em vez de libertar, aprofunda as divisões sociais. E não é para isso que ela está sendo desenvolvida.

 

Sundar Pichai, CEO do Google, fala durante a conferência Google I/O 2024, realizada em 14 de maio do ano passado - Foto: reprodução

Google dá sua bênção para que a IA seja usada em armas e vigilância

By | Tecnologia | No Comments

Em mais um caso de big tech que trai seus princípios, na terça passada (4), o Google alterou suas regras éticas para que a inteligência artificial da empresa possa ser usada no desenvolvimento de armas, na vigilância de pessoas, em produtos que possam causar danos severos à sociedade ou que violem direitos humanos.

Não quer dizer que a companhia entrou no negócio de armas de destruição em massa. Sua posição agora é de “mitigar resultados não intencionais ou prejudiciais” e buscar “princípios amplamente aceitos do direito internacional e dos direitos humanos”. Mas na prática, isso significa pouco ou nada.

É uma mudança profunda, que pode ter impacto global no uso da IA. Pela posição de enorme destaque do Google, ela pode inspirar empresas do mundo todo a fazer o mesmo, provavelmente com ainda menos cuidado.

É inevitável perguntar por que decidiram fazer isso agora, e por que se recusavam até então. Além disso, se a IA poderá ser usada largamente em produtos criados com o objetivo de matar pessoas, qual garantia existe de que essa tecnologia não sairá do controle, com consequências devastadoras?

Vale lembrar o antigo lema do Google: “don’t be evil” (“não seja mau”), um pacto com práticas empresariais éticas e responsáveis. Mas em 2015, a Alphabet, conglomerado que incorporou o Google, trocou o mote por “faça a coisa certa”, bem mais genérico.

E cá estamos discutindo como a recente decisão pode ser tão má!


Veja esse artigo em vídeo:


O Google alega que a decisão reflete a necessidade de empresas de “países democráticos” defenderem seus valores em um cenário geopolítico complexo. Mas especialistas sugerem que a pressão do mercado de IA e a busca por lucrativos contratos militares de um governo nacionalista podem ter influenciado seus gestores.

Qualquer que seja o motivo, a empresa mina a confiança do público e sinaliza que a ética é negociável. Isso estabelece um novo padrão para toda a indústria, em uma competição global impiedosa e menos preocupada com direitos humanos.

Ironicamente, no início do mês, passaram a valer partes da Lei da Inteligência Artificial da União Europeia que proíbem o uso de sistemas de reconhecimento facial em espaços públicos e restringem aplicações consideradas de alto risco, como a manipulação comportamental e a vigilância em massa.

A nova posição do Google se choca com a anterior, que listava as “aplicações que não buscaremos”: armas, vigilância, tecnologias que “causam ou podem causar danos gerais” ou que violam os princípios do direito internacional e dos direitos humanos.

Essas regras que agora foram enterradas surgiram após protestos de funcionários em 2018 contra o projeto Maven, um contrato militar que usava seus algoritmos de visão computacional para analisar imagens de drones. Milhares assinaram uma carta aberta que dizia: “acreditamos que o Google não deveria estar no negócio da guerra”. Por isso, além daquelas regras, o contrato com o Pentágono não foi firmado na época.

O Google não está sozinho nesse novo posicionamento. Concorrentes como Microsoft, Amazon, OpenAI e Anthropic já oferecem suas IAs para aplicações militares. Mas o gigante de busca sempre serviu de inspiração para aqueles que procuram um uso ético da tecnologia. Agora isso acabou!

 

“Skynet feelings”

Algumas das maiores autoridades em IA do mundo, como o canadense Yoshua Bengio, vencedor em 2018 do prêmio Turing (o “Nobel da computação”), afirmam que a busca pela inteligência artificial geral (AGI), que terá autonomia e flexibilidade semelhante ao cérebro humano, pode levar a comportamentos inesperados ou indesejados, até mesmo contrários aos interesses humanos.

Sistemas com aprendizado autônomo podem criar estratégias para autopreservação ou poder, o que poderia torná-los difíceis de controlar. A falta de transparência aumenta o risco de decisões incompreensíveis e não-rastreáveis, dificultando a intervenção humana em casos críticos. Mesmo um botão físico para desligar um servidor (um “kill switch”) poderia ser contornado com a IA se replicando em incontáveis outros servidores antes que fosse possível interromper seu funcionamento.

Adicione a esse caldo a IA sendo usada para o desenvolvimento e operação de armas autônomas. Não entrarei em cenários da ficção em que máquinas decidem exterminar a humanidade, mas isso pode, sem dificuldade, levar a violações de direitos humanos e a escaladas militares perigosas. Pode ainda incentivar o uso de IA para vigilância em massa, especialmente por regimes autoritários, comprometendo as liberdades civis.

Para evitar isso, as big techs deveriam agir de forma oposta ao que estão fazendo. Devem existir regras internas e leis que impeçam o uso da IA em atividades potencialmente perigosas ou que violem direitos individuais. Além disso, os sistemas precisam ser transparentes para auditorias independentes. E isso deve acontecer em todos os países do mundo: talvez o mais difícil de tudo isso, e o que põe tudo a perder.

A decisão do Google de flexibilizar seus princípios éticos não pode ser vista como uma mera decisão empresarial. Como uma das empresas mais valiosas do mundo, cujos produtos são usados diariamente pela maior parte da população global, deveria ser um farol mostrando que responsabilidade e inovação podem coexistir. Mas a gigante decidiu priorizar os lucros em detrimento da segurança e dos direitos humanos.

Essa é uma lógica do capitalismo: companhias não fazem nada que comprometa seus lucros. Assim, é uma ilusão esperar que elas se autorregulem efetivamente por pressões competitivas e financeiras. Diante disso, regulamentações governamentais tornam-se essenciais para estabelecer limites claros e garantir que o desenvolvimento tecnológico continue existindo, mas sem comprometer valores humanos fundamentais.

Nada disso é ficção: vivemos uma realidade que nos brinda com avanços fabulosos, mas que oferece um mundo perigosamente instável por conflitos militares, Estados autoritários que atropelam a civilidade pelos interesses de seus governantes, e uma sociedade cada vez mais fragilizada, em que o cidadão, de tão manipulado pelo meio digital, defende ferozmente seus próprios algozes.

Com tudo isso, quem precisa de robôs assassinos?

 

Liang Wenfeng, CEO da DeepSeek, cujo modelo de IA desafia a liderança americana no setor - Foto: reprodução

Dinheiro, espionagem, boicotes: como a IA dominou o tabuleiro geopolítico

By | Tecnologia | No Comments

O domínio tecnológico sempre garantiu destaque na geopolítica, desde as Grandes Navegações. Países com essa liderança estendem seu poder econômico, político e cultural por grande parte do planeta. A bola da vez é a inteligência artificial, e os EUA estão fazendo de tudo para manter essa liderança. Não é para menos: a IA tem um poder sem precedentes de moldar o mundo seguindo os interesses de seus criadores.

Os EUA pareciam tranquilos nisso, mas, na semana passada, a chinesa DeepSeek surpreendeu o mercado, políticos e pesquisadores, com seu próprio LLM (modelo de linguagem de grande porte) para concorrer com os líderes americanos. Apesar de seus resultados se equipararem aos das plataformas ocidentais, o mais surpreendente dos chineses é o seu custo: enquanto elas já consumiram bilhões de dólares e querem ainda mais, a DeepSeek precisou de “apenas” US$ 5,6 milhões para seu produto!

Foi um “escândalo” os chineses conseguirem esse feito notável, ainda mais depois de os EUA imporem restrições à exportação de tecnologia (especialmente processadores poderosos) para segurar a China “na marra”. Isso deu uma surra no valor de mercado das big techs americanas. A NVIDIA perdeu US$ 589 bilhões em 27 de janeiro, a maior queda já registrada. Com as outras big techs, o saldo negativo foi de US$ 643 bilhões! É o mercado questionando os altos investimentos ocidentais em IA, depois de acreditar que ela só seria possível com uma enxurrada de dinheiro.

Tudo isso aconteceu apenas uma semana depois de o governo americano anunciar um megainvestimento de US$ 500 bilhões para construir datacenters para impulsionar sua IA contra os chineses. Isso certamente chama a atenção, mas os fatos estão demonstrando que inteligência e resiliência podem valer mais que dinheiro e boicotes.


Veja esse artigo em vídeo:


A tentativa de impor travas à IA da China começou ainda na administração Joe Biden. Mas a presença dos CEOs da big techs na primeira fila da posse de Donald Trump, à frente até de seus ministros, escancarou que a tecnologia e a política nunca estiveram tão juntas. Tanto que Elon Musk, dono do X, teve um papel enorme na vitória de Trump, que retribui dando a ele um cargo de grande poder em seu novo governo.

Inaugurou-se assim o período de dominação tecnossocial: o poder se constrói e se mantém com a tecnologia, não apenas pelos seus benefícios inerentes, mas também por oferecer um recurso inigualável de convencimento e de distorção da realidade.

Desde o início do ano passado, eu discuto nesse espaço como a explosão da inteligência artificial generativa pode reescrever a história, impor valores, alterar a cultura e até como as pessoas falam! Ao serem treinadas majoritariamente com conteúdos americanos e europeus, essas plataformas disseminam, de maneira subliminar, como os países dominantes pensam sobre tudo isso, podendo, em longo prazo, influenciar decisivamente pessoas do mundo todo.

A DeepSeek acrescenta um novo ingrediente nesse caldo: a submissão ao governo. Ao questionar a plataforma sobre temas sensíveis para a administração chinesa, como a independência de Taiwan, os protestos contra a política de “Zero Covid” na China, o massacre da praça da Paz Celestial em 1989 e até quem é o presidente chinês Xi Jinping, ela iniciou a exibição de boas respostas, mas subitamente elas foram apagadas e substituídas pela frase em inglês “Desculpe, isso está além do meu escopo atual. Vamos falar de outra coisa.” Em outras perguntas, como sobre a posição do governo chinês sobre a Guerra na Ucrânia, reproduziu o discurso governamental.

É amplamente sabido que o governo chinês obriga empresas locais a “colaborarem” com suas determinações, inclusive censura. Em contrapartida, nos EUA, as big techs já desafiaram a exigências do governo local no passado.

Mas o escandaloso alinhamento delas ao extremismo do recém-empossado Trump cria enorme desconfiança se não veremos nas empresas americanas o mesmo que se vê nas chinesas. Afinal, nesses poucos dias, elas já enterraram medidas que as diferenciavam, como mecanismos de checagem de fatos, restrição a discursos de ódio e intolerância, e incentivo à diversidade e inclusão em seus quadros. Trump, por sua vez, não esconde que exige delas fidelidade canina e total submissão.

A manipulação nos resultados chineses tem a sutileza de um rinoceronte correndo em uma loja de cristais. Por isso, o governo de Taiwan proibiu o uso de produtos da DeepSeek em seu país, para evitar a desinformação. Mas as mudanças adotadas pelas big techs americanas disseminarão amplamente, porém de maneira um pouco mais disfarçada, valores reprováveis até nos EUA. Se o mundo seguir o raciocínio de Taiwan, todos devem bloquear esses produtos americanos então?

 

Reação às restrições

Suprema ironia, as empresas americanas podem estar colhendo frutos amargos plantados pelo seu governo. A tentativa de impedir o avanço chinês na IA ignorou a capacidade de Pequim de incentivar empresas locais dispostas a assumir lideranças tecnológicas. As restrições dos EUA fizeram com que os chineses trocassem os produtos americanos por equivalentes locais ou de outros países, mas principalmente investissem em pesquisa, criatividade e colaboração.

Isso não vem de hoje. Levantamento do Instituto Australiano de Política Estratégica indicou que, até 2007, a China liderava só 3 de 64 tecnologias consideradas críticas. Entre 2019 e 2023, o país tornou-se líder em 57 delas, graças a investimentos de longo prazo em pesquisa e desenvolvimento. No mesmo período, os EUA passaram de líderes em 60 delas para apenas 7.

A DeepSeek mostrou ao mundo que é possível entrar para valer na briga da IA com investimentos modestos. A ministra da Ciência, Tecnologia e Inovação, Luciana Santos, afirmou que o Brasil está nessa corrida. No ano passado, seu ministério anunciou investimentos de R$ 23 bilhões em IA até 2028. Ela lembrou também que o país tem grande oferta de energia limpa e água, outra grande exigência da IA.

As ideias e ações de Trump podem levar a um caos na economia global, por uma crise de confiança generalizada. É difícil saber como isso impactará a China e os próprios EUA. Mas parecem ser inócuas para conter o avanço tecnológico chinês.

Apesar de ter sido péssima para as big techs, a chegada da DeepSeek é ótima para o desenvolvimento dessa tecnologia, pois mostra que ela pode ser criada com muito menos dinheiro, não precisando ficar restrita a empresas multibilionárias.

Resta a questão da dominação cultural e de uma patológica distorção da realidade, que pode vir da China, dos EUA e até do Brasil, caso desenvolvamos um LLM que também seja enviesado por interesses políticos.

Mais do que nunca, a população precisa de senso crítico, educação diversificada e de qualidade para todos, além de amplos programas de educação digital e midiática. Essa tríade fica cada vez mais essencial no mundo em que IA permeia tudo, para que façamos um uso positivo e seguro de todo seu poder.

 

Donald Trump toma posse como presidente dos EUA pela segunda vez - Foto: Congresso americano/Creative Commons

O resgate da civilidade digital depende de cada um de nós

By | Jornalismo, Tecnologia | No Comments

Com a posse para seu segundo mandato como presidente dos EUA, Donald Trump, um notório valentão que faz de agressões, desqualificações e fake news ferramentas do cotidiano, iniciou uma nova fase de deterioração da convivência online. Com a adesão explícita das big techs a essa agenda, o processo deve se ampliar exponencialmente. Isso seria grave o suficiente por si só. Mas em um mundo dominado por redes sociais, o maior risco vem do exército voluntário que amplia seus métodos para além dos limites do digital, esgarçando a própria trama da sociedade.

Há aqueles que se alinham a esse movimento e participam ativamente dele. Existem os que acham tudo “normal”, e acabam espalhando o conteúdo nocivo alegremente, com um entendimento distorcido da liberdade de expressão. E tem os que parecem não se importar com nada e acabam fazendo isso de forma inconsciente.

Não há nada de “normal” ou inocente nisso! Promover o ódio, cercear pensamentos diferentes, atacar grupos sociais, roubar identidades, expor pessoas estão entre os piores comportamentos de nosso tempo. Além da brutal violência psíquica e até física contra as vítimas, isso pode acabar com o debate público: em um meio inseguro e agressivo, as pessoas ficam desencorajadas a expor suas ideias construtivamente. E assim a democracia se enfraquece e os valentões ganham poder.

Pelo seu grande público e influência, jornalistas e criadores de conteúdo digital têm obrigação de combater essas práticas. Mas não são suficientes para eliminar esse mal. A sociedade só reencontrará um caminho sustentável de desenvolvimento quando cada um se empenhar em promover um ambiente digital civilizado.


Veja esse artigo em vídeo:


Não é uma tarefa simples ou pequena. Infelizmente muitos que propõem uma convivência harmônica e construtiva no meio online acabam sendo agredidos por aqueles que se beneficiam do ódio e da polarização, em uma tentativa explícita de silenciá-los. Por isso mesmo, não se devem deixar intimidar.

Mas há boas maneiras para se lidar com esses “trolls da política digital”. Fazer as escolhas certas diferencia entre uma explosão de ódio e uma contenção da violência pela racionalidade e pela empatia.

Como mencionado anteriormente, nada disso é protegido pela liberdade de expressão. O artigo 5º da Constituição Federal, que trata dos direitos e garantias fundamentais, determina, em seu inciso IV, que “é livre a manifestação do pensamento, sendo vedado o anonimato.” Isso assegura que se possa dizer o que quiser, mas, ao mesmo tempo, determina que os responsáveis por violações de direitos como honra, imagem ou privacidade, ou que cometam outros crimes sejam identificados e punidos.

Muitos argumentam que querem ter a liberdade de falar nas redes as maiores barbaridades, e que depois a Justiça que cuide das punições. Isso seria aceitável se o Judiciário tivesse capacidade infinita de julgar e punir todas as violações, o que está muito longe de acontecer. Assim essa proposta, travestida de liberdade, não passa de um subterfúgio para se cometer esses crimes impunemente.

Os ataques online se unem a outras formas de violência, como as direcionadas a grupos específicos, como mulheres, negros, pessoas com deficiência e LGBTQIA+, que vivem em determinada região ou professem uma fé específica. É comum que essas características sejam usadas para inflamar o ódio e ampliar a desinformação, para que o valentão atinja objetivos que não têm nada a ver com a situação da vítima.

 

Não alimentem os “trolls”

O ataque dos “trolls digitais” não pode ser classificado como mera contraposição de ideias divergentes (como costumam se defender), porque eles não aceitam o debate. Visam apenas desestabilizar sua vítima e prejudicar a troca saudável de argumentos.

Isso foi perfeitamente descrito em 1945 pelo austríaco Karl Popper (1902-1994) com seu “paradoxo da tolerância”, no best-seller “A Sociedade Aberta e Seus Inimigos”. Segundo ele “a tolerância ilimitada leva ao desaparecimento da tolerância”. O filósofo explicava que “se não estivermos preparados para defender a sociedade do assalto da intolerância, então os tolerantes serão destruídos e a tolerância com eles”.

Para ele, as filosofias intolerantes devem ser combatidas com argumentos racionais e mantidas em xeque frente à opinião pública. Mas alertava que os intolerantes não lidam com a razão, “a começar por criticarem todos os argumentos e proibindo seus seguidores de ouvir argumentos racionais, porque são enganadores e os ensinam a responder aos argumentos com punhos ou pistolas”. E sugeria que “devemos exigir que qualquer movimento que pregue a intolerância fique fora da lei e que qualquer incitação à intolerância e perseguição seja considerada criminosa”.

Popper queria evitar algo que se observa muito hoje. Formadores de opinião e pessoas comuns se afastam do debate público com medo dos “trolls”. Quando isso acontece, as ideias dos valentões evoluem para uma sociedade totalitária, em que os que não se alinharem ao grupo violento perdem gradualmente seus direitos.

Deve-se tomar cuidado ao responder aos “trolls”. Um confronto direto é tudo que eles querem, pois isso valida seus métodos e cria novos valentões. Além disso, o embate tende a normalizar o discurso violento e banalizar suas pautas excludentes.

Às vezes, deixar o “troll” falando sozinho é o melhor a se fazer. O problema é que, nas redes sociais, alguém pode amplificar os ataques desnecessariamente. Nesse caso, o silêncio pode não servir mais. A violência deve então, de maneira constante e resiliente, ser combatida com ética, sensatez e propostas construtivas.

Em 1947, Winston Churchill disse: “Ninguém espera que a democracia seja perfeita ou infalível. Na verdade, tem sido dito que a democracia é a pior forma de governo, excetuando-se todas as demais formas.” O ex-primeiro-ministro do Reino Unido, considerado um dos maiores estadistas da história, sabia que a democracia só funciona bem pela contraposição de ideias. Mas isso só é válido quando pessoas com ideias diferentes não apenas conseguem conviver entre si, como ainda constroem juntas uma sociedade, em nome de um bem maior.

Diante do avanço de governos encabeçados por valentões de qualquer ideologia, que sistematicamente silenciam ideias diferentes das suas, as sociedades precisam reforçar a educação digital e midiática. A primeira permitirá que seus cidadãos saibam usar adequadamente os recursos digitais para uma vida melhor; a segunda, que desenvolvam um senso crítico refinado, informem-se melhor e fiquem menos suscetíveis à desinformação e à brutalidade dos “trolls”.

Mas acima de tudo, precisamos urgentemente resgatar nossa humanidade e nossa capacidade de sermos empáticos, inclusive com quem não conhecemos. É assim que verdadeiramente se derrota um valentão.