Paulo Silvestre

O anjo Aziraphale (Michael Sheen) e o demônio Crowley (David Tennant), protagonistas da série "Belas Maldições" - Foto: reprodução

“Cultura do cancelamento” enfrenta a Justiça com a força das redes sociais

By | Tecnologia | No Comments

Fãs da série “Belas Maldições” (“Good Omens”) ficaram desolados com o anúncio de que sua terceira temporada seria reduzida a um único episódio de 90 minutos, encerrando prematuramente esse sucesso do Amazon Prime Video. A decisão veio devido a graves acusações de abuso sexual contra Neil Gaiman, produtor e coautor da obra original, trazendo à tona questões sobre a “cultura do cancelamento”, um dos efeitos mais nefastos das redes sociais.

É importante que fique claro que isto não é uma defesa de Gaiman. As denúncias contra ele são graves e os indícios, consistentes. Se comprovadas, devem resultar na condenação apropriada.

Por outro lado, o caso ainda está em investigação e o autor sequer foi indiciado. Mesmo assim, já foi julgado e condenado pelo “Tribunal da Internet”. Como pena, sua reputação ficou seriamente comprometida, e vários projetos seus, como as séries “Belas Maldições” e “Sandman”, foram interrompidos ou abreviados.

A “cultura do cancelamento” contraria a presunção de inocência, um princípio fundamental em muitos sistemas legais. No Brasil, a Constituição estabelece, no artigo 5º, que “ninguém será considerado culpado até o trânsito em julgado de sentença penal condenatória”. Isso garante que um acusado seja tratado como inocente até que sua culpa seja comprovada em um julgamento justo e definitivo.

Engana-se quem pensa que apenas celebridades passam por isso. Como as redes sociais se beneficiam da polarização e do ódio, sem assumir responsabilidades pelo que distribuem, o fenômeno cresce e pode afetar qualquer pessoa. Entender esse mecanismo tornou-se essencial para autopreservação no ambiente digital.


Veja esse artigo em vídeo:


Gaiman enfrenta denúncias de oito mulheres. A única com o nome revelado é Scarlett Pavlovich, ex-babá do filho de Gaiman, que acusa o autor e sua ex-esposa Amanda Palmer de estupro e tráfico humano. Ele nega tudo, afirmando que todas as relações sexuais que teve foram consensuais e que as acusações visam acordos financeiros.

Dois casos relativamente recentes com famosos ilustram como a “cultura do cancelamento” pode prejudicar muito suas vidas, mesmo quando acabam inocentados na Justiça. Um deles foi o ator Kevin Spacey, absolvido em 2023 de nove acusações de crimes sexuais no Reino Unido. Outro foi o ator Johnny Depp, que venceu o processo contra a ex-esposa, a também atriz Amber Heard, que o acusava de abusos físicos e emocionais. Mesmo assim, ambos continuam com dificuldades profissionais.

Esses exemplos demonstram como a “cultura do cancelamento” vem substituindo os devidos processos legais. Diferente do Judiciário, o “Tribunal da Internet” opera por emoções e achismos, sem considerar todas as evidências ou permitir defesa. Quando a opinião pública se torna juíza e executora, a presunção de inocência some, e as punições são aplicadas imediatamente, muitas vezes de forma irreversível.

A situação se agrava porque empresas associadas aos acusados vêm se apavorando com o risco de suas próprias reputações serem afetadas. Pressionadas pela opinião pública, frequentemente cancelam contratos antes de qualquer conclusão das investigações oficiais. Assim, a mera acusação torna-se suficiente para destruir carreiras, independentemente da veracidade dos fatos.

Entre os efeitos mais nocivos dos “cancelamentos”, está a inibição do debate democrático, silenciando vozes discordantes, criando medo e autocensura. Isso impossibilita diálogos saudáveis, o que frequentemente resulta em injustiças e punições desproporcionais. Em vez de promover a resolução construtiva de conflitos, prioriza o castigo e a exclusão, minando a confiança nas instituições da sociedade.

Eles também causam impactos devastadores na saúde mental. Ansiedade, depressão e isolamento social são consequências comuns para os alvos da fúria coletiva nas redes sociais, com danos psicológicos duradouros. Sem análise aprofundada, pessoas inocentes podem ter suas vidas destruídas por acusações falsas.

 

Recuperação difícil

Recuperar-se de um “cancelamento” é um processo árduo e frequentemente incompleto. Mesmo quando inocentada judicialmente, a pessoa enfrenta desafios significativos para restaurar sua imagem e carreira.

A reabilitação exige tempo e esforço, envolvendo realizações e entrevistas para reconstruir a reputação. Ainda assim, a memória das denúncias afeta permanentemente como a pessoa é vista. No âmbito profissional, projetos podem não ser retomados e parcerias podem ser irrecuperáveis. Reconstruir a carreira significa frequentemente começar do zero, enfrentando ceticismo e desconfiança constantes.

Como já foi dito, apesar desses exemplos reluzentes, um “cancelamento” pode vitimar qualquer pessoa, e igualmente lhe causar danos profundos. Funcionários podem ser demitidos, estudantes podem ser expulsos e pequenos negócios podem ser boicotados por acusações não-verificadas. Por isso, todos precisam aprender a se proteger disso, o que envolve cuidado ao se expressar. Ser claro ao se comunicar e pensar antes de falar são práticas essenciais para evitar mal-entendidos no cotidiano.

Desenvolver empatia e uma escuta ativa ajudam a compreender diferentes perspectivas, reduzindo o risco de ofensas involuntárias. É também importante ter cuidado com piadas e comentários controversos, avaliando seu potencial ofensivo.

Em um mundo com redes sociais controlando nossas vidas, a gestão da reputação online tornou-se crucial. Monitorar o que é dito sobre você nessas plataformas e responder imediatamente a rumores podem evitar sérias dores de cabeça. Além disso, construir relacionamentos positivos com influenciadores e formadores de opinião ajuda a mitigar crises. Uma imagem pública coerente e empática serve como prevenção.

Por tudo isso, esta destruição de reputações representa uma injustiça que deve preocupar a todos. O “efeito manada” cria multidões dispostas a destruir alguém apenas pelo que “se ouviu dizer”. O “cancelamento” é uma ferramenta de intolerância.

Combater essa cultura não significa defender comportamentos prejudiciais, mas, sim, um processo justo, baseado em evidências e no respeito aos direitos fundamentais. Cabe a cada um de nós, às redes sociais e à sociedade promover um ambiente digital mais transparente e responsável, onde acusações sejam tratadas com seriedade, mas também com o cuidado que a Justiça exige.

 

A ministra de Ciência, Tecnologia e Inovação, Luciana Santos - Foto: Fabio Rodrigues-Pozzebom/Agência Brasil

Brasileiros abraçam a IA, mas precisam vencer desafios para sua implantação plena

By | Tecnologia | No Comments

Os brasileiros têm fama de abraçar novas tecnologias rapidamente, especialmente as digitais. Isso se vê, por exemplo, no amplo uso de smartphones e redes sociais no país, que sempre lidera rankings internacionais nisso. Também vem sendo observado no nosso uso entusiasmado da inteligência artificial. Mas essa euforia enfrenta severos obstáculos que podem prejudicar resultados, especialmente nos negócios.

A pesquisa “Inteligência artificial no mundo corporativo”, divulgada no dia 11 pela gigante de software alemã SAP, mostra que 52% dos gestores brasileiros têm percepção muito positiva sobre essa tecnologia e outros 27% a encaram de forma favorável, mas com ressalvas. Na América Latina, esses números são 43% e 38%.

Para 29% desses gestores, o maior desafio é não saber como incorporar a IA no negócio, enquanto 28% afirmam que não há profissionais qualificados para isso, problemas que caminham de mãos dadas. Mas o Brasil enfrenta outra grande barreira nesse setor: dependemos demais de tecnologias importadas.

A princípio, isso não pareceria tão grave. O Brasil historicamente consome tecnologia digital de fora, graças ao sucateamento de nossa indústria e de nossa ciência, principalmente a de base. Continuaremos fazendo isso com a inteligência artificial. Mas suas características tornam essa dependência mais perigosa.

O quadro piora com o posicionamento errático da administração Donald Trump, que já usa a IA como arma geopolítica. No dia 13, a OpenAI, criadora do ChatGPT, apresentou uma série de propostas ao governo americano para supostamente manter a liderança dos EUA no setor. Entre elas, sugere uma restrição de exportações da IA a países “democráticos” (conceito que varia com o vento nos cabelos de Trump).

Isso cria uma divisão geopolítica artificial, condicionando o acesso à IA à subordinação de nações a interesses americanos, reforçando essa dependência tecnológica e perpetuando desigualdades globais. Esse é um risco que o Brasil não pode manter.


Veja esse artigo em vídeo:


Sendo uma tecnologia altamente disruptiva, a IA já transforma diversos setores da economia. Para isso, requer infraestrutura avançada e capacitação de profissionais qualificados. Sem investimentos significativos, o Brasil pode ficar para trás em ambos, dificultando a absorção e o uso eficaz dessa tecnologia, o que pode também aumentar os riscos de segurança e privacidade, pois dados sensíveis ficam sujeitos a leis estrangeiras.

Isso também limita nossa capacidade de inovar e ajustar soluções às nossas necessidades, além de comprometer a autonomia tecnológica do país. Como a IA automatiza muitas funções, a falta de investimentos em capacitação impõe ao Brasil desafios adicionais no mundo do trabalho e na adaptação ao avanço tecnológico.

Diante desse cenário, as empresas se mobilizam. Segundo a pesquisa da SAP, 62% dos gestores locais já capacitam seu pessoal para sanar este gargalo e outras 35% pretendem fazer isso ainda em 2025. “As empresas brasileiras trazem inovação no seu DNA, tanto na geração de diferencial competitivo, quanto na otimização de processos”, afirma Rogério Ceccato, diretor de pré-vendas da SAP Brasil. “Isso se explica com a maior maturidade do mercado brasileiro no cenário latino-americano.”

A IA generativa pode ajudar a reduzir esse problema, dispensando os profissionais de dominarem aspectos técnicos da tecnologia. Ceccato explica que assistentes, como a Joule da SAP, ajudam um profissional de vendas, por exemplo, a criar agentes de IA sem apoio técnico, concentrando-se no seu conhecimento do negócio. “Soluções com estratégia low-code/no-code (sem programação) permitem que mais profissionais dominem a IA”, acrescenta.

Além disso, alguns exemplos internacionais recentes animaram empresários e pesquisadores brasileiros a investirem mais em inteligência artificial. O mais marcante foi o chinês DeepSeek, que em janeiro demonstrou ser possível desenvolver um LLM (modelo de linguagem de grande porte) com qualidade comparável aos melhores do mundo, como o ChatGPT, por uma pequena fração dos seus investimentos.

Criou-se, assim, um novo paradigma, que retirou das big techs o “direito a dominar sozinhas” esse mercado.

 

Investimentos brasileiros

Na época, a ministra de Ciência, Tecnologia e Inovação, Luciana Santos (foto), disse que o Brasil desenvolverá seu próprio modelo de IA, citando o DeepSeek como exemplo. Ela lembrou que existia a ideia de que os investimentos para competir nessa tecnologia seriam proibitivos para países emergentes, mas os chineses mudaram isso, mesmo impedidos pelos EUA de comprar processadores mais poderosos.

Antes disso, no dia 30 de julho, o governo brasileiro anunciou o Plano Brasileiro de Inteligência Artificial. Ele detalha uma estratégia ambiciosa para os padrões brasileiros, com investimento de R$ 23 bilhões até 2028, para o desenvolvimento e aplicação ética e sustentável da IA no país.

O plano prevê a compra de um dos cinco supercomputadores mais avançados do mundo, que deve ser alimentado por energias renováveis. Também propõe o desenvolvimento de modelos de linguagem em português, treinados com conteúdo nacional, que contemplem nossas características culturais, sociais e linguísticas.

Sensível à falta de profissionais no setor, o projeto também destaca a capacitação em larga escala para atender a essa demanda. Por fim, reforça que o desenvolvimento da IA seja ético e responsável, promovendo a transparência algorítmica e a proteção de dados, itens críticos para o setor, mas pouco observados nos produtos americanos.

As propostas são interessantes e muito bem-vindas, mas a sociedade precisa acompanhar sua implantação, para que não se torne mais uma ideia populista que se perca na burocracia. A IA não pode ser mais uma revolução tecnológica que o Brasil apenas observe de longe.

Um esforço coordenado entre governo, academia e setor privado é imprescindível! Os programas já existentes precisam ser ampliados, especialmente para a formação de talentos e o desenvolvimento de propriedade intelectual nacional. Ainda podemos nos tornar protagonistas em nichos do ecossistema de IA.

As atuais restrições podem se traduzir em inovação acelerada. Mas, para isso, o Brasil precisará mobilizar recursos e talentos com a velocidade necessária para superar esse fosso tecnológico antes que se torne intransponível ou que eventuais restrições abalem decisivamente nossa transformação digital.

 

Mesmo com digitalização da sala de aula, a figura do professor continua imprescindível - Foto: Zinkevych (Freepik)/Creative Commons

Com a volta às aulas, IA amplia debate sobre a tecnologia na educação

By | Tecnologia | No Comments

Com a inteligência artificial avançando exponencialmente e de maneira transversal em nossas vidas, a volta às aulas, no início de fevereiro, reabriu o debate sobre a digitalização da escola. Apesar da rápida evolução dessa tecnologia, seu uso ainda é limitado nas salas de aula brasileiras, principalmente porque muitos professores não sabem como incorporá-la em seus planos de aula. Enquanto isso, os alunos a abraçam, deixando para os educadores a tarefa espinhosa de encontrar formas de avaliar os estudantes de forma justa e eficaz nessa realidade.

Mas o debate vai muito além disso. Em abril passado, o governo paulista anunciou que passaria a usar a IA na produção do conteúdo didático distribuído a professores da rede estadual de ensino. A proposta foi alvo de muitas críticas, pois a IA generativa ainda erra muito em suas produções. Professores conteudistas responsáveis por verificá-las argumentaram que é mais trabalhoso fazer isso do que produzir um conteúdo totalmente novo. Mesmo assim, o projeto foi implantado.

Resistir a essa tecnologia não faz sentido: ela efetivamente pode ajudar os professores de diferentes formas. Por outro lado, incorporá-la de maneira descuidada ou inconsequente pode trazer muitos prejuízos à educação.

A personalização do ensino pela IA permite adaptar o conteúdo às necessidades individuais dos alunos, enquanto a automação de tarefas administrativas libera tempo precioso para interações ricas e atividades criativas. Ela também pode ajudar na inclusão, oferecendo recursos adaptados para alunos com necessidades especiais.

O problema é que a formação continuada dos professores no tema é insuficiente ou nula! Isso aumenta a desconfiança de muitos deles e atrasa a adoção da tecnologia.

O diálogo aberto e a capacitação contínua são essenciais para se compreender que a IA pode ser uma poderosa aliada, mas também que a educação não se restringe a uma transmissão de conteúdos que possa ser automatizada. Ela envolve empatia, mediação de conflitos, formação do pensamento crítico e desenvolvimento social, habilidades que nenhuma IA tem para substituir a interação humana na sala de aula.


Veja esse artigo em vídeo:


Os professores precisam de apoio para se apropriar da IA. Mesmo quem já a usa, precisa aprender a incorporar esse poder em seus planos de aula. Algumas ilhas de excelência oferecem treinamentos, mas essas iniciativas são pontuais e não atingem a maioria dos professores, especialmente em regiões com menos recursos tecnológicos.

O impacto da IA na avaliação exemplifica isso. Professores que insistam em métodos tradicionais terão mesmo problemas. Agora é preciso diversificar os métodos, apostando em apresentações orais, projetos em grupo em sala e discussões nas quais o professor possa observar o raciocínio. O acompanhamento próximo durante todo o processo de aprendizagem ganha espaço. E o uso da IA pode ser incentivado como ferramenta, mas com os alunos desenvolvendo autonomia e pensamento crítico.

Assim como em qualquer setor, implantar a IA na educação requer planejamento e estrutura. Em primeiro lugar, deve-se identificar necessidades e oportunidades com que a tecnologia possa efetivamente contribuir, criando então objetivos claros em linha com a proposta pedagógica. A partir disso, deve-se descobrir quais plataformas atendem essas demandas.

Nesse contexto, entram o engajamento e a capacitação dos professores. Pela minha experiência, se eles não comprarem a ideia, compreenderem seu funcionamento e usarem no cotidiano, nenhum produto prospera na escola. Ainda assim, a introdução da tecnologia deve ser gradual, monitorando resultados e fazendo ajustes continuamente.

Tudo isso introduz uma mudança considerável no processo pedagógico. Se bem-feita, pode alterar a relação dos alunos com a tecnologia, além dos limites da escola. Por isso, a família precisa ser envolvida.

 

Jamais uma substituta

Alguns pais temem que a inteligência artificial ocupe um espaço maior que o devido na escola. Mais preocupante é que outros, que já demonstram pouco apreço pelos professores, veriam com bons olhos essa substituição.

Para os primeiros, é importante dizer que não há movimentos de substituição dos professores pela inteligência artificial. A tecnologia bem aplicada potencializa o trabalho do professor, não o elimina. Ainda assim, esses pais podem participar construtivamente do processo, aliando-se aos docentes.

Já para o segundo grupo, vale lembrar que educação transcende a mera transmissão de informações. É um processo humano que envolve empatia, valores e desenvolvimento social. A IA não compreende nuances emocionais, não motiva alunos desanimados ou se adapta instantaneamente a situações inesperadas em sala, nem orienta os alunos em sua formação como cidadãos.

Quando o ChatGPT surgiu, apareceu um medo de que a IA criaria uma multidão de desempregados, mesmo nas funções mais criativas. Mas 27 meses após seu lançamento, é um alívio observar que a melhor maneira de escapar disso é justamente usando bem nossas qualidades humanas. E os professores já fazem muito isso, com a empatia para perceber dificuldades emocionais, a criatividade para adaptar métodos de ensino, os relacionamentos interpessoais baseados em confiança, criando ambientes seguros e acolhedores, a mentoria além das questões acadêmicas e a flexibilidade para transformar desafios em oportunidades de aprendizado.

O sucesso da digitalização do ensino passa pelo equilíbrio entre inovação tecnológica e o papel insubstituível do educador. O impacto da inteligência artificial na educação só tende a crescer. Professores, famílias e governantes devem abraçar essa mudança com discernimento, garantindo que a tecnologia seja uma aliada na formação de cidadãos críticos, criativos e preparados para os desafios do futuro.

Mas não se pode esquecer da humanidade, que, combinada ao conhecimento e à paixão pelo ensino, formam a essência do trabalho docente e que nenhuma inteligência artificial, por mais refinada que seja, conseguirá jamais substituir completamente. O professor não é uma peça obsoleta nesse novo cenário, mas o protagonista de uma educação que evolui.

 

A fábula atribuída a Esopo pode ajudar em uma implantação consciente dessa tecnologia – Foto: Paulo Silvestre/Creative Commons

Não mate a galinha dos ovos de ouro do seu negócio com a IA

By | Tecnologia | No Comments

A fábula atribuída a Esopo é uma velha conhecida! Era uma vez um fazendeiro que possuía uma galinha que, todos os dias, botava um ovo de ouro. Com isso, ele ficou muito rico, mas, com o tempo, sucumbiu à ganância. E assim pensou que, se a galinha botava ovos de ouro, dentro dela deveria haver uma grande quantidade do metal. Decidiu matá-la para pegar todo o ouro de uma vez, mas descobriu, ao cortá-la, que, por dentro, era como qualquer outra galinha.

A história demonstra os perigos de se querer resultados imediatos sem pensar nas consequências. E há tempos a relaciono a usos inadequados da inteligência artificial generativa, que deslumbra muitos gestores. Eles a veem como a tecnologia dos “ovos de ouro”: inovação, produtividade e redução de custos! Mas ao usá-la sem planejamento, ética ou compreensão, esses gestores podem “matar sua galinha”.

Ao implantar a IA sem considerar os impactos sociais, regulatórios ou organizacionais, como a perda de empregos, vieses algorítmicos ou uso irresponsável de dados, eles minam a confiança dos clientes, pioram a experiência deles com a marca, prejudicam a sua reputação e até enfrentam consequências legais.

Pensei nisso na semana passada em uma conversa com Tiago Paiva, fundador e CEO da Talkdesk, quando disse que “há muitas empresas que não conseguem perceber que a experiência do cliente é das coisas mais importantes que há.” E ele fala com propriedade, pois seus produtos automatizam o atendimento a clientes com um bom uso da IA, em uma missão declarada de “livrar o mundo da experiência do cliente ruim”.

De fato, o atendimento é uma das áreas mais impactadas pela IA. Usada corretamente, essa tecnologia pode mesmo levar a experiência do cliente a um novo patamar. Porém, muitos gestores ainda “matam suas galinhas” ao usá-la irresponsavelmente para inflar resultados.


Veja esse artigo em vídeo:


É curioso que vivemos um “paradoxo da automação”. Ele indica que clientes esperam que empresas ofereçam suporte automatizado eficiente, mas as que automatizam demais seu atendimento afugentam as pessoas. O segredo é encontrar um equilíbrio, com a IA resolvendo problemas simples, ficando os casos sensíveis para os humanos.

“O problema é que, no passado, com a chegada dos bots, foi criada uma expectativa maior que a capacidade da entrega, e isso danificou a imagem dessas automações”, explicou-me Pedro Andrade, vice-presidente de IA da Talkdesk. “Agora temos que usar essa tecnologia para recuperar essa confiança”, acrescenta.

Infelizmente, muitas companhias usam a IA com automações isoladas, motivadas pelo “ovo de ouro” do corte de custos. Assim, ameaçam a experiência de seus clientes e perdem a oportunidade de transformar o atendimento em um diferencial.

Usada com consciência, a IA pode oferecer personalização refinada, eficiência operacional, proatividade e prevenção. Não se limita a reagir aos clientes, antecipando suas necessidades e otimizando processos, exatamente o que as pessoas querem.

“Não é fácil fazer isso”, avisa Andrade. “Mas para os sistemas de IA, que são capazes de carregar grande quantidade de informação e ajustar o contexto da conversa, torna-se muito mais fácil”, explicando que uma plataforma bem desenvolvida atende a outras demandas dos clientes atuais, como imediatismo, hiperpersonalização e autonomia.

 

“Bazuca para matar uma mosca”

Pouco adianta usar um sistema gigantesco, porém pouco ou nada ajustado à realidade da empresa, como o ChatGPT. Suas respostas acabam sendo imprecisas e genéricas, sem falar que podem custar desnecessariamente caro. Em vez disso, a adoção de modelos menores, mais econômicos, com exigências mais simples de recursos, pode melhorar muito a experiência do cliente.

Os aspectos de segurança, de legislação e de ética também foram amplamente debatidos nessa visita à sede da Talkdesk em Palo Alto (EUA). Os benefícios da implantação da IA nos negócios são mais visíveis, como as já mencionadas eficiência, hiperpersonalização e redução de custos. Mas até que ponto isso é seguro e ético?

Os potenciais riscos dessa adoção recaem no surgimento de vieses algorítmicos, em ameaças à privacidade e ao uso de dados sensíveis, na falta de transparência e de explicabilidade das decisões dos sistemas. Em situações mais extremas, ela pode gerar dependência excessiva da automação e manipulação de clientes e funcionários.

“Muitos clientes erram ao pôr uma plataforma e tentar fazer tudo com ela, pois a inteligência artificial é mais complicada que isso”, alerta Paiva. “Não dá para usar um sistema de LLMs (como o ChatGPT) e achar que tudo funcionará”, conclui.

Para ajudar na criação de um mercado mais maduro, Andrade defende a regulamentação da IA. “Tem que existir regulação, responsabilidades, regras de transparência”, completando que isso não ameaça a inovação e que as empresas que abraçarem isso construirão um diferencial junto a seus clientes. “Essa regulação vai separar as empresas que estão no mercado sério e corporativo de IA, dos players de nicho e dos que estão ainda tentando encontrar o seu lugar.”

Esse é um dos debates mais quentes em torno dessa tecnologia. Para muitos, é bem sedutor tirar qualquer restrição a ela e maximizar os ganhos, sem se preocupar com as consequências. Mas uma IA descolada da ética e da segurança pode ser um dos maiores erros que uma empresa pode cometer, ainda que, em um primeiro momento, colha benefícios aparentes dessa “liberdade”.

O sucesso a longo prazo depende da capacidade de construir um relacionamento sustentável com a IA, cultivando seus benefícios e mitigando seus riscos. O ser humano deve sempre ter a última palavra nas decisões apoiadas por essas plataformas. E os interesses da sociedade devem estar sempre no centro de qualquer ação ligada a essa tecnologia, superando a ganância de empresas e de governos.

Assim como na fábula, a lição é que a implementação de IA requer paciência, planejamento e uma abordagem gradual e responsável. Os “ovos de ouro” virão naturalmente quando a tecnologia for implementada com sabedoria e responsabilidade.


 

Tarefas que exigem criatividade, empatia, crítica e julgamento moral são difíceis de automatizar - Foto: Freepik/Creative Commons

IA avança sobre empregos, mas não quer dizer que você perderá o seu

By | Tecnologia | No Comments

Entre as ações bombásticas de Donald Trump em seu primeiro mês como presidente dos EUA, uma das mais emblemáticas visa demitir 2 milhões de servidores federais. Parte dessas vagas será reposta com pessoas mais alinhadas a suas ideias, mas muitas funções passarão a ser desempenhadas por sistemas de inteligência artificial.

Esse movimento vem se acelerando também na iniciativa privada, mas a magnitude sem precedentes daquela iniciativa reacende o debate global sobre o impacto da IA no mercado de trabalho. A substituição de profissionais por máquinas afeta de funções básicas a cargos de alta qualificação, o que é inédito. E isso gera questionamentos sobre o futuro, incluindo o que acontecerá com uma crescente massa de desempregados que não conseguirá se recolocar.

Para muita gente, o que importa é como “não entrar para a estatística das vítimas da automação”. Tarefas que exigem, por exemplo, criatividade, empatia, pensamento crítico e julgamento moral são difíceis de automatizar. Migrar o trabalho para atividades que exijam essas habilidades pode garantir o salário.

Mas, em qualquer caso, a IA já está transformando as mais diversas funções. Sendo assim, a sociedade deve não apenas preservar empregos, como também garantir que os benefícios da automação sejam distribuídos de forma mais equitativa, para que as pessoas desempenhem suas tarefas com IA, para não serem substituídas por ela.

Resistir a essa tecnologia já não faz sentido. O desafio de todos é se apropriar de seu poder com inteligência, criatividade, ética e segurança.


Veja esse artigo em vídeo:


Recentemente, Jensen Huang, CEO da Nvidia, a fabricante de chips cujo valor de mercado hoje é de US$ 3,3 trilhões graças à IA, disse que essa tecnologia não é uma assassina de empregos. Para ele, todos deveriam usá-la como um tutor pessoal, que lhes ajudaria a coletar qualquer tipo de informação rapidamente, a escrever e até a pensar melhor. Huang ecoa a visão de muitos líderes do setor, que enxergam o futuro do trabalho com as pessoas capacitadas pela IA, e não substituídas por ela.

Claro que ele está “vendendo seu peixe”, por isso sua afirmação deve ser analisada com cautela. É fato que a IA pode ajudar qualquer um em suas tarefas, mas não é verdade que todo mundo sabe como fazer isso! Não é realista esperar que alguém que passou décadas em uma função se torne um “engenheiro de prompt” da noite para o dia.

A verdade nua e crua é que a maioria das pessoas simplesmente não tem habilidades básicas para fazer isso, e não consegue “tirar o atraso”. O problema não é apenas a substituição em si, mas a velocidade com que isso está acontecendo. É a revolução tecnológica mais rápida e abrangente já vista, atropelando muita gente no caminho.

O desafio aumenta com uma requalificação que não acompanha a automação, novas vagas que não repõem as eliminadas, e o consequente aumento da concorrência por trabalho. Isso se agrava pela desigualdade no acesso à educação e à tecnologia e à concentração do mercado em menos setores.

Isso pode levar a um aumento da pobreza e desigualdade social, com crises econômicas causadas por um forte desemprego. Se a IA passar a ser vista como uma vilã pelas massas, isso pode levar a uma resistência à automação maior que a devida.

E isso também esquenta outro debate: o de uma renda básica universal.

 

Garantia de sobrevivência

Ela não surgiu com a inteligência artificial, mas vem sendo apresentada como uma solução caso o desemprego graças às máquinas saia do controle.

Entre os argumentos favoráveis à renda básica universal estão a mitigação dos efeitos de um desemprego em massa, um estímulo ao empreendedorismo e a redução da desigualdade social. Já seus críticos afirmam que não há dinheiro para isso, que ela pode gerar inflação e até desestimular o desejo de trabalhar. Por isso, alguns especialistas sugerem que ela seja apenas parte da solução, garantindo a sobrevivência do indivíduo, mas sem eliminar a necessidade de se trabalhar.

Com ou sem ela, é preciso criar políticas para requalificação de trabalhadores em novas áreas, além da criação de empregos “híbridos” que combinem os benefícios da IA com funções humanas, para evitar a eliminação completa de postos de trabalho. Mas não se pode deixar tudo a cargo do governo: essa responsabilidade deve ser dividida com empresas, instituições educacionais e os próprios trabalhadores.

O que já se observa é que, enquanto profissões inteiras estão sendo eliminadas, as demais não desaparecerão, mas serão transformadas. Quem desenvolver habilidades complementares para usar a IA terá mais oportunidades.

A automação do trabalho é inevitável, mas seu impacto social não precisa ser devastador. Com planejamento adequado, investimento em educação e políticas de proteção social, é possível construir um futuro em que humanos e máquinas não apenas coexistam, mas colaborem para criar uma sociedade mais próspera e equitativa.

Por outro lado, se a implementação for feita sem um planejamento detalhado e sem considerar os impactos sociais, como aparentemente está sendo feito nos EUA, há um grande risco de que os serviços prestados à população percam qualidade, se tornem mais burocráticos e menos acessíveis.

É fundamental considerar as implicações éticas e sociais dessas medidas, garantindo que a implementação da inteligência artificial, seja no setor público ou no privado, aconteça de maneira responsável e equilibrada, aproveitando todos os benefícios que ela traz, mas preservando os direitos dos trabalhadores e a qualidade dos serviços prestados à população.

Precisamos de estratégias que coloquem o ser humano no centro da revolução digital. As lideranças políticas e empresariais devem sair de suas torres de marfim, de onde acham que as oportunidades são as mesmas para todos. Sem isso, corremos o risco de criar uma sociedade ainda mais desigual, onde a tecnologia, em vez de libertar, aprofunda as divisões sociais. E não é para isso que ela está sendo desenvolvida.

 

Sundar Pichai, CEO do Google, fala durante a conferência Google I/O 2024, realizada em 14 de maio do ano passado - Foto: reprodução

Google dá sua bênção para que a IA seja usada em armas e vigilância

By | Tecnologia | No Comments

Em mais um caso de big tech que trai seus princípios, na terça passada (4), o Google alterou suas regras éticas para que a inteligência artificial da empresa possa ser usada no desenvolvimento de armas, na vigilância de pessoas, em produtos que possam causar danos severos à sociedade ou que violem direitos humanos.

Não quer dizer que a companhia entrou no negócio de armas de destruição em massa. Sua posição agora é de “mitigar resultados não intencionais ou prejudiciais” e buscar “princípios amplamente aceitos do direito internacional e dos direitos humanos”. Mas na prática, isso significa pouco ou nada.

É uma mudança profunda, que pode ter impacto global no uso da IA. Pela posição de enorme destaque do Google, ela pode inspirar empresas do mundo todo a fazer o mesmo, provavelmente com ainda menos cuidado.

É inevitável perguntar por que decidiram fazer isso agora, e por que se recusavam até então. Além disso, se a IA poderá ser usada largamente em produtos criados com o objetivo de matar pessoas, qual garantia existe de que essa tecnologia não sairá do controle, com consequências devastadoras?

Vale lembrar o antigo lema do Google: “don’t be evil” (“não seja mau”), um pacto com práticas empresariais éticas e responsáveis. Mas em 2015, a Alphabet, conglomerado que incorporou o Google, trocou o mote por “faça a coisa certa”, bem mais genérico.

E cá estamos discutindo como a recente decisão pode ser tão má!


Veja esse artigo em vídeo:


O Google alega que a decisão reflete a necessidade de empresas de “países democráticos” defenderem seus valores em um cenário geopolítico complexo. Mas especialistas sugerem que a pressão do mercado de IA e a busca por lucrativos contratos militares de um governo nacionalista podem ter influenciado seus gestores.

Qualquer que seja o motivo, a empresa mina a confiança do público e sinaliza que a ética é negociável. Isso estabelece um novo padrão para toda a indústria, em uma competição global impiedosa e menos preocupada com direitos humanos.

Ironicamente, no início do mês, passaram a valer partes da Lei da Inteligência Artificial da União Europeia que proíbem o uso de sistemas de reconhecimento facial em espaços públicos e restringem aplicações consideradas de alto risco, como a manipulação comportamental e a vigilância em massa.

A nova posição do Google se choca com a anterior, que listava as “aplicações que não buscaremos”: armas, vigilância, tecnologias que “causam ou podem causar danos gerais” ou que violam os princípios do direito internacional e dos direitos humanos.

Essas regras que agora foram enterradas surgiram após protestos de funcionários em 2018 contra o projeto Maven, um contrato militar que usava seus algoritmos de visão computacional para analisar imagens de drones. Milhares assinaram uma carta aberta que dizia: “acreditamos que o Google não deveria estar no negócio da guerra”. Por isso, além daquelas regras, o contrato com o Pentágono não foi firmado na época.

O Google não está sozinho nesse novo posicionamento. Concorrentes como Microsoft, Amazon, OpenAI e Anthropic já oferecem suas IAs para aplicações militares. Mas o gigante de busca sempre serviu de inspiração para aqueles que procuram um uso ético da tecnologia. Agora isso acabou!

 

“Skynet feelings”

Algumas das maiores autoridades em IA do mundo, como o canadense Yoshua Bengio, vencedor em 2018 do prêmio Turing (o “Nobel da computação”), afirmam que a busca pela inteligência artificial geral (AGI), que terá autonomia e flexibilidade semelhante ao cérebro humano, pode levar a comportamentos inesperados ou indesejados, até mesmo contrários aos interesses humanos.

Sistemas com aprendizado autônomo podem criar estratégias para autopreservação ou poder, o que poderia torná-los difíceis de controlar. A falta de transparência aumenta o risco de decisões incompreensíveis e não-rastreáveis, dificultando a intervenção humana em casos críticos. Mesmo um botão físico para desligar um servidor (um “kill switch”) poderia ser contornado com a IA se replicando em incontáveis outros servidores antes que fosse possível interromper seu funcionamento.

Adicione a esse caldo a IA sendo usada para o desenvolvimento e operação de armas autônomas. Não entrarei em cenários da ficção em que máquinas decidem exterminar a humanidade, mas isso pode, sem dificuldade, levar a violações de direitos humanos e a escaladas militares perigosas. Pode ainda incentivar o uso de IA para vigilância em massa, especialmente por regimes autoritários, comprometendo as liberdades civis.

Para evitar isso, as big techs deveriam agir de forma oposta ao que estão fazendo. Devem existir regras internas e leis que impeçam o uso da IA em atividades potencialmente perigosas ou que violem direitos individuais. Além disso, os sistemas precisam ser transparentes para auditorias independentes. E isso deve acontecer em todos os países do mundo: talvez o mais difícil de tudo isso, e o que põe tudo a perder.

A decisão do Google de flexibilizar seus princípios éticos não pode ser vista como uma mera decisão empresarial. Como uma das empresas mais valiosas do mundo, cujos produtos são usados diariamente pela maior parte da população global, deveria ser um farol mostrando que responsabilidade e inovação podem coexistir. Mas a gigante decidiu priorizar os lucros em detrimento da segurança e dos direitos humanos.

Essa é uma lógica do capitalismo: companhias não fazem nada que comprometa seus lucros. Assim, é uma ilusão esperar que elas se autorregulem efetivamente por pressões competitivas e financeiras. Diante disso, regulamentações governamentais tornam-se essenciais para estabelecer limites claros e garantir que o desenvolvimento tecnológico continue existindo, mas sem comprometer valores humanos fundamentais.

Nada disso é ficção: vivemos uma realidade que nos brinda com avanços fabulosos, mas que oferece um mundo perigosamente instável por conflitos militares, Estados autoritários que atropelam a civilidade pelos interesses de seus governantes, e uma sociedade cada vez mais fragilizada, em que o cidadão, de tão manipulado pelo meio digital, defende ferozmente seus próprios algozes.

Com tudo isso, quem precisa de robôs assassinos?

 

Liang Wenfeng, CEO da DeepSeek, cujo modelo de IA desafia a liderança americana no setor - Foto: reprodução

Dinheiro, espionagem, boicotes: como a IA dominou o tabuleiro geopolítico

By | Tecnologia | No Comments

O domínio tecnológico sempre garantiu destaque na geopolítica, desde as Grandes Navegações. Países com essa liderança estendem seu poder econômico, político e cultural por grande parte do planeta. A bola da vez é a inteligência artificial, e os EUA estão fazendo de tudo para manter essa liderança. Não é para menos: a IA tem um poder sem precedentes de moldar o mundo seguindo os interesses de seus criadores.

Os EUA pareciam tranquilos nisso, mas, na semana passada, a chinesa DeepSeek surpreendeu o mercado, políticos e pesquisadores, com seu próprio LLM (modelo de linguagem de grande porte) para concorrer com os líderes americanos. Apesar de seus resultados se equipararem aos das plataformas ocidentais, o mais surpreendente dos chineses é o seu custo: enquanto elas já consumiram bilhões de dólares e querem ainda mais, a DeepSeek precisou de “apenas” US$ 5,6 milhões para seu produto!

Foi um “escândalo” os chineses conseguirem esse feito notável, ainda mais depois de os EUA imporem restrições à exportação de tecnologia (especialmente processadores poderosos) para segurar a China “na marra”. Isso deu uma surra no valor de mercado das big techs americanas. A NVIDIA perdeu US$ 589 bilhões em 27 de janeiro, a maior queda já registrada. Com as outras big techs, o saldo negativo foi de US$ 643 bilhões! É o mercado questionando os altos investimentos ocidentais em IA, depois de acreditar que ela só seria possível com uma enxurrada de dinheiro.

Tudo isso aconteceu apenas uma semana depois de o governo americano anunciar um megainvestimento de US$ 500 bilhões para construir datacenters para impulsionar sua IA contra os chineses. Isso certamente chama a atenção, mas os fatos estão demonstrando que inteligência e resiliência podem valer mais que dinheiro e boicotes.


Veja esse artigo em vídeo:


A tentativa de impor travas à IA da China começou ainda na administração Joe Biden. Mas a presença dos CEOs da big techs na primeira fila da posse de Donald Trump, à frente até de seus ministros, escancarou que a tecnologia e a política nunca estiveram tão juntas. Tanto que Elon Musk, dono do X, teve um papel enorme na vitória de Trump, que retribui dando a ele um cargo de grande poder em seu novo governo.

Inaugurou-se assim o período de dominação tecnossocial: o poder se constrói e se mantém com a tecnologia, não apenas pelos seus benefícios inerentes, mas também por oferecer um recurso inigualável de convencimento e de distorção da realidade.

Desde o início do ano passado, eu discuto nesse espaço como a explosão da inteligência artificial generativa pode reescrever a história, impor valores, alterar a cultura e até como as pessoas falam! Ao serem treinadas majoritariamente com conteúdos americanos e europeus, essas plataformas disseminam, de maneira subliminar, como os países dominantes pensam sobre tudo isso, podendo, em longo prazo, influenciar decisivamente pessoas do mundo todo.

A DeepSeek acrescenta um novo ingrediente nesse caldo: a submissão ao governo. Ao questionar a plataforma sobre temas sensíveis para a administração chinesa, como a independência de Taiwan, os protestos contra a política de “Zero Covid” na China, o massacre da praça da Paz Celestial em 1989 e até quem é o presidente chinês Xi Jinping, ela iniciou a exibição de boas respostas, mas subitamente elas foram apagadas e substituídas pela frase em inglês “Desculpe, isso está além do meu escopo atual. Vamos falar de outra coisa.” Em outras perguntas, como sobre a posição do governo chinês sobre a Guerra na Ucrânia, reproduziu o discurso governamental.

É amplamente sabido que o governo chinês obriga empresas locais a “colaborarem” com suas determinações, inclusive censura. Em contrapartida, nos EUA, as big techs já desafiaram a exigências do governo local no passado.

Mas o escandaloso alinhamento delas ao extremismo do recém-empossado Trump cria enorme desconfiança se não veremos nas empresas americanas o mesmo que se vê nas chinesas. Afinal, nesses poucos dias, elas já enterraram medidas que as diferenciavam, como mecanismos de checagem de fatos, restrição a discursos de ódio e intolerância, e incentivo à diversidade e inclusão em seus quadros. Trump, por sua vez, não esconde que exige delas fidelidade canina e total submissão.

A manipulação nos resultados chineses tem a sutileza de um rinoceronte correndo em uma loja de cristais. Por isso, o governo de Taiwan proibiu o uso de produtos da DeepSeek em seu país, para evitar a desinformação. Mas as mudanças adotadas pelas big techs americanas disseminarão amplamente, porém de maneira um pouco mais disfarçada, valores reprováveis até nos EUA. Se o mundo seguir o raciocínio de Taiwan, todos devem bloquear esses produtos americanos então?

 

Reação às restrições

Suprema ironia, as empresas americanas podem estar colhendo frutos amargos plantados pelo seu governo. A tentativa de impedir o avanço chinês na IA ignorou a capacidade de Pequim de incentivar empresas locais dispostas a assumir lideranças tecnológicas. As restrições dos EUA fizeram com que os chineses trocassem os produtos americanos por equivalentes locais ou de outros países, mas principalmente investissem em pesquisa, criatividade e colaboração.

Isso não vem de hoje. Levantamento do Instituto Australiano de Política Estratégica indicou que, até 2007, a China liderava só 3 de 64 tecnologias consideradas críticas. Entre 2019 e 2023, o país tornou-se líder em 57 delas, graças a investimentos de longo prazo em pesquisa e desenvolvimento. No mesmo período, os EUA passaram de líderes em 60 delas para apenas 7.

A DeepSeek mostrou ao mundo que é possível entrar para valer na briga da IA com investimentos modestos. A ministra da Ciência, Tecnologia e Inovação, Luciana Santos, afirmou que o Brasil está nessa corrida. No ano passado, seu ministério anunciou investimentos de R$ 23 bilhões em IA até 2028. Ela lembrou também que o país tem grande oferta de energia limpa e água, outra grande exigência da IA.

As ideias e ações de Trump podem levar a um caos na economia global, por uma crise de confiança generalizada. É difícil saber como isso impactará a China e os próprios EUA. Mas parecem ser inócuas para conter o avanço tecnológico chinês.

Apesar de ter sido péssima para as big techs, a chegada da DeepSeek é ótima para o desenvolvimento dessa tecnologia, pois mostra que ela pode ser criada com muito menos dinheiro, não precisando ficar restrita a empresas multibilionárias.

Resta a questão da dominação cultural e de uma patológica distorção da realidade, que pode vir da China, dos EUA e até do Brasil, caso desenvolvamos um LLM que também seja enviesado por interesses políticos.

Mais do que nunca, a população precisa de senso crítico, educação diversificada e de qualidade para todos, além de amplos programas de educação digital e midiática. Essa tríade fica cada vez mais essencial no mundo em que IA permeia tudo, para que façamos um uso positivo e seguro de todo seu poder.

 

Donald Trump toma posse como presidente dos EUA pela segunda vez - Foto: Congresso americano/Creative Commons

O resgate da civilidade digital depende de cada um de nós

By | Jornalismo, Tecnologia | No Comments

Com a posse para seu segundo mandato como presidente dos EUA, Donald Trump, um notório valentão que faz de agressões, desqualificações e fake news ferramentas do cotidiano, iniciou uma nova fase de deterioração da convivência online. Com a adesão explícita das big techs a essa agenda, o processo deve se ampliar exponencialmente. Isso seria grave o suficiente por si só. Mas em um mundo dominado por redes sociais, o maior risco vem do exército voluntário que amplia seus métodos para além dos limites do digital, esgarçando a própria trama da sociedade.

Há aqueles que se alinham a esse movimento e participam ativamente dele. Existem os que acham tudo “normal”, e acabam espalhando o conteúdo nocivo alegremente, com um entendimento distorcido da liberdade de expressão. E tem os que parecem não se importar com nada e acabam fazendo isso de forma inconsciente.

Não há nada de “normal” ou inocente nisso! Promover o ódio, cercear pensamentos diferentes, atacar grupos sociais, roubar identidades, expor pessoas estão entre os piores comportamentos de nosso tempo. Além da brutal violência psíquica e até física contra as vítimas, isso pode acabar com o debate público: em um meio inseguro e agressivo, as pessoas ficam desencorajadas a expor suas ideias construtivamente. E assim a democracia se enfraquece e os valentões ganham poder.

Pelo seu grande público e influência, jornalistas e criadores de conteúdo digital têm obrigação de combater essas práticas. Mas não são suficientes para eliminar esse mal. A sociedade só reencontrará um caminho sustentável de desenvolvimento quando cada um se empenhar em promover um ambiente digital civilizado.


Veja esse artigo em vídeo:


Não é uma tarefa simples ou pequena. Infelizmente muitos que propõem uma convivência harmônica e construtiva no meio online acabam sendo agredidos por aqueles que se beneficiam do ódio e da polarização, em uma tentativa explícita de silenciá-los. Por isso mesmo, não se devem deixar intimidar.

Mas há boas maneiras para se lidar com esses “trolls da política digital”. Fazer as escolhas certas diferencia entre uma explosão de ódio e uma contenção da violência pela racionalidade e pela empatia.

Como mencionado anteriormente, nada disso é protegido pela liberdade de expressão. O artigo 5º da Constituição Federal, que trata dos direitos e garantias fundamentais, determina, em seu inciso IV, que “é livre a manifestação do pensamento, sendo vedado o anonimato.” Isso assegura que se possa dizer o que quiser, mas, ao mesmo tempo, determina que os responsáveis por violações de direitos como honra, imagem ou privacidade, ou que cometam outros crimes sejam identificados e punidos.

Muitos argumentam que querem ter a liberdade de falar nas redes as maiores barbaridades, e que depois a Justiça que cuide das punições. Isso seria aceitável se o Judiciário tivesse capacidade infinita de julgar e punir todas as violações, o que está muito longe de acontecer. Assim essa proposta, travestida de liberdade, não passa de um subterfúgio para se cometer esses crimes impunemente.

Os ataques online se unem a outras formas de violência, como as direcionadas a grupos específicos, como mulheres, negros, pessoas com deficiência e LGBTQIA+, que vivem em determinada região ou professem uma fé específica. É comum que essas características sejam usadas para inflamar o ódio e ampliar a desinformação, para que o valentão atinja objetivos que não têm nada a ver com a situação da vítima.

 

Não alimentem os “trolls”

O ataque dos “trolls digitais” não pode ser classificado como mera contraposição de ideias divergentes (como costumam se defender), porque eles não aceitam o debate. Visam apenas desestabilizar sua vítima e prejudicar a troca saudável de argumentos.

Isso foi perfeitamente descrito em 1945 pelo austríaco Karl Popper (1902-1994) com seu “paradoxo da tolerância”, no best-seller “A Sociedade Aberta e Seus Inimigos”. Segundo ele “a tolerância ilimitada leva ao desaparecimento da tolerância”. O filósofo explicava que “se não estivermos preparados para defender a sociedade do assalto da intolerância, então os tolerantes serão destruídos e a tolerância com eles”.

Para ele, as filosofias intolerantes devem ser combatidas com argumentos racionais e mantidas em xeque frente à opinião pública. Mas alertava que os intolerantes não lidam com a razão, “a começar por criticarem todos os argumentos e proibindo seus seguidores de ouvir argumentos racionais, porque são enganadores e os ensinam a responder aos argumentos com punhos ou pistolas”. E sugeria que “devemos exigir que qualquer movimento que pregue a intolerância fique fora da lei e que qualquer incitação à intolerância e perseguição seja considerada criminosa”.

Popper queria evitar algo que se observa muito hoje. Formadores de opinião e pessoas comuns se afastam do debate público com medo dos “trolls”. Quando isso acontece, as ideias dos valentões evoluem para uma sociedade totalitária, em que os que não se alinharem ao grupo violento perdem gradualmente seus direitos.

Deve-se tomar cuidado ao responder aos “trolls”. Um confronto direto é tudo que eles querem, pois isso valida seus métodos e cria novos valentões. Além disso, o embate tende a normalizar o discurso violento e banalizar suas pautas excludentes.

Às vezes, deixar o “troll” falando sozinho é o melhor a se fazer. O problema é que, nas redes sociais, alguém pode amplificar os ataques desnecessariamente. Nesse caso, o silêncio pode não servir mais. A violência deve então, de maneira constante e resiliente, ser combatida com ética, sensatez e propostas construtivas.

Em 1947, Winston Churchill disse: “Ninguém espera que a democracia seja perfeita ou infalível. Na verdade, tem sido dito que a democracia é a pior forma de governo, excetuando-se todas as demais formas.” O ex-primeiro-ministro do Reino Unido, considerado um dos maiores estadistas da história, sabia que a democracia só funciona bem pela contraposição de ideias. Mas isso só é válido quando pessoas com ideias diferentes não apenas conseguem conviver entre si, como ainda constroem juntas uma sociedade, em nome de um bem maior.

Diante do avanço de governos encabeçados por valentões de qualquer ideologia, que sistematicamente silenciam ideias diferentes das suas, as sociedades precisam reforçar a educação digital e midiática. A primeira permitirá que seus cidadãos saibam usar adequadamente os recursos digitais para uma vida melhor; a segunda, que desenvolvam um senso crítico refinado, informem-se melhor e fiquem menos suscetíveis à desinformação e à brutalidade dos “trolls”.

Mas acima de tudo, precisamos urgentemente resgatar nossa humanidade e nossa capacidade de sermos empáticos, inclusive com quem não conhecemos. É assim que verdadeiramente se derrota um valentão.

 

Pela lei, alunos não poderão usar celulares nem no recreio ou no intervalo das aulas - Foto: pvproductions/Freepik/Creative Commons

Até onde escolas sem celulares resolvem problemas da superexposição às telas?

By | Educação, Tecnologia | No Comments

Desde o dia 13, alunos não podem mais usar celulares e tablets pessoais nas escolas brasileiras de Ensino Fundamental e Ensino Médio. A lei 15.100/2025, que visa “salvaguardar a saúde mental, física e psíquica das crianças e adolescentes”, também é positiva frente às enormes perdas pedagógicas que esses equipamentos produzem. Mas ela não resolve o problema da superexposição dos mais jovens às telas, pois isso acontece principalmente em casa.

É um desafio complexo, pois vivemos em um mundo profundamente digitalizado, desde tenra idade. A pesquisa TIC Kids Online Brasil 2024, publicada em outubro pelo Cetic.br, órgão de pesquisas do CGI.br (Comitê Gestor da Internet no Brasil), indicou que 93% dos brasileiros entre 9 e 17 anos usam a Internet, quase sempre pelo celular. Praticamente todas as crianças ficam online em casa, e cerca de metade fazem isso na escola. E o primeiro contato se dá até os 6 anos para 23% e entre 7 e 9 anos para 26%, contrariando especialistas, que indicam que isso só comece na adolescência.

A lei reforça a autoridade do professor, que hoje tem que lutar contra as distrações do celular na sala de aula. Mas pais e mães precisam trabalhar com as escolas para combater os efeitos das telas sobre seus filhos, que vão muito além de piora no desempenho escolar. Elas podem causar sérios problemas de saúde mental, sono ruim, dificuldade de sociabilização, exposição a assédios, distúrbios alimentares e até de postura.

A tarefa cresce porque, por outro lado, os mais jovens precisam ser educados a usarem esses equipamentos de maneira segura e positiva. A proteção às crianças e aos adolescentes não pode ser confundida com alienação tecnológica.


Veja esse artigo em vídeo:


Tanto é assim que a lei permite que esses equipamentos sejam usados em atividades pedagógicas sob orientação do professor. Eles também podem ser usados por alunos que dependam deles por necessidades de saúde, acessibilidade ou inclusão.

A regra determina que não sejam usados nem no recreio ou nos intervalos entre aulas. Estudo realizado em 2023 pela Unesco (Organização das Nações Unidas para a Educação, a Ciência e a Cultura) indicou que o “dreno de atenção” dos smartphones é tão grande, que os alunos podem levar até 20 minutos para se concentrar novamente depois de usarem o celular em atividades não-acadêmicas. Mas o documento lembra que a tecnologia deve fazer parte da formação do indivíduo.

“É muito importante entender que olhar para os riscos de forma alguma exclui a necessidade de apropriação de tecnologias na educação”, afirma Ana Lucia de Souza Lopes, doutora em Educação e especialista em Educação e Tecnologias, e coordenadora na Universidade Presbiteriana Mackenzie. Para ela, “é muito simplista pensar dessa maneira, pois estamos diante de um grande desafio que precisa ser enfrentado para encontrar o equilíbrio”.

Portanto, a lei não propõe que o problema seja “varrido para baixo do tapete”. “A simples proibição do uso de celulares, sem o devido contexto, pode gerar desafios, como resistência ou ansiedade, especialmente em crianças e jovens que já apresentam sinais de dependência tecnológica”, explica Maria Eduarda Menezes, coordenadora de edtech da Beacon School. “Por isso, mais do que proibir, é essencial adotar uma abordagem educativa e dialógica”, acrescenta.

Não se pode achar que a escola dará conta disso sozinha, mas ela desempenha um papel essencial, por ser um lugar que prioriza o cuidado com o ser humano. Ela pode também instruir pais e mães a como lidar com essa questão, pois o uso equilibrado da tecnologia que começa na escola deve continuar em casa. Pouco adianta restringir o acesso ao celular e liberar outras telas, como o videogame e a televisão. Os responsáveis também devem avaliar se o celular é realmente necessário para os filhos ou se o oferecem apenas por pressões sociais ou modismos.

 

Combate ao “vício”

Se os adultos sofrem um impulso às vezes incontrolável de olhar informações no seu celular, isso é ainda mais forte em adolescentes. E não raro elas dominam a tecnologia melhor que seus pais, mas não sabem usá-la para aprender.

“É importante incluir letramento digital e cidadania digital nos currículos das escolas, pois permitem que os alunos compreendam como as tecnologias funcionam, saibam utilizá-las de maneira ética e responsável e desenvolvam habilidades para navegar com segurança no ambiente online”, explica Menezes.

Lopes explica que a escola deve oferecer aos estudantes estruturas de convivência e desenvolvimento que ampliem seus repertórios além das telas. “Ou, ao chegar da escola, os estudantes irão diretamente para a tela para compensar as horas de ‘privação’, agravando o quadro”, acrescenta.

Nada disso é simples, e a maioria dos professores não está preparada para incorporar essas demandas em suas aulas. Sua formação deve ser atualizada para conhecerem os riscos e desafios de lidar com a tecnologia digital, mas também para a enxergarem além de uma mera ferramenta, descobrindo como aproveitar seu potencial e compreender o papel que ocupa em nossas vidas. Para os docentes já formados, as escolas e o governo devem oferecer capacitação contínua.

Esse papel aparece em um alerta que alguns especialistas fazem sobre uma brecha na lei, que permite que os celulares sejam usados em aula para “garantir os direitos fundamentais”, sem explicar quais seriam. Eles temem que alguns alunos usem isso para manter a prática de filmar professores que digam algo com o que não concordem, em uma reprovável tentativa de exposição e até criminalização dos docentes. Vale dizer que isso afronta o direito à imagem garantido pela Constituição e pela Lei Geral de Proteção de Dados. Por isso, o governo deve explicar melhor o que são tais direitos, no processo de regulamentação da lei, que deve acontecer em 30 dias.

De qualquer forma, ela é muito bem-vinda, e deve auxiliar na solução de graves problemas causados pelo uso descontrolado desses dispositivos na escola. Abre também uma porta para se construir uma boa educação digital na escola e em casa.

Smartphones não podem ser vistos como meros brinquedos ou –pior ainda– uma “chupeta digital” para acalmar os mais jovens. Crianças e adolescentes merecem o apoio de pais, mães e educadores para se apropriarem de todo esse poder digital de maneira segura e construtiva. Essa é uma tarefa de toda a sociedade.

 

Mark Zuckerberg, CEO da Meta, durante anúncio de medidas como o fim da moderação de conteúdo em suas redes - Foto: reprodução

Por que a guinada de Zuckerberg sobre conteúdo é uma tragédia social

By | Jornalismo, Tecnologia | No Comments

A grande notícia no mundo digital na semana passada foi o cavalo de pau que Mark Zuckerberg deu na política de moderação de conteúdo da Meta, afetando Facebook, Instagram e Threads. Com um intenso alinhamento às ideias do presidente eleito dos EUA, Donald Trump, as medidas levantam preocupações legítimas sobre como isso impactará a qualidade das entregas das redes sociais e a própria democracia.

Especialistas diversos afirmam que o nível das publicações e dos debates nessas redes deve cair dramaticamente, empobrecendo seu papel social e corroendo a credibilidade da empresa. Pela sua descomunal penetração, isso deve agravar a polarização na sociedade. E a disposição manifestada pelo seu CEO de ativamente afrontar governos que contrariarem seus interesses pode desestabilizar nações.

Esse é o ponto mais grave desse movimento. Executivos das big techs cada vez mais se dão o direito de se colocar acima da lei e de valores, não apenas dos EUA, mas de países muito diferentes. Com uma grotesca distorção do conceito de liberdade de expressão, ameaçam a estabilidade social, uma influência nefasta e indevida nunca vista na história, que impõe seus interesses pessoais sobre populações inteiras.

Essa é uma perigosíssima nova ordem mundial que precisa ser combatida, sob o risco de desaguarmos em uma barbárie onde ninguém mais se respeite, colocando o próprio conceito de sociedade em risco.


Veja esse artigo em vídeo:


As políticas de moderação da Meta surgiram com o escândalo da Cambridge Analytica, que estourou em março de 2018. Os jornais “The Guardian” e “The New York Times” demonstraram que essa empresa coletou dados de 87 milhões de usuários do Facebook sem seu consentimento, para influenciar a primeira eleição de Trump e o referendo do Brexit, ambos em 2016. Isso escancarou a manipulação das redes, e o Facebook foi acusado pelo Congresso americano de não proteger seus usuários desse controle.

Trump, que teve suas contas no Facebook e no Instagram suspensas em 2021 por incitar a violência que levou à invasão do Capitólio no dia 6 de janeiro daquele ano, comemorou o novo posicionamento da Meta. Em entrevista após o anúncio, disse, sem nenhum constrangimento, que provavelmente sua ameaça de prisão perpétua a Zuckerberg no ano passado pode ter pesado nessa decisão.

Mas não sejamos inocentes: o alinhamento dessas empresas a Trump lhes trará muitos benefícios. E com seu virtual controle dos três Poderes no país, as ameaças sobre as big techs que se unirem a ele tendem a desaparecer. “Na verdade, elas nunca quiseram combater desinformação”, explica Pollyana Ferrari, pesquisadora em mídias e professora da PUC-SP. “Eram mais ações isoladas para dizer que faziam algo, porém agora os bilionários não precisam mais disfarçar seus objetivos.”

“Em 2017, Chris Cox, então diretor de produtos do Facebook, descobriu que havia uma correlação entre maximizar o envolvimento do usuário e inflamar as tensões, e que reduzir a polarização significaria prejudicar o engajamento”, relembra Magaly Prado, pesquisadora do Instituto de Estudos Avançados da USP. Então, mesmo sabendo que algumas eram “anticrescimento”, propôs várias soluções, mas elas não foram implantadas. “As big techs que abrigam as redes sociais não estão nem aí com as pessoas que eles costumam chamar de usuários”, acrescenta.

O anúncio de Zuckerberg provocou protestos de especialistas do mundo todo, que pedem que as mudanças sejam revertidas. Em resposta, a Meta tomou mais medidas na mesma linha, como acabar com seu programa de Diversidade e Inclusão.

“O mais preocupante não é apenas o fim do programa de checagem, mas o fato de que Zuckerberg encerrou essa iniciativa com um ataque perigoso e infundado a um trabalho que vinha sendo feito de forma criteriosa”, diz Clara Becker, jornalista especializada em desinformação e diretora da ONG de educação midiática Redes Cordiais. “Em vez de fortalecer o combate à desinformação, a Meta escolheu um caminho que descredibiliza os esforços existentes e agrava ainda mais o cenário de manipulação e polarização nas plataformas”, alerta.

 

O que Zuckerberg quer?

Ao se alinhar aos interesses de Trump, o CEO da Meta espera diminuir seus custos e ganhar um aliado para combater países que ameaçarem seus negócios, além de apoio contra pressões políticas e legais domésticas.

“Atuar contra regulações locais pode ser percebido como uma forma de neocolonialismo digital, prejudicando a autonomia de países e minando a confiança em governança global”, adverte Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). Para ele, “promover políticas alinhadas exclusivamente a interesses americanos pode agravar tensões globais e alimentar narrativas antidemocráticas”.

Zuckerberg quer fazer o que bem entender na sua companhia, o que, a princípio, é seu direito. Mas redes sociais não são empresas como outras, pela sua absurda influência sobre o mundo! Portanto, dizer que defende a liberdade de expressão é, no mínimo, hipócrita, pois ninguém sabe como seus algoritmos promovem e escondem o que quiserem.

“O discurso de garantir a liberdade de expressão é falacioso, na medida em que a remoção de conteúdos inverídicos, falseados, criminosos não configura censura”, explica Crespo. “No Brasil, não há liberdade plena de expressão, por isso a Constituição determina que é vedado o anonimato, justamente para responsabilizar quem cometer abusos.”

Duas situações podem surgir disso. Na primeira, governos, Justiça, empresas e outros membros da sociedade reagem para elaborar regras equilibradas para evitar a desinformação, exigindo uma responsabilidade e uma transparência que as redes sociais nunca tiveram, o que seria muito positivo. Na outra, ruim, a proposta de Zuckerberg avança e seus algoritmos privilegiam lucros ao invés de segurança, explodindo os conteúdos nocivos, como aconteceu no X de Elon Musk, criando sociedades instáveis, em que as pessoas não concordam, nem constroem coisas juntas. Por isso, segundo Prado, “é inevitável e fundamental que possamos debater a justiça dos dados, as leis que vão reger quem provoca o distúrbio informacional”.

“A moderação de conteúdo é um dos grandes desafios do século XXI, e não há sistema infalível para lidar com desinformação e discurso de ódio”, afirma Becker. “O cenário ideal seria aquele que promove um equilíbrio entre liberdade de expressão e responsabilidade, garantindo que conteúdos enganosos, discursos de ódio e incitações à violência ou discriminação sejam eficazmente controlados”, conclui.

A desinformação deve ser combatida com boa informação. Quando Zuckerberg confirma a anarquia das redes sociais, isso reforça a importância do jornalismo e da checagem de fatos profissionais. Mas infelizmente eles não são suficientes, pois os algoritmos continuarão promovendo o conteúdo nocivo, que lhe é mais lucrativo.

Por tudo isso, deve-se exigir mais transparência das plataformas, ao invés de aceitar o contrário, que nos está sendo imposto. A verdade não pode ser opcional, devendo ser cuidada por todos como um bem público, ou corremos o risco de ter consolidado um animalesco Estado sob a lei do mais forte.

 

Para Gilson Magalhães, diretor-geral da Red Hat Latin America, IA trará resultados em 2025 com agentes - Foto: Paulo Silvestre

Esse será o ano em que a IA começará a trazer resultados

By | Tecnologia | No Comments

Como não poderia ser diferente, 2025 começa acelerado pela inteligência artificial. Mas esse ano deve trazer algo que empresários desejam desde que começaram a investir pesadamente nessa tecnologia, com o lançamento do ChatGPT: resultados!

Se 2023 foi o ano da curiosidade e 2024 representou a democratização dessa tecnologia, 2025 deve ser aquele em que aplicações realmente transformadoras devem chegar ao mercado. E engana-se quem acredita que isso se dará por uma IA poderosíssima, capaz de resolver qualquer coisa.

Segundo um ditado popular, “os melhores perfumes estão nos pequenos frascos”. Talvez isso também seja verdade na inteligência artificial. E, nesse caso, respondem pelo nome de “agentes”. Eles são sistemas que usam a IA para realizar tarefas específicas de maneira autônoma, com pouca ou nenhuma dependência de um ser humano. Agem de maneira contínua, monitorando o ambiente e analisando dados para tomar decisões seguindo o que lhes foi pedido.

Especializados em uma tarefa e alimentados por dados controlados, os agentes tendem a ser mais baratos e mais confiáveis que um grande LLM, como o ChatGPT, ainda sujeito a suas “alucinações”, quando responde bobagens quando não sabe o que dizer. O desafio agora é tornar a criação desses agentes um processo mais simples.

Claro que continuaremos nos maravilhando com novas aplicações da IA generativa, mas será uma grande notícia vê-la finalmente transformando os negócios.


Veja esse artigo em vídeo:


Para Adriana Aroulho, presidente da SAP Brasil, “2025 será um ano em que o foco permanecerá na Inteligência Artificial Generativa, mas com o diferencial de transformar expectativas em resultados práticos.” Essa percepção é compartilhada por Marco Stefanini, fundador e CEO Global do Grupo Stefanini. Segundo ele, “uma coisa é você implementar IA, outra é você realmente utilizar IA no dia a dia, adotar a solução que realmente fará diferença no seu negócio.”

Esse deve ser também o ano em que o hype, a excitação em torno dessa tecnologia dará espaço a aplicações estruturadas, com resultados mais bem planejados. O tempo de usar grandes IAs “genéricas”, como o ChatGPT, para se resolver soluções empresariais vai ficando para trás.

“As empresas vão dizer: ‘inteligência artificial é legal, mas eu vou aplicá-la criando agentes muito específicos”, afirma Gilson Magalhães, diretor-geral da Red Hat Latin America. Ele explica que esses sistemas, apesar de limitados a uma tarefa, trazem grande ganhos ao negócio. “Ao usar uma quantidade de dados controlada, num ambiente controlado, ele assumirá uma função que era manual e foi automatizada.”

É preciso que fique claro que não se trata de mera automação, existente há décadas. De fato, uma das diferenças da inteligência artificial para um programa convencional de computador é tomar decisões como um ser humano, especialmente diante de imprevistos, a partir do que sabe e do que se espera dela. Um software convencional não consegue fazer isso.

Marcelo Flores, gerente-geral da consultoria da IBM Brasil, inventou o verbo “cognitivar” para diferenciar uma coisa da outra. “Os agentes usam uma tecnologia supernova para fazer aquilo que não é só automação ou só repetição”, explica. “Isso é algo mais sofisticado, que exige cognição, por isso conseguem essa autonomia.”

Tudo isso parece incrível, mas antes de finalmente colher esses resultados, as empresas precisam cuidar de algo que também deve ganhar mais destaque em 2025: “limpar” os seus dados.

 

“Poluição digital”

Dados de baixa qualidade são um problema histórico nas empresas. Elas guardam em seus arquivos informações erradas, desatualizadas e até conflitantes. Isso pode derivar de migrações descuidadas de sistemas, coletas de informações redundantes por critérios diferentes a cada momento, departamentos que não compartilham suas informações e outros pesadelos de TI.

O problema é que nem a melhor inteligência artificial dá bons resultados se for alimentada com dados ruins. “Se a gente não corrigir os dados que estão ‘sujos’, desorganizados, perdidos, a gente não vai a lugar nenhum”, diz categoricamente Magalhães. “E essa é uma tarefa cara, difícil e demorada”, adverte.

Essa não é a única “poluição” ligada à IA. Em 2024, as empresas se deram conta das enormes demandas de recursos dessa tecnologia. Estudo divulgado em novembro pela consultoria Gartner indicou que, nos próximos dois anos, o consumo dos data centers de IA deve crescer até 160%, atingindo 500 terawatts-hora (TWh) por ano. Como comparação, em 2022, a cidade de São Paulo consumiu “apenas” 21,18 TWh.

“Estamos vivendo tempos desafiadores, especialmente com a crise climática nos pressionando a agir”, alerta Aroulho. Por isso, ela afirma que a SAP “renovará o compromisso com a inovação aberta e a sustentabilidade.”

Dados “sujos” e impactos ambientais demonstram como uma tecnologia tão poderosa como a inteligência artificial custa muito caro. Ninguém quer se preocupar com os gastos de conversar com o ChatGPT, mas eles existem e são altos.

“A tecnologia força as pessoas a se reinventarem”, afirma Flores. Para ele, “as empresas têm acesso a tecnologias mais disruptivas, que respondem muitas perguntas, mas, no final, a transformação vem das pessoas”.

Stefanini adverte que “2025 e 2026 serão anos de adoção mais massiva da IA nas empresas”, que permitirá, como já explicado, que comecem finalmente a colher grandes benefícios dessa tecnologia. E isso é muito bom!

Mas temos que cuidar também das discussões associadas a todos esses benefícios. Os próximos 12 meses abrirão espaço para isso. Resta saber quem aparecerá para conversar sobre uma IA mais sustentável. Mas uma coisa é certa: “não existe almoço grátis”.

 

Anúncios dos vencedores do Prêmio Nobel de Física de 2024, pelo seu trabalho nos fundamentos do machine learning - Foto: reprodução

Este ano foi um ano de democratização da inteligência artificial

By | Tecnologia | No Comments

Estamos nos últimos momentos de 2024, um ano de novidades profundas em tecnologias e seus impactos nas empresas e nas vidas das pessoas. Por exemplo, o 5G se difundiu ainda mais, e grandes avanços aconteceram em veículos autônomos, tecnologias sustentáveis, biotecnologia e robótica. Mas no ano em que os prêmios Nobel tanto de Física quanto de Química foram entregues a cientistas com pesquisas ligadas à inteligência artificial, foi ela que deixou indiscutivelmente sua marca.

Vale dizer que a IA já fazia parte da nossa vida há muitos anos, potencializando aplicações e equipamentos, porém de maneira invisível. Tudo mudou em novembro de 2022, quando o ChatGPT ganhou as ruas, dando ao cidadão comum o gostinho de fazer facilmente criações com a inteligência artificial generativa. E isso deflagrou uma corrida para que se buscasse aplicar a IA em tudo.

Obviamente os primeiros resultados disso pareciam protótipos mal-acabados e muitos tinham aplicações questionáveis. O ano de 2023 viu a desconfiança de profissionais, que mesclavam deslumbramento diante das possibilidades da IA e medo de que ela roubasse seus empregos.

Agora, ao fim de 2024, pode-se dizer que ela deixou o terreno da curiosidade: esse foi o ano em que seu uso foi disseminado, com pessoas e principalmente empresas abandonando a especulação e incorporando a IA em seu cotidiano. Mas ainda há muito a se aprender sobre como aproveitá-la de maneira ética, produtiva e segura.


Veja esse artigo em vídeo:


“Estamos em uma fase muito importante, de democratização da IA generativa e também de uma compreensão maior dessa tecnologia”, afirma Adriana Aroulho, presidente da SAP Brasil, subsidiária brasileira da gigante alemã de software que vem incorporando a tecnologia em seus produtos.

Essa percepção é compartilhada por Gilson Magalhães, diretor-geral da Red Hat Latin America. “Não é só aquela questão de você ter perguntas respondidas por uma máquina de forma brilhante, mas como aquilo poderá ser inserido nas empresas”, explica. Segundo ele, depois da fase inicial de experimentação, nesse ano as companhias começaram a colher benefícios na produtividade de suas equipes, com método. “A gente viu algumas empresas já criando processos internos para permitir que a inteligência artificial fosse incorporada, considerando aspectos de segurança, de compliance, de copyright, de soberania de dados”, acrescenta.

É importante notar que, apesar dos impressionantes avanços exponenciais (e para alguns, quase sobrenaturais) dos grandes modelos de linguagem, quando se olha para os ganhos para os negócios pela IA, isso se deve também a um amadurecimento de suas equipes.

“É muito mais do lado das empresas, de os gestores começarem a ter uma visão mais concreta, mas tangível do que pode e do que não pode ser feito, o que é exagerado ou não”, explica Marco Stefanini, fundador e CEO Global do Grupo Stefanini. Isso é muito importante, pois muitos gestores acreditam que a tecnologia sozinha fará “mágicas” em seu negócio, e esse é um caminho fácil para a frustração. Para o executivo, “vem muito mais de maturidade das empresas que da própria tecnologia.”

Esse também foi um ano em que a IA passou a ser usada para melhorar planos de negócios, ajudar a vencer a burocracia, diminuir custos e concretizar ideias. “As pessoas já vinham abrindo negócios nas redes sociais sem apoio da inteligência artificial, mas agora, com ela, ganham muito poder”, sugere Marcelo Flores, gerente-geral da consultoria da IBM Brasil. E vai além nos benefícios da IA nisso: “as pessoas estão tendo mais poder de escolha das suas carreiras.”

Não é exagero, portanto, dizer que a IA é uma das tecnologias mais transformadoras que existiram, ao lado da marcos como a imprensa, o domínio da eletricidade e a Internet. Mas tudo traz consequências e, com a velocidade típica da IA, nem sempre temos tempo de pensar sobre isso.

 

Ética e segurança

Se em 2023, vimos diversos exemplos de sérios problemas decorrentes de usos descuidados da IA, 2024 trouxe alguma conscientização sobre um uso mais responsável dela. “Em um momento de intenso hype em torno da inteligência artificial, reforçamos a importância de uma abordagem equilibrada e construtiva, focada em resultados tangíveis e no impacto a longo prazo nos negócios”, explica Aroulho.

“Houve uma discussão muito grande neste ano para não se entrar de forma inconsequente no uso de uma tecnologia que pode ter desdobramentos em todas as direções, inclusive para divulgação de dados que não deveriam sair de dentro da empresa”, acrescenta Magalhães. “Isso passou a ser uma preocupação, que, de certa forma, trava um avanço mais rápido.”

Essa também foi uma das marcas de 2024: quais os limites éticos do uso da IA? Se ela deve ser regulamentada para proteger o cidadão, como fazer isso sem impedir o seu desenvolvimento?

A Europa puxou a fila das regulamentações dessa tecnologia: o Parlamento Europeu aprovou a sua Lei da Inteligência Artificial em março, criando vários níveis de risco de seus usos, atribuindo a cada um diferentes níveis de responsabilidade de empresas e governos. Ela não trata da tecnologia em si, para evitar empecilhos ao seu desenvolvimento. No Brasil, o projeto de lei 2338/2023, que visa regulamentar a IA e que apresenta forte inspiração na lei europeia, foi aprovado pelo Senado Federal em 10 de dezembro, e começará 2025 em análise na Câmara dos Deputados.

“Não sou contra regulamentação de maneira alguma –é necessária–, mas não pode ser exagerada”, explica Stefanini, dando voz a um debate que movimenta intensamente o setor. “A gente está perdendo essa janela, olhando para um viés muito político, carregado de controle, nocivo para o desenvolvimento da IA no país”, afirma.

A falta de consenso em torno disso foi outra marca de 2024. O lobby das big techs, que preferem pouca ou nenhuma regulamentação para acelerarem o máximo que puderem no desenvolvimento da IA, é intenso! Mas alguns dos maiores especialistas do setor afirmam que isso é um grande risco, pois a IA vem se comportando de maneiras que surpreendem seus próprios desenvolvedores.

O ano termina então com um grande desafio de encontrarmos maneiras de ampliarmos o desenvolvimento e os usos da IA para todos, porém de maneira responsável e segura. Como afirma Flores, “temos que democratizar a tecnologia, porque ela tem que ser benéfica para todos no seu dia a dia.”

Pelo que vimos nesse ano, esse debate se desdobrará de maneiras muito interessantes em 2025.

 

Para Kant (esquerda), não se pode ser imoral, mesmo para um bom fim; já Maquiavel defendia que o fim justifica os meios - Foto: reproduções

Como equilibrar a ética, a competitividade tecnológica e a liberdade de expressão

By | Tecnologia | No Comments

Estamos chegando ao final de um ano em que o debate sobre o equilíbrio entre a ética, a competitividade tecnológica e a liberdade de expressão ganhou novos contornos com o avanço da inteligência artificial, de práticas questionáveis das big techs e com as discussões em torno do Marco Civil da Internet. Enfrentamos uma grande dificuldade para encontrar um caminho razoável para, ao mesmo tempo, proteger as pessoas da voracidade irresponsável das plataformas digitais, evitar a censura, fazer um uso seguro da tecnologia e garantir a competitividade pessoal, nos negócios e até de nações, em uma geopolítica cada vez mais determinada pela tecnologia.

Esse é um dos grandes desafios dessa geração, pois a sociedade não está conseguindo processar as mudanças na velocidade em que estão sendo impostas. Insistimos em medir essa transformação com réguas que foram criadas para um mundo que já não existe. Esse é um processo fadado ao fracasso!

O exemplo mais claro é o impacto social das casas de aposta online, as infames “bets”. Elas crescem exponencialmente no mundo todo, mas no Brasil se tornaram um problema de saúde pública, com pessoas perdendo economias de uma vida e indivíduos das camadas mais pobres gastando o dinheiro da comida na jogatina.

Alguns podem dizer que “aposta quem quiser”. Só que atribuir toda a culpa ao livre arbítrio é um reducionismo de tudo que se discute aqui. A facilidade de se apostar pelo smartphone fica irresistível com a influência dos algoritmos dessas plataformas, com a promessa mentirosa de ganhos fáceis (ampliada por influenciadores pagos), com a interface gamificada e até com um senso de pertencimento no grupo de amigos apostadores.

Em outras palavras, nosso livre arbítrio é manipulado pelas mais diversas plataformas digitais, e engana-se quem acredita ser totalmente imune a isso. A sedução digital insidiosa vence mesmo mentes afiadas, em algum momento. É disso que temos que tratar, sem perder os inegáveis benefícios da tecnologia ou ferir direitos fundamentais.


Veja esse artigo em vídeo:


Agora o Supremo Tribunal Federal (STF) debate a inconstitucionalidade do artigo 19 do Marco Civil da Internet. “Inconstitucionalidade” é uma palavra forte, mas não me parece ser o caso do referido artigo. Ainda assim, os votos já dados por ministros do STF indicam que ele acabará sendo classificado dessa forma.

Historicamente, defendo o artigo 19. Ele determina que cada um seja responsável pelo que publica nas plataformas digitais, que elas não sejam corresponsáveis por isso, e que elas devem retirar do ar apenas conteúdos que a Justiça tenha julgado ofensivos. Já o artigo 21 abre uma exceção para conteúdo com nudez ou sexo não autorizados, quando basta uma notificação extrajudicial para que as redes sejam obrigadas a remover a publicação. Essa combinação de artigos valoriza a liberdade de expressão.

Não há dúvida sobre qualquer um ser responsável, para o bem e para o mal, pelo que publica na Internet. Mas há uma simplificação muito grande sobre o papel das empresas. Elas já retiram sumariamente o que consideram inadequado seguindo seus critérios, muitas vezes questionáveis. O processo ocorre majoritariamente de forma automática, e seus algoritmos erram muito na sua decisão, tanto ao retirar conteúdos legítimos, quanto ao preservar outros, que ferem leis e seus próprios termos de uso.

As plataformas oferecem sistemas de denúncia contra conteúdos inadequados, mas eles são muito falhos. Eu mesmo já fui vítima de diversos delitos digitais, como discurso de ódio e roubo de conteúdo. Sempre utilizo essas ferramentas de denúncia, mas é muito raro que isso produza qualquer resultado.

Pela redação do artigo 19, eu e pessoas vítimas de afrontas online muito mais graves precisamos entrar na Justiça para nos defender, um processo complexo, caro e muito longo. Enquanto isso, o problema continuará no ar, infligindo severos danos. Como as plataformas ficarão isentas, não farão nada, apesar de viabilizarem o crime.

Em sua defesa, elas argumentam que, se tomarem para si a decisão de o que pode ser publicado, correm o risco de promover censura. O argumento é verdadeiro, mas é cínico, pois as mesmas plataformas promovem ostensivamente conteúdos claramente nocivos, pois são os que lhes rendem maiores ganhos. E nada lhes acontece!

Esse é o tipo de conflito que esses tempos digitalmente acelerados nos impõem.

 

A superinteligência digital

Esse debate também se aplica à inteligência artificial.

Na sexta (20), a OpenAI, criadora do ChatGPT, lançou o OpenAI o3, seu novo modelo de IA, com capacidades cognitivas ainda mais impressionantes. A empresa não mede esforços em incensar seus novos produtos como passos em direção à Inteligência Artificial Geral, um estágio teórico em que o sistema deixaria de ser especializado em uma coisa e passaria a pensar como um ser humano, dispensando comandos e sendo capaz de resolver qualquer coisa sem ter sido criado para aquilo, de pintar um quadro a dirigir um carro. Algumas pessoas afirmam que o o3 seria algo ainda maior: o caminho para a superinteligência artificial, um conceito teórico ainda mais ousado, em que a máquina superaria largamente as capacidades humanas em qualquer área.

Todos esses holofotes são ótimos para os negócios da OpenAI, que lidera essa indústria, mas sofre forte concorrência de empresas como o Google e a Anthropic. Mas mostra também que essas empresas parecem dispostas a acelerar contra uma parede, se isso lhes garantir o protagonismo nessas tecnologias.

Alguns dos maiores especialistas do setor, como Geoffrey Hinton, considerado o “padrinho da IA”, demonstram sérias preocupações com isso. Alguns afirmam que nunca chegaremos a esse estágio tecnológico, mas o maior temor é que percamos o controle desses sistemas, que passariam a se autoatualizar seguindo seus interesses, e não mais os da humanidade, algo conhecido no setor como “desalinhamento”.

Caímos novamente na questão de regulações. Como de costume, a Europa saiu na frente, com sua Lei da Inteligência Artificial, focada em proteger os cidadãos de maus usos dessa tecnologia e de abusos de empresas e de governos.

Muita gente acredita que ela reduzirá a competitividade do continente cada vez mais, especialmente diante de nações que regulam pouco ou nada a IA, como a China. No caso dos EUA, há uma grande expectativa de como o país se comportará nisso com o início, em janeiro, do segundo mandato presidencial de Donald Trump, fortemente influenciado pelo libertário Elon Musk, publicamente contrário a regulamentações.

A verdade é que ninguém sabe como equilibrar a ética, a competitividade e os direitos individuais nessa corrida desenfreada e irresponsável da tecnologia. Ela naturalmente deve continuar sendo desenvolvida e precisamos aprender a fazer usos produtivos dela. Mas isso não pode passar por cima da segurança e do bem-estar das pessoas.

O mundo atual vem sendo guiado por princípios do filósofo Nicolau Maquiavel (1469-1527), que defendia que o sucesso e a manutenção do poder justificariam os métodos empregados, mesmo imorais, desde que fossem eficazes. Mas talvez devêssemos olhar mais para as ideias de outro filósofo, Immanuel Kant (1724-1804). Para ele, mentir ou agir imoralmente nunca é justificável, mesmo para alcançar um bom fim.

Temos que fazer isso logo, antes que a sociedade se esfacele irreversivelmente.

 

Influenciadores dominam a linguagem das redes, mas a maioria não checa as informações que publica - Foto: Freepik/Creative Commons

Influenciadores promovem desinformação por amadorismo e descuido

By | Jornalismo | No Comments

Que as redes sociais são o grande vetor da desinformação, não é novidade. Mas em tempos em que o Supremo Tribunal Federal (STF) discute se essas plataformas têm responsabilidade sobre conteúdos nocivos em suas páginas, precisamos entender as motivações que levam alguém a fazer isso. Nesse cenário, os influenciadores digitais desempenham um papel central, pelo seu poder de persuasão de grandes plateias.

Existem aqueles que conscientemente propagam informações falsas, e esses devem ser combatidos. Mas o estudo “Por Trás das Telas”, publicado no dia 26 de novembro pela Unesco (Organização das Nações Unidas para a Educação, a Ciência e a Cultura) mostra que muitos fazem isso sem intenção, por amadorismo ou descuido.

Realizada com 500 influenciadores de 45 países, incluindo o Brasil, a pesquisa indica que apenas 36,9% dos influenciadores verificam a correção das informações que publicam. Além disso, 41,7% deles consideram curtidas e visualizações como o principal critério de credibilidade de suas fontes.

Esses dois números deixam claro que eles podem ser facilmente manipulados pelos criadores de desinformação, agravando o problema. A boa notícia é que 73% demonstraram interesse em serem treinados para melhorarem em sua atividade.

Apesar dos ataques daqueles que se beneficiam da desinformação, a imprensa ainda goza de boa credibilidade com a maior parte da população. Mas há anos ela não está mais sozinha no processo informativo, dividindo esse espaço com os influenciadores.

Seria ótimo que esses dois grupos trabalhassem juntos, mas parecem viver em mundos distintos. É uma pena, pois o público se informa por ambos, cada um com suas vantagens e desvantagens.


Veja esse artigo em vídeo:


O estudo aponta que apenas 36,9% dos influenciadores digitais se informam pela imprensa, a mesma quantidade dos que fazem isso a partir de fontes online que não sejam da mídia profissional. Sua principal “fonte” é a própria experiência (58,1%), seguido por pesquisas e entrevistas próprias (38,7%).

Para os influenciadores, as já citadas curtidas e visualizações de longe dão mais credibilidade a uma fonte. Depois vem a simples confiança em um amigo ou especialista (20,6%), seguida de perto pela reputação do autor (19,4%). Documentações são usadas apenas por 17,0% dos influenciadores.

Se apenas 4 entre 10 deles checam as informações antes de publicá-las, 33,5% publicam sem checar se confiarem na fonte. Outros 15,8% publicam sem verificar se considerarem o conteúdo divertido ou útil. Por fim 13,2% checam apenas se o que compartilharem for uma notícia.

Vale dizer que 59,0% desconhecem ou apenas ouviram falar de regras relacionadas às comunicações digitais e 56,4% conhecem treinamentos voltados para eles, mas só 13,9% desses participaram de algum. Isso faz com que saibam pouco sobre seus direitos e deveres como produtores de conteúdo, o que facilita com que 32,3% sofram com discursos de ódio nas redes. Tudo fica mais grave quando se pensa que ganhar dinheiro é a principal motivação de um quarto deles.

O estudo considera que alguém com mais de mil seguidores já pode ser considerado um seguidor, mas 68,0% dos entrevistados tinham até 10 mil seguidores. Desse valor a 100 mil seguidores, eram 25,0%. Apenas 1,6% tinham mais de 1 milhão de seguidores. A rede preferida é o Instagram (34,0%), seguido pelo Facebook (25,0%), o TikTok (16,4%) e YouTube (9%).

A categoria mais popular é de “moda e estio de vida” (39,3%). Na sequência, vêm “beleza” e “viagem e comida” (ambos com 34,0%), “jogos” (29,0%) e “comédia” (27,1%). Os estilos mais populares de publicações são “coisas bonitas” (18,0%), “entretenimento e memes” (15,6%) e “recomendações” (13,8%).

Ao contrário da imprensa, que, a despeito de imperfeições, segue regras rígidas para produção de conteúdo, esse amadorismo dos influenciadores representa um sério ponto de atenção.

 

“Desordem informacional”

Em 2017, um estudo do Conselho da Europa e da Universidade de Harvard classificou a “desordem informacional” em desinformação (informação deliberadamente errada para causar danos), informação falsa (errada, mas sem intenção de causar danos) e informação maliciosa (correta, mas usada para causar danos). Influenciadores, muitas vezes, se encontram na segunda categoria, quando espalham informações incorretas por confiarem em fontes ruins ou por não saberem como verificar uma informação.

O instituto britânico Alan Turing detalhou em 2021 como uma sociedade pode ameaçar a própria sobrevivência com ataques deliberados à aquisição de conhecimento. Segundo a pesquisa, há quatro ameaças a isso, nenhuma ao acaso. A primeira são pessoas que atrapalham as decisões com desinformação, de maneira consciente ou não. Há também o excesso de informação, que atrapalha as pessoas na separação de verdades e mentiras. Elas também se acostumaram a rejeitar o que desafia suas ideias, particularmente se houver uma forte identidade no grupo. E, por fim, as redes sociais tornaram mais difícil avaliar a confiabilidade das fontes.

A pesquisa conclui que, quando não sabemos em quem acreditar, confiamos naquilo que nos mostra o mundo como queremos. Novamente os influenciadores podem se tornar ferramentas poderosas para a desinformação, mesmo inconscientemente.

Infelizmente as perspectivas de melhora desse quadro não são animadoras, diante da resistência das redes sociais de sofrerem qualquer tipo de responsabilização e do persistente amadorismo dos influenciadores. A colaboração desses profissionais com jornalistas, atuando de maneira complementar, traria grande benefício à sociedade.

Os influenciadores têm alcance e confiança de seus seguidores, além de dominar a linguagem das plataformas digitais. Já os jornalistas possuem ética e técnica para produzir informações precisas e contextualizadas. Uma parceria efetiva entre essas comunidades poderia não apenas mitigar os impactos da desinformação, como fortalecer a confiança no ecossistema informacional.

Infelizmente isso esbarra em barreiras culturais e estruturais. Influenciadores priorizam sua autonomia criativa, e podem ver jornalistas como representantes de um modelo de comunicação pouco dinâmico e distante da realidade das redes. Jornalistas, por sua vez, frequentemente subestimam a capacidade dos influenciadores de se adaptarem às boas práticas jornalísticas.

A desinformação é um dos maiores desafios dessa geração. Ela sempre existiu, mas as redes sociais transformaram o que antes não passava de fofocas restritas em uma indústria milionária de distorção da realidade. Apesar desse fenômeno digital ter menos de uma década, já provocou danos irreparáveis no mundo.

A solução desse problema depende de todos nós, começando por escolhermos fontes confiáveis de informação. O estudo da Unesco mostra que, se influenciadores e jornalistas conseguissem juntar forças criativamente, poderiam construir ambientes informacionais mais saudáveis, transparentes e comprometido com a verdade.

A sociedade agradecerá muito se isso acontecer!

 

O Parlamento Australiano, que aprovou uma lei que proíbe menores de 16 anos nas redes sociais - Foto: Dietmar Rabich/Creative Commons

Austrália põe fogo no debate ao proibir redes sociais para menores de 16 anos

By | Tecnologia | No Comments

Enquanto o Supremo Tribunal Federal (STF) debate regras mais rígidas para as redes sociais no Brasil, a Austrália “pôs fogo” no debate ao aprovar, no último dia 28, uma lei que sumariamente proíbe o uso dessas plataformas por qualquer pessoa com menos de 16 anos. E a responsabilidade para isso não acontecer recai sobre essas empresas, sob pena de multas equivalentes a quase R$ 200 milhões.

Apesar de restrições às redes sociais serem debatidas no mundo todo, essa é a primeira legislação que impede seu uso por crianças e adolescentes em qualquer situação. Ela também inova por atribuir às big techs a função de “porteiro”.

A lei despertou aplausos e gritarias. Especialistas afirmam que a iniciativa representa um passo importante para proteger os mais jovens de sérios riscos a que são expostos nessas plataformas, como cyberbullying, assédio moral e sexual, desinformação e outros conteúdos que podem provocar sérios problemas de saúde mental e até a suicídio. Também é vista como maneira de responsabilizar empresas por priorizarem lucros em detrimento da segurança dos mais jovens.

Os críticos, capitaneados pelas próprias big techs, dizem que a lei é inócua, pois os adolescentes encontrarão maneiras de burlar o sistema. Argumentam que isso pode privar os mais jovens de informações importantes e restringiria sua capacidade de socialização. Por fim, a lei prejudicaria a privacidade desses usuários.

A iniciativa australiana escancara o poder desmedido que as big techs construíram. Nunca houve empresa, governo ou instituição capaz de influenciar decisivamente a vida de bilhões de pessoas ao redor do mudo, enfrentando legislações e culturas de países muito diferentes. Resta saber se a lei conseguirá mesmo proteger os mais jovens, e como isso pode incentivar outros países a criarem legislações semelhantes.


Veja esse artigo em vídeo:


Há duas décadas, a desinformação era restrita a falas de políticos e a veículos sensacionalistas, discursos de ódio não se alastravam além de pequenos grupos e fatores de ansiedade adolescente eram muito mais facilmente manejáveis. As redes sociais criadas naquela época, como o Facebook, o Instagram e o Twitter, não foram pensadas para se tornar os veículos que dariam alcance planetário e velocidade descontrolada a tudo isso e a muitos outros conteúdos nocivos.

Elas argumentam que não têm como controlar tudo que seus usuários publicam em suas páginas, e se eximem de qualquer responsabilidade, apoiando-se em legislações como a seção 230 da americana CDA (sigla em inglês para “Lei de Decência nas Comunicações”) e o artigo 19 do Marco Civil da Internet brasileiro.

Leis como essas foram fundamentais para o desenvolvimento das redes sociais, mas foram criadas para realidades que há muito não existem mais. Essas plataformas deixaram de ser inocentes veículos de conteúdos de terceiros quando seus algoritmos passaram a identificar e promover aqueles que geram mais engajamento e lucros, mesmo sabendo que costumam ser publicações com os problemas já citados.

Isso foi evidenciado em outubro de 2021, quando a ex-gerente de produtos do Facebook Frances Haugen divulgou milhares de documentos internos da Meta (empresa dona do Facebook, Instagram e WhatsApp) que explicitavam que a empresa sabe do problema e faz muito menos do que poderia para evitá-lo, especialmente no que se refere a adolescentes, pois isso prejudicaria os seus lucros. O escândalo ficou conhecido como “Facebook Papers”.

No dia 31 de janeiro, em audiência no Senado americano sobre o impacto das redes sociais em crianças, o CEO da Meta, Mark Zuckerberg, se levantou e pediu desculpas aos pais de vítimas jovens das redes sociais que estavam no local. O senador republicano Josh Hawley disse a ele que “seu produto está matando pessoas”.

Dado que o grave problema existe e está indelevelmente associado às redes sociais, mas elas não podem ou não querem resolvê-lo, a solução seria simplesmente “cortar o mal pela raiz”, tirando os mais jovens dali?

 

Grandes poderes e responsabilidades

A Austrália acha que sim! Levantamento da empresa de pesquisas YouGov realizada no mês passado indicou que 77% dos australianos apoiam a proibição de menores de 16 anos nas redes sociais. A lei passa a valer em 2025 e as empresas terão que se adaptar até uma data que ainda não foi definida.

Curiosamente, a Meta prometeu para o próximo ano o recurso “classificador de adultos”, que usará inteligência artificial para descobrir a idade real de um usuário. Se concluir que tem menos de 18 anos, a conta será automaticamente classificada como de adolescente, com várias restrições. Para isso, a tecnologia monitorará publicações e gostos do próprio usuário e de seus amigos. Ao se tentar alterar a idade, o sistema poderá exigir que o usuário grave um vídeo para estimá-la por características faciais.

Isso é muito bem-vindo, mas obviamente a Meta não quer que os valiosos e engajados adolescentes deixem de usar seus produtos. Na verdade, antes dos “Facebook Papers”, a empresa pensava em criar versões de seus sistemas para usuários com menos de 13 anos, como o “Instagram Kids”. Depois do escândalo, a empresa interrompeu esses projetos.

As big techs estão chamando a nova lei australiana de “vaga”, “precipitada” e “contrária a normas internacionais”. De fato, ela foi debatida e aprovada no Parlamento Australiano em apenas uma semana, mas isso se deu após um longo debate público.

Os resultados dessa iniciativa provavelmente influenciarão debates semelhantes em outros países. É o caso do Reino Unido, que está realizando estudos para uma lei muito semelhante à australiana.

A regulamentação dessas plataformas se faz necessária pela incomensurável influência que elas exercem sobre nós, muitas vezes de forma bastante negativa. É preciso criar padrões globais para regulamentação, evitando que essas empresas se aproveitem de brechas legais em países com legislações mais permissivas.

Mas tudo isso precisa ser acompanhado por programas sérios de educação digital e midiática da população, começando nos primeiros anos escolares. Temos que formar pessoas mais críticas e menos suscetíveis a manipulações.

Com seus bilhões de usuários, as big techs se tornaram não apenas um negócio muito lucrativo, mas uma poderosa força política. Qualquer que seja o modelo para minimizar os aspectos tóxicos de seu uso deve considerar o envolvimento e a responsabilização dessas empresas, para que sejam mais transparentes e éticas.

Todos os países precisam exigir ambientes digitais mais saudáveis e seguros, sem sufocar a inovação ou comprometer os direitos fundamentais dos cidadãos. Por isso, uma boa regulamentação dessas plataformas não deve ser vista como um obstáculo, mas como uma oportunidade para elaborar um futuro digital responsável.