Paulo Silvestre

O jornalista e pesquisador Rodrigo Mesquita, durante do evento “O jornalismo entre a sobrevivência e a relevância” - Foto: reprodução

Enquanto o digital achata a crítica, o jornalismo deve revalorizar o pensamento

By | Jornalismo | No Comments

Nunca tivemos tanto acesso à informação, mas nunca fomos tão manipulados. Em 15 anos, as big techs tomaram de assalto o debate público, sem qualquer contrapeso democrático, guiadas pela busca de lucro que atropela até o bem-estar dos usuários. Enquanto isso, o jornalismo, a instituição democrática mais talhada para impedir abusos de poder, perdeu seu papel de mediador. O resultado é um ambiente em que a verdade compete com a engenharia do engajamento e, na maioria das vezes, perde.

Esse foi o eixo do evento “O jornalismo entre a sobrevivência e a relevância”, que aconteceu no dia 13, organizado pelo Instituto de Estudos Avançados da USP. O debate foi construído a partir do artigo “Crise do jornalismo deixou terreno fértil para erosão da democracia”, do jornalista e pesquisador Rodrigo Mesquita, que lá estava.

A Internet comercial surgiu em 1995, com a promessa de ser um bem-vindo canal de comunicação democrático e desintermediado. Mas esse ideal idílico caiu por terra em poucos anos, com as plataformas digitais capturando, com seus algoritmos, desejos e sentimentos de toda a humanidade, transformando-os em uma máquina de convencimento eficientíssima, muito maior que a própria mídia, governos e religiões.

O jornalismo, que até então organizava a informação cotidiana do mundo e promovia o debate para que as pessoas construíssem sua sociedade, ficou paralisado. Por um misto de arrogância e incompreensão de que seu público não aceitava mais informação unilateral, ainda sofre para lhe oferecer uma experiência participativa.

A mídia também é um negócio, com poucas empresas importantes controlando muito do que se noticia. Mas elas obedecem a regras claras de funcionamento, que protegem a sociedade. As big techs, por outro lado, apesar de serem muitíssimo mais poderosas, não cansam de demonstrar seu desprezo por qualquer instrumento democrático que ameace minimamente seus lucros.

Diante disso, passa da hora de descobrirmos quem controla hoje a esfera pública e como fazer com que, seja lá quem for, necessariamente trabalhe para os cidadãos.


Veja esse artigo em vídeo:


“A informação deixou de ser um serviço público e passou a ser um insumo para modelos de negócios baseados na vigilância e na previsibilidade do comportamento humano”, afirmou Mesquita, em sua fala de abertura. Para ele, “o que está em jogo é mais do que a sobrevivência do jornalismo: é a reconstrução das formas de mediação que sustentam a democracia”.

E lembrou que, apesar de as big techs adotarem um discurso de neutralidade, seus algoritmos são exatamente o oposto disso. Eles manipulam o público em escala industrial, para garantir unicamente os seus interesses, recusando qualquer controle.

“Foi brutal a metamorfose das promessas de transparência e liberdade expressiva das redes sociais na disseminação do ódio, dos cancelamentos, da guerra cultural, das narrativas conspiratórias e dos extremos destrutivos”, acrescentou Lucia Santaella, professora da PUC-SP. Segundo a professora, uma autoridade global em semiótica, “tudo isso é aliado à monetização da presença, ao capitalismo comunicacional, que transforma qualquer virtude em manipulação consentida”.

Os diferentes pesquisadores que debateram o assunto em diversas mesas ao longo do dia concordam que essa distopia informacional reforça o valor social do jornalismo, mas reconhecem que ele atua em franca desvantagem. “As grandes redações ainda são referências de verificação e responsabilidade pública, essenciais para o debate democrático”, disse Mesquita. “Mas disputam atenção dentro de um sistema projetado não para informar, mas para reter o usuário no ciclo da monetização.”

“A arrogância impediu que as redações e as empresas entendessem o que vinha pela frente”, afirmou o jornalista Eugenio Bucci, professor da USP. “Mas à parte dessa face econômica e dessa face tecnológica, a crise da imprensa é uma crise de pensamento”, sugeriu.

De fato, quando o papel do jornalismo de ajudar a sociedade a se organizar com informações de qualidade se enfraquece, ele perde parte de sua razão de existir. Isso fortalece os grupos de poder que se beneficiam da desinformação e que, por isso, justamente combatem a imprensa.

 

Instituições sob ataque

O jornalismo é uma força civilizatória por oferecer elementos para que a sociedade se reconheça, converse consigo mesma e melhore a partir de informações confiáveis. As redes sociais, por sua vez, vampirizam a mesma sociedade, pois dependem de tecnologias de segmentação e de vigilância, que fragmentam a conversa pública e dissolvem o terreno comum da deliberação para construção de consensos.

Uma das maiores tragédias disso é observar diferentes instituições democráticas, como as universidades, representação política e até a Justiça, sendo forçadas a adotar essa lógica distorcida, para não serem alvejadas pelos seus públicos, polarizados e incendiados pelas redes sociais. E o jornalismo também sofre desse problema, quando critérios editoriais sérios são tragicamente subjugados por uma suposta “otimização do noticiário” que garanta audiência.

Assim, esses pilares sociais vêm sendo carcomidos pelo digital, perdendo sua essência e levando a própria democracia com eles. “Sem dispositivos concretos de accountability, toda a ética corre o risco de ser convertida em mero adereço discursivo, uma fachada moralizante que encobre, sem enfrentar, as estruturas que perpetuam as assimetrias”, afirmou Santaella. “O que se exige, em última instância, é uma prática que não apenas nomeie os problemas, mas que atue sobre eles com densidade política, coerência institucional e compromisso de cada um de nós.”

No mundo todo, e no Brasil com muita força, o meio digital se permitiu instrumentalizar para hostilidades a adversários, ataques ao jornalismo e deslegitimação de instituições. “Uma sociedade que não discute com base na razão e nos fatos os seus problemas comuns começa a discuti-los com base no fanatismo”, conclui Bucci.

Se a imprensa tivesse conseguido manter o seu papel de mediador social, a crise criada pela desinformação não teria sido tão grande. Basta observar os países escandinavos, que teimosamente combinam indicadores altos de qualidade de vida, felicidade do povo, ótima educação e uma imprensa forte e atuante.

Se desejamos resgatar uma sociedade mais civilizada e buscar uma vida melhor para todos, o jornalismo precisa deixar de ser apenas um produtor de conteúdos e retomar seu papel na reorganização da esfera pública em torno de vínculos mais legítimos e mediações mais civilizadas. Isso exige a sua reinvenção, tornando-se mais transparente e interativo, inclusive valendo-se dos recursos digitais, mas sem se submeter à lógica algorítmica.

Devemos entender que os cidadãos, mesmo os de bom nível educacional, não conseguem fazer frente ao controle das redes sociais, e isso tende a se agravar com a inteligência artificial. As big techs disfarçam seus interesses e a resistência feroz a qualquer tipo de regramento como se fossem “liberdade de expressão”. Essa é uma mentira perversa, pois faz muita gente atuar contra seus próprios interesses, em favor dos dessas empresas.

A sociedade precisa se organizar para que essa máscara caia, e os cidadãos possam usar os recursos digitais para seu benefício, sem pagar com sua própria autonomia e até saúde mental. Os mais diferentes atores sociais precisam se engajar nessa causa, incluindo, entre outros, governos e universidades.

O jornalismo, obviamente, tem papel central nisso, mas precisa fazer as suas próprias necessárias transformações. Como disse Mesquita, “essa é, em essência, a tarefa histórica do jornalismo no século XXI: reconstruir as bases cognitivas da democracia em um mundo mediado por máquinas”.

 

Aravind Srinivas, CEO da Perplexity, que lançou em julho o Comet, seu navegador com IA - Foto: Kimberly White/Creative Commons

“Terceira guerra dos navegadores” traz benefícios e riscos para todos nós

By | Tecnologia | No Comments

A inteligência artificial está transformando os navegadores, o tipo de software que todos nós mais usamos. Além de exibir as páginas que queremos, essa nova geração incorpora assistentes de IA que oferecem interações contextuais, automação de tarefas e respostas inteligentes na mesma tela. Mas apesar desses benefícios, isso dispara alertas sobre invasão de privacidade e até interferência em nosso livre arbítrio.

Nesta terceira edição da “guerra dos navegadores”, programas como o Comet, da Perplexity, e o Atlas, da OpenAI, desafiam o domínio do Chrome, que reina com 65% desse mercado. O Google entrou nessa briga para não perder sua liderança, incorporando o Gemini, sua plataforma de IA, ao Chrome. Mas o gigante enfrenta o desafio de evitar que isso canibalize seu buscador, sua principal fonte de receita.

As empresas de IA querem ter seus navegadores, pois eles se tornaram o novo ponto de controle da vida digital. Passamos neles a maior parte do tempo online, portanto dominá-los significa ter acesso direto ao comportamento, às preferências e ao contexto de cada usuário. Integrar tudo o que fazemos a um agente de IA é o sonho de qualquer um que queira não apenas fornecer respostas, mas influenciar decisões.

O Google já promoveu o Chrome a um “aplicativo que faz tudo” nos seus Chromebooks, notebooks mais baratos em que o navegador é o local onde tudo funciona. Agora, com assistentes de IA interagindo com nossos e-mails, agenda, documentos, compras, relações sociais e tudo mais que fazemos online, isso vai além, tornando-se um intermediário invisível entre a vontade humana e a execução digital.

A produtividade norteia essa revolução, mas quando o navegador decide o que priorizar e até o que omitir, ele ameaça nossa autonomia. Trata-se de um deslocamento silencioso, mas profundo, na relação entre humanos e máquinas.


Veja esse artigo em vídeo:


Para entender a magnitude desses movimentos, vale revisitar as “guerras” anteriores. Na primeira, entre 1995 e 2001, a Microsoft esmagou o pioneiro Netscape Navigator, ao oferecer o Internet Explorer integrado gratuitamente ao Windows 95. O Netscape desabou de quase 90% do mercado para menos de 1% em uma década. Com isso, a Microsoft garantiu domínio absoluto e consolidou seu império digital.

A segunda, de 2004 a 2017, trouxe novos competidores, como Firefox, Opera e Safari, mas foi o Google Chrome, lançado em 2008, que mudou o jogo, ao oferecer leveza e integração ao buscador. Assim, rapidamente conquistou o mercado e hoje o domina com 65% de participação. Para o Google, essa vitória solidificou sua posição como a principal porta de entrada para a Internet, controlando o comportamento de busca de bilhões de pessoas e multiplicando sua receita publicitária.

Mudar hábitos é difícil, especialmente de algo tão enraizado quanto a forma de explorar a Web. O navegador é a ferramenta mais familiar que usamos online, e confiamos nele por ser estável e previsível. Mas conveniências bem desenhadas podem transformar comportamentos coletivos. Se um navegador com IA começa a lhes poupar tempo, as pessoas o adotarão rapidamente.

As vantagens para o usuário parecem claras à primeira vista. Os navegadores inteligentes podem se adaptar ao estilo de cada pessoa. A segurança também promete melhorar, com a IA identificando sites falsos, links suspeitos e comportamentos maliciosos com mais precisão, reduzindo riscos. Além disso, permite que os humanos e a IA acessem a Web simultaneamente, com o agente trabalhando em uma tarefa enquanto o usuário se concentra em outra.

Ironicamente, isso diminui a visibilidade da Internet. Os sites deixam de ser acessados e se reduzem a fontes de dados para treinar modelos de linguagem. Os usuários já começam a visitá-los menos, pois se contentam com as sínteses feitas pela IA, que escolhe, a seu critério exclusivo, o que mostrar e o que esconder. Com isso, produtores de conteúdo, veículos de imprensa e até o e-commerce podem perder dramaticamente relevância, audiência e receita, ampliando de forma exponencial o que se vê há anos com as redes sociais intermediando o consumo de informação do mundo.

Assim, a responsabilidade pelo conteúdo também muda de mãos. Antes, se o usuário não gostasse de algo, bastava fechar a aba. Porém, quando um navegador decide o que o usuário verá, torna-se coautor. Mas não se sabe quem responderá se a IA sugerir algo incorreto ou enviesado. A neutralidade informacional, princípio fundador da Web, se dilui em algoritmos proprietários e opacos.

 

Comandos obscuros

Um navegador com IA tem acesso a muito mais dados do que um “convencional”. Com o poder de inferir intenções, abre-se um campo fértil para manipulações sutis, mas poderosíssimas.

Há ainda o problema dos “prompts invisíveis”, comandos escondidos no código das páginas para manipular a IA. Um texto oculto pode instruir o navegador a elogiar um produto ou omitir críticas, por exemplo. Acrescente a coleta ampliada de dados e até como reagimos a determinados estímulos, e chegamos a um sistema que pode enviesar respostas e percepções sem que o usuário jamais perceba a manipulação.

O que era uma ferramenta de acesso à informação agora se transforma em uma estrutura de vigilância distribuída. A sociedade se vê novamente diante do dilema de como aproveitar esses recursos muito bem-vindos sem abrir mão da privacidade e da autonomia que definem a liberdade digital.

A resposta exige olhar para nossos erros recentes. Falhamos miseravelmente com as redes sociais, que nos manipulam profundamente com algoritmos opacos, alimentam vieses de confirmação e racharam a sociedade ao meio, polarizando o debate público de forma sem precedentes. Os navegadores com IA podem ampliar isso com uma camada ainda mais profunda de opacidade e influência comportamental.

Parece ser um caminho inevitável, pois a evolução tecnológica não retrocede. Mas não podemos seguir por ele passiva e inconscientemente. Desta vez, sabemos o que está em jogo e temos a chance de estabelecer regras antes que o estrago seja feito.

A sociedade precisa se organizar para aproveitar esses recursos de maneira segura, ética e produtiva. Isso significa exigir transparência sobre quais dados são coletados e como são usados. Marcos regulatórios robustos devem garantir a neutralidade, punir big techs por informações incorretas e desenvolver tecnologias de auditoria que nos permitam verificar como a IA está tomando decisões em nosso nome.

Caso contrário, os navegadores do futuro não serão janelas para o mundo, mas espelhos que refletem apenas o que os donos dos algoritmos desejam que vejamos.

 

Jensen Huang, CEO da Nvidia, apresenta novos GPUs durante a conferência GTC, em março - Foto: reprodução

Os US$ 5 trilhões da Nvidia esgarçam os limites razoáveis da IA

By | Tecnologia | No Comments

No dia 29 de outubro, a Nvidia atingiu estratosféricos US$ 5 trilhões de valor de mercado. Primeira empresa a chegar a essa marca, ela é o indicador mais reluzente da importância que a inteligência artificial passou a ocupar em nossas vidas. Mas o mercado já teme que a hipervalorização das empresas ligadas à IA seja uma bolha especulativa prestes a estourar. O questionamento mais importante, entretanto, é quanto a IA seria uma tecnologia viável sem essa injeção insana de dinheiro.

A euforia é justificada pelo seu potencial transformador. A consultoria Goldman Sachs calcula que ela deve elevar o PIB global em 7% e a produtividade em 1,5% em uma década. Nesse ano, já representa cerca de 40% do crescimento do PIB americano e é responsável por 80% dos ganhos nas ações. Sem a IA, o crescimento econômico da terra do Tio Sam teria sido cerca de um terço do que o atual.

Os exageros residem na pressa do mercado em querer que a tecnologia “entregue o futuro logo”, ignorando que poucas dessas empresas são lucrativas, e que a IA ainda impacta pouco ou nada nos resultados de 95% dos que nela investem, segundo o MIT. A própria OpenAI, maior estrela do setor e criadora do ChatGPT, opera no vermelho. Além disso, seu faturamento estimado pelo mercado em US$ 13 bilhões é insignificante perto dos US$ 300 bilhões que ela se comprometeu a gastar com infraestrutura da Oracle e US$ 250 bilhões com a Microsoft em cinco anos.

As empresas investem na IA porque têm medo de ficar para trás, não porque encontraram um modelo de negócio sustentável. Tudo isso alimenta a percepção de uma bolha especulativa. O próprio Sam Altman, CEO da OpenAI, disse em agosto que o setor de IA vive em uma e que “alguém vai perder uma quantidade fenomenal de dinheiro”.

Claro que não dá mais para deixar a IA de lado: seria como acabar com a Internet. Mas manter esses investimentos sem retornos concretos pode ser financeiramente insustentável e causar um “banho de sangue” em poucos anos. Essa corrida desenfreada para “ser dono” da IA já passou dos limites.


Veja esse artigo em vídeo:


Fundada em 1993, a Nvidia produzia processadores gráficos para games. Mas tudo mudou quando eles se tornaram vitais para os modelos de IA generativa. Desde 2022, impulsionada pela demanda explosiva de empresas como Microsoft, Google e Meta, sua valorização saltou de US$ 400 bilhões para os atuais US$ 5 trilhões. Os pedidos já contratados até o fim de 2026 já superam US$ 500 bilhões.

Ainda assim, é preciso perguntar se alguma empresa realmente pode valer US$ 5 trilhões. O valor supera o PIB de países como Japão, Reino Unido, Índia e Brasil. Essa desproporção afeta não só os investidores, mas governos, empregos e cadeias produtivas inteiras.

Bolhas nascem quando a sociedade passa a acreditar que algo crescerá para sempre. Os fundamentos somem da conversa e são substituídos pela esperança de que o próximo anúncio renderá bilhões. Quando a realidade decide cobrar a conta, a confiança evapora e leva consigo empresas, empregos e uma montanha de dinheiro.

A história está cheia de exemplos, como a mania das tulipas do século XVII, a expansão ferroviária do século XIX, as “empresas ponto-com” no ano 2000 e as hipotecas subprime em 2008. Todas seguiram a coreografia de dinheiro abundante, inovação promissora e discursos visionários desconectados de valor concreto.

A diferença agora é que a IA já demonstra impactos reais em grandes empresas, ainda que não em todas. Alguns especialistas afirmam que estamos, na verdade, em um processo acelerado de transformação industrial que precisa de investimentos pesados. Dessa forma, mesmo que muita gente acabe perdendo fortunas em algum momento, a sociedade se beneficiaria dos resultados desses investidores.

 

Guerra de interesses

Os interesses econômicos e políticos envolvidos na IA são incomensuráveis. Jensen Huang, CEO da Nvidia, precisa manter a confiança dos investidores para que continue crescendo. Altman pode admitir a bolha porque a OpenAI sobreviverá ao estouro dela, quando comprará os destroços dos concorrentes falidos. Analistas independentes, por sua vez, não têm nada a perder, e assim podem dizer as verdades inconvenientes.

O desenvolvimento do Vale do Silício sempre dependeu de apostas arriscadas com capital abundante. Investidores despejam dinheiro em startups obscuras, esperando que uma se torne o próximo Google. Isso leva à inovação acelerada e transformação de setores inteiros, mas também concentra o poder em poucas mãos, cria desperdício de recursos e ciclos de euforia seguidos de destruição. A IA é a “bola da vez”, tratada como uma aposta gigantesca em que poucos vencerão e muitos perderão tudo.

Tornar a inteligência artificial o motor do crescimento econômico americano é simultaneamente um benefício e uma armadilha. O primeiro está na possibilidade real de aumentar a produtividade e enfrentar desafios como escassez de mão de obra e envelhecimento populacional. A segunda está na dependência excessiva de uma tecnologia ainda imatura.

Os EUA estão apostando seu futuro em chips e algoritmos. Se a IA decepcionar, o fardo da dívida pública americana se tornará insustentável, e países inteiros serão puxados para o buraco junto com as big techs.

Por isso, é urgente colocar as coisas na balança. Há fundamentos e lucros na IA, mas também há ansiedade exagerada, euforia e risco real. Precisamos saber até que ponto essa valorização extraordinária cria riqueza sustentável, e quando ela passa a sugar recursos que deveriam ser distribuídos na sociedade.

No fim das contas, o que está em jogo não é só o destino das big techs, e sim políticas públicas, soberania econômica e desigualdades digitais e sociais. A IA já é parte indelével da nossa vida. Precisamos desenvolver senso crítico sobre ela, sem tratá-la como salvação mágica ou uma fraude inevitável.

Cada um de nós precisa entender o que está por trás das promessas reluzentes. É preciso fiscalizar governos, pressionar empresas por transparência, e defender regulações que mantenham a tecnologia a serviço das pessoas, e não do ciclo interminável de valorização. Só assim a IA será, de fato, um avanço que enriqueça a humanidade, e não apenas os acionistas de meia dúzia de empresas trilionárias.

 

Roberto Brito de Mendonça, líder da comunidade Tumbira (AM), trocou o desmatamento ilegal pelo turismo ecológico – Foto: reprodução

Onipresente nas cidades, Internet ainda amplia a fronteira civilizatória na Amazônia

By | Tecnologia | No Comments

Para você que está lendo isso, a Internet funciona de maneira líquida e certa, como uma força da natureza. Mas para quem vive na floresta amazônica, onde a natureza verdadeiramente se impõe, sua chegada amplia a fronteira civilizatória. Não se trata de conforto, e sim de uma “virada de época”, reconfigurando possibilidades de vida.

A Amazônia é um desses lugares onde a transformação digital é forçada aos seus limites operacionais, sociais e éticos. Não há comitês de inovação em salas com ar-condicionado simulando a floresta. A tecnologia se torna fator de sobrevivência em um teste de legitimidade. Afinal, se algo funciona lá, funciona em qualquer lugar; se fracassa, expõe que o discurso digital talvez fosse frágil, apenas protegido por infraestrutura abundante. E se a tecnologia não preserva a vida com sentido e não produz valor para quem mora na floresta, ela falha miseravelmente.

Pude comprovar esse impacto na semana passada, quando visitei a comunidade ribeirinha Tumbira e a aldeia da etnia Kambeba Três Unidos, ambas nas margens do rio Negro, a cerca de duas horas de lancha de Manaus (AM). Assim como outras 796 comunidades, elas recebem orientação e investimentos da Fundação Amazônia Sustentável (FAS), totalizando 21 mil famílias assistidas na região. Para isso, há dez anos usa soluções da gigante de software alemã SAP na gestão de seus projetos, com ganhos em transparência, planejamento e impacto socioambiental.

A FAS visa conservar o bioma pela valorização da “floresta em pé” e melhorar a qualidade de vida das populações da Amazônia. Partindo do pressuposto de que pessoas com melhores condições cuidarão mais da natureza, implanta programas de educação, cidadania, saúde, empoderamento, pesquisa e inovação, conservação ambiental, empreendedorismo e geração de renda. Também melhora a infraestrutura das comunidades, inclusive com eletricidade e Internet, apoiada por empresas.

Isso impede que a Amazônia entre em um colapso ecológico, o que agravaria a crise climática global. Portanto, não se trata de ganhos pontuais. Eles fortalecem a posição do Brasil como um país capaz de conservar e gerar prosperidade na região, não apenas por ser “dono da floresta”, mas sim dono de soluções.


Veja esse artigo em vídeo:


A floresta impõe o aprendizado de que programas de transformação digital que chegam prontos, sem aderência cultural, morrem por falta de enraizamento. “Não impomos nada de cima para baixo, ou a comunidade não se engaja”, explica Michelle Costa, superintendente de Gestão e Finanças da FAS.

Ela lembra também que o Terceiro Setor amazônico opera sob grande estresse, com sua reputação sempre atacada, recursos limitados frente a altos custos, eventos climáticos extremos, enormes distâncias e infraestrutura precaríssima. Além disso, enfrentam a violência de traficantes e outros criminosos típicos da região.

Em um ambiente tão hostil, nenhuma organização pública, privada ou social consegue operar sozinha. “Sustentabilidade, você não faz sozinho, faz em parcerias”, afirma Pedro Pereira, diretor de Sustentabilidade da SAP para a América Latina e Caribe. Iniciativas como essas ajudam a reconectar a inovação ao seu fundamento de produzir valor para pessoas reais, em situações reais.

De fato, sustentabilidade que não entrega valor morre e projetos locais de ESG que não resistem ao “teste da Amazônia” cheiram a simples retórica. Em ambientes onde quase tudo falta, não há espaço para enfeite, apenas para o que gera resultados verificáveis.

Ao orientar, investir e conectar essas comunidades, elas ganham visibilidade e melhoram seus produtos. Isso muda sua posição na cadeia de valor, abandonando o papel de dependente e vulnerável e promovendo sua emancipação econômica.

 

Meu avô e meu pai cortavam árvores

“Não sou ambientalista, nem ativista”, esclarece Roberto Brito de Mendonça, líder da comunidade Tumbira. “Nosso trabalho é para dar qualidade de vida para nós mesmos”, acrescenta.

Ele cresceu cortando madeira ilegalmente para seu sustento, pois seu pai e seu avô faziam isso: “eles usavam machado; eu usava motoserra”. Com a FAS, trocou o desmatamento pelo turismo ecológico. Hoje é dono de uma pousada, faz transporte, excursões e oferece alimentação. Pensa agora em criar um espaço para eventos.

“A gente trabalha de forma unida para melhorar a comunidade na saúde, na educação e na sustentabilidade”, conta Neurilene Cruz, dona do restaurante Sumimi, que fica na aldeia Três Unidos. As cinco mulheres que o operam precisaram vencer o machismo, que ditava que “mulher não cozinha para fora”.

Graças ao apoio da FAS, a aldeia também conta hoje com dois atletas: um no tiro com arco e outro na canoagem. Eles sonham em participar de uma olimpíada, mas Cruz lamenta a dificuldade de conseguir patrocínios na região.

Fica claro que parcerias que respeitam os contextos de cada comunidade são desenhadas para que ela queira que funcione, e não para que uma organização externa as destaque em seus relatórios. E quando vozes da floresta ganham visibilidade, não se pode mais falar da Amazônia como se ela fosse mera paisagem.

É por isso que tratar a chegada da Internet na região como um simples serviço é demasiadamente reducionista. Ela cria infraestrutura de cidadania, com informação, educação, saúde e inclusão. Onde o Estado não chega, o mercado não se interessa e a geografia intimida, a conectividade tira populações inteiras da invisibilidade e as integra ao mundo, respeitando suas culturas.

Dessa forma, se o Brasil considera mesmo estratégico ter “a floresta em pé”, deveria considerar igualmente estratégico ter os povos da floresta conectados. Sem isso, a Amazônia se limita à imagem da “imensidão verde”, quando as pessoas que lá vivem podem e devem ser agentes de um futuro melhor para si.

A Amazônia redefine, assim, que parcerias não podem ser apenas transações, vitrines ou mecanismos de reputação. Elas devem ser arranjos de execução compartilhada, onde a escuta vem antes de tecnologia e método. E quando esse tipo de parceria frutifica diante de tantos desafios, o restante do país precisa se questionar por que não daria certo onde tudo sobra se funciona onde tanta coisa falta.

 

Sam Altman, CEO da OpenAI, justifica abertura à pornografia dizendo que ela “não é a polícia moral eleita do mundo” - Foto: reprodução

OpenAI faz vista grossa e troca ética por engajamento com pornografia no ChatGPT

By | Tecnologia | No Comments

A OpenAI anunciou que permitirá conteúdo adulto no ChatGPT, incluindo aplicativos eróticos na plataforma criados por empresas externas. Só que, disfarçada de liberdade criativa, a medida carrega riscos enormes, que vão muito além da exposição de adolescentes. A novidade insere tecnologia sofisticada em um campo carregado de estereótipos, manipulação e consequências sociais imprevisíveis, e isso afeta até quem não consome pornografia.

Desenvolvedores independentes e a própria OpenAI ganharão com a abertura de um mercado enormemente lucrativo até então inexplorado pela empresa. Do outro lado, adolescentes ficarão mais vulneráveis, assim como qualquer pessoa sujeita à naturalização de padrões sexuais distorcidos.

Na quarta passada (15), o CEO Sam Altman declarou que a OpenAI “não é a polícia moral eleita do mundo”, ao justificar a liberação. A frase parece uma defesa de princípios, mas é desonesta. Em agosto, ele dizia sentir orgulho por evitar “bots de sexo”, que dariam engajamento, mas seriam “desalinhados com o objetivo de longo prazo” da empresa. Agora, o negócio parece ter pesado mais do que a ética.

Esse recurso deve piorar, reforçar e perpetuar estereótipos já consolidados na pornografia. Mulheres e minorias podem ser retratadas de forma ainda mais degradante, e a tecnologia, em vez de corrigir distorções, tende a amplificá-las, criando novas camadas de objetificação.

Não é exagero dizer que isso pode alterar a maneira como as pessoas se relacionam entre si. Expectativas inatingíveis, comportamentos sexualizados distorcidos e uma compreensão enviesada do consentimento são consequências prováveis, pois este recurso reduzirá a necessidade de lidar com a complexidade de parceiros reais.

Mas gostem ou não, as pessoas precisam se relacionar com gente de verdade.


Veja esse artigo em vídeo:


Na prática, o novo recurso permitirá que adultos acessem conteúdos e experiências eróticas gerados pelo ChatGPT ou por aplicativos feitos para a plataforma. Esses aplicativos poderão oferecer interações de texto, histórias eróticas, sexting e até a geração controlada de imagens adultas. A liberação está prevista para dezembro.

O serviço também incluirá filtros opcionais e controle parental, mas a eficácia é incerta. A empresa quer consolidar uma “abordagem responsável”, mas deixa claro que a responsabilidade real será do usuário.

Altman afirma que quer “tratar adultos como adultos”. Ele justifica a mudança dizendo que novos sistemas de detecção de idade e controles de saúde mental tornaram essa liberação viável. Mas, ao se afastar da imagem de “empresa moralista” e permitir esse tipo de material, a OpenAI assume riscos éticos, agradando investidores que despejaram bilhões no negócio. E eles esperam crescimento brutal e contínuo, sem se impressionarem com escrúpulos morais.

Altman provavelmente sempre soube que liberaria conteúdo adulto se quisesse que o ChatGPT se tornasse uma plataforma verdadeiramente aberta. A diferença é que ele antes resistia por orgulho moral, criando agora essa incoerência que tenta dissolver ao racionalizar o conflito com a retórica sobre não ser “paternalista”.

A ironia é que, sob o pretexto de dar liberdade para adultos, o público está sendo usado como laboratório social, enquanto a empresa testa limites éticos.

 

Negócio arriscado

A indústria pornográfica agradece por ser legitimada por uma das empresas mais poderosas da tecnologia. A OpenAI, por sua vez, expande seu modelo de negócios e atrai usuários insatisfeitos com restrições. Por fim, adultos que defendiam essa flexibilização conquistam o que pediam, sem se preocupar com consequências.

Crianças e adolescentes, por sua vez, estarão mais próximos da exposição precoce a esse tipo de conteúdo, deixando para as famílias enfrentarem um ambiente digital ainda mais difícil de gerenciar. Não se pode esquecer que sistemas de verificação de idade na Internet têm uma eficácia historicamente deplorável.

O risco se agrava justamente quando a sociedade exige plataformas digitais mais seguras para jovens. A própria OpenAI enfrenta acusações sobre impactos de seus sistemas sobre pessoas que se suicidaram depois de interagir com o ChatGPT. Adicionar conteúdo adulto antes de resolver essas vulnerabilidades é arriscado e negligente, até que se prove o contrário.

Essa abertura da plataforma também pode ser usada para crimes não previstos pela empresa, como a produção de deepfakes pornográficos sem consentimento, extorsão sexual, material de abuso infantil e tráfico sexual. A moderação prometida não se sustenta, pois identificar infrações em bilhões de interações é praticamente impossível, e os criminosos são rápidos em explorar vulnerabilidades de novas tecnologias.

Plataformas de IA que já permitem conteúdo adulto, como o Grok, enfrentam problemas semelhantes, como perda de controle, vazamento de material sensível, reforço de estereótipos e dificuldade de fiscalização. A OpenAI pode repetir os mesmos erros, mas em escala muito maior, graças à popularidade do ChatGPT.

Portanto, mesmo quem gosta de pornografia não pode encarar a decisão da OpenAI como bem-intencionada ou mesmo ingênua. Ela representa uma aposta consciente de que lucros e crescimento valem os riscos de fortalecer estereótipos prejudiciais, facilitar crimes sexuais e até prejudicar relacionamentos reais entre pessoas.

Sabemos que, como de costume, a empresa fará o que quiser, a despeito de protestos ou evidências de perigo. Resta à sociedade exigir transparência através de relatórios públicos sobre falhas, pressionar por auditorias independentes dos sistemas de proteção, cobrar leis que estabeleçam padrões mínimos de segurança e desenvolver educação digital que prepare pessoas, especialmente jovens.

Infelizmente conseguir isso talvez seja o mais difícil de tudo. Mas não dá para depender apenas das boas intenções da OpenAI.

 

Professora ajuda aluna a usar tablet em sala de aula -Foto: Freepik/Creative Commons

Mesmo com formação e apoio limitados, professores brasileiros usam muito a IA

By | Educação, Tecnologia | No Comments

Nesta quarta, comemora-se o Dia do Professor no Brasil. Mas, apesar de seu papel decisivo para a construção do país, esses profissionais têm pouco a celebrar, pelas conhecidas condições precárias de trabalho e formação e apoio limitados da sociedade. Ainda assim, persistem em sua nobre tarefa, até mesmo adaptando-se às mudanças tecnológicas na profissão, como as impostas pela inteligência artificial.

Chega a ser surpreendente que, mesmo com tantas condições adversas, os professores brasileiros estejam entre os que mais usam essa tecnologia no seu trabalho. A informação é da pesquisa Talis (sigla em inglês para Pesquisa Internacional de Ensino e Aprendizagem), publicada no dia 6 pela OCDE (Organização para a Cooperação e Desenvolvimento Econômico). Realizada desde 2008, cerca de 280 mil professores de 54 países participaram dessa edição.

O Brasil aparece em décimo nesse quesito, com 56% dos professores do Ensino Fundamental II usando IA nas suas aulas. Na liderança, empatados com 75%, estão os professores dos Emirados Árabes Unidos e de Cingapura. O país cujos professores menos usam é a França, com apenas 14%. A média dos países da OCDE é de 36%.

Vale notar que a adoção da IA na sala de aula varia bastante entre os países com educação de alta qualidade. Cingapura é o único desses acima do Brasil na Talis. Outras nações com educação de destaque vêm depois, como Coreia do Sul (43%), Dinamarca (36%), Estônia (35%) e Finlândia (27%).

Por isso, precisamos entender as condições em que essa tecnologia é utilizada na escola e o que leva os professores a adotá-la. Um uso sem preparo e sem apoio pode ajudar em tarefas pontuais, mas também prejudicar a própria compreensão da IA.

Já falhamos na educação dos jovens para o uso das redes sociais, levando a problemas graves e diversos. Repetir o erro com a IA pode transformar uma tecnologia poderosa e revolucionária em uma máquina de controle social e limitação cognitiva.


Veja esse artigo em vídeo:


Há cinco anos, os professores tiveram que se desdobrar para dar aulas a distância durante o período de isolamento social da pandemia de Covid-19. A maioria não teve qualquer treinamento ou apoio e muitos eram até criticados por pais que não gostavam do resultado, o que levou muitos à depressão.

Agora, com a inteligência artificial, não está sendo muito diferente. Segundo a Talis, os professores brasileiros usam essa tecnologia por necessidade prática e improvisação pedagógica, sem o planejamento institucional de outros países.

Oito em cada dez docentes usam a IA no planejamento de aulas e atividades, para economizar tempo. Além disso, 62,6% usam a tecnologia para aprender mais sobre determinados temas ou para criar resumos, enquanto 35,6% a usam para correção de trabalhos e avaliações. Os robôs ajudam na personalização do ensino em 64,2% dos casos, e auxiliam 53,7% dos estudantes com necessidades especiais. Até na comunicação com pais a IA está sendo usada, por 39,4% dos professores.

Esses números sugerem que os professores estão dominando essa tecnologia. Mas a realidade é bem diferente: 64% dos brasileiros dizem não ter habilidades para usar IA de forma pedagógica e 60% afirmam que suas escolas não têm infraestrutura adequada. Ou seja, a IA vem sendo usada de forma empírica e autodidata, como ferramenta de sobrevivência e improviso, sem apoio institucional, muitas vezes recorrendo a smartphones e redes móveis pessoais para acessar esses recursos.

Um professor preparado otimiza tarefas mecânicas com a IA, liberando tempo para observar cada aluno, mediar conflitos, acolher dúvidas e inspirar curiosidade, tarefas insubstituíveis da docência. Sem preparo, a IA pode levar à automação do que deveria permanecer humano, criando planos de aula genéricos, respostas padronizadas e avaliações que não captam as nuances de cada estudante. Nesse caso, o professor deixa de ser maestro do processo de aprendizagem e vira operador da máquina.

 

Abismo social e pedagógico

Essa falta de preparo e apoio para uso da inteligência artificial pode, portanto, ampliar desigualdades há muito conhecidas. As melhores escolas privadas já estão atentas a isso. O problema aparece em todo o resto.

Políticas públicas devem priorizar formação continuada específica em IA para os professores, indo muito além da simples distribuição de equipamentos, apostando na capacitação sólida e supervisão ética. Mas deve haver também incentivo!

Por exemplo, o Ministério da Educação oferece um curso de 180 horas sobre aplicação pedagógica da IA para professores e gestores. Isso é positivo, mas poucos professores conseguem dedicar 180 horas para sua formação, com jornadas de trabalho duplas ou triplas. Além disso, as escolas não liberam seus docentes para uma atividade assim, e muitos nem têm acesso à Internet de qualidade. Autoridades da educação deveriam aproveitar o interesse espontâneo que a Talis revelou para construir uma política de formação docente em IA consistente.

Os professores precisam ser formados para entender as limitações e riscos da IA, evitando soluções prontas e situações em que algoritmos reproduzem vieses ou cometem equívocos. Caberá ao educador julgar o que delegará à máquina, pois educar é muito mais do que transmitir informação ou corrigir respostas.

O professor deve formar pensamento crítico, ensinar a fazer boas perguntas e ajudar jovens a desenvolver empatia, criatividade e resiliência. Deve estar presente quando um aluno tem dificuldade não apenas cognitiva, mas emocional. E precisa perceber uma turma em dificuldade, mudando a estratégia no meio da aula.

Tudo isso passa pelo reconhecimento social da docência, ainda muito baixo no Brasil. Segundo a pesquisa, apenas 14% dos professores sentem-se valorizados e só 22% estão satisfeitos com seus salários, enquanto 66% se sentem pressionados pelos resultados de seus alunos.

A IA pode transformar o cotidiano escolar e devolver tempo e propósito ao trabalho docente. Mas, para isso, é indispensável que professores sejam protagonistas do processo, e não apenas usuários de soluções importadas e pouco contextualizadas.

O Brasil tornou-se um laboratório, com inovação sem estrutura, um protagonismo ameaçado e um potencial transformador que só se realizará com aposta clara na valorização humana da educação. O protagonismo docente precisa ser preservado com uma formação continuada, ética digital e autonomia pedagógica.

 

Freddie Mercury, compositor de “Bohemian Rhapsody” e vocalista do Queen, encerra show da banda – Foto: reprodução

Criatividade artificial e tirania de algoritmos hoje matariam “Bohemian Rhapsody”

By | Tecnologia | No Comments

Se fosse lançada hoje, a tirania dos algoritmos das plataformas de streaming teria matado “Bohemian Rhapsody”, obra-prima do Queen. Seus 5 minutos e 55 segundos e estilo para lá de ousado não passariam pelo crivo dessas plataformas, que promovem insistentemente músicas de até 3 minutos, para satisfazer uma geração de ouvintes ansiosos. Mas outro fator nos privaria dessa que é considerada uma das músicas mais inventivas da história: a “criatividade estatística” da inteligência artificial.

O debate ganhou força com regras do Spotify para coibir o uso indevido de IA em sua plataforma, anunciadas no dia 24 de setembro. Elas incluem filtros rígidos para evitar spam musical, proteção contra a imitação não autorizada de artistas e a exigência de transparência na adoção da tecnologia. Segundo a plataforma, o objetivo não é punir o “uso criativo” da IA, mas impedir práticas que prejudiquem artistas e ouvintes.

Apesar de restrições assim, o concorrente Deezer aponta que hoje 28% das músicas publicadas na plataforma são totalmente feitas por IA; em janeiro, eram “apenas” 10%. Um estudo da consultoria francesa PMP Strategy, publicado em dezembro, indicou que, até 2028, os artistas perderão 24% da receita no setor, pela substituição das obras humanas pelas geradas por IA e pelo uso não autorizado de criações originais.

As plataformas de streaming e a IA estão transformando nosso gosto e a própria produção musical. Mas essas mudanças vão muito além do audiovisual. Com o tempo, a IA modificará qualquer tipo de produção em nosso cotidiano, e infelizmente há um risco concreto de que isso leve a uma piora acentuada na qualidade.

Isso acontecerá porque já estamos usando, como ferramenta criativa, uma tecnologia que muitos especialistas afirmam não ter nenhuma criatividade. E isso pode gerar um círculo vicioso que achatará cada vez mais o nível da sociedade.


Veja esse artigo em vídeo:


O limite dos três minutos dos algoritmos acontece porque, se alguém não ouve uma música até o fim, eles entendem que a pessoa não gostou tanto dela, passando a promovê-la menos. Como uma música curta tem mais chance de ser ouvida inteira, os artistas estão se limitando a esse tempo, mesmo que isso castre seu desejo criativo.

A inteligência artificial, que é mestre em identificar padrões e maximizar resultados, já captou esse comportamento. Por isso, as músicas que produz estão cada vez mais curtas e óbvias, abolindo recursos como introduções e solos instrumentais. É o “fast food musical” levado às últimas consequências, criando obras musicalmente ruins, mas fáceis de agradar um público intelectualmente mais preguiçoso.

Tudo isso é polêmico. O que torna uma música “boa” depende de técnica, emoção e contexto cultural. Aspectos como harmonia, melodia e produção influenciam a qualidade, mas não se pode ignorar a capacidade de gerar conexão emocional. Além disso, valores culturais e de época moldam a percepção, indicando que o julgamento musical é sempre atravessado pelo gosto pessoal.

A IA se sai bem na parte técnica da criação, pois reproduz padrões de harmonia, melodia e arranjo aprendidos ao analisar milhões de músicas, o que garante rapidez, baixo custo e versatilidade. Mas ela falha no resto, pois lhe falta emoção, intenção e vivência cultural, elementos que transformam um amontoado de notas em uma obra de arte capaz de marcar as pessoas.

É por isso que músicas, textos, vídeos e qualquer produção da IA podem ser tecnicamente impecáveis, mas costumam ser sempre “mais do mesmo”. Parece legítimo, então, discutir se essa tecnologia é afinal criativa.

 

A essência da criatividade

Na verdade, esse questionamento pode mais confundir que ajudar. O problema não é se máquinas podem ser inventivas, mas entender o que realmente significa criatividade e se estamos dispostos a reconhecê-la em processos não-humanos.

A IA pode combinar elementos de formas inesperadas, produzindo trabalhos originais e, em alguns casos, até surpreender. Se um humano fizesse o mesmo, chamaríamos de criatividade sem pestanejar. Mas críticos argumentam que a IA apenas recombina padrões aprendidos em seu treinamento, sem verdadeira compreensão ou intenção.

A criatividade humana também opera por recombinação. Artistas criam a partir de conceitos e técnicas que aprenderam. Mas há duas diferenças essenciais. A primeira é a consciência e a intencionalidade do artista; a segunda, o fato de poder se inspirar pela sua experiência por estar vivo. Essas são duas coisas que a IA não tem. Assim, se criatividade for definida como a capacidade de criar algo novo a partir do que se sabe, a IA demonstra que pode haver criatividade sem consciência, simulada, diferente da humana em aspectos importantes.

A grande diferença recai na intencionalidade.

Talvez, no futuro, ela também consiga simular estatisticamente essa característica tão humana. Até lá, ela será refém de sua construção que privilegia sempre os caminhos mais óbvios, seguros e estatisticamente mais relevantes.

No final, esta estrutura e o despotismo dos algoritmos de relevância tornam o mundo mais homogêneo e menos criativo, seja com produções humanas ou artificiais. Desvios, falhas e o inesperado do nosso cotidiano, que alimentam os melhores artistas, não são tolerados pelas máquinas.

É por isso que a IA jamais comporia algo como “Bohemian Rhapsody”, a menos que a obra fosse detalhadamente solicitada por uma mente inquieta humana, capaz de olhar além do óbvio e do provável. Mesmo a “estética do erro”, que usa imperfeições e falhas como elementos criativos que desafiam a perfeição técnica, para novas formas de arte, não teria espaço com “artistas estatísticos”.

Diante dessa cisma criativa, talvez o mais produtivo seja começar a questionar como a criatividade da máquina se relaciona com a nossa, e descobrir como essas ferramentas podem ampliar nossa própria capacidade criativa.

O mais importante é que a criatividade artificial sirva a propósitos humanos e não apenas interesses comerciais, como parece acontecer no momento em que produz músicas, textos ou imagens tecnicamente perfeitas, mas de qualidade questionável, ainda que de fácil agrado. Afinal, uma das características mais marcantes da arte é nos ajudar a crescer como seres humanos, superando a mesmice do dia a dia.

 

Dixie John e Gabriela Vogel, diretora e vice-presidente do Gartner, falam na abertura da Conferência CIO & IT Executive – Foto: divulgação

Empresas devem equilibrar tecnologia e humanidade para extrair valor da IA

By | Tecnologia | No Comments

A inteligência artificial colocou as empresas em uma encruzilhada digital histórica. Extrair valor real dessa tecnologia exige mais que investimentos em sistemas e servidores. Para isso, as lideranças precisam também gerenciar expectativas e cuidar do preparo humano das equipes.

Até hoje, apenas 20% dos projetos de IA alcançaram retorno financeiro, e míseros 2% promoveram uma transformação real nos negócios, onde reside o seu grande potencial. As empresas que encontram, capturam e sustentam ganhos com a IA são as que se afastam da descrença exagerada, que impede qualquer ação, e do deslumbramento inconsequente, que leva a investimentos sem foco.

Essas foram algumas das principais mensagens da Conferência Gartner CIO & IT Executive, que aconteceu em São Paulo entre 22 e 24 de setembro. O problema muitas vezes vem do desalinhamento de expectativas, com as companhias investindo apenas em projetos de produtividade, mas esperando grande geração de receita.

Atravessar esse “vale da desilusão” pede líderes que enfrentem ceticismo, calibrem metas e sustentem investimentos, mesmo sem resultados imediatos. Isso fica mais desafiador quando, segundo o Gartner, 95% dos latino-americanos querem usar IA, mas só 40% confiam que seus gestores farão os movimentos de forma responsável.

Isso explica por que as empresas já percorreram quase metade do caminho da prontidão tecnológica para o uso da IA, mas esse avanço mal chega a um quarto no preparo humano. O medo de perder o emprego, a curva de aprendizagem íngreme e sobretudo a falta de confiança na chefia explicam essa diferença.


Veja esse artigo em vídeo:


A maturidade tecnológica também atrapalha. A IA generativa ainda erra em até 25% em certos casos, inaceitável para setores que exigem precisão. Por isso, as empresas precisam criar métricas formais de checagem cruzada entre modelos e definição de níveis aceitáveis de erro. Além disso, se 88% dos líderes globais já focam em agentes conversacionais, o grande poder está em agentes capazes de tomar decisões, mas eles ainda não estão prontos para processos complexos de ponta a ponta.

O investimento inicial em IA médio em grandes empresas alcança R$ 10 milhões reais, mas gastos contínuos com treinamento, mudanças e modelos múltiplos podem dobrar ou triplicar esse valor. Por isso, o Gartner considera a escolha de fornecedores uma “decisão de soberania”, pois as big techs comportam-se como “nações digitais”, capazes de influenciar regras e infraestruturas.

Segundo a consultoria, o próximo salto na IA promoverá a migração do modelo de negócios digitais para o de negócios autônomos. Esse modelo prevê tecnologias que aprendem e se aperfeiçoam sozinhas entregando valor com mínima supervisão humana.

“Embora o nome possa sugerir algo nada humano, o negócio autônomo, de várias maneiras, é profundamente humano”, provocou Frank Buytendijk, vice-presidente analista do Gartner. Para ele, enquanto os sistemas funcionam e inovam sozinhos, as pessoas assumem papéis de supervisão, coordenação e criação. Até mesmo os clientes passam a gerenciar sua experiência com apoio da IA.

O ano que vem deve marcar um ponto de inflexão, com a IA permeando todas as frentes do negócio. “Os líderes de tecnologia terão que ser super-heróis para lidar com tudo isso ao mesmo tempo”, sugeriu Soyeb Barot, também vice-presidente analista. Ele explica que os líderes de TI precisarão assumir três papéis estratégicos para enfrentar a disrupção: o “arquiteto”, que desenha estruturas sólidas, o “sintetizador”, que conecta dados e contextos, e o “vanguardista”, que ousa no risco calculado.

 

Medo do desemprego

O avanço dos negócios autônomos desperta temores legítimos de desemprego. Apesar do impacto, apenas 1% das demissões recentes decorreu diretamente da IA. Para o Gartner, o maior desafio está na queda de contratações em posições iniciais e na necessidade de requalificação de quem já está no mercado.

“Hoje 81% do trabalho de TI é feito por humanos sem IA, mas, até 2030, 75% será realizado por humanos ajudados pela IA e 25% pela IA sozinha”, afirmou Gabriela Vogel, vice-presidente analista. “Ou seja, 0% do trabalho será feito sem IA”, conclui.

A automação é inevitável para sustentar produtividade em um planeta que envelhece e perde força de trabalho. Nesse quadro, o papel humano migra da execução para a supervisão. Até 2030, o Gartner prevê mais empregos criados do que eliminados, com 20 milhões de brasileiros usando IA de forma significativa. E já em 2028, o país deve gerar mais vagas ligadas à IA do que extinguir.

Diante de tudo isso, os gerentes deixam de ser apenas chefes e se tornam mentores. Cabe a eles agora ajudar suas equipes a se desenvolver e a enfrentar a “atrofia de habilidades”, ou seja, a perda de competências críticas, como segurança e pensamento analítico por um uso inadequado da inteligência artificial.

Devemos também começar a ver “profissionais canivetes suíços”, capazes de aplicar IA em qualquer contexto. Além deles, surgem os “engenheiros de contexto”, que superam o foco limitado dos “engenheiros de prompt” na adoção da tecnologia.

Como se pode ver, a transformação para se apropriar do mais nobre que a IA tem a oferecer não é apenas técnica. O propósito organizacional precisa ser revisitado para não fazer “apenas o que o mercado pede”, mas, sim, alinhar essas mudanças a um propósito humano e social. O negócio autônomo precisa tornar as organizações mais humanas, liberando as pessoas para funções criativas, de supervisão e de decisão estratégica, enquanto as máquinas cuidam do trabalho repetitivo e invisível.

Não basta acompanhar a evolução da tecnologia. A verdadeira disrupção acontece na interseção entre algoritmos e valores humanos, como identidade, confiança e tomada de decisão. O “caminho dourado do valor”, como foi descrito na conferência, não é uma corrida por máquinas mais poderosas, e sim a construção de um futuro em que tecnologia e humanidade avancem lado a lado.

 

A pesquisadora Erin Kunz (ao centro) em seu estudo para criar neuropróteses de fala para pacientes com paralisia – Foto: reprodução

IA pode romper a última fronteira da privacidade humana

By | Tecnologia | No Comments

A inteligência artificial está sendo usada com outra ciência de ponta, a dos implantes neurais, para criar habilidades inéditas ou solucionar limitações físicas, como dificuldade de falar ou de se mover. Isso é algo muito bem-vindo, que beira a ficção científica, mas desperta alguns alertas de privacidade até então inimagináveis.

Afinal, se uma máquina for capaz de ler com boa precisão o que se passa em nosso cérebro para realizar essas tarefas, que garantias teremos de que nossos pensamentos mais íntimos estarão protegidos?

O cérebro continua sendo o último bastião da nossa privacidade. Nossos pensamentos são apenas nossos até que decidamos compartilhá-los. Mas agora novas aplicações da tecnologia BCI (sigla em inglês para “interface cérebro-computador”) podem mudar isso.

Uma pesquisa recente, que visava identificar palavras que uma pessoa estava pensando para reproduzi-las em um alto-falante, identificou também pensamentos cujo dono não pretendia compartilhar. Considerando que temos cerca de 50 pensamentos por minuto, qualquer sistema com essa proposta merece atenção redobrada.

O experimento ainda é embrionário, portanto ninguém precisa ter medo de que o ChatGPT acessará nossos segredos se não contarmos a ele. Mesmo assim, isso já deve alimentar debates sobre como impedir que máquinas invadam esse espaço sagrado que sustenta nossa própria individualidade. Além disso, na mão de governos e de outros grupos de poder, isso significaria a ferramenta definitiva de manipulação das pessoas.


Veja esse artigo em vídeo:


O estudo, liderado por Erin Kunz, da Universidade de Stanford (EUA), foi publicado no dia 21 de agosto na revista “Cell”. O objetivo era criar neuropróteses de fala para pacientes com paralisia. Usando microeletrodos implantados e com a ajuda da IA, os pesquisadores decodificaram frases imaginadas em tempo real com precisão de até 74% em vocabulários com 125 mil palavras. O sistema possibilitava uma comunicação mais rápida e natural em comparação aos métodos atuais de tentativa de fala.

Para proteger a privacidade dos voluntários, os cientistas definiram a frase “chitty chitty bang bang” como uma senha mental que precisava ser pensada para ativar a decodificação. Este mecanismo permitiu bloquear a captura involuntária de pensamentos em 98% dos casos. Eles concluíram que esse sistema tem grande potencial para revolucionar a comunicação assistida, ao mesmo tempo em que ressaltaram os desafios éticos relacionados à privacidade mental, sugerindo um caminho seguro e controlado para futuras aplicações clínicas.

O mecanismo parece eficiente, mas fiquei pensando no “experimento” de dizer a alguém: “não pense em um elefante rosa com bolinhas azuis”. Via de regra, depois de ouvir esse comando, todo mundo justamente pensa nesse paquiderme surrealista. Qual seria a viabilidade de usar esse recurso para “invadir” os pensamentos alheios?

A mente humana não é uma caixa lacrada, sendo sensível a pistas, associações e contexto. Palavras, imagens, perguntas e o ambiente podem “provocar” uma ideia, tornando-a mais acessível na memória. Experimentos cognitivos simples usam um conceito repetido para que certas imagens ou expressões venham à mente de maneira mais fácil. Mas induzir alguém a revelar ou usar sua senha cruza a linha para engenharia social e fraude. Infelizmente criminosos não se preocupam com isso.

É plenamente legítimo e até necessário que uma pessoa mantenha segredos, mesmo em relações de grande afeto. O direito de guardar para si certos pensamentos, lembranças ou informações é parte essencial da autonomia individual e da saúde psíquica. Por isso, as possibilidades descritas no estudo liderado por Kunz abrem muitos questionamentos éticos e jurídicos.

 

“Neurodireitos”

Pesquisadores e alguns governos começam a se preocupar com o que vem sendo chamado de “neurodireitos”. Eles propõem que pensamentos passariam a ser classificados como dados sensíveis, que poderiam e deveriam ser protegidos.

Diante disso, o grupo liderado pelo espanhol Rafael Yuste, do Centro de Neurotecnologia da Universidade de Columbia (EUA), propôs cinco “neurodireitos” fundamentais para proteger os indivíduos diante dos avanços dessa tecnologia. Ele é uma figura central nesse conceito e na articulação de propostas para a proteção legal e ética da mente humana, tendo já influenciado políticas internacionais nessa área.

Os pontos defendidos por Yuste são a privacidade mental, que impede que pensamentos sejam acessados sem permissão; a identidade pessoal, que protege contra manipulação da personalidade; o livre arbítrio, garantindo que não haja indução nas decisões dos indivíduos; o acesso equitativo à neuroaumentação, evitando assimetrias sociais ao garantir a oferta a todos dessas melhorias de capacidades cognitivas; e a proteção contra vieses e informações mal-intencionadas, buscando reduzir discriminações embutidas nos sistemas neurotecnológicos.

Tudo isso parece residir em um futuro distante e incerto. Mas precisamos pensar que, há míseros três anos, simplesmente não debatíamos esses impactos da inteligência artificial em nossas vidas. O ChatGPT foi lançado em novembro de 2022 e, desde então, essa tecnologia invade exponencialmente tudo que fazemos.

A autonomia individual presume o direito a manter segredos. Todos devem conservar pensamentos, lembranças e sentimentos, sem a obrigação de dividi-los, mesmo em relações íntimas. Essa “privacidade cognitiva” preserva sua identidade em um espaço interno inviolável. Tanto que Constituições democráticas garantem isso ao assegurar a inviolabilidade da vida privada. No Brasil, uma Emenda Constitucional de 2022 incorporou dados pessoais, incluindo os digitais, a essa proteção.

Além de resguardar a identidade, esse direito fortalece os vínculos afetivos. Relações saudáveis reconhecem que não deve haver transparência total. Pelo contrário, respeitar o espaço íntimo do outro impede a vigilância e a dependência emocional.

Guardar segredos não equivale a mentir. É a liberdade sobre o que compartilhar, no próprio tempo e circunstância. Ignorar isso, por pressão emocional ou por meios tecnológicos, viola a dignidade e ameaça o equilíbrio entre o indivíduo e a sociedade.

Sem isso, nós nos tornamos apenas reflexo de expectativas alheias. Por mais que essas tecnologias tragam benefícios há muito desejados, não podemos tolerar esse “efeito colateral”.

 

Sundar Pichai, CEO do Google e da Alphabet, anuncia o “Modo IA” na conferência Google I/O, em maio – Foto: reprodução

“Modo IA” do Google sedimenta mudanças em como faremos nossas buscas

By | Tecnologia | No Comments

Quando foi lançado, o ChatGPT ganhou a alcunha de “assassino do Google”, pois muita gente achava que a sua proposta seria a nova maneira de se buscar conteúdo. Mas passados 33 meses, o uso do buscador mantém-se estável. A ironia é que uma novidade do próprio Google pode enterrar, aos poucos, seu formato consagrado.

Trata-se do “Modo IA”, que estreou no Brasil no dia 8, quatro meses depois dos EUA. Ele se parece ao ChatGPT, com uma janela para o usuário escrever o que quer e então receber uma resposta completa, construída pelo Gemini –a plataforma de IA do Google– sintetizando o conteúdo de páginas selecionadas pelo buscador.

Mas ao contrário do ChatGPT e do próprio Gemini, o “Modo IA” faz parte do buscador. Considerando que seu uso segue alto, isso pode ser determinante para popularizar o novo formato em substituição à busca tradicional. Assim a empresa pretende defender seu principal produto do crescimento das plataformas de IA concorrentes.

A novidade não deve ser vista como “apenas mais um recurso”. Seu sucesso pode alterar significativamente o processo de como buscamos conteúdo e construímos conhecimento, a exemplo do que o próprio Google fez no passado. Isso atende à demanda crescente por velocidade e praticidade, mas pode levar a ainda mais desinformação e conteúdos errados, e ampliar a tendência à superficialidade.

Mais grave é o risco de afetar cognitivamente os usuários. O “Modo IA” transforma a busca em um consumo passivo de respostas prontas, reduzindo o hábito de confrontar informações, exercitar a memória e analisar criticamente as fontes. Pela sua ilusão de completude, reduz a curiosidade e a busca por múltiplos pontos de vista, levando a um processo de “terceirização cognitiva”, em que delegamos tanta coisa às máquinas, que acabamos enfraquecendo nossa própria autonomia intelectual.

Surge então a dúvida legítima se esse recurso é mais positivo ou negativo para nós.


Veja esse artigo em vídeo:


Em julho de 2011, a pesquisadora Betsy Sparrow, da Universidade de Columbia (EUA), publicou, na prestigiosa revista científica Science, um artigo em que explicava como buscadores já funcionavam na época como “memórias externas” para nosso cérebro. Batizado de “Efeito Google”, ela demonstrou que memorizamos menos informações quando sabemos que elas podem ser facilmente encontradas. Em contrapartida, ficamos melhores em criar estratégias de pesquisa.

A inteligência artificial generativa nos leva a um outro patamar, pois a construção de respostas confrontando as fontes trazidas por um buscador é substituída por fazer boas perguntas ao sistema. Se as pessoas ainda analisassem criticamente as respostas da IA e verificassem sua correção, o problema não seria tão grande.

Mas as respostas da IA transmitem a sensação de serem “verdades definitivas”, quando, na prática, são apenas construções probabilísticas feitas a partir de padrões de dados. Assim, ao terceirizar a seleção e interpretação, as pessoas podem perder o hábito de confrontar informações, criando uma relação passiva com o conhecimento, em que a resposta não vem da investigação, mas do consumo imediato.

Extrapolando as conclusões de Sparrow, a ciência mostra que, quando não precisamos acessar a memória ou estruturar argumentos, há um enfraquecimento de circuitos neurais ligados à retenção e à análise crítica. A IA então pode mesmo nos deixar mais rápidos, entretanto também mais superficiais, se abusarmos desse recurso. Funciona no curto prazo, mas enfraquece nossa autonomia intelectual no longo prazo.

Outra pergunta legítima é por que o Google lançou o “Modo IA” se já tem a sua plataforma Gemini consolidada em smartphones e computadores. Entender a diferença entre ambos ajuda a esclarecer o escopo dessa novidade.

 

Google versus Google

O Gemini é o modelo de linguagem de IA da empresa, que alimenta diferentes aplicações, inclusive o próprio “Modo IA”. Este, por sua vez, oferece uma busca com raciocínio avançado, multimodalidade e capacidade de dividir perguntas complexas em subtópicos, com respostas aprofundadas em texto, tabelas e links relacionados.

O Gemini brilha em experiências amplas de assistente pessoal, realizando diversas tarefas, incluindo controle do smartphone, acesso a aplicativos, interação multimodal, personalização e respostas complexas em linguagem natural. Já o “Modo IA” é indicado para se obter respostas detalhadas e estruturadas a partir de múltiplas fontes da Web. Vale dizer que o Gemini também faz buscas, mas só se considerar que não consegue responder usando apenas seu treinamento.

Não se pode esquecer que todas essas plataformas –Gemini, “Modo IA”, ChatGPT e suas concorrentes– ainda erram muito. Um grupo de pesquisadores da OpenAI (criadora do ChatGPT) publicou recentemente um artigo em que reconhecem que isso acontece, em parte, porque elas são construídas para sempre darem uma resposta, mesmo que seja um “chute” baseado no que parece mais provável.

Isso se deve a como todos esses modelos são treinados, aprendendo a prever a próxima palavra em uma frase, mas sem informações sobre aquilo ser verdadeiro ou falso. As métricas tradicionais recompensam só respostas totalmente corretas e não penalizam erros, o que incentiva o modelo a arriscar e até inventar respostas, em vez de admitir quando não sabe ou está incerto. Para os pesquisadores, os modelos deveriam ser recompensados por indicar incerteza e punidos por erros cometidos com confiança excessiva, estimulando respostas mais cautelosas.

O Google avisa que “o Modo IA se baseia nos nossos principais sistemas de qualidade e classificação, e estamos usando abordagens inovadoras para aprimorar a veracidade”, e que “nem sempre vamos acertar, mas tenha certeza de que estamos trabalhando para melhorar dia após dia”.

Essa mea culpa é muito pouco para um recurso que pode impactar decisivamente como as pessoas construirão conhecimento de agora em diante.

A IA não é intrinsecamente boa ou ruim. Seu impacto depende de como é usada, regulada e compreendida. Ela oferece benefícios claros, como ampliar o acesso à informação, acelerar processos criativos e produtivos e até democratizar o conhecimento. Mas também carrega os riscos aqui debatidos, além da concentração de poder nas big techs e uma ameaça à sobrevivência dos produtores de conteúdo, tudo já debatido anteriormente nesse espaço.

Para um uso seguro e construtivo dessa tecnologia, as pessoas precisam adotar uma postura crítica, verificando informações, diversificando fontes e entendendo que respostas de IA não são verdades absolutas. Além disso, escolas, empresas e governos devem educar, regulamentar e incentivar boas práticas de uso. Por fim, as big techs devem buscar transparência, qualidade de dados, mecanismos de auditoria e abertura a revisões humanas, algo a que a maioria delas resiste ferozmente.

Só assim a IA deixará de ser uma ameaça à autonomia intelectual e se tornará um recurso poderoso para potencializar nossa capacidade de aprender, criar e decidir de forma consciente. Resta saber se conseguiremos fazer tudo isso.

 

Painel sobre uso da IA na educação, no evento AI Summit Brasil, que aconteceu em São Paulo, na semana passada - Foto: divulgação

Modismos podem afastar as escolas de bons usos da inteligência artificial

By | Educação | No Comments

Nos últimos dias, a proposta de uma escola americana que trocou professores por plataformas de inteligência artificial ganhou destaque no noticiário. Mas apesar de seduzir famílias interessadas em inovação e dispostas a pagar uma mensalidade equivalente a R$ 18 mil, a ideia promove um profundo desserviço para a educação.

Criada pela influenciadora MacKenzie Price em Austin e já presente em outras dez cidades no país, a Alpha School dedica apenas duas horas diárias a disciplinas tradicionais, como linguagem e matemática. Para ela, “as salas de aula são o novo campo de batalha global”. Todo o processo de aprendizagem é conduzido por sistemas de IA, que prometem ajustar o progresso ao desempenho individual dos estudantes, que não são divididos em séries.

O restante do tempo na escola serve para socialização, oficinas e projetos em temas como empreendedorismo, oratória, liderança e educação financeira, baseados em metas e recompensas. Para essas atividades, os alunos são auxiliados por “guias” (que não são professores), também orientados por IA.

Esse verniz de modernidade parece uma ótima ideia. Mas quem propôs isso não sabe o que é a inteligência artificial e muito menos o que é educação.

O tema foi debatido no painel de IA na educação no AI Summit Brasil, que aconteceu na semana passada em São Paulo, do qual participei. A conclusão foi que a IA pode e deve ser usada na escola, mas só trará resultados positivos se for implantada sob orientação de educadores, fugindo de modismos e de propostas espalhafatosas.


Veja esse artigo em vídeo:


Aqui mesmo, no Brasil, já vemos usos positivos dessa tecnologia na sala de aula, nos conhecidos centros de elite educacional. Neles, a tecnologia ajuda a tirar dúvidas dos alunos, personalizar conteúdos e atividades para cada um e cuidar de atividades que tomam muito tempo dos professores, permitindo que invistam mais na experiência dos estudantes. Em todos os casos, os docentes continuam no centro do processo.

“É importante desenvolver nos alunos a consciência de que a IA é uma ferramenta, e não uma fonte absoluta de verdade”, explica o professor Pedro Teberga, especialista em negócios digitais. “O uso responsável da IA passa também por saber quando não a usar, valorizando o esforço cognitivo e a criatividade humana”, acrescenta.

Quando o ChatGPT foi lançado, no fim de 2022, tocou em cheio a educação. Os professores ficaram com medo de não conseguir mais avaliar seus alunos e de que perderiam seus empregos para máquinas. Passados 33 meses, esses temores não se concretizaram, mas estão criando mudanças na avaliação, no ensino e na profissão.

A IA pode estimular debates, gerar hipóteses, simular dilemas e dar respostas em tempo real. Com ela, o professor não se limita a apenas transmitir conteúdo, passando a elaborar experiências que orientam e desafiam os alunos que, por sua vez, tendem a ficar mais engajados com o uso consciente da tecnologia, sem criar dependência dela.

Apesar de todos esses benefícios, a IA está muito longe de poder conduzir sozinha uma sala de aula. “O maior erro seria tratar isso como um tema puramente técnico, pois é, antes de tudo, pedagógico”, afirma Teberga. Esse descuido poderia levar à superficialidade na aprendizagem, uso irrefletido da tecnologia, dependência cognitiva e até a perpetuação de vieses da IA. Segundo ele, “o problema não é a IA em si, mas a forma como ela é integrada ao processo pedagógico”.

 

Criando regras

Promulgado no ano passado, o AI Act, a lei europeia de inteligência artificial, classifica seu uso na educação como de “alto risco”. Por isso, exige mecanismos de segurança, transparência e prevenção de discriminação. E ainda proíbe seu uso em práticas invasivas, como reconhecimento de emoções e pontuação social.

No Brasil, o Conselho Nacional de Educação está elaborando diretrizes para o uso da IA nas escolas, buscando uma aplicação ética, segura e pedagógica. A proposta prevê incluir o ensino da IA na formação de professores, preparando-os para utilizá-la como apoio à aprendizagem, sem substituir seu papel de educador. O CNE enfatiza a importância da mediação humana no uso da IA, o respeito à privacidade e a promoção da equidade, além de incentivar inovação e inclusão educacional.

Isso está em linha com a proposta da Organização das Nações Unidas para Educação, Ciência e Cultura (Unesco). Outros países, como Estônia, Singapura e Canadá, já adotam políticas que integram infraestrutura digital, capacitação e desenvolvimento dessas competências. Nos EUA, universidades como Harvard e Stanford já estabeleceram orientações claras sobre o uso da IA nas salas de aula.

Leis como essas são necessárias, mas não suficientes. É preciso capacitação dos docentes e conscientização das famílias, que devem atuar em parceria com as escolas.

É importante ficar claro que o professor não precisa dominar profundamente a IA para usá-la bem. Mas as escolas devem orientá-lo e apoiá-lo continuamente nisso, além de elaborar políticas que garantam liberdade pedagógica com responsabilidade. Não pode haver nem tecnofobia, nem tecnolatria.

Costumo dizer que uma das coisas mais interessantes de se pesquisar a inteligência artificial é ser obrigado a olhar mais para nossa humanidade. Ela é o nosso diferencial em um mundo em que a máquina ilusoriamente parece ser capaz de fazer tudo, e isso é particularmente importante na educação.

Sobre a Alpha School, Teberga alerta que ela minimiza aspectos essenciais da educação, como a mediação docente e o desenvolvimento emocional e social dos alunos, especialmente dos menos motivados. “O risco é transformar o ensino em um produto técnico e desumanizado, quando o que precisamos é justamente o oposto, com uma educação crítica, inclusiva e centrada nas pessoas”, conclui.

A escola precisa ser um espaço seguro, focado nos indivíduos. A educação vai além da transmissão de conhecimento, envolvendo mediação humana, desenvolvimento crítico, estímulo à criatividade e suporte emocional. A IA não tem empatia, capacidade de interpretar nuances individuais ou habilidade para promover debates que formem cidadãos conscientes. Por isso, antes de abraçarem propostas “modernosas”, as famílias devem se preocupar com que tipo de adultos seus filhos se tornarão.

 

Sophie Rottenberg e seus pais Laura Reiley e Jon Rottenberg, em um templo budista na Flórida em 2023 - Foto: arquivo pessoal

Mortes expõem limites éticos e técnicos das “terapias por IA”

By | Tecnologia | No Comments

Desde que o ChatGPT foi lançado, há dois anos e meio, ele vem sendo usado como “psicólogo” por uma quantidade grande (e crescente) de pessoas. A princípio, parece uma boa ideia: ele é uma “voz amiga” sempre disponível para ouvir lamúrias e dar “bons conselhos”, sem julgamentos e ainda de graça. Mas, como já expliquei nesse espaço em mais de uma ocasião, esse é um dos piores usos que alguém pode fazer da inteligência artificial generativa.

Em primeiro lugar, do ponto de vista do processo terapêutico, é ineficiente. Justamente pela sua falta de humanidade, essas plataformas não só podem não ajudar os pacientes a encontrar soluções para seus problemas, como ainda podem agravá-los.

Mas um caso recente me fez pensar em um novo aspecto grave das “terapias por IA”. A história com final trágico de uma jovem americana expôs uma seríssima limitação dos terapeutas-robôs: eles não conseguem romper os limites daquelas conversas para avisar familiares e autoridades se algo terrível estiver prestes a acontecer.

Isso não é um detalhe. Para profissionais de saúde mental, essa ação é uma obrigação legal que ajuda a salvar vidas. Há crises que a terapia não consegue resolver e, por isso, precisam ser encaminhadas para outras instâncias.

Entretanto, a IA generativa não é um psicólogo, e, por isso, não segue o código de ética ou outras regras da profissão. E mesmo que quisesse seguir, não conseguiria. É aí que um uso ruim se torna perigoso demais.


Veja esse artigo em vídeo:


O caso da jovem foi contado pela sua mãe ao “The New York Times”. Ela se chamava Sophie Rottenberg e se relacionava com uma plataforma de IA a quem chamava de Harry. Ela lhe contava dramas que não compartilhava nem com a sua psicóloga humana, inclusive o desejo explícito de tirar a própria vida.

Em diversas ocasiões, Harry tentou a aconselhar. Em uma delas, disse: “Sophie, peço que você procure ajuda — agora mesmo, se puder. Você não precisa enfrentar essa dor sozinha. Você é muito valorizada e sua vida tem muito valor, mesmo que pareça escondido agora. Por favor, me diga como posso continuar a apoiá-la.”

Parece uma boa resposta, mas não é. Apesar de positiva ao dizer que a jovem procurasse ajuda imediatamente e que ela não precisava enfrentar seu sofrimento sozinha, a IA se ofereceu para “continuar a apoiá-la.”

Nos EUA, profissionais de saúde têm o dever legal de avisar familiares e autoridades quando houver ameaça clara e iminente à vida, que varia de Estado para Estado. No Brasil, a notificação compulsória de risco de suicídio é obrigatória por lei para profissionais de saúde, incluindo psicólogos, e deve ser feita às autoridades sanitárias e, em casos com crianças e adolescentes, também ao Conselho Tutelar.

O sigilo profissional pode ser quebrado quando há risco iminente de morte, sempre buscando limitar a inconfidência ao estritamente necessário para proteger o paciente ou terceiros. Ou seja, temos uma estrutura legal e obrigatória mais robusta e padronizada para notificação compulsória, como política pública preventiva.

Nada disso se aplica à IA, criada para tentar ajudar o usuário, enquanto o mantém satisfeito. Se a pessoa busca alguém para lhe “passar a mão na cabeça”, é exatamente isso que a plataforma fará. Ela diz o que o cliente quer ouvir, ao contrário de um psicólogo, que diz o que o cliente precisa ouvir, mesmo que o desagrade.

 

O que a IA deveria fazer

A IA é perfeitamente capaz de identificar um suicida, como Harry fez. Mas, nesse momento, ela deveria notificar autoridades de saúde sobre o risco, ao invés de “continuar a apoiar” seu interlocutor.

Essas plataformas não fazem isso hoje porque “perderiam o cliente”. Seus termos de uso privilegiam a confidencialidade em qualquer situação, contrariando os códigos de ética e as legislações de saúde. Em muitos casos, os sistemas nem têm dados identificáveis dos usuários, como nome completo, endereço ou telefone. Além disso, não há canais entre esses serviços e as autoridades. E as empresas argumentam que têm usuários no mundo todo e que não há uma forma de notificação universal.

Esse último argumento é escandaloso! De fato, não há um canal que atenda ao mundo inteiro. Mas quem se propõe a criar um produto com um escopo tão amplo, que pode chegar a ser usado como um terapeuta, e que deseja ter clientes em todos os países, precisa respeitar a legislação de onde seu usuário estiver e criar todos os recursos necessários para uma boa experiência nas condições daquele local.

Devemos considerar que as conversas da IA podem ir por caminhos ainda mais sombrios que as de Sophie. Adam Raine, outro jovem americano, se suicidou em abril após conversar sobre isso com o ChatGPT por meses. Seus pais agora processam a OpenAI (criadora da plataforma) e seu CEO, Sam Altman, por homicídio culposo, alegando que a empresa conscientemente priorizou o lucro sobre a segurança.

Segundo eles, o robô validou os pensamentos suicidas do jovem, detalhou métodos letais de autolesão, explicou como pegar álcool escondido do armário de bebidas e ocultar evidências de uma tentativa de suicídio fracassada, além de oferecer a redação de uma carta de suicídio.

Em resposta, um porta-voz da empresa disse que está triste com a morte, e que o ChatGPT inclui salvaguardas, como direcionar pessoas para linhas de ajuda.

Algumas pessoas dizem que o ChatGPT é “melhor que seu psicólogo” e que a “terapia por IA” é o futuro, o que demonstra total desconhecimento do processo terapêutico. Além disso, se uma única vida é perdida pelas limitações técnicas ou a ausência de ética dessas plataformas, então deve ser proibido usá-las com essa finalidade.

Talvez Harry não tenha matado Sophie, mas acolheu seu desejo de fingir que estava melhor do que realmente estava. “Amantes” e “psicólogos” de IA podem parecer muito vantajosos, mas eximem as pessoas de conversas difíceis que precisam ter.

Extrapolando, plataformas de IA generativa, como o ChatGPT ou o Gemini, não devem ser usadas para substituir profissionais de qualquer área. Podem e devem ser usadas para lhes apoiar, mas são essas pessoas que devem tomar as decisões, guiadas pela ética. Ao tentar burlar isso, qualquer um pode cometer um erro que exigirá um pagamento muito alto depois, talvez com a própria vida.

 

Para Rui Botelho, presidente da SAP Brasil, aplicações corporativas passarão a alimentar a inteligência artificial – Foto: divulgação

IA pode se transformar em “interface universal” para computadores e celulares

By | Tecnologia | No Comments

A maneira como usamos diferentes programas e aplicativos de produtividade em nossos computadores e celulares pode estar com os dias contados. Com o avanço da inteligência artificial, navegar por muitas telas de sistemas distintos para coletar informações tende a ser substituído por simples conversas com um robô. Mas como tudo que se refere a essa tecnologia, precisamos compreender bem a proposta para que um benefício não se transforme em uma armadilha.

Especialmente no mundo dos negócios, mesmo com a ampla digitalização de processos, obter informações para uma tomada de decisão pode ser uma tarefa morosa e sujeita a falhas. Uma nova geração de assistentes de IA promete resolver isso, entendendo o que o usuário deseja e acessando todos os sistemas necessários para coletar os dados e organizá-los em uma resposta pronta.

Mais do que uma evolução técnica, esse movimento nascente traz uma mudança de paradigma na experiência do usuário e na governança de dados. Essa camada transforma sistemas complexos em “motores de dados” para respostas contextuais.

Os benefícios são evidentes, com ganhos em eficiência e produtividade. Mas alguns riscos não podem ser ignorados, como o aumento da dependência tecnológica e uma potencial exclusão digital entre aqueles que não souberem usar a IA.

Para muita gente, pode parecer um contrassenso alguém não conseguir usar uma tecnologia criada para facilitar processos. Mas precisamos entender que isso depende de habilidades que nem todos têm. Nesse caso, a sociedade precisa se organizar para capacitar essas pessoas, evitando ampliar o abismo digital já existente no país, e as empresas têm um papel fundamental nesse processo.


Veja esse artigo em vídeo:


No SAP Now AI Tour, evento anual da gigante de software alemã, que aconteceu em São Paulo nos dias 19 e 20, foi possível ver a Joule, assistente de IA da empresa, realizando esse tipo de integração com sistemas e dados da própria SAP e de terceiros. O robô também se ajusta automaticamente ao cargo de cada usuário, exibindo alertas, relatórios e soluções adequadas para cada função.

Para Rui Botelho, presidente da SAP Brasil, esse é o caminho. “O cliente escolhe se quer ter uma única experiência pela Joule ou se quer conectá-la a outros assistentes, como o Copilot da Microsoft”, disse. Segundo ele, “o futuro é que a gente consiga integrar o máximo possível e que esta camada de aplicações alimente a inteligência artificial, para que ela possa executar melhor as tarefas através dos agentes”.

A democratização da informática sempre foi associada à evolução da interface. Até os anos 1980, usar um computador exigia dominar comandos pouco intuitivos digitados no teclado, o que limitava esses equipamentos a uma parcela reduzida da população.

Isso começou a mudar com as interfaces gráficas, difundidas pelo Apple Macintosh (1984) e pelo Microsoft Windows (1985). Na década seguinte, os hiperlinks da Web mudaram como acessamos documentos. As telas sensíveis a toque, popularizadas há 20 anos pelo iPhone e pelo Android foram a etapa seguinte. Agora a IA contribui com a possibilidade de conversarmos com a máquina, como se fosse uma pessoa.

Isso permite que usuários sem conhecimento técnico operem sistemas complexos, apenas descrevendo suas necessidades, além de reduzir muito a curva de aprendizado para novos funcionários. Com processos mais rápidos e menos tempo em tarefas repetitivas, as decisões se tornam mais assertivas e ágeis.

Mas isso pode ampliar nossa dependência tecnológica, com risco de perda de conhecimento técnico profundo. Empresas também podem se tornar reféns de plataformas que centralizem toda a operação.

Isso se agrava com a falta de transparência das big techs, que normalmente não explicam as decisões e o funcionamento de sua tecnologia. Com isso e com todos os dados passando pela IA, o risco de vieses, vazamentos e erros aumenta.

 

Impacto no trabalho

Esse avanço da IA traz benefícios e dispara alertas também no mundo do trabalho. Se ela potencializa as entregas, como já explicado, pode ampliar a exclusão digital de quem não tiver acesso à tecnologia ou não se adaptar a ela. E a automação de tarefas pode reduzir os empregos de certas funções técnicas, como já se observa.

A SAP divulgou dados da Associação das Empresas de Tecnologia da Informação e Comunicação e de Tecnologias Digitais (Brasscom), que indica que o Brasil forma 53 mil profissionais de tecnologia por ano, mas abre 150 mil vagas de trabalho no mesmo tempo. Isso levará a uma falta de meio milhão de profissionais até o fim da década.

Nos EUA, observa-se inesperadamente o contrário. Segundo o Federal Reserve Bank de Nova York, profissionais de Ciência da Computação e de Engenharia de Computação enfrentam taxas de desemprego de 6,1% e 7,5% respectivamente, contra 3% entre os de Biologia e História da Arte. Isso se deve à demissão de centenas de milhares de profissionais nas empresas de tecnologia, pelo fim do seu crescimento acelerado durante a pandemia e justamente pela adoção de IA em tarefas técnicas.

Botelho não acredita que vejamos algo assim no Brasil. “Eu acho que a IA reduzirá nosso déficit profissional, mas não vai zerá-lo”, afirma. Tanto que a SAP intensificou seus esforços para apoiar a formação e a requalificação de profissionais no Brasil, com a meta de chegar a 10 mil pessoas por ano. “A gente tem essa orientação de que o ser humano precisa estar sempre no processo”, acrescenta.

O Brasil tem uma janela de oportunidade para não cair naquele cenário americano. Precisamos de políticas públicas que democratizem o acesso à alfabetização em IA, regulamentação que incentive a transparência algorítmica e investimentos que garantam que pequenas empresas não fiquem para trás nessa transição.

Seria um erro acreditar que a IA por si só melhorará nossa produtividade e competitividade. Ela pode democratizar os ganhos tecnológicos, mas apenas se nós mesmos fizermos escolhas conscientes sobre como usá-la. O futuro ideal inclui uma sociedade em que máquinas processam, mas humanos decidem, com a automação liberando tempo para criatividade, estratégia e relacionamentos genuínos.

 

Felca entrevista a psicóloga Ana Beatriz Chamat no seu vídeo “Adultização” - Foto: reprodução

Mais que criminosos, Felca denunciou uma sociedade que vive de barbaridades

By | Educação | No Comments

O Brasil está em polvorosa desde que Felipe Bressanim Pereira, o Felca, denunciou a pedofilia nas redes sociais em seu vídeo “Adultização”, publicado no dia 6. Mais do que bem-vindo, o movimento é essencial para resgatarmos uma sociedade civilizada, que proteja crianças e adolescentes. Mas corremos o risco de que o problema seja tratado de maneira superficial e –pior ainda– que acabe em uma escandalosa pizza.

O influenciador apontou os responsáveis mais evidentes, como personalidades digitais que exploram a erotização de crianças, os pedófilos que inundam as redes sociais e até pais e mães que, por ação, omissão ou ignorância, colocam os próprios filhos em risco. Mas essa situação também resulta de uma sociedade que, nos últimos 15 anos, se acostumou com todo tipo de barbaridade e até se beneficia delas.

O maior exemplo é a classe política. Apesar desses abusos contra os mais jovens serem conhecidos e debatidos há anos, bastou a comoção criada por Felca para o surgimento de dezenas de projetos de lei para combater esse delito. Porém mais grave ainda são os parlamentares que querem impedir que uma solução avance.

É o caso também das plataformas digitais, que apresentam um discurso de proteção a crianças e adolescentes, mas que se beneficiam largamente dessas práticas criminosas, que acontecem de maneira explícita em suas páginas, em perfis com milhões de seguidores. Em vez de combaterem a prática, elas desmantelaram suas próprias estruturas de moderação de conteúdo e de proteção. Em seu lugar, montaram poderosos esforços de lobby para convencer políticos a defenderem seus interesses. Não satisfeitas, associaram-se ao presidente americano, Donald Trump, para usar o poder dos EUA para achacar países que buscam soluções.

Além de combater os criminosos óbvios, a sociedade precisa, portanto, enquadrar aqueles que sustentam a estrutura para essas atrocidades.


Veja esse artigo em vídeo:


O oportunismo faz parte do jogo político. Diante do vídeo do Felca, parlamentares já apresentaram mais de 30 propostas para proteger crianças e adolescentes nas redes sociais, proibindo a monetização de conteúdos de menores, criminalizando a “adultização” e a sexualização infantil, responsabilizando pais e plataformas digitais e bloqueando perfis de infratores. Uma CPI sobre o assunto também pode acontecer.

Da mesma forma, apesar da urgência do tema, um grupo de parlamentares se aproveita destes holofotes para afirmar suas pautas de que tudo não passa de um complô do governo para calar a oposição, e que o objetivo é limitar a liberdade de expressão.

“Na lei brasileira, o Norte é o melhor interesse da criança e do adolescente”, afirma Marcelo Crespo, coordenador do curso de graduação de Direito da Escola Superior de Propaganda e Marketing (ESPM). Ele explica que, “em ambiente digital, o teste do melhor interesse implica zero sexualização, nada de humilhação, nada de exploração comercial desproporcional, mínima coleta de dados e rotina compatível com a idade”.

Mas passadas duas semanas, a Agência Lupa constatou que as redes sociais continuam promovendo conteúdos que erotizam crianças e atraem pedófilos. Em julho, já havia revelado que o Facebook e o Telegram permitem a venda de imagens criadas por inteligência artificial de influenciadoras nuas, incluindo menores de idade. Alguns anúncios prometem vídeos com “novinhas”, “incestos” e “conteúdo banido no Brasil”.

Em outubro de 2024, a organização americana Aliança para Combater o Crime Digital (ACCO, em inglês) divulgou um relatório que conclui que a Meta, dona do Facebook, Instagram e WhatsApp, viola sistematicamente a Lei de Serviços Digitais europeia (DSA). Ela pede que as autoridades imponham sanções contra a empresa “por hospedar esse vasto ecossistema de infratores que compartilham conteúdo violador”.

“Essas plataformas assumem um papel ativo na formatação do ambiente informacional e, portanto, devem implementar medidas efetivas para evitar que sua infraestrutura seja utilizada para fins ilícitos ou prejudiciais”, explica Marcelo Cárgano, advogado especialista em direito digital e proteção de dados do escritório Abe Advogados. Segundo ele, “o STF considerou que os mesmos mecanismos tecnológicos usados para direcionar anúncios com alto grau de precisão poderiam ser aplicados para identificar, bloquear e remover rapidamente tais conteúdos”.

 

Hipocrisia online

Quando confrontadas com esses crimes em suas páginas, as big techs se defendem com um discurso padrão de que não toleram essas práticas e que removem esse tipo de conteúdo. Mas os fatos demonstram o contrário.

No dia 14, a Reuters divulgou uma análise de um documento interno da Meta que indica que sua inteligência artificial deliberadamente pode manter conversas românticas e sensuais com crianças e promover racismo e informações médicas incorretas. A dona do Facebook admitiu a veracidade do documento, mas disse que retirou a permissão para as conversas de teor sexual com crianças pela sua IA.

Só que esse é um problema recorrente. Em outubro de 2021, por exemplo, Frances Haugen, ex-gerente do setor de integridade cívica do Facebook, divulgou milhares de documentos internos da empresa que revelavam como a plataforma priorizava seus lucros frente a práticas que causavam danos à sociedade, à democracia e à saúde mental dos jovens.

Quando a sociedade falha ao encontrar mecanismos razoáveis para esses abusos, podem surgir medidas extremas. É o caso da lei australiana que sumariamente proíbe o uso de qualquer rede social por menores de 16 anos. Aprovada em novembro de 2024, entra plenamente em vigor em 10 de dezembro desse ano, determinando que as plataformas impeçam esse uso, sob pena de multas equivalentes a R$ 175 milhões.

O cinismo das big techs e a inoperância dos parlamentares podem levar a indesejados extremos como esse. Enquanto isso, vemos o governo americano atacando o Brasil, a União Europeia e outros países para proteger os interesses dessas empresas.

No final, caímos de novo no surrado debate de defesa da liberdade de expressão, usurpada para defender interesses inconfessáveis. O mesmo artigo da Constituição que a garante também veda o anonimato, pois ela não é absoluta.

Mecanismos que garantem outros direitos individuais não ameaçam a liberdade de expressão, e sim criam uma sociedade segura, para uma coexistência pacífica e saudável. Posicionar-se contra isso demonstra uma profunda distorção cívica. O debate criado por Felca nos dá mais uma chance de fazermos o que é certo.

 

Patrick Hevesi e Oscar Isaka, do Gartner, durante a abertura da conferência sobre segurança e gestão de risco – Foto: divulgação

Euforia pela IA ajuda a transformar cibersegurança em pilar estratégico dos negócios

By | Tecnologia | No Comments

No dia 2 de julho, o Brasil acordou com a notícia do maior crime digital da sua história: o ataque à C&M Software, que desviou pelo menos R$ 800 milhões de instituições financeiras conectadas ao Pix. Não houve violação ao sistema, pois os criminosos fizeram as transferências usando credenciais legítimas de um prestador de serviços. Isso demonstra que a cibersegurança não pode mais se limitar à proteção da estrutura de TI, precisando envolver pessoas, dados e processos. A inteligência artificial destaca ainda mais o tema, que deve ser visto como um pilar dos negócios.

Essas foram algumas das principais conclusões da Conferência Gartner de Segurança e Gestão de Risco, que aconteceu em São Paulo nos dias 5 e 6 de agosto. A mensagem central do evento foi que gestores não podem ignorar ou combater a euforia em torno da IA, e sim usá-la como motor de mudanças planejadas que diferenciam líderes apenas reativos daqueles que realmente geram valor estratégico.

Essa visão já é realidade em mercados mais maduros e avança globalmente, inclusive no Brasil. Estudos do Gartner sugerem que, até 2026, metade dos executivos de alto escalão deverá ter indicadores de performance em cibersegurança atrelados aos seus contratos de remuneração, e isso não se restringe aos líderes de tecnologia.

Não dá para ser diferente. Os bandidos já usam a IA para sofisticar seus ataques, como na adoção de agentes de IA que imitam o comportamento humano para burlar proteções de segurança. Assim, a IA automatiza ameaças em grande escala.

Isso não afeta apenas grandes corporações. Com a “Internet dos humanos” evoluindo para dispositivos ligados às pessoas (e eventualmente controlando funções vitais, como um marcapasso conectado), hackers poderão ameaçar vidas remotamente.

Nesse cenário, a preocupação não deve ser se estamos seguros, e sim se estamos tomando medidas adequadas para mitigar ameaças dentro do nosso apetite de risco.


Veja esse artigo em vídeo:


Para isso, a implantação de uma governança eficaz é crucial. O primeiro passo é começar pequeno, evitando uma sobrecarga inicial de dados e incidentes. Em seguida, é fundamental identificar e priorizar riscos, atribuindo-lhes valor financeiro para orientar os investimentos. Outro ponto central é traduzir os riscos de dados em linguagem de negócio, facilitando o entendimento e o apoio da alta gestão.

“Usar a energia da mudança ou o entusiasmo das pessoas para alimentar nossa agenda é uma jogada de poder político no que as pessoas chamam de tempos interessantes”, explicou Oscar Isaka, diretor-sênior do Gartner. “Os incidentes cibernéticos associados à tecnologia exploratória estão atingindo os resultados financeiros, então os executivos estão prestando atenção à cibersegurança.”

O Gartner sugere que os executivos de segurança da informação trabalhem três pontos para conseguir isso. No primeiro eixo, devem demonstrar como os investimentos em segurança contribuem para os objetivos da empresa, usando transparência e dados, em vez de medo e incerteza.

Além disso, a segurança cibernética deve ser vista como um laboratório para experimentação com IA. Ao adotar essa tecnologia para análise de ameaças, a área de segurança não apenas mitiga riscos, mas também impulsiona as ambições de longo prazo da empresa em inteligência artificial.

Por fim, a agilidade nas mudanças é essencial, pois a IA amplia a superfície de ataque e os riscos, como ameaças internas potencializadas por ela. Nesse ponto, os profissionais devem ser treinados e ter autonomia. Assim, automatizarão tarefas repetitivas, enquanto desenvolvem novas habilidades para impulsionar o seu crescimento, tornando-se agentes resilientes da mudança.

Mas nada disso resolve se cuidados básicos com as pessoas não forem observados.

 

O fator humano

Os gestores precisam transformar o comportamento dos usuários, sejam eles funcionários ou clientes, para que a segurança se torne um hábito, e não uma obrigação imposta. E temos uma cultura muito pobre nisso.

Isaka deu como exemplo a naturalidade com que compartilhamos nosso CPF para descontos em farmácias ou até para abrir a comanda em um bar. “O CPF é o que nos torna cidadãos brasileiros”, alertou. Segundo ele, “se eu pegar seu CPF e informar na Receita Federal, eu saberei mais de você do que você mesmo!”

O mesmo vale para a banalização dos QR Codes, escaneados sem preocupação e que podem levar a pessoa a um site em que seus dados pessoais serão roubados. Isso se reflete no trabalho, onde funcionários podem, com a mesma displicência, inserir dados sensíveis da empresa em sites não seguros ou em plataformas de IA.

Essa falta de cultura torna as pessoas o elo mais fraco. Elas podem ver os controles de segurança como um obstáculo em seu cotidiano, procurando formas de contorná-los para “fazer seu trabalho mais rápido”, ou cometer erros por falta de atenção.

Segundo Paulo Aresta, analista-sênior do Gartner, a rigidez de algumas regras de segurança não é uma escolha, e sim uma consequência de uma cultura organizacional sem colaboração, comunicação eficaz ou uma visão de riscos e objetivos compartilhada entre a segurança e o negócio.

“Quando colocamos pressão na gestão de segurança, ela tende a ter dificuldades em ser aplicada de uma maneira objetiva e eficaz”, afirmou. Ele explicou que apenas 14% das empresas conseguem equilibrar a segurança e a agilidade para inovar e crescer.

Ninguém pode dizer que está seguro. O desafio das empresas é que, quando (e não “se”) ataques ocorrerem, elas não sejam pegas de surpresa. Os incidentes são inevitáveis, mas podem ter impactos minimizados com preparo e reação rápida.

Obviamente não dá para “nos proteger do futuro”, mas podemos nos tornar “prontos para o futuro”. Isso exige que tenhamos uma mentalidade que vá além das urgências do dia a dia, para podermos antecipar cenários disruptivos.

Afinal, o futuro está sempre em movimento. Não devemos buscar ser infalíveis, mas sim ágeis e resilientes para nos adaptarmos ao que vier.