Monthly Archives: fevereiro 2024

Nos EUA, uma patente só pode ser concedida se um humano fizer uma “contribuição significativa” - Foto: Freekpik/Creative Commons

Proibição de IA registrar patentes abre debate sobre seus limites criativos

By | Tecnologia | No Comments

No dia 13, o Gabinete de Marcas e Patentes dos Estados Unidos determinou que patentes não podem ser registradas em nome de plataformas de inteligência artificial, apenas por pessoas. Essa tecnologia pode, entretanto, ser usada intensamente no desenvolvimento de invenções: basta seres humanos terem feito uma “contribuição significativa” para que a patente possa ser concedida.

A questão que salta aos olhos é: quem é o verdadeiro inventor nesse caso?

Apesar de bem-intencionada, a determinação possui falhas conceituais. A proposta de garantir que a propriedade intelectual continue sob domínio de pessoas é bem-vinda. Mas ao permitir que a IA seja usada na pesquisa (e não faz sentido proibir isso hoje), cria-se uma brecha para que ela seja vista como coautora do processo.

Como a tal contribuição humana não precisa ser comprovada, pode acontecer ainda de a IA fazer todo o trabalho e depois não ser “reconhecida” pelos pesquisadores. O aspecto tecnológico então dá lugar a outros, éticos e filosóficos: a máquina trabalha para nós ou o contrário, quando lhe fornecemos comandos e ela se torna coautora?

Como diz o ditado, “é nos detalhes que mora o diabo”.


Veja esse artigo em vídeo:


A inteligência artificial não é verdadeiramente criativa, pelo menos, não ainda. Ela é capaz de trazer grandes ideias ao processo por analisar e encontrar padrões que respondam a questionamentos ao analisar uma quantidade gigantesca de informações, de uma maneira que nem o melhor cientista conseguiria. Mas por enquanto ela precisa que alguém lhe faça as perguntas corretas, porque, se para os humanos, suas experiências pessoais lhes permitem transcender para novas ideias, para as máquinas, seu arcabouço de conhecimento funciona como um limitador.

“A máquina fica como um apêndice seu, porque é você que está no comando do diálogo”, explica Lucia Santaella, professora da PUC-SP e autoridade global em semiótica. “Mas se você não sabe o que procura, se você não exercita a sua vida intelectual, você vira um apêndice da máquina”, provoca.

“Independentemente de quão avançada seja a IA, você precisa de algum humano para falar o que tem que inventar: aí que eu vejo uma ‘contribuição significativa’”, afirma Matheus Puppe, sócio especialista em novas tecnologias do Maneira Advogados. Para ele, essas brechas na decisão do Gabinete de Marcas e Patentes podem funcionar até como um freio ao progresso. “Essa decisão mostra que eles estão reagindo apenas, e não pensaram muito bem sobre os detalhes de como isso seria aplicável”, acrescenta.

A característica essencial da IA de extrair informações de grandes massas de dados traz uma preocupação em registro de patentes, pois, no processo, ela pode infringir outras existentes, de onde aprendeu algo. Tanto que diversas empresas de comunicação e produtores de conteúdo estão processando desenvolvedores dessas plataformas por infração de direitos autorais. Mas Puppe acredita que, em nome do progresso tecnológico e dos benefícios derivados da IA, o uso de fragmentos anonimizados de informações devem ser flexibilizados para o treinamento da IA.

Tudo ficará diferentes se (ou quando) chegarmos à chamada “inteligência artificial geral”, que se parece muito mais com o cérebro humano, deixando de ser especialista em apenas um tema e até possuindo iniciativa para tomar ações. Nesse caso, a máquina dispensaria os humanos e suas “contribuições significativas”.

Para Puppe, nesse caso, talvez tenha que ser criada uma personalidade jurídica de uma “pessoa digital”, que poderia ser detentora de direitos específicos, inclusive monetários. Enquanto isso não chega, ele sugere que patentes criadas com apoio de IA tenha a tecnologia (e seus desenvolvedores) como coautores, ou pelo menos que exista uma copropriedade, com pagamentos de royalties por isso.

 

A “sociedade do prompt

Ainda que imprecisa, a decisão do Gabinete de Marcas e Patentes reflete uma profunda mudança social que a IA vem impondo desde o ano passado. Cada vez mais, muitas tarefas passam a se resumir à criação de um prompt, um comando eficiente para a inteligência artificial realizar a tarefa com precisão.

Ela não substituirá as pessoas, mas elas poderão ser gradativamente substituídas por quem a use. Isso aumenta o abismo profissional entre os que têm acesso e dominam a tecnologia e os que não têm, pois o robô assumirá não apenas tarefas braçais, como processará grandes volumes de dados, com uma percepção sobre-humana, melhorando as entregas desses profissionais.

A IA também é capaz de realizar produções de conteúdo, incluindo obras artísticas. E isso tem desafiado a sociedade a redefinir o papel tanto de um cientista, quanto o de um artista. “O que define um escritor, um músico é a criatividade da ideia”, sugere Puppe. “Isso é o importante, e não a sua habilidade de executá-la”, conclui.

O grande risco dessa capacidade de produção e de simular a realidade que a IA oferece é que não consigamos mais distinguir o que é real. Somos uma civilização que aprendeu a confiar no que vemos, mas agora somos desafiados continuamente a duvidar de nossos olhos pelas diferentes telas, vivendo em uma insustentável “incerteza perceptiva”.

“O que nos constitui é a linguagem, e ela está crescendo”, afirma Santaella. “Com a IA generativa, produzimos imagens, vídeo, sons, essa tecnologia simula o humano!”

Temos que nos apropriar de todo esse poder com consciência e ética! Não devemos temer a IA, nem tampouco nos deslumbrarmos com ela! Sempre a máquina deve trabalhar para nós, e não nós para ela ou para seus desenvolvedores.

Por isso, talvez até seja justo que eles sejam remunerados por uma patente ou qualquer outra produção comercial criada com forte apoio da IA. Mas não podem ser classificados como coautores, pois isso implica uma responsabilidade que a máquina não tem (e que essas empresas não querem ter), especialmente no caso de algo dar errado.

Nessa “sociedade do prompt”, devemos sempre recordar que nós estamos no controle, e que a máquina é apenas uma ferramenta. E por mais fabulosa que seja, ela não deve ser usada de uma maneira que nos torne intelectualmente preguiçosos.

“Eu só acredito na educação e no crescimento através da aprendizagem”, afirma Santaella.” Não a educação no sentido formal, mas a educação no sentido de não deixar morrer a curiosidade pelo conhecimento!”

Afinal, a nossa humanidade é o nosso grande diferencial para não sermos substituídos de vez por um robô. Precisamos continuar cultivando tudo que a faz ser o que é.

 

Criada por IA, Ren Xiaorong é a âncora do telejornal “Diário do Povo”, controlado pelo governo chinês - Foto: reprodução

IA agora produz e publica notícias, aumentando os riscos de desinformação

By | Jornalismo, Tecnologia | No Comments

O que você sentiria se o presidente da República telefonasse a você para lhe convencer de algo? Ou se alguém bem próximo, como um sobrinho ou até um filho, enviasse um áudio pedindo dinheiro? Muita gente desconfiaria que se trata de um golpe. Mas o rápido avanço da inteligência artificial está tornando esse tipo de engodo cada vez mais crível, fazendo vítimas em todos os estratos sociais.

Portanto, cuidado ao gritar que jamais cairá em algo assim. Por muito menos, todo mundo já acreditou em alguma fake news!

A ameaça cresce quando se observa que o uso da IA vai muito além da produção de textos, áudios e vídeos bem-feitos. Os robôs agora constroem sequências de notícias falsas sobre temas que lhes forem solicitados. Além disso, eles as distribuem de maneiras cada vez mais criativas, até como se fossem jornalistas humanos.

Não por acaso, em janeiro, o Fórum Econômico Mundial apontou a desinformação potencializada pela inteligência artificial como o maior risco que a humanidade enfrentará nos próximos anos.

As big techs, responsáveis pela criação dessas plataformas, estão se mexendo. No mesmo Fórum, Nick Clegg, presidente de assuntos globais da Meta (dona do Facebook, Instagram e WhatsApp), anunciou que a empresa está trabalhando com os principais nomes do setor para criar mecanismos que identifiquem claramente que um conteúdo foi sintetizado por IA. O executivo classificou a iniciativa como “a tarefa mais urgente” da indústria tecnológica atualmente.

Já passamos há anos do ponto em que as versões ficaram mais “importantes” para o público que os fatos, e falhamos miseravelmente no combate a isso, com consequências desastrosas. Nesse ano, com mais de 2 bilhões de pessoas votando em 58 países, o desafio de todos passa a ser não apenas resgatar o valor da verdade, como também serem capazes de identificá-la.


Veja esse artigo em vídeo:


Isso já acontece, inclusive onde estão as sedes das big techs: os EUA. O país começou 2024 com a polarização nas alturas pela eleição presidencial em novembro, que deve colocar novamente o atual presidente, Joe Biden, frente a seu antecessor, Donald Trump. O primeiro já vem sendo vítima de vídeos falsos desde o ano passado.

Recentemente, eleitores do Estado de New Hampshire receberam telefonemas com a voz de Biden enganando-os para não votarem na eleição primária local. Isso fez com que o governo proibisse o uso de IA para simular vozes em ligações automáticas no país.

Legislações costumam chegar atrasadas e muitas vezes são ineficientes, diante da velocidade da inovação. O debate sobre regulamentar redes sociais e agora a inteligência artificial vem deixando claro que se focar nas tecnologias é infrutífero, devendo se concentrar na responsabilização dos desenvolvedores e dos usuários que usam esses recursos indevidamente.

O grande problema é que, com ou sem regras claras, os vilões –sejam empresas ou usuários– continuam fazendo o que bem entendem para garantir seus lucros ou outros objetivos. A IA deve facilitar esse processo ainda mais, e eles sabem disso.

A imprensa historicamente desempenha o papel de proteger a sociedade desse tipo de abuso, mas ela própria vem sendo impactada pela inteligência artificial, seja em seus próprios processos, seja na concorrência de “pseudojornalistas digitais” que tentam enganar o público.

O Reuters Institute divulgou em janeiro um detalhado estudo sobre as perspectivas para esse ano sobre jornalismo, mídia e tecnologia. O documento reconhece esses desafios, destacando que a maioria do conteúdo na Internet será produzido por IA já em 2026. Segundo os pesquisadores, isso exige que jornalistas e empresas noticiosas repensem seu papel e propósito urgentemente.

 

“Jornalistas sintéticos”

Essas empresas já observam queda na sua audiência vinda de redes sociais, que passaram a privilegiar criadores no estilo TikTok ao invés de jornalismo, pois isso lhes favorece. O desafio do jornalismo aumenta com o crescimento das “Experiências Generativas de Busca”, um recurso de buscadores como Google e Bing, em que a IA generativa redige parágrafos que explicam brevemente o que o usuário procura. Com isso, ele não precisa mais visitar as páginas de onde as informações foram tiradas.

Em outras palavras, os veículos de comunicação alimentam essas plataformas e não ganham nem mesmo a visita do usuário em troca. É quase como se cada um de nós agora tivesse um “jornalista sintético” a nossa disposição para nos explicar qualquer assunto.

Parece ótimo, mas isso embute um risco enorme: esses parágrafos podem misturar alegremente informações jornalísticas de qualidade com fake news bizarras. Portanto, podem se converter em poderosas ferramentas de desinformação, além de achatar a audiência dos veículos de comunicação.

Pesquisadores acreditam que, nesse ano, plataformas de inteligência artificial também passem a produzir grandes volumes de desinformação, não mais dependendo de comando individuais, mas seguindo diretrizes mais amplas. Como a publicação é automática, isso pode inundar as redes sociais com informações falsas, que soterrariam o conteúdo jornalístico diante dos algoritmos. Além disso, países como China e até Venezuela já usam avatares ultrarrealistas que se passam por jornalistas humanos e despudoradamente leem notícias que lhes forem ordenadas.

O relatório do Reuters Institute indica que as empresas de comunicação pretendem reforçar o contato direto com seu público, em detrimento das plataformas digitais. Mas isso pode afastá-las ainda mais de sua audiência mais jovem e menos instruída, que se sente satisfeita com as notícias geradas por IA.

A inteligência artificial é uma ferramenta fabulosa e estamos em um caminho sem volta para sua adoção em todos os setores da economia, inclusive na comunicação. Apesar de todos esses desafios, ela também oferece muitos ganhos ao jornalismo, se bem usada.

O risco a que todos nós –e não apenas jornalistas– temos que estar atentos é a possibilidade de decisões básicas da sociedade civil, como em quem votar, sejam sequestradas por robôs sem ética. As empresas de comunicação não podem repetir com a IA o erro que cometeram ao desprezar o poder das redes sociais, quando ainda estavam começando. Precisam compreender e se apropriar dessa tecnologia, e ajudar toda a sociedade a fazer o mesmo.

Caso contrário, seremos cada vez mais cidadãos teleguiados.

 

Na Conferência de Desenvolvedores de 2019, Mark Zuckerberg anunciava que “o futuro é privado” - Foto: Anthony Quintano/Creative Commons

Tudo que você postar pode ser usado contra você e a favor da IA

By | Tecnologia | No Comments

Não é novidade que tudo que publicamos nas redes sociais é usado para criarem perfis detalhados sobre nós para que seus anunciantes nos vendam todo tipo de quinquilharia. Também é conhecido que nossas informações são usadas para “aprimorar” essas plataformas. E que muitas delas fazem menos do que poderiam e deveriam para nos proteger contra desinformação e diferentes tipos de assédio, que podem prejudicar nossa saúde mental. Mas o que é novidade é que agora essas companhias também usam nossas informações pessoais para treinar seus nascentes serviços de inteligência artificial, abrindo uma nova potencial violação de privacidade.

Essas empresas transitam nas ambiguidades de seus termos de serviço e posicionamentos públicos. Por exemplo, no dia 31, os CEOs das redes sociais mais usadas por crianças e adolescentes foram interpelados no Comitê Judiciário do Senado americano, sobre suas ações para proteger os jovens. O mais questionado foi Mark Zuckerberg, CEO da Meta (dona do Facebook, Instagram e WhatsApp). Diante da pressão dos senadores, ele se levantou e se desculpou ao público nas galerias.

Ali estavam pais e mães de crianças que morreram por problemas derivados de abusos nas redes sociais. Menos de uma semana depois, o mesmo Zuckerberg disse, durante uma transmissão sobre os resultados financeiros anuais da Meta, que sua empresa está usando todas as publicações de seus usuários (inclusive de crianças) para treinar suas plataformas de IA.

O mercado adorou: suas ações dispararam 21% com o anúncio dos resultados! E essa infinidade de dados pessoais é mesmo uma mina de ouro! Mas e se eu, que sou o proprietário das minhas ideias (por mais que sejam públicas), quiser que a Meta não as use para treinar sua IA, poderei continuar usando seus produtos?

É inevitável pensar que, pelo jeito, não temos mais privacidade e até mesmo propriedade sobre nossas informações pessoais. E as empresas podem se apropriar delas para criar produtos e faturar bilhões de dólares.


Veja esse artigo em vídeo:


No momento mais dramático da audiência no dia 31, Zuckerberg se levantou e, de costas para os senadores e olhando para as pessoas presentes, muitas carregando fotos de seus filhos mortos, disse: “Sinto muito por tudo que passaram. Ninguém deveria passar pelas coisas que suas famílias sofreram.”

Mas também se defendeu, afirmando que investiu mais de US$ 20 bilhões e contratou “milhares de funcionários” para essa proteção. Ponderou ainda que a empresa precisa equilibrar o cuidado e “as boas experiências entre amigos, entes queridos, celebridades e interesses”. Em outras palavras, a proteção não pode “piorar” o produto, o que seria ruim para os negócios.

Seis dias depois, disse aos investidores: “No Facebook e no Instagram, existem centenas de bilhões de imagens compartilhadas publicamente e dezenas de bilhões de vídeos públicos, que estimamos ser maiores do que os dados do Common Crawl, e as pessoas também compartilham um grande número de postagens de texto públicas em comentários em nossos serviços.”

O Common Crawl é um gigantesco conjunto de dados resultante do contínuo rastreamento do que é público na Internet, podendo ser usado por quem quiser e para qualquer finalidade. Ele serve de base para o treinamento de várias plataformas de IA.

“Considerando os Termos de Uso e as regras da plataforma, seria possível a Meta usar nossos dados para treinar sua IA, embora seja bastante discutível”, explica Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). “É discutível porque muitas das informações nas redes sociais podem ser consideradas dados pessoais e, neste caso, eventualmente legislações específicas acabam incidindo, como a Lei Geral de Proteção de Dados (LGPD)”.

Nos Termos de Serviço do Facebook, a única referência à IA é: “usamos e desenvolvemos tecnologias avançadas (como inteligência artificial, sistemas de aprendizado de máquina e realidade aumentada) para que as pessoas possam usar nossos produtos com segurança, independentemente de capacidade física ou localização geográfica.”

O mesmo documento diz: “realizamos pesquisa para desenvolver, testar e melhorar nossos produtos. Isso inclui a análise dos dados que temos sobre os nossos usuários e o entendimento de como as pessoas usam nossos produtos.” Esse trecho poderia garantir o uso das nossas publicações para o desenvolvimento da IA da Meta.

Por outro lado, os Termos dizem que a remuneração da Meta se dá apenas por anúncios entregues a seus usuários pela análise de suas informações. Oras, a inteligência artificial não é anúncio, mas ela renderá bilhões de dólares à empresa. Assim o uso de nossos dados para treinar a IA geraria um conflito entre as cláusulas.

 

O rei está nu e perdeu a majestade

Sempre tivemos nossos dados coletados e manipulados. O nosso “sócio” mais tradicional é o governo, que sabe coisas inimagináveis sobre o cidadão! Basta ver o Imposto de Renda pré-preenchido! E isso é só a pontinha desse enorme iceberg.

Não vou defender qualquer governo, pois muitas dessas apropriações são no mínimo questionáveis. Mas há uma diferença essencial de qualquer big tech: ele foi eleito para melhorar a vida do cidadão. As empresas, por sua vez, visam apenas seu lucro.

Crespo explica que a principal violação nesse movimento da Meta é que ela usa dados pessoais de seus usuários para uma finalidade que não é aquela pela qual criaram suas contas e fazem suas publicações, e que eles nem sabem. Vale lembrar que, no fim de dezembro, o The New York Times processou a Microsoft e a OpenAI por se apropriarem de seus conteúdos para treinar seu ChatGPT, e um de seus argumentos foi essas empresas usarem esse conteúdo sem pagar por esse objetivo específico.

Esse mesmo raciocínio poderia se aplicar às postagens dos 3 bilhões de usuários do Facebook e dos 2 bilhões do Instagram. Além disso, a baixa qualidade de muitas publicações nessas plataformas pode incluir vieses e informações no mínimo questionáveis no treinamento dessa IA.

“Esse é o grande dilema da atualidade”, afirma Crespo. Empresas podem criar regras para quem quiser usar seus produtos, mas, depois de usar algo como o Google por duas décadas, alguém o abandonaria porque seus dados seriam usados para uma nova e questionável finalidade (entre tantas outras)? “A grande questão é se essas regras são moralmente aceitas e transparentes, ou se, de alguma forma, constituem abuso de direito”, explica Crespo.

No final, caímos novamente no infindável debate sobre a regulamentação das ações e responsabilidades dessas empresas. Essa novidade trazida por Zuckerberg é apenas o mais recente exemplo de que, se deixarmos para que elas se autorregulem, nós, seus usuários, continuaremos sendo os grandes prejudicados.

 

Crianças com “laptop de US$ 100” do projeto “One Laptop Per Child”, criado por Nicholas Negroponte - Foto: OLPC/Creative Commons

Volta às aulas reacende debate sobre o lugar da tecnologia na escola

By | Educação | No Comments

Estamos em plena volta às aulas! Com os alunos, ressurge o debate sobre como usar a tecnologia na educação, com uma inteligência artificial cada vez mais poderosa. E a prefeitura do Rio de Janeiro jogou lenha na fogueira ao proibir, na sexta passada, que os alunos usem celulares nas escolas públicas municipais, mesmo no recreio.

Especialistas aprovam a decisão, que tem 30 dias para ser implantada. Já debatemos longamente, nesse mesmo espaço, como os celulares em sala de aula em atividades não acadêmicas roubam a atenção dos alunos e prejudicam profundamente seu aprendizado. No caso do recreio, eles atrapalham os processos de socialização entre as crianças, necessários para o seu desenvolvimento. Pela nova regra, os equipamentos devem ficar desligados ou silenciados na mochila do estudante, podendo ser usados apenas se o professor os solicitar para alguma atividade, ou em casos excepcionais, como alunos com algum problema de saúde.

A determinação é interessante para ampliarmos o debate sobre a digitalização do ensino. Nessa mesma época, no ano passado, os professores estavam em polvorosa devido ao então recém-lançado ChatGPT. Muitos achavam que não conseguiriam mais avaliar seus alunos e alguns temiam até perderem o emprego para as máquinas.

Passado um ano, nada disso aconteceu, até porque descobrimos que essa tecnologia ainda erra muito. Mas todo aquele burburinho serviu para, pelo menos, os professores repensarem os seus processos de avaliação. Em uma sociedade altamente digitalizada, não dá mais para só pedir que alunos entreguem textos escritos em casa.

Mas se sabemos o que não deve mais ser feito, ainda não há clareza sobre como usar todo esse poder digital de maneira criativa e construtiva com os estudantes, desde a infância até a universidade. A despeito dos riscos e problemas conhecidos, os alunos devem aproveitar o que ela também oferece de bom, de forma adequada a sua idade. Essa é uma lição de casa que todos nós temos que fazer.


Veja esse artigo em vídeo:


Há 15 anos, eu trabalhava com o desenvolvimento de conteúdos didáticos digitais e sistemas de apoio pedagógico. Era uma época em que Nicholas Negroponte, fundador do Media Lab, do Massachusetts Institute of Technology (MIT), propunha o uso de notebooks de US$ 100 para crianças estudarem melhor com o apoio da tecnologia.

Essas máquinas chegaram a ser criadas e pude conhecer alguns modelos. Eram pequenas maravilhas tecnológicas para a época, a um preço convidativo. O projeto foi implantado em alguns países, mas em muitos casos (inclusive no Brasil) não evoluiu, não pela tecnologia, mas porque os professores não sabiam bem o que fazer com ela.

De certa forma, vivemos algo semelhante agora. Estamos cercados por telas, e as crianças têm acesso a elas cada vez mais cedo. Segundo a pesquisa TIC Kids Online Brasil, divulgada em 25 de outubro pelo Cetic.br (órgão de pesquisa ligado ao Comitê Gestor da Internet no Brasil), 95% dos brasileiros entre 9 e 17 anos estão online, e 24% tiveram seu primeiro acesso até os seis anos de idade.

O ChatGPT popularizou a inteligência artificial, e muitas empresas correm para criar soluções educacionais com ela. Como exemplo, em maio, Salman Khan, fundador e CEO da Khan Academy, uma organização que oferece educação online gratuita, demonstrou uma ferramenta que auxilia professores e alunos. Ela não dava respostas aos estudantes, ajudando-os a pensar na solução dos problemas. Para professores, a ferramenta ajudava a planejar aulas engajadoras. Khan afirmou que, para os alunos, a IA atua como um tutor, enquanto, para os professores, age como um assistente.

Esse é um sonho antigo do Vale do Silício. Não tenho dúvidas que a tecnologia pode ajudar na educação: eu cresci com isso! Mas também sei que ela sozinha não resolve, nem mesmo a “IA tutora” de Khan. Uma educação eficiente em qualquer idade não se resume a conteúdo de qualidade ou tutores que façam provocações inteligentes. Ela depende também da humanidade dos professores, capazes de ensinar, mas também de engajar e acolher seus alunos além de suas necessidades pedagógicas.

De todo jeito, está na hora de repensarmos a educação à luz da tecnologia.

 

Celulares e IA como apoio

Vivemos um cenário paradoxal. Segundo a Unesco (Organização das Nações Unidas para Educação, Ciência e Cultura), o excesso de telas sem orientação prejudica a aprendizagem e até a saúde mental de crianças e adolescentes. O órgão sugere também que a IA não seja usada antes dos 13 anos de idade. Por outro lado, a ausência de tecnologia põe estudantes em desvantagem educacional.

Devemos ter cuidado para não nos deslumbrarmos com as possibilidades da tecnologia nem tampouco rechaçá-la por temor do desconhecido. Isso significa que as escolas não podem abraçar inconsequentemente uma solução como a de Khan (que tem muitos méritos), especialmente como marketing, nem demonizar as telas na sala de aula, como alguns podem entender a determinação da prefeitura do Rio de Janeiro.

Precisamos ser guiados por consciência e equilíbrio. Vimos, no ano passado, a tentativa do governo do Estado de São Paulo de abandonar os livros, que seriam substituídos por questionáveis slides produzidos pelo próprio governo. Isso sim é um uso inadequado da tecnologia, reduzindo profundamente o papel do professor.

Há muito tempo, a sociedade brasileira debate a “atualização” e a “utilidade” dos currículos escolares. E nos últimos anos, uma parcela da população aprendeu a demonizar os professores. Para esses, quanto menos professor, melhor, e a inteligência artificial poderia ser a resposta a suas preces.

Naturalmente a escola precisa estar alinhada ao nosso mundo em constante transformação. Mas devemos ter cuidado para não reduzi-la a algo meramente utilitário. A escola deve principalmente formar cidadãos conscientes e viáveis, capazes de lidar com os desafios da sociedade e melhorá-la, e isso não se faz só com a capacidade de ler ou de fazer contas: são necessárias empatia, inteligência emocional, pensamento livre e humanidade.

Quem ensina isso são os professores e o melhor lugar para uma criança e um adolescente aprenderem é a escola. A tecnologia deve ser vista como uma parceira valiosa nesse processo de transformação, não uma substituta.

Por tudo isso, tenho visto professores em algumas listas de “profissões do futuro”. Mas naturalmente serão aqueles que usam a tecnologia para ampliar seus próprios limites e os de seus alunos. O amanhã pertence a quem domine a tecnologia, sem perder nada de sua humanidade.