ética digital

Mesmo com o avanço da IA da sala de aula, papel do professor continua imprescindível - Foto: Zinkevych (Freepik)/Creative Commons

Propostas do MEC para bom uso da IA servem para todos os setores da sociedade

By | Educação, Tecnologia | No Comments

Além das transformações intensas por toda a economia, a inteligência artificial está transformando a maneira como falamos e até pensamos. Por isso, temos que buscar um uso consciente e construtivo dela. Esse cuidado se torna crítico na educação, justamente onde desenvolvemos valores, novas habilidades e formamos cidadãos.

Nesse quadro, o Referencial para o Uso e Desenvolvimento Responsáveis de Inteligência Artificial na Educação, publicado na quinta passada (12) pelo Ministério da Educação (MEC), é muito bem-vindo. O documento orienta educadores e instituições e oferece diretrizes para políticas públicas sobre como fazer bons usos dessa tecnologia nas escolas da educação infantil à pós-graduação.

Criar um arcabouço de propostas com essa complexidade leva tempo, mas professores e alunos já usam a IA generativa há anos. Infelizmente, por falta de orientação, muitos deles não aproveitam tudo que a tecnologia oferece ou fazem até usos questionáveis dela.

Isso não é exclusivo da educação. Pelo contrário, vemos adoções inadequadas dessa tecnologia em todos os setores. A rapidez da sua evolução supera nossa capacidade de compreender o que cada mudança representa. Além disso, nunca algo havia invadido nossos sagrados campos da cognição e da criatividade.

Assim, embora seja voltado à educação, a proposta do MEC explicita princípios que podem, com adaptações, orientar outros setores no uso de IA. Ela enfatiza supervisão humana efetiva, transparência e explicabilidade dos sistemas, proteção rigorosa de dados pessoais, avaliação de impacto algorítmico, promoção de equidade e inclusão e soberania tecnológica. Dessa forma, suas diretrizes têm potencial de inspirar políticas públicas e práticas organizacionais muito além do ambiente educacional.


Veja esse artigo em vídeo:


O MEC não está sozinho na orientação sobre bons usos da IA na educação. No momento, 12 universidades brasileiras já têm regras internas sobre o uso dessa tecnologia. Um dia antes da publicação do referencial do ministério, a Universidade Estadual Paulista (Unesp) publicou o seu Guia para utilização de IA na graduação. A Universidade de São Paulo (USP) e a Universidade Estadual de Campinas (Unicamp) também estão trabalhando em documentos semelhantes.

De certa forma, os documentos do MEC e da Unesp são complementares. O primeiro funciona como um marco principiológico, sem entrar em regras operacionais. Já o segundo tem abordagem mais pragmática, organizando o que alunos, docentes e funcionários podem e não podem fazer com a IA no cotidiano.

“O referencial do MEC chega em um tempo que alunos e professores já estão usando a IA para diversos fins”, afirma David de Oliveira Lemes, professor da PUC-SP. “Hoje, não dá para fugir disso, mas é preciso ter critérios de uso”, acrescenta.

“Quando a gente fala da questão da tecnologia com o professor, eu preciso oferecer condições para que ele se aproprie, entenda e se enxergue dentro desse universo, porque, senão, ele não consegue vincular isso à prática pedagógica”, explica Ana Lucia de Souza Lopes, professora e líder do Laboratório de Humanidades Digitais da Universidade Presbiteriana Mackenzie. “Ele corre o risco de a IA fazer tudo para ele e determinar que professor ele vai ser”, alerta.

Os pesquisadores concordam que o letramento tecnológico de professores e alunos é necessário, porém não é suficiente. O uso irrefletido da IA pode produzir mediocridade automatizada, limitada por prompts rasos, em vez de melhorar o ensino.

“A gente tem que discutir a IA do ponto de vista epistemológico, pois ela entra em tudo na vida, molda comportamentos, impacta como eu me visto, o que eu consumo, como eu penso”, diz Lopes. “Então eu tenho que aprender a ‘pensar a IA’, não só aderir a ela, nessa relação vertiginosa que a gente não sabe para onde vai.”

 

Capacitação docente

Mas nem o melhor documento mudará a prática pedagógica se não houver formação e discussão coletiva. Por falta de apoio, muitos docentes acabam aprendendo sozinhos a usar a tecnologia, com resultados muito aquém do possível.

Isso é uma lástima, pois a tecnologia pode alterar profundamente a dinâmica da sala de aula, repensando a didática, avaliação e processos de aprendizagem. Metodologias ativas baseadas em projetos ficam ainda melhores, pois os alunos podem ganhar protagonismo ao usar a tecnologia para construir atividades antes inatingíveis.

“Eu tenho pensado muito nessa relação entre aquilo que é esse novo e os processos de ensino e aprendizagem, nos seus princípios, seus fundamentos, porque isso vai mudar”, sugere Lopes. “A gente tem que falar de uma didática digital, tem que incluir, neste campo do saber, pesquisas que discutam esse digital, porque são outras possibilidades de aprender e de ensinar.”

Dessa forma, a IA pode apoiar, mas nunca substituir o professor. Mas deve existir uso crítico, consciência dos limites dos sistemas e preservação do protagonismo docente e discente. Caso contrário, há o risco de se cair em uma pirotecnia tecnológica que se presta apenas ao marketing escolar. Não se deve demonizar a tecnologia, mas sim colocar cada coisa no seu lugar.

O referencial do MEC afirma que a IA deve reforçar o direito à educação, a equidade e a dignidade humana. Mas Lemes lembra que vivemos em um país com profundos abismos sociais, que podem se agravar com implantações desiguais da IA na escola. “Uma coisa é você falar de universidades com pensadores de ponta, boa infraestrutura para professores e para os alunos, que se preocupam com a formação dessas pessoas, mas outra é aquele professor que está em um local sem conectividade, com equipamentos de baixa qualidade e agindo sozinho”, explica.

A inteligência artificial já entrou nas salas de aula muito antes de qualquer regra. O referencial do MEC e os guias das universidades tentam organizar um fenômeno já em curso. Eles não resolverão sozinhos os dilemas pedagógicos, éticos e culturais que a tecnologia impõe, mas ao menos reconhecem que a ignorar não é mais uma opção.

Nosso desafio não é definir se a IA pode ser usada na educação, e sim evitar que ela substitua o esforço intelectual. Como disse Lemes, “eu não vou competir com a IA, mas usarei minha experiência para compartilhar histórias com os alunos, para mostrar o que dá certo”. E, de fato, temos que garantir que, diante de máquinas que respondem tudo, a escola continue ensinando as pessoas a pensar, a fazer boas perguntas e a analisar boas respostas.

 

Em 2026, a IA continuará no trono da tecnologia, mas seu reinado será marcado pela automação de decisões – Imagem: Paulo Silvestre

Em 2026, a IA avançará sobre decisões empresariais e da sociedade

By | Tecnologia | No Comments

Neste ano que está começando, a inteligência artificial continuará no trono da tecnologia, mas seu reinado será muito diferente do que vimos até agora. Se nos últimos anos, ela impressionou por gerar textos, imagens e códigos, agora o debate se deslocará para a automação de decisões, a delegação de tarefas cognitivas e a reorganização do poder dentro das empresas e da sociedade, algo muito mais sensível.

Essa é a conclusão de conversas que tive com executivos de quatro das principais empresas de tecnologia que operam no Brasil. Essas lideranças apontam para um horizonte em que a “IA agêntica” não será mais uma novidade, mas um motor central de estratégias corporativas. A automação não mais se restringirá a tarefas repetitivas, passando a assumir processos cognitivos de julgamento e orquestração.

A pressão por produtividade não diminuiu, os custos de operação aumentaram e a paciência com experimentos sem retorno se esgotou. A evolução dos processadores especializados, a pressão por eficiência energética e a necessidade urgente de governança real sustentam essa visão. Por isso, as empresas buscam sistemas menores, mais inteligentes e capazes de operar dentro de casa, garantindo segurança e conformidade com leis cada vez mais rígidas.

Embora estejamos falando de tecnologia, o impacto na vida das pessoas e na rotina das empresas será profundo e, por vezes, invisível. Quando um sistema decide sozinho se concede um empréstimo, aprova um tratamento médico ou freia um carro autônomo, ele desloca o eixo da responsabilidade humana. Passamos a delegar à IA o julgamento moral e a capacidade de agir no mundo físico.

Isso nos coloca diante de um dilema que ultrapassa a engenharia e entra no campo da ética e da política. A pergunta que definirá 2026 não será, portanto, se esses sistemas serão eficientes, mas quem responderá quando eles inevitavelmente errarem.


Veja esse artigo em vídeo:


Nesse cenário, o próprio sucesso deve ser repensado. Sandra Vaz, presidente da Red Hat Brasil, afirma que “a eficiência operacional continua relevante, mas ela deixa de ser suficiente”. Para ela, em 2026, “as empresas terão de medir o impacto estratégico e ser muito criteriosas na escolha dos dados utilizados para criar novas experiências para o cliente”. Afinal, decisões ruins automatizadas em escala podem destruir o valor de uma companhia em pouco tempo.

Rui Botelho, presidente da SAP Brasil, toca exatamente nesse ponto ao projetar a consolidação de uma IA capaz de orquestrar tarefas “do fechamento financeiro à gestão de talentos, sempre com governança e rastreabilidade”. Ele destaca que o diferencial estará em “combinar essa automação com dados de negócio confiáveis”. A credibilidade torna-se, portanto, uma moeda valiosíssima nesse novo mercado.

Essa transformação é descrita por Fabricio Lira, diretor de IA e Dados da IBM Brasil, como a criação de “ecossistemas onde múltiplos agentes colaboram, compreendendo dinâmicas de contexto, intenção humana e cenários complexos”. Para ele, isso permitirá “oferecer decisões autônomas e seguras em tempo real”.

Perceba que a palavra-chave é “decisão”. Estamos saindo da era da venda de software (Software as a Service) para a venda de trabalho (Service as a Software), em que a máquina entrega o resultado final, e não apenas o meio para alcançá-lo. Isso exigirá novos processos para gerenciar conflitos entre agentes e garantir que a autonomia da IA não quebre a lógica de negócios ou a segurança institucional.

Marco Stefanini, CEO Global e fundador da Stefanini, reforça essa visão, citando que “a previsão da IDC é de que 65% das empresas adotarão esses agentes até o final de 2026, com foco em valor imediato e apoio à decisão”. No entanto, ele faz um alerta fundamental sobre a natureza dessa mudança, lembrando que “IA não é mágica, é método”. “Modelos genéricos, treinados apenas com conteúdo da Internet, não dão conta da complexidade das operações corporativas”, explica.

 

Decisão como produto

Essas visões convergem para um cenário em que sistemas multiagentes começam a decidir em cadeia, coordenando ações, priorizando caminhos e resolvendo conflitos em tempo real. O ganho de eficiência é evidente, mas cria-se um sério risco de naturalização da delegação moral.

Se um conjunto de algoritmos toma decisões, cria-se uma zona cinzenta em que “ninguém decidiu sozinho”. Para mitigar isso, a governança deixará de ser um discurso bonito de marketing para se tornar um requisito de engenharia. Sem isso, empresas enfrentarão não apenas crises de imagem, mas barreiras legais severas.

Por trás desse debate ético e regulatório, crescerá exponencialmente uma disputa material em torno de uma tecnologia vendida como “imaterial”. A IA consome quantidades absurdas de energia e depende de escassos processadores avançados. A infraestrutura definirá o poder, e a soberania digital dos países dependerá de quem controla esses recursos.

Além das máquinas, há o desafio humano. Botelho ressalta que “nada disso se sustenta sem investimento contínuo em mão de obra qualificada”. Enquanto os agentes assumem tarefas cognitivas, os humanos precisam ser requalificados para gerenciar, auditar e corrigir essas inteligências. Vaz complementa dizendo que a tecnologia ficará mais sofisticada, com ferramentas “orientadas para a escala dos negócios e a capacitação das equipes”.

Com tudo isso, em 2026 nos depararemos com escolhas que não poderemos postergar. Precisaremos decidir quanta autonomia estamos dispostos a delegar às máquinas, como garantir que a eficiência não atropele direitos fundamentais e quem terá poder para treinar modelos em escala. A IA continuará ficando mais poderosa, mas continua valendo a máxima de que tecnologia sozinha não resolve nada.

De agora em diante, essa história exigirá menos deslumbramento e mais responsabilidade coletiva. Empresas, governos e sociedade civil precisarão construir juntos os mecanismos de supervisão, auditoria e responsabilização que ainda não existem. Não há atalho para essa maturidade, e fingir que as empresas de tecnologia se autorregularão é uma fantasia inocente e perigosa.

Ainda bem que estamos a tempo de fazer as escolhas certas.