Monthly Archives: abril 2024

Na quarta, o secretário da Educação de São Paulo, Renato Feder, falou sobre a IA nas escolas, durante o Bett Brasil - Foto: reprodução

ChatGPT na criação de aulas para escolas paulistas pode piorar a educação

By | Educação, Tecnologia | No Comments

A Secretaria da Educação do Estado de São Paulo confirmou que pretende usar o ChatGPT para “melhorar” as aulas que distribui para os professores das escolas estaduais paulistas. Apesar de garantir que todo o conteúdo gerado pela máquina será revisado por sua equipe de professores curriculistas, esse uso da inteligência artificial abriu uma grande discussão sobre uma possível redução no papel do professor e nos riscos vindos de uma tecnologia reconhecidamente ainda falha.

Segundo a Secretaria, a IA fará suas propostas a partir do material já existente, criado pelos curriculistas para alunos do Ensino Fundamental II (do 6º ao 9º ano) e do Ensino Médio. O ChatGPT deve propor ampliações no conteúdo e criação de exercícios.

Professores criticam o material do governo, que consideram limitante. Também possui erros gramaticais, de formatação e conceituais. Como exemplo, uma aula afirmava que a Lei Áurea teria sido assinada em 1888 por D. Pedro II (foi pela sua filha, a princesa Isabel), enquanto outra dizia que a cidade de São Paulo possuía praias.

O temor é que o ChatGPT agrave o problema. Assim como outras plataformas de IA generativa, ele é programado para sempre dizer algo, mesmo que não saiba o quê. Nesse caso, pode responder verdadeiras barbaridades, mas, como faz isso com grande “convicção”, muita gente acredita nas suas informações erradas. São as chamadas “alucinações”.

Caberá aos professores curriculistas não apenas ajustar pedagogicamente a produção do ChatGPT, como também verificar se o que ele diz está correto e se não fere direitos autorais. Fica a pergunta se eles terão recursos e disposição para fazer isso. Caso contrário, a inteligência artificial poderá deseducar, ao invés de melhorar aulas.


Veja esse artigo em vídeo:


A digitalização das escolas estaduais de São Paulo é uma bandeira do secretário da Educação, o empresário do setor de tecnologia Renato Feder. Desde o ano passado, 90 curriculistas produzem slides para os professores usarem em suas aulas. Ele chegou a anunciar que abandonaria os livros do Programa Nacional do Livro Didático (PNLD), obrigando os educadores a usar o material digital do governo.

Depois de muitas críticas, Feder recuou da ideia de desistir dos livros, mas os slides continuaram. Segundo ele, esse material prioriza conteúdos cobrados em avaliações nacionais, como o Saeb (Sistema de Avaliação da Educação Básica).

“A gente tem que tomar muito cuidado que o professor não seja apenas um aplicador de atividades”, afirma Ana Lúcia de Souza Lopes, professora da Universidade Presbiteriana Mackenzie e especialista em tecnologia para educação. “Ele deve ser aquele que media o conhecimento, que cria condições para o aluno aprender”, explica.

A especialista defende a criação de bons materiais para serem usados em salas de aula, desde que eles sejam criados por professores. Mas ela alerta que a formação desses profissionais tem sido deficiente, o que os atrapalha nessa atividade.

Até o momento, os professores curriculistas do Estado de São Paulo entregam quatro aulas por semana. Com o uso da IA, essa meta passa a ser de três aulas a cada dois dias úteis, podendo chegar a seis por semana.

 

Quantidade versus qualidade

Feder disse que continuará ampliando o uso da inteligência artificial na educação. Outra aplicação é o “fluencímetro”, um sistema que analisa fluência de leitura de alunos do 2º ao 5º ano. Segundo ele, a próxima etapa será a adoção de ferramentas para corrigir lições de casa dos alunos, que precisarão ser feitas em um aplicativo. A correção de redações também deve ser auxiliada pela IA.

A princípio, a adoção de ferramentas para auxiliar os sobrecarregados (e muitas vezes desmotivados) professores das escolas estaduais é bem-vinda. Mas recaímos no risco de os robôs piorarem o aprendizado, por suas próprias falhas. Além disso, isso pode diminuir ainda mais o protagonismo do professor, sem resolver problemas estruturais, como sua formação deficiente, enorme desvalorização social da carreira e condições precárias para realização de seu trabalho.

“Não sou contra o uso da inteligência artificial, mas precisamos ter atenção em como utilizar a ferramenta, principalmente em aspectos sensíveis, como no caso da educação”, alerta Lopes. E de fato, a recém-aprovada Lei da Inteligência Artificial europeia classifica o uso dessa tecnologia na educação como uma atividade de alto risco, e que, portanto, deve acontecer com muito cuidado.

O Ministério Público de São Paulo determinou que Feder apresente estudos científicas que justifiquem o uso de inteligência artificial na produção de material didático. Ele tem até a segunda quinzena de maio para fazer isso.

Muitos professores já usam a inteligência artificial na sala de aula. Os que mais poderiam se beneficiar dela são justamente aqueles que têm pouco apoio profissional e estão sobrecarregados. Uma grande ironia nisso é que normalmente eles são os que possuem uma formação deficiente e que, portanto, tendem a colher menos resultados de todo o poder que essa tecnologia lhes oferece. Isso pode aumentar ainda mais a distância entre professores e alunos de escolas privadas e os de escolas públicas.

Precisamos ter em mente que, mais que quantidade, educar é qualidade. Não basta oferecer materiais “mastigados” para alunos adestrados tirarem boas notas em avaliações oficiais. Isso se presta muito mais a gerar dividendos políticos.

A educação significa criar cidadãos conscientes, capazes de analisar seu cotidiano criticamente, entendendo de fato conteúdos e dominando habilidades que os permitam se desenvolver em um mundo cada vez mais competitivo. Para usar termos da moda, é preciso adquirir “hard skills” (como Matemática ou Língua Portuguesa), mas também as “soft skills” (habilidades intangíveis, como trabalho em equipe, capacidade de comunicação e resiliência).

A inteligência artificial é uma tecnologia fabulosa, com uma incrível capacidade de transformação social. Ela está apenas dando seus primeiros passos, e todos precisam se apropriar adequadamente de seus recursos, inclusive nas escolas. Ainda assim, ela não é capaz de cumprir essas tarefas, que só podem ser realizadas por um professor.

Mas eles precisam de apoio verdadeiro, melhor capacitação e reconhecimento profissional e social. Sem isso, nossos alunos ficarão cada vez mais desassistidos, e o Brasil cada vez menos competitivo. Enquanto governos, escolas, e famílias não apoiarem isso de maneira efetiva e coordenada, uma adoção afobada da IA na educação pode tornar essa nossa deficiência social ainda mais dramática.

 

Inteligência artificial pode deixar o mundo mais seguro e também perigoso

By | Tecnologia | No Comments

Como de qualquer ferramenta, os resultados da inteligência artificial dependem das ações de quem a utiliza. Pessoas que fazem usos positivos dela produzirão bons frutos. Já as de má índole podem causar danos profundos. Com seu poder disruptivo, essas consequências podem ser críticas! Esse foi o tema de um dos principais painéis do Web Summit Rio, um dos mais importantes eventos globais de tecnologia, mídia e inovação, que aconteceu no Rio de Janeiro, de terça a quinta da semana passada.

Um dos problemas deriva de a IA oferecer mecanismos para se alterar a realidade ou criar mentiras muito convincentes. Isso abre incontáveis possibilidade de golpes, ameaçando indivíduos, empresas e sociedades inteiras, como no caso de eleições. “Se a confiança for perdida, ficará muito difícil continuar inovando em coisas boas na IA”, disse no painel o estoniano Kaarel Kotkas, CEO da empresa de segurança Veriff.

Felizmente a mesma IA oferece recursos para combater essas ameaças. “A gente precisa pensar que seremos cada vez mais uma sociedade baseada em tecnologia”, me disse no evento Cesar Gon, CEO da empresa de tecnologia CI&T. “É importante acompanhar para onde a tecnologia vai e criar limites, mas garantindo que a ciência e a tecnologia continuem evoluindo para resolver os problemas humanos”, explicou, ressaltando que a IA deve sempre estar alinhada com os interesses da sociedade.

Diante de tanto poder computacional, chega a ser irônico que a maioria dos golpes não envolva invasão de sistemas. O elo mais frágil na segurança continua sendo o ser humano, enganado de diferentes maneiras para que repasse informações pessoais (como senhas) ou realize ações prejudiciais, uma técnica chamada de engenharia social. O que muda nisso com a IA é que os procedimentos para confundir as pessoas se tornam mais convincentes, difíceis de se identificar, e agora atingem muita gente, para aumentar a chance de fazerem suas vítimas.


Veja esse artigo em vídeo:


Esse é um dos grandes desafios da sociedade atualmente. Qualquer pessoa, mesmo alguém que domine a tecnologia, pode cair em golpes. Sua solução passa necessariamente pela educação dos usuários, mas também pelo comprometimento de empresas –de big techs a startups– para um desenvolvimento responsável dessas soluções, e de autoridades que criem regras claras para garantir isso.

Nesse cenário, técnicas tradicionais de proteção digital perdem eficiência. Mesmo autenticações em dois fatores –quando, além da senha, o usuário se autentica por um segundo método– podem expor pessoas e empresas. As companhias precisam adotar abordagens em camadas e usar múltiplas tecnologias, como autenticação avançada, verificação de dispositivos e incorporação preventiva de IA para detectar fraudes.

Os dados dos usuários valem ouro para os bandidos, mas também são importantes para sua identificação mais precisa. As empresas precisam ser transparentes sobre como serão usados, para que as pessoas se sintam confortáveis em compartilhá-los.

“Quando elas entendem esse valor, podem tomar uma decisão muito melhor sobre se querem compartilhar seus dados, para terem mais segurança”, disse no mesmo painel André Ferraz, CEO da empresa de identificação Incognia. “Se nós não formos capazes disso, as pessoas poderão deixar de acreditar na Internet”, concluiu.

As grandes empresas de tecnologia têm um papel decisivo na construção dessas boas práticas e na educação do mercado, até mesmo porque elas têm muito a perder se a situação se deteriorar para um cenário de desconfiança generalizada. “É essencial para elas perceberem que ignorar a importância de construir confiança e segurança em seus sistemas poderia prejudicar sua capacidade de implementar amplamente a tecnologia no futuro”, me explicou Kotkas. “Negligenciar isso poderia resultar em grandes repressões regulatórias e interromper o progresso na criação de novas tecnologias.”

A inteligência artificial também potencializa muito outro câncer social que se disseminou pelas redes sociais: a desinformação. O assunto foi abordado em diversas apresentações no Web Summit Rio, e ganha muita força em nesse ano, quando as maiores democracias do mundo realizarão eleições, incluindo municipais no Brasil, presidenciais nos EUA e gerais na Índia, país mais populoso do mundo, cujo pleito começou na semana passada e se estenderá por seis semanas.

 

Absurdos possíveis

As plataformas atuais de inteligência artificial tornaram muito mais fáceis, rápidas e baratas as confecções de deep fakes, técnica capaz de criar áudios, fotos e vídeos de pessoas realizando ações e dizendo coisas que nunca fizeram. Ela já existe há alguns anos, mas antes exigia equipamentos caros e bom conhecimento técnico, o que a tornava uma aplicação de nicho. Agora não é mais assim!

“Nas próximas eleições, o maior desafio não são as imagens, mas os áudios”, advertiu em outro painel Renata Lo Prete, editora-chefe do Jornal da Globo. “Com apenas um ou dois minutos da voz real de alguém, é possível criar um áudio falso perfeito, por menos de US$ 5 e em menos de cinco minutos, uma questão crítica, especialmente no Brasil, líder em trocas de mensagens pelo WhatsApp”, explicou.

Isso já acontece! Na eleição presidencial argentina, as equipes dos candidatos que foram ao segundo turno, o peronista Sergio Massa e o ultraliberal Javier Milei, fizeram amplo uso da IA para atingir as imagens dos adversários. Em outro caso internacional, americanos receberam ligações com a voz do presidente Joe Biden dizendo para que não votassem nas eleições primárias. E por aqui, um áudio com a voz do prefeito de Manaus, David Almeida, fazia ofensas contra professores. Tudo isso era falso!

Os diversos agentes da sociedade precisam se unir para que a IA seja usada de maneira positiva, sem “cortinas de fumaça” que mascaram interesses de um ou outro grupo. “Esse debate se misturou com uma visão bastante ingênua de fim do mundo, que nos afasta de discutir os reais impactos, que são a natureza do trabalho, os empregos, segurança, privacidade, ética e os algoritmos viciados”, explicou Gon.

“Nesse momento, talvez alguns humanos estejam procurando algo mágico”, disse o americano Todd Olson, CEO da empresa de software Pendo, em outro painel. “Não precisamos de mágica, mas de saber exatamente o que acontece, para que possamos aumentar a confiança na tecnologia”, concluiu.

Não dá para fugirmos desse debate, que nos envolve a todos cada vez mais. Gostemos ou não, a inteligência artificial se tornou nossa parceira. Por isso, ela precisa ser confiável e segura.


Assista e esse vídeo relacionado:

Íntegra da entrevista com Cesar Gon, CEO da CI&T

 

Zack Kass (esquerda) e Uri Levine dividem o palco principal no fim do primeiro dia do VTEX Day, que aconteceu em São Paulo - Foto: divulgação

Mais que aumento do desemprego, IA pode levar a uma crise de identidade

By | Tecnologia | No Comments

A enorme visibilidade em torno da inteligência artificial desde que o ChatGPT foi lançado, há um ano e meio, reacendeu o velho temor de que, em algum momento, perderemos os nossos empregos para as máquinas. Mas para o futurista em IA Zack Kass, a tecnologia pode provocar outras mudanças no mundo do trabalho, que podem levar a verdadeiras crises de identidade nas pessoas.

Kass, um dos primeiros profissionais da OpenAI (criadora do ChatGPT), onde atuou por 14 anos, acredita que as pessoas continuarão trabalhando. Mas em muitos casos, elas não poderão fazer o que gostam ou no que foram formadas, porque a função será realizada por um robô. E aí nasce o problema!

“Nós conectamos intrinsicamente nossa identidade de trabalho à nossa identidade pessoal”, explica o executivo, que esteve no Brasil na semana passada para participar do VTEX Day, um dos maiores eventos de e-commerce do mundo. Segundo ele, mesmo que as necessidades das pessoas sejam atendidas, não poderem trabalhar com o que desejam pode lhes causar fortes reações. “Esse é meu maior medo”, disse.

Se nada for feito, essa previsão sombria pode mesmo se concretizar. Diante dessa perspectiva, os profissionais experientes e os recém-formados devem fazer os movimentos certos para não ficarem desempregados ou para não serem jogados nessa crise profissional e de identidade, o que seria ainda mais grave.


Veja esse artigo em vídeo:


O futurista naturalmente não é o único a se preocupar com os impactos da inteligência artificial no mundo do trabalho. “Sempre há o medo de que ela tire nosso emprego”, disse Uri Levine, cofundador do Waze, que dividiu o palco com Kass. “Mas o que sempre aconteceu foi um aumento da produtividade e, portanto, do tamanho do mercado, ocasionalmente mudando os tipos de empregos”, afirmou.

Para Neil Patel, outro palestrante internacional do evento e referência global em marketing, “a inteligência artificial afetará as profissões e algumas pessoas perderão seus empregos”. Ele pondera que a IA também aumentará a produtividade das pessoas, mas, para isso, “elas precisarão ter conhecimento de IA para poderem fazer melhor seu trabalho.”

A aceleração de nossas vidas aumenta a chance do temor de Kass acontecer. “Somos constantemente levados a demonstrar resultados, a aparecer, a aprender coisas diferentes, em um ritmo cada vez mais intenso”, adverte Katty Zúñiga, psicóloga especializada nas interações entre o ser humano e a tecnologia. Ela explica que não podemos perder a nossa essência pessoal e profissional diante de tanta pressão.

Kass afirma que será muito difícil para algumas pessoas entenderem que haverá trabalho disponível, mas não o que elas gostariam de fazer. E mesmo que elas continuem ganhando seu dinheiro, isso poderá deixá-las sem propósito.

Segundo Zúñiga, nossa formação e experiência profissional são fortalezas que podem ajudar a nos posicionar diante do avanço dos robôs sobre nossas funções. Mesmo com máquinas mais eficientes, nossa essência continuará nos acompanhando e nada do que sabemos se perde. “Isso nos torna seres mais estruturados e completos”, explica. A nossa humanidade acaba sendo, portanto, o nosso diferencial!

A psicóloga lembra que isso não é uma briga contra a tecnologia. Ela observa que muitas pessoas estão se entregando a usos indevidos da IA, quando, na verdade, o que precisamos fazer e nos apropriarmos do que ela nos oferece de bom, reforçando o que somos e nossas profissões.

 

Desenvolvimento responsável

De fato, a inteligência artificial deve funcionar apoiando o ser humano, e não representando ameaças a sua integridade física e mental.

Kass ressalta que todo o desenvolvimento dessa tecnologia deveria atender a dois princípios essenciais: o alinhamento e a explicabilidade. O primeiro se refere a quanto as propostas das plataformas estão preocupadas com os interesses dos seres humanos. Já a explicabilidade, como o nome sugere, indica se os sistemas são capazes de explicar ao usuário, com clareza, suas decisões.

Ele diz que essa é uma busca contínua e interminável. “Se pudermos fazer essas duas coisas, então todo o resto torna-se totalmente aceitável, muito menos importante”, afirma Kass.

O futurista defende a regulação internacional da tecnologia para garantir esses dois conceitos, prevenindo desenvolvimentos irresponsáveis. “Qualquer coisa que não esteja falando sobre alinhamento e explicabilidade está introduzindo oportunidades para corrupção e interesses especiais”, conclui.

Todas essas considerações refletem um cenário de transição em que estamos envolvidos com a inteligência artificial. Os avanços dessa tecnologia são galopantes e invadem os mais diversos setores. Por outro lado, de tempos em tempos, os próprios desenvolvedores demonstram surpresa com os resultados de suas criações.

Isso alimenta incertezas e até medos em torno da IA, o que pode levar a decisões desastrosas que impeçam uma adoção construtiva e consciente dessa tecnologia transformadora. Kass possui uma posição privilegiada nessa indústria para poder fazer essas afirmações conscientemente.

Apesar disso (e de certa forma, principalmente por isso), precisamos encontrar mecanismos para garantir esse desenvolvimento responsável, para as máquinas buscarem o melhor para a humanidade, e não apenas para grupos específicos. Isso se dá por legislações maduras e por grandes debates sociais, para conscientização de usuários e de empresas desenvolvedoras.

Esses são caminhos necessários para que a inteligência artificial ajude a humanidade a atingir um novo patamar de produtividade, sem ameaçar a saúde mental das pessoas. E isso deve acontecer não porque as máquinas cuidarão de tudo, mas porque nós mesmos deveremos continuar realizando aquilo que gostamos, porém de maneira mais fácil, rápida e eficiente, com a ajuda delas. A nossa humanidade deve prevalecer!


Assista às íntegras em vídeo das minhas entrevistas com os três executivos. Basta clicar sobre os seus nomes:

Zack Kass, futurista de IA

Neil Patel, referência global em marketing

Uri Levine, cofundador do Waze

 

Plataformas digitais ajudam estudantes a se envolverem melhor com o conteúdo escolar - Foto: Freepik/Creative Commons

IA pode ajudar alunos a falar mais e a aprender melhor

By | Educação, Tecnologia | No Comments

Uma métrica eficiente para se identificar uma boa aula é medir o quanto os estudantes falam nela sobre o conteúdo. Quando interagem, os alunos aprendem melhor. Agora a inteligência artificial pode ajudar professores a envolverem mais suas turmas.

Ser professor pode ser uma tarefa solitária. Fora dos centros de excelência, os docentes costumam criar seus planos de ensino com apoio mínimo, e ministram suas aulas sem uma avaliação contínua, com a qual poderiam aprimorar o processo.

Não é uma tarefa fácil. Produzir esse tipo de análise exige recursos que as escolas normalmente não têm. Além disso, se essa informação vazasse, o monitoramento de aulas poderia municiar membros de uma parcela da sociedade que decidiu perseguir professores explicitamente nos últimos anos.

Diante disso tudo, a IA surge como uma poderosa aliada pedagógica. Se bem usada, ela pode acompanhar as aulas do professor e lhe oferecer o apoio necessário de maneira eficiente e segura. Pode ainda atuar como um supervisor educacional para os docentes e como um tutor permanentemente disponível aos alunos.

Como tudo que se refere à inteligência artificial, soluções que parecem mágicas precisam ser bem compreendidas para que aparentes milagres não se tornem pesadelos. O robô pode mesmo oferecer grandes vantagens educacionais, mas ele não pode, de forma alguma, substituir o professor, como alguns poderiam pensar.


Veja esse artigo em vídeo:


Recentemente descobri uma plataforma criada para ajudar os professores a aumentarem o engajamento de seus alunos. Apesar de usar reconhecimento de voz e inteligência artificial, a TeachFX não é nova: a empresa foi criada em 2016, muito antes de toda a visibilidade que essa tecnologia ganhou nos últimos meses.

Seu funcionamento é incrivelmente simples. O próprio professor grava o áudio de suas aulas como celular ou computador. A partir disso, o sistema cria relatórios que indicam quanto tempo o professor e os alunos falaram individualmente e em grupo, se o professor fez perguntas que promoveram o debate, se deu tempo adequado para reflexão dos alunos, quais as palavras mais usadas e até se elas foram muito acadêmicas ou técnicas.

Segundo a empresa, apesar de estudos comprovarem que alunos falando sobre o conteúdo aprendem melhor, a análise de 20 mil horas de áudio gravado de aulas do Ensino Básico americano indicou que cada aluno fala, em média, apenas 27 segundos a cada hora! Levantamentos internos indicam um incremento de 97% nesse tempo em alunos de professores que gravaram pelo menos oito de suas aulas e analisaram os dados oferecidos pelo sistema.

Os desenvolvedores afirmam que a ferramenta não serve como um “espião” para diretores e pais. Os dados de cada professor são acessíveis só a ele mesmo. A equipe pedagógica vê apenas os números agregados de toda a escola. Eles entendem que, sem isso, os docentes não se sentiriam seguros para usá-lo. Não se trata, portanto, de um sistema para dar uma “nota” ao docente, e sim de uma ferramenta para promover uma reflexão qualificada do próprio método pedagógico.

Outro uso da inteligência artificial na educação que ganhou bastante destaque é o Khanmigo. Em maio, Salman Khan, fundador e CEO da Khan Academy, uma organização que oferece educação online gratuita, demonstrou essa ferramenta que auxilia professores e alunos. Ela não dá respostas aos estudantes, ajudando-os a pensar na solução dos problemas. Para professores, a ferramenta ajuda a planejar aulas engajadoras. Khan afirmou que, para os alunos, a IA atua como um tutor, enquanto, para os professores, age como um assistente.

Em um primeiro momento, parecem iniciativas incríveis, mas nem todos os professores estão entusiasmados com novidades como essas.

 

O medo do desconhecido

Estamos em um período de transição no uso da inteligência artificial em todos os setores da economia, e a educação não é exceção. Mas, nesse caso, há alguns desafios adicionais, até pelas características de uma atividade bastante refratária a inovações tecnológicas, se comparada a outras profissões intelectuais.

Pela minha experiência como educador, analiso soluções digitais para a educação há quase duas décadas. Observo um medo desproporcional dos professores, que relutam em adotar novidades por desconhecimento e falta de preparo para usá-las em seu cotidiano. Como me confidenciou uma professora há alguns anos, “vejo muito valor no que esse sistema oferece, mas eu não sei colocá-lo na MINHA aula”.

Mais que vender ferramentas aos professores, os desenvolvedores, as universidades e as autoridades educacionais precisam apoiar os docentes para que eles entendam que a tecnologia não pretende substituí-los nem restringir sua liberdade pedagógica. E obviamente isso deve ser verdade!

Não é trivial, especialmente diante de grupos que enxergam a educação de maneira meramente utilitária. No início do ano passado, por exemplo, o governo paulista tentou eliminar o acesso a livros didáticos nas escolas do Estado, substituindo por questionáveis slides criados pela equipe da Secretaria de Educação. Segundo o secretário da Educação, Renato Feder, eles seriam “mais assertivos” que os livros. Felizmente a proposta acabou sendo retirada, diante de protestos generalizados.

Como pesquisador de inteligência artificial, entendo que ela tem um poder considerável de homogeneizar conhecimento, ao ajudar com produções a partir de uma base de informações que representa uma espécie de “média” do que a humanidade sabe sobre qualquer assunto. Sem falar que isso pode também reforçar vieses e visões polarizadas do mundo. Isso deve ser evitado a todo custo!

Mas esses riscos não devem servir de desculpa para que a IA não seja usada na educação, e sim que seja utilizada de maneira inteligente. Os professores devem ter seus receios acolhidos, enquanto lhes é ensinado como se apropriar dessas ferramentas para ampliar as boas práticas que conhecem e lhes apresentar outras, sempre de maneira transparente e explicada.

A inteligência artificial e qualquer outra tecnologia não devem, portanto, ameaçar a liberdade dos professores ou criar mecanismos para aprisioná-los em modelos padronizados e “assertivos”. Pelo contrário, devem permitir que sua experiência e sua intuição encontrem maneiras mais eficientes e divertidas para envolverem seus alunos no cotidiano da mais nobre das profissões.

 

Aura Popa e Kurt Schlegel, na abertura da conferência Gartner Data & Analytics, na semana passada em São Paulo - Foto: divulgação

IA cria uma inteligência coletiva unindo pessoas e máquinas em torno de um propósito

By | Tecnologia | No Comments

A cada dia, aplicações com inteligência artificial surgem nos mais diversos setores. O ChatGPT mostrou para as massas como essa tecnologia pode trazer grandes ganhos de produtividade, e isso ciou uma sensação de que a IA automatizará tudo por conta própria. Mas isso não é verdade: o ser humano ainda precisa supervisionar seu aprendizado e suas conclusões. Ainda assim, a colaboração inteligente entre máquinas e pessoas pode tornar possível coisas até então inimagináveis.

Esses foram alguns dos principais temas da conferência Gartner Data & Analytics, que aconteceu em São Paulo na terça e na quarta passada. Na palestra de abertura, Aura Popa, diretora-sênior, e Kurt Schlegel, vice-presidente da consultoria, fizeram uma analogia entre a inteligência coletiva do mundo animal e o que podemos fazer junto com a inteligência artificial.

Esse fenômeno se observa desde enxames de abelhas até matilhas de lobos. Nelas, cada indivíduo tem autonomia para tomar suas decisões, mas também trabalha para os objetivos do grupo. Dessa maneira, ele não apenas sobrevive, como também prospera, atingindo coletivamente ganhos que não conseguiria sozinho.

Segundo os executivos, a inteligência artificial funciona agora como um facilitador para as pessoas criarem valores inéditos juntas. Mas, para isso, as empresas precisam reorganizar seus modelos operacionais para dar autonomia e flexibilidade aos profissionais. Devem também ampliar sua educação para usos conscientes dos dados e da IA. Por fim, precisam distribuir autoridade e responsabilidade para que todos atuem com um propósito bem definido, em todos os níveis da organização.

É uma proposta interessante, neste momento em que ainda tateamos a inteligência artificial para encontrar formas positivas de usá-la. Em diversos momentos na conferência, ficou claro que não se deve delegar decisões críticas completamente à máquina, pois ela pode cometer erros graves. Fazer isso também aceleraria o temor generalizado de termos nossos empregos substituídos por robôs.


Veja esse artigo em vídeo:


“Desencadeamos uma nova era de inteligência coletiva, que combina inteligência humana e de máquina”, disse Schlegel. Segundo eles, para se atingir esses objetivos, as empresas precisam investir em estratégia, mas também se dedicar mais na execução.

“Concentre-se na execução e gaste mais tempo trabalhando em toda a empresa para descobrir como usar esses dados”, explicou Popa, que concluiu: “concentre-se nos fundamentos da governança e na maturidade da implantação, e olhe além dos resultados de curto prazo.”

Uma pesquisa do Gartner realizada no segundo trimestre de 2023, indicou que 75% dos CEOs já haviam experimentado a IA generativa, sendo que 64% não acham que exista exageros no que se fala dela e 62% já discutiram a IA com os conselhos de administração de suas empresas. Por outro lado, 53% dos líderes de tecnologia disseram não ter certeza se estão preparados para mitigar os riscos da IA.

Um bom caminho para se enfrentar esse desafio recai sobre os dados usados nas plataformas, incluindo a precisão, confiança e transparência nessas informações, além de sua proteção. Segundo a consultoria, organizações com práticas maduras de governança de dados têm 25% mais chance de ter sucesso com essas inovações.

Essa inteligência coletiva viabilizada pela IA abre um incrível caminho para melhorar as decisões de negócios, que passam a ser mais contextualizadas, conectadas e contínuas. Isso contrasta com o que se vê hoje: segundo o próprio Gartner, 65% dos entrevistados disseram usar dados para justificar uma decisão já tomada, normalmente pela pessoa mais bem paga na organização.

 

IA ajudando nas decisões

“Muitas escolhas de negócios ainda possuem poucos dados internos, e isso tem que mudar”, afirmou Pieter den Hamer, vice-presidente do Gartner. Para ele, as empresas precisam passar de “orientadas por dados” para “orientadas por decisões”. “É essencial abrir a caixa preta da tomada de decisões”, disse.

Frank Buytendijk, chefe de pesquisa do Gartner Futures Lab, sugeriu que poderemos ver, em poucos anos, plataformas de IA ocupando posições em conselhos de administração, e ele considera isso assustador. Segundo ele, um robô que soubesse tudo que os grandes executivos disseram ou escreveram não seria necessariamente útil, pois esse “superexecutivo” nunca existiu e nunca esteve na liderança de uma única companhia.

Mas ele não duvida que decisões de alto nível passem a ser cada vez mais auxiliadas (e até feitas) pela inteligência artificial. Isso poderia levar a um futuro distópico, com dois extremos. Em um deles, veremos a tomada de decisões e a liderança se tornando demasiadamente centralizadas por tecnologias digitais. “Isto eliminaria a autonomia das pessoas, e lhe falta a diversidade e a inclusão que levam a melhores decisões”, explicou. O extremo oposto é um cenário de excessiva distribuição, em que cada um faz suas próprias coisas, sem a visão do todo.

Gestores de diferentes áreas, mas principalmente aqueles ligados a implantações de inteligência artificial e análise de dados, devem cuidar para que não cheguemos a isso. A IA deve auxiliar na tomada de decisões, mas não pode responder sozinha por elas. Considerando que, em um tempo relativamente curto, todo mundo usará essa tecnologia no seu cotidiano, as pessoas devem ser educadas para compreender o que estão fazendo e se apropriar do processo, sedo responsáveis pelas consequências de suas decisões apoiadas pelas máquinas.

No final, o conceito de inteligência coletiva do mundo animal pode mesmo guiar nossos passos nesse mundo em transformação acelerada pela IA. Todos devemos ter autonomia para tomar mais e melhores decisões dentro do escopo de nossas atuações, mas elas devem estar sempre alinhadas com um objetivo maior, que vise o crescimento de onde estivermos e o bem-estar da sociedade como um todo.