All posts by Paulo Silvestre

Zumbis da série “Walking Dead”: as redes sociais podem nos transformar em uma versão digital dessas criaturas - Foto: reprodução

Ansiedade algorítmica cria zumbis que trabalham de graça para redes sociais

By | Tecnologia | No Comments

“Responda aos comentários dos fãs para ajudar a aumentar o engajamento com a sua conta”. Nessa semana, o Facebook me conclamou (de novo) a interagir ainda mais com outras pessoas, como se isso fosse fazer uma grande diferença na minha vida.

Como a principal rede do Mark Zuckerberg definitivamente não me entrega tal valor, dei de ombros. Mas muita gente não consegue praticar esse desapego, seja no Facebook ou em outras redes sociais. E isso vem provocando uma crescente onda de ansiosos por não darem conta de todas as “tarefas” sugeridas pelos algoritmos, como se fossem necessárias para se destacar em uma vida dividida constantemente entre as redes sociais e suas atividades presenciais.

Por que nos permitimos seduzir (ou controlar) por esses sistemas? Quando deixamos de agradar genuína e desinteressadamente pessoas verdadeiras para satisfazer as demandas insaciáveis das plataformas? Como elas conseguem nos dominar de maneira tão intensa e, ao mesmo tempo, subliminar?

A única rede que me traz benefícios reais é o LinkedIn. Meu mestrado se focou na construção de uma verdadeira reputação digital nele, mas, durante a pandemia, eu me debrucei sobre essas inquietações. Decidi então deixar de produzir para os algoritmos, como um escravizado digital, ou seja, como esses sistemas nos veem.

Já passou da hora de pararmos de nos submetermos aos caprichos desse capitalismo de vigilância e recuperarmos o controle de nossas vidas. No formato atual, as pessoas se afogam em sua ansiedade algorítmica, enquanto trabalham gratuitamente, sem perceber, para as redes sociais.


Veja esse artigo em vídeo:


Mantenho uma produção consistente e cuidadosa no LinkedIn, que me traz contatos qualificados e oportunidades de negócios interessantes. Mas reconheço que, quando parei de criar atendendo as neuroses dos algoritmos, minhas métricas sofreram.

Não escondo isso e, de certa forma, me orgulho desse movimento. Percebi que não precisava impactar, com minhas publicações, dezenas de milhares de pessoas cujos motivos e desejos só os algoritmos conheciam, e que não rendiam nada palpável. Muito melhor é chegar a menos pessoas, mas com as quais possa fazer trocas verdadeiras e produtivas. Outro ganho –tão ou mais importante que essas conexões– é encontrar prazer e leveza em falar com seres humanos, e não com sistemas.

Não é uma tarefa simples. As redes sociais descobriram como reforçar nossa busca por prazeres imediatos, aparentemente exigindo pouco de nós. Afinal, atire a primeira pedra quem nunca publicou algo em uma rede social na expectativa de receber muitas curtidas e, quem sabe, comentários que afagassem seu ego.

Curtidas não pagam contas! Mas relacionamentos qualificados podem ajudar nisso.

A raiz da ansiedade algorítmica está em sabermos que nossas vidas são controladas por esses sistemas, mas não termos conhecimento sobre como eles funcionam. Dependemos deles para conseguirmos trabalho, diversão e até amor, mas seu funcionamento é uma caixa preta que nunca se abre para nós.

Como consequência, estamos sempre tentando descobrir seus segredos para nos dar bem ou, no jargão das redes, “hackear o sistema”. Lemos artigos, fazemos cursos, acreditamos em gurus, mas o fato é que só quem desenvolve os algoritmos sabe da verdade, e esse é o “ouro do bandido”, um segredo tão bem guardado quanto a fórmula da Coca-Cola.

E assim nos viciamos nas microdoses de dopamina que nós mesmos produzimos quando um post tem uma visibilidade maior que nossa própria média (por menor que seja). A partir disso, buscamos sofregamente repetir aquele sucesso fugaz, tentando replicar uma receita que não temos.

 

O mal da falta de transparência

A inteligência artificial reacendeu os debates em torno da importância da transparência nas decisões dos algoritmos, para que entendamos seus motivos, assim como a explicabilidade e a rastreabilidade do que fazem com nossos dados.

Nisso reside um perverso jogo de poder. As redes sociais jamais nos darão essas informações, pois no obscurantismo está seu ganho. A ansiedade que essa nossa ignorância nos causa faz com que atuemos como zumbis teleguiados por seus sistemas. Se soubéssemos de toda a verdade, só publicaríamos o que “dá certo”, e as redes perderiam o controle que têm sobre nós. Isso seria ruim para seus negócios!

Não há a mínima reciprocidade entre os algoritmos e as pessoas: eles sabem tudo sobre nós, mas não sabemos verdadeiramente nada sobre eles. Temos só suposições e lampejos desconexos do seu funcionamento. Por isso, deixamos de representar, em nossas publicações, quem verdadeiramente somos ou o que desejamos. Ao invés disso, tentamos adivinhar e atender o que os outros querem de nós, esperando sua aceitação e aprovação, como se dependêssemos delas.

Essa é uma tarefa inglória e o caminho para a ansiedade e a depressão. Em casos extremos, vemos influenciadores digitais se suicidando, inclusive no Brasil, diante de sua incapacidade de ter o mínimo controle sobre os resultados de seu trabalho.

A opacidade dos algoritmos os torna mais cruéis quando mudam seus parâmetros continuamente, para que as pessoas não os dominem por muito tempo. Com isso, alguém que estivesse conseguindo ganhos de uma boa visibilidade, poderia subitamente ser descartado, sem explicação ou aviso prévio, gerando mais ansiedade.

As empresas se defendem afirmando que seus algoritmos existem para que as experiências em suas plataformas sejam úteis e divertidas, e não para que viciem os usuários. Dizem ainda que o que nos é empurrado depende de nossas interações na própria rede. Essa explicação, ainda que verdadeira, é tão rasa, que chega a ser hipócrita com quem consome e com quem produz conteúdo praticamente às cegas.

Vale lembrar que, apesar de estarmos falando aqui de algoritmos de redes sociais, eles estão presentes em toda parte, tomando decisões que podem influenciar profundamente nossas vidas. Dois exemplos emblemáticos são as plataformas de recrutamento, que podem definir se conseguiremos um emprego ou não, e os sistemas policiais, que podem decidir se somos criminosos, condenando-nos à cadeia.

Precisamos entender que os algoritmos devem trabalhar para nós, e não o contrário. Mas é inocência acreditar que temos algum controle nessa relação: em maior ou menor escala, somos dominados por esses sistemas, que exercem seu poder impunemente, mesmo quando causam grandes prejuízos aos usuários.

Por isso, o melhor a se fazer é mandar os algoritmos às favas e sermos nós mesmos, como acontecia nos primórdios das redes sociais. Mas você consegue fazer isso hoje?

 

Sameer Samat, diretor de produtos do Android, apresenta novidades de segurança do sistema durante o Google I/O 2024 - Foto: reprodução

Criminalidade brasileira transforma smartphones e inteligência artificial

By | Tecnologia | No Comments

A semana passada foi pródiga em lançamentos na área de tecnologia, fortemente impulsionados pela inteligência artificial. Em meio a tantas novidades, alguns recursos de cibersegurança me chamaram atenção, porque podem ajudar muito no combate à criminalidade digital no Brasil ou até foram explicitamente criados para atender a demandas de usuários de nosso país.

Na terça (14), o Google anunciou, durante seu evento anual Google I/O, um grande pacote de novidades na sua plataforma de inteligência artificial Gemini e no sistema operacional Android. No dia anterior, a OpenAI mostrou o novo cérebro do ChatGPT, o GPT-4o, que se aproxima incrivelmente da capacidade conversacional humana, incluindo reconhecimento em tempo real de texto, áudio e vídeo.

As referidas novidades de segurança fazem parte do novo Android. Uma delas automaticamente travará o smartphone no caso de roubo pelas infames “gangues de bicicleta”, que assombram os brasileiros, especialmente em São Paulo. A outra tentará identificar, em chamadas por voz, possíveis golpes, avisando imediatamente a vítima para que não acredite na mentira. A IA é o motor de ambos os recursos.

Fiquei feliz ao saber dessas funcionalidades! Tristemente, há anos o brasileiro se obriga a limitar o uso de tecnologias revolucionárias pela ação de criminosos. É o caso de restrições ao Pix, de andar com smartphones sem todos os aplicativos e até de não poder usar caixas eletrônicos de madrugada.

Já passa da hora de as big techs se envolverem na solução desses problemas!


Veja esse artigo em vídeo:


O nome do recurso contra as “gangues de bicicleta” é “Bloqueio de Proteção Contra Roubo” (“Theft Protection Lock”). Durante o Google I/O, Sameer Samat, diretor de produtos do Android, disse que esteve no Brasil no ano passado para conversar com a equipe local da empresa e com autoridades sobre essa modalidade de roubo, que faz um número assombroso de vítimas, especialmente para usar aplicativos bancários para desvio de valores e redes sociais para aplicar golpes em nome das vítimas.

Com a novidade, quando a IA do smartphone identificar uma mudança brusca de movimento, seguida de um padrão que indique um deslocamento por bicicleta, o smartphone será bloqueado. Essa identificação acontece por uma combinação de sensores do aparelho, inclusive do seu acelerômetro.

Já a ferramenta contra golpes telefônicos funciona com a inteligência artificial monitorando continuamente as conversas do usuário com alguém ligando de um número desconhecido, procurando por frases suspeitas. No palco do Google I/O, Dave Burke, vice-presidente de engenharia do Android, simulou uma conversa em que o interlocutor dizia ser funcionário do seu banco, sugerindo que ele transferisse seu dinheiro para outra conta por supostas atividades suspeitas na sua. Nesse momento, o aparelho tocou um alerta sonoro e a tela exibiu uma mensagem que dizia que “bancos nunca pedirão para transferir seu dinheiro para sua segurança.”

Outro recurso de segurança apresentado oculta mensagens e notificações com informações sensíveis, senhas ou autenticações em dois fatores. O objetivo é evitar que, no caso de o smartphone ser clonado ou de sua tela estar espelhada em outros dispositivos, criminosos tenham acesso a essas informações confidenciais.

Burke disse que as pessoas perderam mais de US$ 1 trilhão em golpes digitais no ano passado, em todo o mundo. Esse número astronômico faz sentido: apesar de os bandidos ainda poderem ser presos eventualmente, a chance de isso acontecer é muito menor que em assaltos a bancos, além de muito menos arriscados.

Esses novos recursos de segurança farão parte da versão 15 do sistema operacional Android, que deve ser lançada no final do ano, mas também devem chegar a smartphones com Android a partir da versão 10. Ainda não foi definida a data para essa atualização.

 

Proteção pela IA

Os golpes digitais crescem a olhos vistos: a toda hora, surge uma nova modalidade, aproveitando-se de falhas dos sistemas e especialmente da inocência e inexperiência dos usuários. E os smartphones são o principal canal para sua execução.

Os bancos ficam em uma situação bastante cômoda diante desse gravíssimo problema. Argumentam que a culpa é do seu cliente e raramente ressarcem os valores. Na verdade, a pessoa é a vítima e os aplicativos dos bancos fazem pouco para protegê-la. Essa postura se assemelha a dizer que o correntista seria culpado por fazer um saque no caixa em uma agência com um bandido lhe apontando uma arma para sua cabeça.

As autoridades tratam o problema como caso de polícia, mas isso é insuficiente para eliminá-lo pelo absurdo volume de ocorrências. Adotam também medidas paliativas, como impedir o uso de caixas eletrônicos de madrugada, pelos sequestros-relâmpago.

As big techs, particularmente o Google e a Apple, criadoras dos sistemas operacionais de todos os smartphones do mundo, há anos lançam recursos para minimizar o problema, mas eles também são claramente insuficientes. Os cibercriminosos conseguem superar muitas dessas barreiras tecnológicas, o que chega a ser assustador, considerando os milhões de dólares investidos no seu desenvolvimento desses recursos.

Agora a inteligência artificial desponta como uma esperança para equilibrar essa balança. De fato, ela consegue oferecer aos smartphones habilidades até então inimagináveis, em diversas atividades.

As big techs desempenham um papel absolutamente central na solução do cibercrime, pois ele acontece usando suas tecnologias e plataformas. Mas isso não desobriga as autoridades e os bancos de se empenharem muito mais na busca por saídas, assumindo a responsabilidade que têm na segurança do cidadão e dos próprios clientes. Jogar a culpa no outro é uma atitude preguiçosa e vergonhosa!

Já não é de hoje que os smartphones se tornaram o centro de nossas vidas, pois fazemos uma grande quantidade de atividades com eles. Sem segurança, todas essas ferramentas ficam comprometidas. Por isso, esses recursos agora anunciados são muito bem-vindos. Esperamos apenas que os cibercriminosas não consigam superar também essas proteções.

 

Matt Hicks, CEO da Red Hat, explica a integração entre inteligência artificial e open source - Foto: Paulo Silvestre

Open source fortalece confiança e pode popularizar inteligência artificial

By | Tecnologia | No Comments

A corrida pela inteligência artificial acontece não apenas entre as big techs, que buscam estabelecer a dominância nesse mercado bilionário, mas também entre profissionais e empresas que querem construir uma vantagem sobre seus concorrentes, pelo uso dessa tecnologia. Agora o open source, modelo de produção e distribuição em que qualquer um pode propor melhorias em softwares, chega com ideias que podem tornar a IA mais segura, fácil e profissional.

Desde que o ChatGPT a apresentou às massas há 18 meses, seu avanço acontece a passos largos. Mas apesar de algumas aplicações disponíveis parecerem mágicas em seus resultados, a IA ainda está engatinhando. Muitos dos usos que vêm sendo feitos dela são poucos profissionais e podem até expor dados sigilosos.

Em grande parte, isso acontece porque as pessoas usam ferramentas genéricas, construídas para respostas sobre qualquer assunto, como o próprio ChatGPT. O amadurecimento desse mercado passa, portanto, pela oferta de plataformas que permitam que as empresas criem e ajustem seus próprios modelos, adequados a necessidades específicas e com suas informações usadas de maneira segura.

Durante o Red Hat Summit, maior evento de open source do mundo, que aconteceu em Denver (EUA) na semana passada, a Red Hat, líder global de soluções nesse formato, apresentou o InstructLab, plataforma que propõe solucionar esses problemas. Ela permite que qualquer pessoa, mesmo sem conhecimento técnico, contribua com o desenvolvimento de modelos de IA para seus negócios.


Veja esse artigo em vídeo:


Construído sobre o LLM (modelo de linguagem ampla) Granite, da IBM, a plataforma sintetiza dados a partir de informações do cliente, mesmo em pequenas quantidades, tentando vencer um problema atual dos grandes LLMs, que exigem volumes colossais de informação para seu treinamento, e estão esbarrando na falta de novo conteúdo. Com a ação dos usuários, esse modelo sintético tende a ficar melhor por uma fração dos custos de um desenvolvimento tradicional, para aplicações específicas.

“Isso permite que comunidades de pessoas ensinem os LLMs a aprender da mesma forma que os humanos aprendem”, explica Matt Hicks, CEO da Red Hat. “Ao permitir a qualquer pessoa que contribua para um modelo e ajustá-lo de novas maneiras, podemos realmente desbloquear o potencial da especialização em um assunto.”

“Talvez seja isso que de fato popularizará nas empresas esse modelo que a população experimentou, mas aplicado ao seu negócio, combinado com seus dados, com as suas informações”, sugere Gilson Magalhães, presidente da Red Hat Brasil. “Isso é revolucionário!”

Explicando de maneira mais simples, as empresas continuam se beneficiando das informações e da capacidade de produção dos grandes LLMs, mas agora podem construir modelos especializados para suas necessidades, a partir de seus dados e das habilidades e do conhecimento de sua equipe. “A tecnologia entra, mas sem os talentos, sem as pessoas, jamais se alcançará a transformação como ela deve ser feita”, afirma Paulo Bonucci, diretor-geral da Red Hat Latin America.

“O mundo não será composto por um único modelo, e sim, cada vez mais, por modelos especializados”, explica Thiago Araki, diretor de tecnologia da Red Hat Latin America. “Ao invés de usar um modelo de forma genérica, para qualquer caso, teremos modelos pequenos para usos específicos, para cada negócio.”

O amadurecimento do mercado implica também nas empresas entenderem que são responsáveis ao usar decisões tomadas pela IA. “Já existem ferramentas que ajudam nessa auditoria, mas trabalhar com código aberto permite identificar como e por que essas decisões foram tomadas e com quais dados”, detalha Victoria Martínez Suárez, líder em inteligência artificial da Red Hat Latin America.

 

Questões regulatórias

Todos esses executivos, com quem conversei em Denver, afirmam ser necessária alguma forma de regulamentação da tecnologia, naturalmente em um sentido que não prejudique seu desenvolvimento, mas para proteger os usuários de abusos econômicos das big techs e para dar segurança jurídica ao mercado.

Bonucci acredita que a legislação ideal deveria ficar entre a Lei da Inteligência Artificial, aprovada no mês passada pela União Europeia, e a proposta americana. A primeira é um documento extenso e detalhado, construído principalmente sobre os diferentes níveis de risco que a inteligência artificial pode oferecer às pessoas, orientando seu uso. Já o modelo dos EUA delega a decisão sobre o que pode ou não ser feito às diferentes agências regulatórias já existentes.

“A rastreabilidade e a transparência são exigidas em alguns setores, em outros são recomendadas”, explica Martínez. “Ter isso claro é bom porque, em algum momento, essas informações podem ser solicitadas para qualquer problema que ocorra.”

No momento, o Congresso Nacional analisa o Projeto de Lei 2338/23, que guarda muita semelhança com a lei europeia. Os legisladores brasileiros têm o desafio de criar regras claras para evitar que se repita na IA o que se vê nas redes sociais, que gostam de não dar satisfações, e com isso vêm causando muitos danos a usuários e à sociedade como um todo. “A regulação é um princípio ocidental muito útil para garantir que empresas e pessoas não sejam massacradas por qualquer que seja o domínio”, afirma Magalhães. “Mas ela tem que ser sábia para proteger, sem inibir”.

Tudo isso se faz necessário para que essa tecnologia, que evolui de forma exponencial, deixe de ser uma curiosidade e passe a trazer benefícios claros para pessoas e companhias. Por mais que esteja ainda em seus estágios incipientes, precisamos compreender seu funcionamento e recursos.

“A proposta é trabalhar não tecnologia por tecnologia, e sim algo que vai trazer impacto ao negócio”, acrescenta Araki. “Não devemos usar IA generativa só porque está na moda, e sim fazer o uso disso quando tem algum sentido para o negócio.”

É incrível pensar que, há apenas 18 meses, quase ninguém falava de inteligência artificial. No ano passado, ficamos deslumbrados com suas possibilidades. Agora estamos encontrando novas formas de nos apropriarmos dela. Assim, para que, no ano que vem, ela nos traga ainda mais benefícios, esse debate precisa ser ampliado.


Clique nos links para assistir à íntegra em vídeo das entrevistas com os executivos acima:

 

Sam Altman, CEO da OpenAI, líder global no desenvolvimento da inteligência artificial, no Fórum Econômico Mundial – Foto: reprodução

Sociedade exige da IA uma transparência que ela mesmo não pratica

By | Tecnologia | No Comments

Muito além do aquecido debate sobre legislações que organizem o uso da inteligência artificial, começa a se formar um consenso sobre alguns valores em torno dessa tecnologia, como uso e desenvolvimento responsáveis, decisões rastreáveis e dois conceitos que se confundem e são pouco conhecidos: transparência e explicabilidade. Todos são essenciais para que os impactos da IA sejam positivos. Mas a sociedade está exigindo algo dessas plataformas que ela mesma não pratica.

Se fizermos uma autoanálise, perceberemos que conscientemente não somos transparentes em muitas coisas de nosso cotidiano, assim como tampouco são empresas e instituições. Como exemplo, uma das maiores falhas das redes sociais, que levou à insana polarização da sociedade e a problemas de saúde mental de seus usuários, é a completa falta de transparência das decisões de seus algoritmos.

Diante disso, alguns especialistas afirmam que exigir esse nível de responsabilidade e transparência das plataformas de IA é um exagero e até, de certa forma, hipocrisia.

Talvez… Mas o fato de cultivarmos esses maus hábitos não pode ser usado para desestimular a busca desses objetivos nessa tecnologia com potencial de ofuscar a transformação que as redes sociais fizeram, que, por sua vez, deixou pequena as mudanças promovidas pela mídia tradicional anteriormente.

Se não tomarmos as devidas precauções, a inteligência artificial pode causar graves consequências para a humanidade pelas ações de grupos que buscam o poder de forma inconsequente. Por isso, ela precisa ser organizada para florescer como uma tecnologia que ampliará nossas capacidades criativas e de produção.

Sem esses pilares éticos, sequer confiaremos no que a IA nos disser, e então tudo irá por água abaixo.


Veja esse artigo em vídeo:


No momento, as plataformas de inteligência artificial funcionam como caixas pretas: colocamos nossos dados e fazemos nossos pedidos de um lado, e nos deslumbramos com os resultados do outro, sem saber como aquela “mágica” foi feita. Apenas quem está dentro das big techs que produzem esses sistemas sabe como aquilo funciona, mas até eles se surpreendem com alguns resultados das suas criaturas, como quando desenvolvem sozinhas habilidades para as quais não foram programadas.

Quando se cria algo que promove profundas mudanças na sociedade, mas não se conhecem seu funcionamento e objetivos, isso pode colocar em risco a própria democracia, não porque exista algo maquiavélico na sua confecção, mas justamente por esse desconhecimento. Não é à toa que legislações para a inteligência artificial ao redor do mundo, com o brasileiro Projeto de Lei 2338/23 e a europeia Lei da Inteligência Artificial, tentem definir rastreabilidade, transparência e explicabilidade.

A rastreabilidade é a capacidade de identificar e acompanhar as ações de um sistema de IA, saber quais dados foram usados para treiná-lo e seus algoritmos, manter registros sobre como chegou a uma determinada decisão e qual foi seu impacto. Isso permite que suas escolhas sejam auditadas e que vieses sejam corrigidos.

Já a transparência se refere às pessoas poderem ser capazes de entender como o sistema de IA funciona, quais dados ele usa e como ele toma decisões. Isso visa garantir que ele seja usado de forma justa e ética, aumentando sua aceitação pública.

Por fim, a explicabilidade se traduz na capacidade de um ser humano compreender as razões complexas pelas quais um sistema de IA toma uma determinada decisão, que fatores contribuíram e como foram ponderados. Ela é importante para identificar erros, prever resultados e garantir a conformidade com padrões éticos e legais.

Se não é fácil entender, mais difícil ainda é entregar esses valores. Os algoritmos mais eficientes são justamente os mais complexos, e uma simples documentação pode não ser suficiente. Ainda assim, o desafio dessa conformidade permanece.

 

Temos que entender

Como exemplo da importância de se entender essas plataformas, podemos pensar na exigência do artigo 20 da Lei Geral de Proteção de Dados (LGPD), que determina que o cidadão pode “solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses”. Mas como ele fará isso se nem compreende como a decisão foi tomada? Da mesma forma, como a empresa revisará a decisão, se tampouco a compreende?

Considerando que a IA estará cada vez mais presente e determinante em nossas vidas, sua compreensão deve ser ensinada até nas escolas, desde a infância, de maneira crescente. Não quer dizer que todos precisem dominar plenamente seu funcionamento: apenas o suficiente para suas necessidades. Fazendo uma comparação com um carro, existe sobre ele os conhecimentos de um projetista, de um mecânico, de um motorista e de um passageiro. E todos usam o carro à sua maneira!

Ao contrário do que alguns dizem, a exigência de que plataformas de inteligência artificial sigam esses preceitos éticos não pode ser visto como ameaça ao seu desenvolvimento e inovação. Pelo contrário, são condições que devem integrar sua própria concepção. A população precisa disso para confiar na inteligência artificial, ou, passada essa fase inicial de deslumbramento, ela poderá deixar de ser considerada como a incrível ferramenta de produtividade que é.

Entendo que as dificuldades para isso sejam imensas. Sei também que nós mesmos não somos transparentes em nosso cotidiano, como já disse. Mas nada disso pode servir como desculpa para se esquivar dessa tarefa. Tampouco é hipocrisia exigir que os desenvolvedores se esmerem para cumprir essas determinações.

Não podemos incorrer no mesmo erro cometido com as redes sociais, que até hoje atuam de maneira inconsequente e sem responsabilidade pelos eventuais efeitos muito nocivos de suas ações. A inteligência artificial já está transformando a sociedade de maneira determinante.

Seríamos inocentes se acreditássemos que essas empresas se autorregularão: seus interesses sempre falarão mais alto nesse caso. Precisamos de regulamentações claras, não para coibir o progresso, mas para dar um norte de bons princípios, para que a inteligência artificial beneficie a todos, e não apenas grupos tecnocratas.

 

Na quarta, o secretário da Educação de São Paulo, Renato Feder, falou sobre a IA nas escolas, durante o Bett Brasil - Foto: reprodução

ChatGPT na criação de aulas para escolas paulistas pode piorar a educação

By | Educação, Tecnologia | No Comments

A Secretaria da Educação do Estado de São Paulo confirmou que pretende usar o ChatGPT para “melhorar” as aulas que distribui para os professores das escolas estaduais paulistas. Apesar de garantir que todo o conteúdo gerado pela máquina será revisado por sua equipe de professores curriculistas, esse uso da inteligência artificial abriu uma grande discussão sobre uma possível redução no papel do professor e nos riscos vindos de uma tecnologia reconhecidamente ainda falha.

Segundo a Secretaria, a IA fará suas propostas a partir do material já existente, criado pelos curriculistas para alunos do Ensino Fundamental II (do 6º ao 9º ano) e do Ensino Médio. O ChatGPT deve propor ampliações no conteúdo e criação de exercícios.

Professores criticam o material do governo, que consideram limitante. Também possui erros gramaticais, de formatação e conceituais. Como exemplo, uma aula afirmava que a Lei Áurea teria sido assinada em 1888 por D. Pedro II (foi pela sua filha, a princesa Isabel), enquanto outra dizia que a cidade de São Paulo possuía praias.

O temor é que o ChatGPT agrave o problema. Assim como outras plataformas de IA generativa, ele é programado para sempre dizer algo, mesmo que não saiba o quê. Nesse caso, pode responder verdadeiras barbaridades, mas, como faz isso com grande “convicção”, muita gente acredita nas suas informações erradas. São as chamadas “alucinações”.

Caberá aos professores curriculistas não apenas ajustar pedagogicamente a produção do ChatGPT, como também verificar se o que ele diz está correto e se não fere direitos autorais. Fica a pergunta se eles terão recursos e disposição para fazer isso. Caso contrário, a inteligência artificial poderá deseducar, ao invés de melhorar aulas.


Veja esse artigo em vídeo:


A digitalização das escolas estaduais de São Paulo é uma bandeira do secretário da Educação, o empresário do setor de tecnologia Renato Feder. Desde o ano passado, 90 curriculistas produzem slides para os professores usarem em suas aulas. Ele chegou a anunciar que abandonaria os livros do Programa Nacional do Livro Didático (PNLD), obrigando os educadores a usar o material digital do governo.

Depois de muitas críticas, Feder recuou da ideia de desistir dos livros, mas os slides continuaram. Segundo ele, esse material prioriza conteúdos cobrados em avaliações nacionais, como o Saeb (Sistema de Avaliação da Educação Básica).

“A gente tem que tomar muito cuidado que o professor não seja apenas um aplicador de atividades”, afirma Ana Lúcia de Souza Lopes, professora da Universidade Presbiteriana Mackenzie e especialista em tecnologia para educação. “Ele deve ser aquele que media o conhecimento, que cria condições para o aluno aprender”, explica.

A especialista defende a criação de bons materiais para serem usados em salas de aula, desde que eles sejam criados por professores. Mas ela alerta que a formação desses profissionais tem sido deficiente, o que os atrapalha nessa atividade.

Até o momento, os professores curriculistas do Estado de São Paulo entregam quatro aulas por semana. Com o uso da IA, essa meta passa a ser de três aulas a cada dois dias úteis, podendo chegar a seis por semana.

 

Quantidade versus qualidade

Feder disse que continuará ampliando o uso da inteligência artificial na educação. Outra aplicação é o “fluencímetro”, um sistema que analisa fluência de leitura de alunos do 2º ao 5º ano. Segundo ele, a próxima etapa será a adoção de ferramentas para corrigir lições de casa dos alunos, que precisarão ser feitas em um aplicativo. A correção de redações também deve ser auxiliada pela IA.

A princípio, a adoção de ferramentas para auxiliar os sobrecarregados (e muitas vezes desmotivados) professores das escolas estaduais é bem-vinda. Mas recaímos no risco de os robôs piorarem o aprendizado, por suas próprias falhas. Além disso, isso pode diminuir ainda mais o protagonismo do professor, sem resolver problemas estruturais, como sua formação deficiente, enorme desvalorização social da carreira e condições precárias para realização de seu trabalho.

“Não sou contra o uso da inteligência artificial, mas precisamos ter atenção em como utilizar a ferramenta, principalmente em aspectos sensíveis, como no caso da educação”, alerta Lopes. E de fato, a recém-aprovada Lei da Inteligência Artificial europeia classifica o uso dessa tecnologia na educação como uma atividade de alto risco, e que, portanto, deve acontecer com muito cuidado.

O Ministério Público de São Paulo determinou que Feder apresente estudos científicas que justifiquem o uso de inteligência artificial na produção de material didático. Ele tem até a segunda quinzena de maio para fazer isso.

Muitos professores já usam a inteligência artificial na sala de aula. Os que mais poderiam se beneficiar dela são justamente aqueles que têm pouco apoio profissional e estão sobrecarregados. Uma grande ironia nisso é que normalmente eles são os que possuem uma formação deficiente e que, portanto, tendem a colher menos resultados de todo o poder que essa tecnologia lhes oferece. Isso pode aumentar ainda mais a distância entre professores e alunos de escolas privadas e os de escolas públicas.

Precisamos ter em mente que, mais que quantidade, educar é qualidade. Não basta oferecer materiais “mastigados” para alunos adestrados tirarem boas notas em avaliações oficiais. Isso se presta muito mais a gerar dividendos políticos.

A educação significa criar cidadãos conscientes, capazes de analisar seu cotidiano criticamente, entendendo de fato conteúdos e dominando habilidades que os permitam se desenvolver em um mundo cada vez mais competitivo. Para usar termos da moda, é preciso adquirir “hard skills” (como Matemática ou Língua Portuguesa), mas também as “soft skills” (habilidades intangíveis, como trabalho em equipe, capacidade de comunicação e resiliência).

A inteligência artificial é uma tecnologia fabulosa, com uma incrível capacidade de transformação social. Ela está apenas dando seus primeiros passos, e todos precisam se apropriar adequadamente de seus recursos, inclusive nas escolas. Ainda assim, ela não é capaz de cumprir essas tarefas, que só podem ser realizadas por um professor.

Mas eles precisam de apoio verdadeiro, melhor capacitação e reconhecimento profissional e social. Sem isso, nossos alunos ficarão cada vez mais desassistidos, e o Brasil cada vez menos competitivo. Enquanto governos, escolas, e famílias não apoiarem isso de maneira efetiva e coordenada, uma adoção afobada da IA na educação pode tornar essa nossa deficiência social ainda mais dramática.

 

Inteligência artificial pode deixar o mundo mais seguro e também perigoso

By | Tecnologia | No Comments

Como de qualquer ferramenta, os resultados da inteligência artificial dependem das ações de quem a utiliza. Pessoas que fazem usos positivos dela produzirão bons frutos. Já as de má índole podem causar danos profundos. Com seu poder disruptivo, essas consequências podem ser críticas! Esse foi o tema de um dos principais painéis do Web Summit Rio, um dos mais importantes eventos globais de tecnologia, mídia e inovação, que aconteceu no Rio de Janeiro, de terça a quinta da semana passada.

Um dos problemas deriva de a IA oferecer mecanismos para se alterar a realidade ou criar mentiras muito convincentes. Isso abre incontáveis possibilidade de golpes, ameaçando indivíduos, empresas e sociedades inteiras, como no caso de eleições. “Se a confiança for perdida, ficará muito difícil continuar inovando em coisas boas na IA”, disse no painel o estoniano Kaarel Kotkas, CEO da empresa de segurança Veriff.

Felizmente a mesma IA oferece recursos para combater essas ameaças. “A gente precisa pensar que seremos cada vez mais uma sociedade baseada em tecnologia”, me disse no evento Cesar Gon, CEO da empresa de tecnologia CI&T. “É importante acompanhar para onde a tecnologia vai e criar limites, mas garantindo que a ciência e a tecnologia continuem evoluindo para resolver os problemas humanos”, explicou, ressaltando que a IA deve sempre estar alinhada com os interesses da sociedade.

Diante de tanto poder computacional, chega a ser irônico que a maioria dos golpes não envolva invasão de sistemas. O elo mais frágil na segurança continua sendo o ser humano, enganado de diferentes maneiras para que repasse informações pessoais (como senhas) ou realize ações prejudiciais, uma técnica chamada de engenharia social. O que muda nisso com a IA é que os procedimentos para confundir as pessoas se tornam mais convincentes, difíceis de se identificar, e agora atingem muita gente, para aumentar a chance de fazerem suas vítimas.


Veja esse artigo em vídeo:


Esse é um dos grandes desafios da sociedade atualmente. Qualquer pessoa, mesmo alguém que domine a tecnologia, pode cair em golpes. Sua solução passa necessariamente pela educação dos usuários, mas também pelo comprometimento de empresas –de big techs a startups– para um desenvolvimento responsável dessas soluções, e de autoridades que criem regras claras para garantir isso.

Nesse cenário, técnicas tradicionais de proteção digital perdem eficiência. Mesmo autenticações em dois fatores –quando, além da senha, o usuário se autentica por um segundo método– podem expor pessoas e empresas. As companhias precisam adotar abordagens em camadas e usar múltiplas tecnologias, como autenticação avançada, verificação de dispositivos e incorporação preventiva de IA para detectar fraudes.

Os dados dos usuários valem ouro para os bandidos, mas também são importantes para sua identificação mais precisa. As empresas precisam ser transparentes sobre como serão usados, para que as pessoas se sintam confortáveis em compartilhá-los.

“Quando elas entendem esse valor, podem tomar uma decisão muito melhor sobre se querem compartilhar seus dados, para terem mais segurança”, disse no mesmo painel André Ferraz, CEO da empresa de identificação Incognia. “Se nós não formos capazes disso, as pessoas poderão deixar de acreditar na Internet”, concluiu.

As grandes empresas de tecnologia têm um papel decisivo na construção dessas boas práticas e na educação do mercado, até mesmo porque elas têm muito a perder se a situação se deteriorar para um cenário de desconfiança generalizada. “É essencial para elas perceberem que ignorar a importância de construir confiança e segurança em seus sistemas poderia prejudicar sua capacidade de implementar amplamente a tecnologia no futuro”, me explicou Kotkas. “Negligenciar isso poderia resultar em grandes repressões regulatórias e interromper o progresso na criação de novas tecnologias.”

A inteligência artificial também potencializa muito outro câncer social que se disseminou pelas redes sociais: a desinformação. O assunto foi abordado em diversas apresentações no Web Summit Rio, e ganha muita força em nesse ano, quando as maiores democracias do mundo realizarão eleições, incluindo municipais no Brasil, presidenciais nos EUA e gerais na Índia, país mais populoso do mundo, cujo pleito começou na semana passada e se estenderá por seis semanas.

 

Absurdos possíveis

As plataformas atuais de inteligência artificial tornaram muito mais fáceis, rápidas e baratas as confecções de deep fakes, técnica capaz de criar áudios, fotos e vídeos de pessoas realizando ações e dizendo coisas que nunca fizeram. Ela já existe há alguns anos, mas antes exigia equipamentos caros e bom conhecimento técnico, o que a tornava uma aplicação de nicho. Agora não é mais assim!

“Nas próximas eleições, o maior desafio não são as imagens, mas os áudios”, advertiu em outro painel Renata Lo Prete, editora-chefe do Jornal da Globo. “Com apenas um ou dois minutos da voz real de alguém, é possível criar um áudio falso perfeito, por menos de US$ 5 e em menos de cinco minutos, uma questão crítica, especialmente no Brasil, líder em trocas de mensagens pelo WhatsApp”, explicou.

Isso já acontece! Na eleição presidencial argentina, as equipes dos candidatos que foram ao segundo turno, o peronista Sergio Massa e o ultraliberal Javier Milei, fizeram amplo uso da IA para atingir as imagens dos adversários. Em outro caso internacional, americanos receberam ligações com a voz do presidente Joe Biden dizendo para que não votassem nas eleições primárias. E por aqui, um áudio com a voz do prefeito de Manaus, David Almeida, fazia ofensas contra professores. Tudo isso era falso!

Os diversos agentes da sociedade precisam se unir para que a IA seja usada de maneira positiva, sem “cortinas de fumaça” que mascaram interesses de um ou outro grupo. “Esse debate se misturou com uma visão bastante ingênua de fim do mundo, que nos afasta de discutir os reais impactos, que são a natureza do trabalho, os empregos, segurança, privacidade, ética e os algoritmos viciados”, explicou Gon.

“Nesse momento, talvez alguns humanos estejam procurando algo mágico”, disse o americano Todd Olson, CEO da empresa de software Pendo, em outro painel. “Não precisamos de mágica, mas de saber exatamente o que acontece, para que possamos aumentar a confiança na tecnologia”, concluiu.

Não dá para fugirmos desse debate, que nos envolve a todos cada vez mais. Gostemos ou não, a inteligência artificial se tornou nossa parceira. Por isso, ela precisa ser confiável e segura.


Assista e esse vídeo relacionado:

Íntegra da entrevista com Cesar Gon, CEO da CI&T

 

Zack Kass (esquerda) e Uri Levine dividem o palco principal no fim do primeiro dia do VTEX Day, que aconteceu em São Paulo - Foto: divulgação

Mais que aumento do desemprego, IA pode levar a uma crise de identidade

By | Tecnologia | No Comments

A enorme visibilidade em torno da inteligência artificial desde que o ChatGPT foi lançado, há um ano e meio, reacendeu o velho temor de que, em algum momento, perderemos os nossos empregos para as máquinas. Mas para o futurista em IA Zack Kass, a tecnologia pode provocar outras mudanças no mundo do trabalho, que podem levar a verdadeiras crises de identidade nas pessoas.

Kass, um dos primeiros profissionais da OpenAI (criadora do ChatGPT), onde atuou por 14 anos, acredita que as pessoas continuarão trabalhando. Mas em muitos casos, elas não poderão fazer o que gostam ou no que foram formadas, porque a função será realizada por um robô. E aí nasce o problema!

“Nós conectamos intrinsicamente nossa identidade de trabalho à nossa identidade pessoal”, explica o executivo, que esteve no Brasil na semana passada para participar do VTEX Day, um dos maiores eventos de e-commerce do mundo. Segundo ele, mesmo que as necessidades das pessoas sejam atendidas, não poderem trabalhar com o que desejam pode lhes causar fortes reações. “Esse é meu maior medo”, disse.

Se nada for feito, essa previsão sombria pode mesmo se concretizar. Diante dessa perspectiva, os profissionais experientes e os recém-formados devem fazer os movimentos certos para não ficarem desempregados ou para não serem jogados nessa crise profissional e de identidade, o que seria ainda mais grave.


Veja esse artigo em vídeo:


O futurista naturalmente não é o único a se preocupar com os impactos da inteligência artificial no mundo do trabalho. “Sempre há o medo de que ela tire nosso emprego”, disse Uri Levine, cofundador do Waze, que dividiu o palco com Kass. “Mas o que sempre aconteceu foi um aumento da produtividade e, portanto, do tamanho do mercado, ocasionalmente mudando os tipos de empregos”, afirmou.

Para Neil Patel, outro palestrante internacional do evento e referência global em marketing, “a inteligência artificial afetará as profissões e algumas pessoas perderão seus empregos”. Ele pondera que a IA também aumentará a produtividade das pessoas, mas, para isso, “elas precisarão ter conhecimento de IA para poderem fazer melhor seu trabalho.”

A aceleração de nossas vidas aumenta a chance do temor de Kass acontecer. “Somos constantemente levados a demonstrar resultados, a aparecer, a aprender coisas diferentes, em um ritmo cada vez mais intenso”, adverte Katty Zúñiga, psicóloga especializada nas interações entre o ser humano e a tecnologia. Ela explica que não podemos perder a nossa essência pessoal e profissional diante de tanta pressão.

Kass afirma que será muito difícil para algumas pessoas entenderem que haverá trabalho disponível, mas não o que elas gostariam de fazer. E mesmo que elas continuem ganhando seu dinheiro, isso poderá deixá-las sem propósito.

Segundo Zúñiga, nossa formação e experiência profissional são fortalezas que podem ajudar a nos posicionar diante do avanço dos robôs sobre nossas funções. Mesmo com máquinas mais eficientes, nossa essência continuará nos acompanhando e nada do que sabemos se perde. “Isso nos torna seres mais estruturados e completos”, explica. A nossa humanidade acaba sendo, portanto, o nosso diferencial!

A psicóloga lembra que isso não é uma briga contra a tecnologia. Ela observa que muitas pessoas estão se entregando a usos indevidos da IA, quando, na verdade, o que precisamos fazer e nos apropriarmos do que ela nos oferece de bom, reforçando o que somos e nossas profissões.

 

Desenvolvimento responsável

De fato, a inteligência artificial deve funcionar apoiando o ser humano, e não representando ameaças a sua integridade física e mental.

Kass ressalta que todo o desenvolvimento dessa tecnologia deveria atender a dois princípios essenciais: o alinhamento e a explicabilidade. O primeiro se refere a quanto as propostas das plataformas estão preocupadas com os interesses dos seres humanos. Já a explicabilidade, como o nome sugere, indica se os sistemas são capazes de explicar ao usuário, com clareza, suas decisões.

Ele diz que essa é uma busca contínua e interminável. “Se pudermos fazer essas duas coisas, então todo o resto torna-se totalmente aceitável, muito menos importante”, afirma Kass.

O futurista defende a regulação internacional da tecnologia para garantir esses dois conceitos, prevenindo desenvolvimentos irresponsáveis. “Qualquer coisa que não esteja falando sobre alinhamento e explicabilidade está introduzindo oportunidades para corrupção e interesses especiais”, conclui.

Todas essas considerações refletem um cenário de transição em que estamos envolvidos com a inteligência artificial. Os avanços dessa tecnologia são galopantes e invadem os mais diversos setores. Por outro lado, de tempos em tempos, os próprios desenvolvedores demonstram surpresa com os resultados de suas criações.

Isso alimenta incertezas e até medos em torno da IA, o que pode levar a decisões desastrosas que impeçam uma adoção construtiva e consciente dessa tecnologia transformadora. Kass possui uma posição privilegiada nessa indústria para poder fazer essas afirmações conscientemente.

Apesar disso (e de certa forma, principalmente por isso), precisamos encontrar mecanismos para garantir esse desenvolvimento responsável, para as máquinas buscarem o melhor para a humanidade, e não apenas para grupos específicos. Isso se dá por legislações maduras e por grandes debates sociais, para conscientização de usuários e de empresas desenvolvedoras.

Esses são caminhos necessários para que a inteligência artificial ajude a humanidade a atingir um novo patamar de produtividade, sem ameaçar a saúde mental das pessoas. E isso deve acontecer não porque as máquinas cuidarão de tudo, mas porque nós mesmos deveremos continuar realizando aquilo que gostamos, porém de maneira mais fácil, rápida e eficiente, com a ajuda delas. A nossa humanidade deve prevalecer!


Assista às íntegras em vídeo das minhas entrevistas com os três executivos. Basta clicar sobre os seus nomes:

Zack Kass, futurista de IA

Neil Patel, referência global em marketing

Uri Levine, cofundador do Waze

 

Plataformas digitais ajudam estudantes a se envolverem melhor com o conteúdo escolar - Foto: Freepik/Creative Commons

IA pode ajudar alunos a falar mais e a aprender melhor

By | Educação, Tecnologia | No Comments

Uma métrica eficiente para se identificar uma boa aula é medir o quanto os estudantes falam nela sobre o conteúdo. Quando interagem, os alunos aprendem melhor. Agora a inteligência artificial pode ajudar professores a envolverem mais suas turmas.

Ser professor pode ser uma tarefa solitária. Fora dos centros de excelência, os docentes costumam criar seus planos de ensino com apoio mínimo, e ministram suas aulas sem uma avaliação contínua, com a qual poderiam aprimorar o processo.

Não é uma tarefa fácil. Produzir esse tipo de análise exige recursos que as escolas normalmente não têm. Além disso, se essa informação vazasse, o monitoramento de aulas poderia municiar membros de uma parcela da sociedade que decidiu perseguir professores explicitamente nos últimos anos.

Diante disso tudo, a IA surge como uma poderosa aliada pedagógica. Se bem usada, ela pode acompanhar as aulas do professor e lhe oferecer o apoio necessário de maneira eficiente e segura. Pode ainda atuar como um supervisor educacional para os docentes e como um tutor permanentemente disponível aos alunos.

Como tudo que se refere à inteligência artificial, soluções que parecem mágicas precisam ser bem compreendidas para que aparentes milagres não se tornem pesadelos. O robô pode mesmo oferecer grandes vantagens educacionais, mas ele não pode, de forma alguma, substituir o professor, como alguns poderiam pensar.


Veja esse artigo em vídeo:


Recentemente descobri uma plataforma criada para ajudar os professores a aumentarem o engajamento de seus alunos. Apesar de usar reconhecimento de voz e inteligência artificial, a TeachFX não é nova: a empresa foi criada em 2016, muito antes de toda a visibilidade que essa tecnologia ganhou nos últimos meses.

Seu funcionamento é incrivelmente simples. O próprio professor grava o áudio de suas aulas como celular ou computador. A partir disso, o sistema cria relatórios que indicam quanto tempo o professor e os alunos falaram individualmente e em grupo, se o professor fez perguntas que promoveram o debate, se deu tempo adequado para reflexão dos alunos, quais as palavras mais usadas e até se elas foram muito acadêmicas ou técnicas.

Segundo a empresa, apesar de estudos comprovarem que alunos falando sobre o conteúdo aprendem melhor, a análise de 20 mil horas de áudio gravado de aulas do Ensino Básico americano indicou que cada aluno fala, em média, apenas 27 segundos a cada hora! Levantamentos internos indicam um incremento de 97% nesse tempo em alunos de professores que gravaram pelo menos oito de suas aulas e analisaram os dados oferecidos pelo sistema.

Os desenvolvedores afirmam que a ferramenta não serve como um “espião” para diretores e pais. Os dados de cada professor são acessíveis só a ele mesmo. A equipe pedagógica vê apenas os números agregados de toda a escola. Eles entendem que, sem isso, os docentes não se sentiriam seguros para usá-lo. Não se trata, portanto, de um sistema para dar uma “nota” ao docente, e sim de uma ferramenta para promover uma reflexão qualificada do próprio método pedagógico.

Outro uso da inteligência artificial na educação que ganhou bastante destaque é o Khanmigo. Em maio, Salman Khan, fundador e CEO da Khan Academy, uma organização que oferece educação online gratuita, demonstrou essa ferramenta que auxilia professores e alunos. Ela não dá respostas aos estudantes, ajudando-os a pensar na solução dos problemas. Para professores, a ferramenta ajuda a planejar aulas engajadoras. Khan afirmou que, para os alunos, a IA atua como um tutor, enquanto, para os professores, age como um assistente.

Em um primeiro momento, parecem iniciativas incríveis, mas nem todos os professores estão entusiasmados com novidades como essas.

 

O medo do desconhecido

Estamos em um período de transição no uso da inteligência artificial em todos os setores da economia, e a educação não é exceção. Mas, nesse caso, há alguns desafios adicionais, até pelas características de uma atividade bastante refratária a inovações tecnológicas, se comparada a outras profissões intelectuais.

Pela minha experiência como educador, analiso soluções digitais para a educação há quase duas décadas. Observo um medo desproporcional dos professores, que relutam em adotar novidades por desconhecimento e falta de preparo para usá-las em seu cotidiano. Como me confidenciou uma professora há alguns anos, “vejo muito valor no que esse sistema oferece, mas eu não sei colocá-lo na MINHA aula”.

Mais que vender ferramentas aos professores, os desenvolvedores, as universidades e as autoridades educacionais precisam apoiar os docentes para que eles entendam que a tecnologia não pretende substituí-los nem restringir sua liberdade pedagógica. E obviamente isso deve ser verdade!

Não é trivial, especialmente diante de grupos que enxergam a educação de maneira meramente utilitária. No início do ano passado, por exemplo, o governo paulista tentou eliminar o acesso a livros didáticos nas escolas do Estado, substituindo por questionáveis slides criados pela equipe da Secretaria de Educação. Segundo o secretário da Educação, Renato Feder, eles seriam “mais assertivos” que os livros. Felizmente a proposta acabou sendo retirada, diante de protestos generalizados.

Como pesquisador de inteligência artificial, entendo que ela tem um poder considerável de homogeneizar conhecimento, ao ajudar com produções a partir de uma base de informações que representa uma espécie de “média” do que a humanidade sabe sobre qualquer assunto. Sem falar que isso pode também reforçar vieses e visões polarizadas do mundo. Isso deve ser evitado a todo custo!

Mas esses riscos não devem servir de desculpa para que a IA não seja usada na educação, e sim que seja utilizada de maneira inteligente. Os professores devem ter seus receios acolhidos, enquanto lhes é ensinado como se apropriar dessas ferramentas para ampliar as boas práticas que conhecem e lhes apresentar outras, sempre de maneira transparente e explicada.

A inteligência artificial e qualquer outra tecnologia não devem, portanto, ameaçar a liberdade dos professores ou criar mecanismos para aprisioná-los em modelos padronizados e “assertivos”. Pelo contrário, devem permitir que sua experiência e sua intuição encontrem maneiras mais eficientes e divertidas para envolverem seus alunos no cotidiano da mais nobre das profissões.

 

Aura Popa e Kurt Schlegel, na abertura da conferência Gartner Data & Analytics, na semana passada em São Paulo - Foto: divulgação

IA cria uma inteligência coletiva unindo pessoas e máquinas em torno de um propósito

By | Tecnologia | No Comments

A cada dia, aplicações com inteligência artificial surgem nos mais diversos setores. O ChatGPT mostrou para as massas como essa tecnologia pode trazer grandes ganhos de produtividade, e isso ciou uma sensação de que a IA automatizará tudo por conta própria. Mas isso não é verdade: o ser humano ainda precisa supervisionar seu aprendizado e suas conclusões. Ainda assim, a colaboração inteligente entre máquinas e pessoas pode tornar possível coisas até então inimagináveis.

Esses foram alguns dos principais temas da conferência Gartner Data & Analytics, que aconteceu em São Paulo na terça e na quarta passada. Na palestra de abertura, Aura Popa, diretora-sênior, e Kurt Schlegel, vice-presidente da consultoria, fizeram uma analogia entre a inteligência coletiva do mundo animal e o que podemos fazer junto com a inteligência artificial.

Esse fenômeno se observa desde enxames de abelhas até matilhas de lobos. Nelas, cada indivíduo tem autonomia para tomar suas decisões, mas também trabalha para os objetivos do grupo. Dessa maneira, ele não apenas sobrevive, como também prospera, atingindo coletivamente ganhos que não conseguiria sozinho.

Segundo os executivos, a inteligência artificial funciona agora como um facilitador para as pessoas criarem valores inéditos juntas. Mas, para isso, as empresas precisam reorganizar seus modelos operacionais para dar autonomia e flexibilidade aos profissionais. Devem também ampliar sua educação para usos conscientes dos dados e da IA. Por fim, precisam distribuir autoridade e responsabilidade para que todos atuem com um propósito bem definido, em todos os níveis da organização.

É uma proposta interessante, neste momento em que ainda tateamos a inteligência artificial para encontrar formas positivas de usá-la. Em diversos momentos na conferência, ficou claro que não se deve delegar decisões críticas completamente à máquina, pois ela pode cometer erros graves. Fazer isso também aceleraria o temor generalizado de termos nossos empregos substituídos por robôs.


Veja esse artigo em vídeo:


“Desencadeamos uma nova era de inteligência coletiva, que combina inteligência humana e de máquina”, disse Schlegel. Segundo eles, para se atingir esses objetivos, as empresas precisam investir em estratégia, mas também se dedicar mais na execução.

“Concentre-se na execução e gaste mais tempo trabalhando em toda a empresa para descobrir como usar esses dados”, explicou Popa, que concluiu: “concentre-se nos fundamentos da governança e na maturidade da implantação, e olhe além dos resultados de curto prazo.”

Uma pesquisa do Gartner realizada no segundo trimestre de 2023, indicou que 75% dos CEOs já haviam experimentado a IA generativa, sendo que 64% não acham que exista exageros no que se fala dela e 62% já discutiram a IA com os conselhos de administração de suas empresas. Por outro lado, 53% dos líderes de tecnologia disseram não ter certeza se estão preparados para mitigar os riscos da IA.

Um bom caminho para se enfrentar esse desafio recai sobre os dados usados nas plataformas, incluindo a precisão, confiança e transparência nessas informações, além de sua proteção. Segundo a consultoria, organizações com práticas maduras de governança de dados têm 25% mais chance de ter sucesso com essas inovações.

Essa inteligência coletiva viabilizada pela IA abre um incrível caminho para melhorar as decisões de negócios, que passam a ser mais contextualizadas, conectadas e contínuas. Isso contrasta com o que se vê hoje: segundo o próprio Gartner, 65% dos entrevistados disseram usar dados para justificar uma decisão já tomada, normalmente pela pessoa mais bem paga na organização.

 

IA ajudando nas decisões

“Muitas escolhas de negócios ainda possuem poucos dados internos, e isso tem que mudar”, afirmou Pieter den Hamer, vice-presidente do Gartner. Para ele, as empresas precisam passar de “orientadas por dados” para “orientadas por decisões”. “É essencial abrir a caixa preta da tomada de decisões”, disse.

Frank Buytendijk, chefe de pesquisa do Gartner Futures Lab, sugeriu que poderemos ver, em poucos anos, plataformas de IA ocupando posições em conselhos de administração, e ele considera isso assustador. Segundo ele, um robô que soubesse tudo que os grandes executivos disseram ou escreveram não seria necessariamente útil, pois esse “superexecutivo” nunca existiu e nunca esteve na liderança de uma única companhia.

Mas ele não duvida que decisões de alto nível passem a ser cada vez mais auxiliadas (e até feitas) pela inteligência artificial. Isso poderia levar a um futuro distópico, com dois extremos. Em um deles, veremos a tomada de decisões e a liderança se tornando demasiadamente centralizadas por tecnologias digitais. “Isto eliminaria a autonomia das pessoas, e lhe falta a diversidade e a inclusão que levam a melhores decisões”, explicou. O extremo oposto é um cenário de excessiva distribuição, em que cada um faz suas próprias coisas, sem a visão do todo.

Gestores de diferentes áreas, mas principalmente aqueles ligados a implantações de inteligência artificial e análise de dados, devem cuidar para que não cheguemos a isso. A IA deve auxiliar na tomada de decisões, mas não pode responder sozinha por elas. Considerando que, em um tempo relativamente curto, todo mundo usará essa tecnologia no seu cotidiano, as pessoas devem ser educadas para compreender o que estão fazendo e se apropriar do processo, sedo responsáveis pelas consequências de suas decisões apoiadas pelas máquinas.

No final, o conceito de inteligência coletiva do mundo animal pode mesmo guiar nossos passos nesse mundo em transformação acelerada pela IA. Todos devemos ter autonomia para tomar mais e melhores decisões dentro do escopo de nossas atuações, mas elas devem estar sempre alinhadas com um objetivo maior, que vise o crescimento de onde estivermos e o bem-estar da sociedade como um todo.

 

Soldados ucranianos exibem drone russo capturado em agosto passado - Foto: Ministério de Assuntos Internos da Ucrânia/Creative Commons

Como vencer uma guerra sem disparar um único tiro

By | Tecnologia | No Comments

Para mim, as guerras representam a falência da humanidade. Quando governos recorrem a armas para impor pontos de vista ou obter ganhos às custas de incontáveis vidas humanas e enorme destruição, algo dramaticamente deu errado, partindo para a força. A tecnologia vem abrindo novos caminhos para a guerra, em que as armas dividem seu protagonismo com o mundo digital.

Talvez cheguemos a um cenário em que se vença um conflito sem que nenhum tiro seja disparado, o que não quer dizer que não mais existirão prejuízos e sofrimento. Ainda não estamos lá, mas a brutal invasão russa na Ucrânia fez dos dois anos desse teatro de guerra um campo de testes tecnológicos de drones, novos materiais e inteligência artificial para fins militares, que estão transformando o conceito da guerra.

Ela sempre esteve associada à ciência, para o desenvolvimento de melhores estratégias e armamentos. Grandes avanços para a humanidade também se derivaram disso, como a penicilina e até os fornos de micro-ondas.

Agora a Ucrânia vivencia uma guerra de algoritmos, inteligência artificial e satélites. O desconhecido se torna claro, previsível e muitas vezes evitável. Por outro lado, tropas e civis se tornam mais vulneráveis. Generais criam assim suas estratégias com o apoio de algoritmos preditivos e de armas que cumprem “suas missões” sozinhas.

Mas então por que o conflito da Ucrânia chegou a um impasse, sem conclusão aparente? Por que as cidades seguem sendo destruídas e as pessoas continuam sendo mortas? Como se pode ver, nesse videogame, ninguém tem vida extra.


Veja esse artigo em vídeo:


A resposta passa, em parte, por essas novas tecnologias serem relativamente portáteis, baratas e disponíveis para ambos os lados do conflito. Em janeiro, dois comandantes veteranos, o general Yuri Baluievski, ex-chefe do Estado-Maior russo, e o general Valeri Zaluzhni, chefe do Estado-Maior ucraniano, fizeram publicações em que abordam a digitalização da guerra, respectivamente na publicação russa “Army Standard” e no site do Ministério de Defesa da Ucrânia.

As tropas de ambos os países estão aprendendo as mesmas lições. Entre elas, está que a tecnologia favorece mais a defesa. A exceção são os drones, veículos aéreos e aquáticos não-tripulados, que conseguem causar danos aos inimigos de maneira barata, eficiente e preservando tropas, enquanto tanques, aviões e navios têm sido mais facilmente interceptados. Eles são as estrelas desse conflito sangrento.

Não se trata dos sofisticados drones militares americanos. Os veículos usados no conflito são baratos, às vezes equipamentos de mercado, que podem ser adquiridos em grande quantidade. Eles são modificados para carregar explosivos e para tentarem ser menos suscetíveis aos sistemas do inimigo que embaralham as frequências que usam, fazendo com que os pilotos percam seu controle. E nessas contramedidas digitais, a Rússia vem levando vantagem, com sua massiva máquina de guerra.

Mas uma nova geração de drones tenta resolver esse problema. Graças à inteligência artificial, eles são capazes de cumprir sua missão, mesmo que seu piloto remoto perca o contanto com eles. Nesse caso, o sistema no próprio veículo assume o controle e faz tudo que for necessário para atingir seu alvo, mesmo que ele se mova.

Nem sempre dá certo. Em uma simulação no ano passado, um “drone inteligente” atacou seu próprio centro de comando depois de receber dele um comando para cancelar a missão. O robô entendeu que essa ordem atrapalhava o objetivo de destruir o inimigo, e por isso atacou a própria base. Felizmente era apenas uma simulação.

Às vezes, soluções simples podem ser mais eficientes. As armas antigas, sem inteligência ou guiadas por GPS, ganham uma sobrevida com o apoio da tecnologia, que indica com precisão onde os disparos devem acontecer. Os ucranianos também têm usado celulares espalhados pelo território para captar o zunido típico dos drones. Dessa forma, identificam sua aproximação melhor que caros sistemas de radar.

Smartphones nas mãos dos soldados tornaram-se, por outro lado, uma perigosa ameaça a sua segurança. A Ucrânia infligiu pesadas baixas aos russos ao atacar locais em que identificaram grande concentração de sinais de celulares, WiFi ou Bluetooth.

 

Uma guerra sem disparos

A guerra do futuro tem outras formas, igualmente ligadas ao avanço da tecnologia. Ela pode viabilizar confrontos que acontecerão sem disparos e uso de tropas militares, mas ainda assim criarão grandes prejuízos ao inimigo.

Além dos já citados drones, mais fáceis de compreender e implantar, Forças Armadas de diversos países investem no desenvolvimento de ataques cibernéticos, capazes de inutilizar digitalmente a infraestrutura de inimigos. Em um mundo cada vez mais digital, isso pode colocar uma nação de joelhos em curtíssimo tempo. Militares estão atentos a isso e tratam de proteger seus equipamentos. Mas atacar sistemas civis, muito mais vulneráveis, podem trazer resultados catastróficos.

A inteligência artificial, especialmente modelos de linguagem amplos (como o ChatGPT), está sendo usada para identificar fragilidades em inimigos, analisar fotos de satélite e até decifrar suas mensagens cifradas, o que pode conceder uma vantagem tática incrível. Isso teve um papel decisivo na vitória dos Aliados na Segunda Guerra Mundial, quando uma equipe de matemáticos britânicos, liderada por Alan Turing, construiu um rudimentar computador mecânico capaz de decifrar a máquina Enigma, usada pelos nazistas para suas transmissões militares codificadas.

Rompendo a tradição de se manterem afastadas de desenvolvimentos militares, algumas big techs e startups americanas, como Microsoft, Amazon Web Services, OpenAI e Scale AI, têm trabalhado com os militares do país para que sua tecnologia seja usada com esse fim. O Google também fazia isso, mas encerrou sua colaboração com o Pentágono em 2019, após protestos de seus funcionários.

A mistura de IA com armamentos desperta medo em muita gente, alguns oriundos da ficção científica, como nos filmes do “Exterminador do Futuro”. Espero que não cheguemos àquilo, mas uma guerra cibernética pode envolver a contaminação de bases de dados dessas plataformas no inimigo, para que elas tomem decisões erradas e potencialmente devastadoras.

O militar prussiano Carl Von Clausewitz (1790-1831), especialista em estratégias militares, escreveu em sua obra “Sobre a Guerra” (1832) que “a guerra é a continuação da política por outros meios”. Segundo ele, trata-se de “um ato de violência destinado a forçar o adversário a submeter-se à nossa vontade.”

Para isso, ao longo da história, o ser humano usou porretes, flechas, rifles, canhões e bombas, armas químicas e biológicas, e dispositivos nucleares. A tecnologia da vez vem do mundo digital. Mas qualquer que seja o meio, a guerra continua sendo o que é, conduzida por homens que desprezam qualquer vida que não seja a sua própria, para atingir objetivos no mínimo questionáveis.

 

Roberta Metsola, presidente do Parlamento Europeu, que acaba de aprovar a Lei da Inteligência Artificial - Foto: PE/Creative Commons

Europa regulamenta a IA protegendo a sociedade e sem ameaçar a inovação

By | Tecnologia | No Comments

O Parlamento Europeu aprovou, na quarta passada (13), a Lei da Inteligência Artificial, uma legislação pioneira que visa a proteção da democracia, do meio ambiente e dos direitos fundamentais, enquanto promove o desenvolvimento dessa tecnologia. As novas regras, que devem entrar em vigor ao longo dos próximos dois anos, estabelecem obrigações para desenvolvedores, autoridades e usuários da IA, de acordo com potenciais riscos e impacto de cada aplicação.

Na semana anterior, a Europa já havia aprovado uma lei que regula a atuação das gigantes da tecnologia, favorecendo a competição. Tudo isso consolida a vanguarda do continente na organização do uso do mundo digital para proteger e beneficiar a sociedade, inspirando leis pelo mundo. O maior exemplo é a GDPR, para proteção de dados, que no Brasil inspirou a LGPD, nossa Lei Geral de Proteção de Dados.

Legislações assim se tornam necessárias à medida que a digitalização ocupa espaço central em nossas vidas, transformando profundamente a sociedade. Isso acontece desde o surgimento da Internet comercial, na década de 1990. De lá para cá, cresceu com as redes sociais, com os smartphones e agora com a inteligência artificial.

O grande debate em torno dessas regras é se elas podem prejudicar a sociedade, ao atrapalhar o desenvolvimento tecnológico. A preocupação é legítima, mas ganha uma dimensão muito maior que a real por influência dessas empresas, que se tornaram impérios por atuarem quase sem regras até agora, e gostariam de continuar assim.

Infelizmente essas big techs abusaram dessa liberdade, sufocando a concorrência e criando recursos que, na prática, podem prejudicar severamente seus usuários. Portanto, essas leis não devem ser vistas como ameaças à inovação (que continuará existindo), e sim como necessárias orientações sociais para o uso da tecnologia.


Veja esse artigo em vídeo:


A nova lei proíbe algumas aplicações da IA. Por exemplo, o uso de câmeras fica restrito, sendo proibido o “policiamento preditivo”, em que a IA tenta antecipar um crime por características e ações das pessoas. Também são proibidos a categorização biométrica e a captação de imagens da Internet ou câmeras para criar bases de reconhecimento facial. A identificação de emoções em locais públicos, a manipulação de comportamentos e a exploração de vulnerabilidades tampouco são permitidos.

“O desafio é garantir que tecnologias de vigilância contribuam para a segurança e bem-estar da sociedade, sem prejuízo das liberdades civis e direitos individuais”, explica Paulo Henrique Fernandes, Legal Ops Manager no Viseu Advogados. “Isso requer um diálogo contínuo para aprimoramento de práticas e regulamentações que reflitam valores democráticos e éticos”, acrescenta.

A lei também disciplina outros sistemas de alto risco, como usos da IA em educação, formação profissional, emprego, infraestruturas críticas, serviços essenciais, migração e Justiça. Esses sistemas devem reduzir os riscos, manter registros de uso, ser transparentes e ter supervisão humana. As decisões da IA deverão ser explicadas aos cidadãos, que poderão recorrer delas. Além disso, imagens, áudios e vídeo sintetizados (os deep fakes) devem ser claramente rotulados como tal.

A inovação não fica ameaçada pela lei europeia, porque ela não proíbe a tecnologia em si, concentrando-se em responsabilidades sobre aplicações que criem riscos à sociedade claramente identificados. Como a lei prevê um diálogo constante entre autoridades, desenvolvedores, universidades e outros membros da sociedade civil, esse ambiente pode até mesmo favorecer um desenvolvimento sustentável da IA, ao criar segurança jurídica a todos os envolvidos.

A nova legislação também aborda um dos temas mais polêmicos do momento, que é o uso de conteúdos de terceiros para treinar as plataformas de IA. Os donos desses sistemas vêm usando tudo que podem coletar na Internet para essa finalidade, sem qualquer compensação aos autores. A lei aprovada pelo Parlamento Europeu determina que os direitos autorias sejam respeitados e que os dados usados nesse treinamento sejam identificados.

 

Evitando Estados policialescos

Um grande ganho da nova lei europeia é a proteção do cidadão contra o próprio Estado e seus agentes. A tecnologia digital vem sendo usada, em várias partes do mundo, para monitorar pessoas e grupos cujas ideias e valores sejam contrárias às do governo da vez, uma violação inaceitável a direitos fundamentais, além de criar riscos enormes de injustiças por decisões erradas das máquinas.

Em várias partes do mundo, inclusive no Brasil, muitas pessoas foram presas por terem sido confundidas pelos sistemas com criminosos. Em São Paulo, a primeira proposta do programa Smart Sampa, implantado em 2023 pela Prefeitura e que monitora os cidadãos com milhares de câmeras, previa que o sistema indicasse à polícia pessoas “em situação de vadiagem”, seja lá o que isso significasse.

A ficção nos alerta há muito tempo sobre os problemas desses abusos. O filme “Minority Report” (2002), por exemplo, mostra que mesmo objetivos nobres (como impedir assassinatos, nessa história) podem causar graves danos sociais e injustiças com a tecnologia. E há ainda os casos em que as autoridades deliberadamente a usam para controlar os cidadãos, como no clássico livro “1984”, publicado por George Orwell em 1949.

O Congresso brasileiro também estuda projetos para regulamentar a inteligência artificial. O mais abrangente é o Projeto de Lei 2.338/2023, que propõe o Marco Legal da Inteligência Artificial. “Enquanto a União Europeia estabeleceu um quadro regulatório detalhado e abrangente, focando na gestão de riscos associados a diferentes usos da IA, o Brasil ainda está definindo seu caminho regulatório, com um enfoque aparentemente mais flexível e menos prescritivo”, explica Fernandes.

É inevitável a profunda transformação que a inteligência artificial já promove em nossa sociedade, um movimento que crescerá de maneira exponencial. Os benefícios que ela traz são imensos, mas isso embute também muitos riscos, especialmente porque nem os próprios desenvolvedores entendem tudo que ela vem entregando.

Precisamos estar atentos também porque muitos desses problemas podem derivar de maus usos da IA, feito de maneira consciente ou não. Por isso, leis que regulamentem claramente suas utilizações sem impedir o desenvolvimento são essenciais nesse momento em que a colaboração entre pessoas e máquinas ganha um novo e desconhecido patamar. Mais que aspectos tecnológicos ou de mercado, essas legislações se tornam assim verdadeiros marcos civilizatórios, críticos para a manutenção da sociedade.

 

Tim Cook, CEO da Apple: empresa foi multada pela União Europeia em €1,8 bilhão - Foto: Christophe Licoppe/Creative Commons

Como a tentativa europeia de enquadrar as big techs impacta nossas vidas

By | Tecnologia | No Comments

Na segunda passada (4), a Apple foi multada pela União Europeia em €1,8 bilhão (cerca de R$ 9,8 bilhões), em um processo movido pelo Spotify há cinco anos, que a acusava de práticas de concorrência desleal. A decisão impacta muito mais que a empresa e seus clientes: ela reflete mudanças que vários governos tentam impor às big techs para reduzir seu enorme poder sobre a vida da população global.

A principal queixa era a exigência pela Apple de que os aplicativos para o iPhone e o iPad sejam instalados exclusivamente a partir da App Store, com a empresa ficando com 30% das transações na sua plataforma. O Spotify entendia que o Apple Music, serviço de streaming da Apple, tinha uma vantagem indevida, pois esses 30% ficavam na empresa. Além disso, ele já vem pré-instalado em todos esses equipamentos.

Travestida de facilidade para os clientes, essa sutil imposição dos próprios produtos valendo-se de ser dono de um ecossistema digital foi criada pela Microsoft na segunda metade da década de 1990, graças à dominância do Windows. Nos anos seguintes, o modelo foi aperfeiçoado pela Apple, Google e Meta. O processo foi tão eficiente, que nós, os usuários, mal percebemos essa dominação e achamos tudo normal.

Mas isso pode estar com os dias contados. Na Europa, as big techs fizeram mudanças profundas em seus modelos de negócios, graças à Lei dos Mercados Digitais (ou DMA, na sigla em inglês), que passou a valer na quinta passada (7). Pelo tamanho do mercado europeu e por suas regulações da tecnologia inspirarem leis ao redor do mundo, podemos começar a ver movimentos semelhantes em outras regiões.

Essas empresas construíram seus impérios digitais praticamente sem regras, focadas nos lucros, esmagando concorrentes e com rumos definidos apenas pelas suas próprias bússolas morais. Resta saber se o surgimento dessas novas leis realmente encerrará esse período de “autorregulação” e se isso beneficiará os seus clientes.


Veja esse artigo em vídeo:


A nova lei europeia afeta como as big techs produzem e distribuem seus produtos, os métodos de pagamento e até a publicidade online, visando garantir a concorrência. Quem desobedecê-la pode ser multado em até 20% de sua receita global.

Por isso, a Apple agora permite lojas de aplicativos de terceiros em seus produtos, o Google alterou o Android para usuários trocarem o Chrome por outro navegador e o Google por outro buscador, e a Meta aceita que outros serviços conversem com o WhatsApp e o Messenger, além de permitir que contas do Facebook e do Instagram sejam desvinculadas. A Microsoft já aceita que os usuários desativem o Bing no Windows, e a Amazon solicita o consentimento dos clientes para personalização de anúncios. Por fim, o TikTok agora permite que os usuários baixem todos seus dados na plataforma. Mas tudo isso só vale para os europeus!

Os legisladores de lá entendem que a melhor maneira de ter mais concorrência é ela acontecer na plataforma, e não a substituir. A DMA reforça a União Europeia como o órgão regulador mais agressivo para a tecnologia, já tendo criado regas sobre privacidade de dados, moderação de conteúdo online e inteligência artificial.

As big techs não vendem barato essas derrotas no mundo todo. Basta lembrar o que fizeram no Brasil no ano passado, quando o chamado “PL das Fake News” seria votado, para tentar regular abusos nas plataformas digitais. Elas fizeram um pesado lobby junto aos políticos e usaram sua máquina de convencimento para cooptar a população a seu favor. O projeto acabou engavetado.

“Empresas têm liberdade para oferecer seus produtos e serviços da maneira que considerarem mais estratégica, mas essa liberdade é limitada por leis que procuram prevenir práticas que restrinjam a concorrência”, explica Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propagando e Marketing (ESPM). “Também há questões relativas ao direito do consumidor, já que, por exemplo, no Brasil se proíbe a venda casada e outras práticas que violem o direito de escolha”, conclui.

As big techs chegaram a pedir ajuda ao governo americano contra a nova lei europeia, argumentando que ela seria contra os trabalhadores e os interesses dos Estados Unidos. A Casa Branca, mais interessada no apoio europeu para questões como a guerra da Ucrânia, não interferiu.

Mas se a concorrência é benéfica ao mercado e aos clientes, por que não vemos movimentos tão contundentes quanto a DMA fora da Europa?

 

Benefícios e prejuízos aos clientes

Ao longo dos anos, as empresas de tecnologia souberam aproveitar lacunas na legislação para criar seus monopólios. Além disso, são inegáveis os benefícios que sua tecnologia trouxe para a sociedade. Por isso, muitas se tornaram empresas queridas pelos clientes e pela mídia.

Ninguém propõe o fim dessas empresas ou que se deixe de usar seus produtos, e sim que tanto poder não seja usado para esmagar a concorrência. “A questão central é se os benefícios imediatos para os consumidores superam os potenciais prejuízos a longo prazo decorrentes de práticas anticompetitivas”, explica Crespo.

De certa forma, essas leis representam um amadurecimento do setor de tecnologia, a exemplo do que se vê em outros importantes e altamente regulados, como o farmacêutico, o bancário e o automobilístico. Porém mesmo os criadores dessas regras têm dúvidas se elas diminuirão a posição de incrível dominância dessas empresas. Eles esperam que, pelo menos, elas ajudem novos concorrentes a surgir e a prosperar. As big techs, por sua vez, têm muito dinheiro e talentos para se adaptar aos novos cenários. Para Crespo, “o que estamos vendo é uma redefinição das regras do jogo, que visa criar um ecossistema digital mais competitivo e inovador”.

Essas iniciativas funcionam quase como apostas para um mercado mais diverso e saudável. Talvez essas empresas usem suas fortunas, seus produtos e seus exércitos de advogados para sufocar as propostas, mas isso seria muito ruim, pois não bastam mudanças cosméticas para que vejamos o florescimento de uma concorrência real, capaz de beneficiar a sociedade.

Sem isso, continuaremos vendo nossas vidas sendo guiadas por uma mão invisível tecnológica, que nos afaga com inovações verdadeiras, mas que nos coíbe de buscarmos isso em outras fontes. Nossa liberdade de escolha e até de pensamento vem sendo tolhida há muito tempo, enquanto ficamos presos nessas gaiolas douradas.

 

IA pode ser usada na eleição, mas seguindo regras para evitar fake news - Ilustração: Paulo Silvestre com Freepik/Creative Commons

Regras para IA nas eleições são positivas, mas criminosos não costumam seguir a lei

By | Tecnologia | No Comments

A tecnologia volta a ser protagonista na política, e não dá para ignorar isso em um mundo tão digital. Na terça, o Tribunal Superior Eleitoral (TSE) aprovou instruções para o pleito municipal desse ano. Os usos de redes sociais e inteligência artificial nas campanhas chamaram atenção. Mas apesar de positivas e bem-produzidas, elas não dizem como identificar e punir a totalidade de crimes eleitorais no ciberespaço, que só aumentam. Enquanto isso, a tecnologia continua favorecendo os criminosos.

Claro que a medida gerou uma polêmica instantânea! Desde 2018, as eleições brasileiras vêm crescentemente sendo decididas com forte influência do que se vê nas redes sociais, especialmente as fake news, que racharam a sociedade brasileira ao meio. Agora a inteligência artificial pode ampliar a insana polarização que elege candidatos com poucas propostas e muito ódio no discurso.

É importante que fique claro que as novas regras não impedem o uso de redes sociais ou de inteligência artificial. Seria insensato bloquear tecnologias que permeiam nossa vida e podem ajudar a melhorar a qualidade e a baratear as campanhas, o que é bem-vindo, especialmente para candidatos mais pobres. Mas não podemos ser inocentes e achar que os políticos farão apenas usos positivos de tanto poder em suas mãos.

Infelizmente a solução para essas más práticas do mundo digital não acontecerá apenas com regulamentos. Esse é também um dilema tecnológico e as plataformas digitais precisam se envolver com seriedade nesse esforço.


Veja esse artigo em vídeo:


A iniciativa do TSE não é isolada. A preocupação com o impacto político do meio digital atingiu um pico no mundo em 2024, ano com 83 eleições ao redor do globo, a maior concentração pelos próximos 24 anos. Isso inclui algumas das maiores democracias do mundo, como Índia, Estados Unidos e Brasil, o que fará com que cerca de metade dos eleitores do planeta depositem seus votos até dezembro.

As regras do TSE procuram ajudar o eleitor a se decidir com informações verdadeiras. Por isso, determinam que qualquer texto, áudio, imagem ou vídeo que tenha sido produzido ou manipulado por IA seja claramente identificado como tal. Além disso, proíbem que sejam criados sistemas que simulem conversas entre o eleitor e qualquer pessoa, inclusive o candidato. Vedam ainda as deep fakes, técnica que cria áudios e vídeos falsos que simulam uma pessoa dizendo ou fazendo algo que jamais aconteceu.

Além de não praticar nada disso, candidatos e partidos deverão denunciar fraudes à Justiça Eleitoral. As plataformas digitais, por sua vez, deverão agir por conta própria, sem receberem ordens judiciais, identificando e removendo conteúdos que claramente sejam falsos, antidemocráticos ou incitem ódio, racismo ou outros crimes. Se não fizerem isso, as empresas podem ser punidas. Candidatos que infringirem as regras podem ter a candidatura e o mandato cassados (no caso de já terem sido eleitos).

Outra inovação é equiparar as redes sociais aos meios de comunicação tradicionais, como jornal, rádio e TV, aplicando a elas as mesmas regras. Alguns especialistas temem que esse conjunto de medidas faça com que as plataformas digitais exagerem nas restrições, eliminando conteúdos a princípio legítimos, por temor a punições. E há ainda o interminável debate se elas seriam capazes de identificar todos os conteúdos problemáticos de maneira automática.

Os desenvolvedores estão se mexendo, especialmente por pressões semelhantes que sofrem nos Estados Unidos e na União Europeia. Em janeiro, 20 empresas de tecnologia assinaram um compromisso voluntário para ajudar a evitar que a IA atrapalhe nos pleitos. A OpenAI, criadora do ChatGPT, e o Google, dono do concorrente Gemini, anunciaram que estão ajustando suas plataformas para que não atendam a pedidos ligados a eleições. A Meta, dona do Facebook, do Instagram e do WhatsApp, disse que está refinando técnicas para identificar e rotular conteúdos criados ou modificados por inteligência artificial.

Tudo isso é necessário e espero que não se resuma apenas a “cortinas de fumaça” ou “leis para inglês ver”. Mas resta descobrir como fiscalizar as ações da parte ao mesmo tempo mais frágil e mais difícil de ser verificada: o usuário.

 

Ajudando o adversário a se enforcar

Por mais que os políticos e as big techs façam tudo que puderem para um bom uso desses recursos, o maior desafio recai sobre os cidadãos, seja um engajado correligionário (instruído ou não pelas campanhas), seja um inocente “tio do Zap”. Esses indivíduos podem produzir e distribuir grande quantidade de conteúdo incendiário e escapar da visão do TSE. Pior ainda: podem criar publicações ilegais como se fossem o adversário deliberadamente para que ele seja punido.

O tribunal não quer que se repita aqui o que foi visto na eleição presidencial argentina, em novembro. Lá as equipes dos candidatos que foram ao segundo turno, o peronista Sergio Massa e o ultraliberal Javier Milei, fizeram amplo uso da IA para denegrir a imagens dos adversários.

Em outro caso internacional, os moradores de New Hampshire (EUA) receberam ligações de um robô com a voz do presidente Joe Biden dizendo para que não votassem nas primárias do Estado, no mês passado. Por aqui, um áudio com a voz do prefeito de Manaus, David Almeida, circulou em dezembro com ofensas contra professores. Os dois casos eram falsos.

Esse é um “jogo de gato e rato”, pois a tecnologia evolui muito mais rapidamente que a legislação, e os criminosos se valem disso. Mas o gato tem que se mexer!

Aqueles que se beneficiam desses crimes são os que buscam confundir a população. Seu discurso tenta rotular essas regras como cerceamento da liberdade de expressão. Isso não é verdade, pois todos podem continuar dizendo o que quiserem. Apenas pagarão no caso de cometerem crimes que sempre foram claramente tipificados.

Há ainda o temor dessas medidas atrapalharem a inovação, o que também é questionável. Alguns setores fortemente regulados, como o farmacêutico e o automobilístico, estão entre os mais inovadores. Por outro lado, produtos reconhecidamente nocivos devem ser coibidos, como os da indústria do cigarro.

A inteligência artificial vem eliminando a fronteira entre conteúdos verdadeiros e falsos. Não se pode achar que os cidadãos (até especialistas) consigam identificar mentiras tão bem-criadas, mesmo impactando decisivamente seu futuro. E as big techs reconhecidamente fazem menos do que poderiam e deveriam para se evitar isso.

Ausência de regras não torna uma sociedade livre, mas anárquica. A verdadeira liberdade vem de termos acesso a informações confiáveis que nos ajudem a fazer as melhores escolhas para uma sociedade melhor e mais justa para todos.

Ao invés de atrapalhar, a tecnologia deve nos ajudar nessa tarefa. E ela pode fazer isso!

 

Nos EUA, uma patente só pode ser concedida se um humano fizer uma “contribuição significativa” - Foto: Freekpik/Creative Commons

Proibição de IA registrar patentes abre debate sobre seus limites criativos

By | Tecnologia | No Comments

No dia 13, o Gabinete de Marcas e Patentes dos Estados Unidos determinou que patentes não podem ser registradas em nome de plataformas de inteligência artificial, apenas por pessoas. Essa tecnologia pode, entretanto, ser usada intensamente no desenvolvimento de invenções: basta seres humanos terem feito uma “contribuição significativa” para que a patente possa ser concedida.

A questão que salta aos olhos é: quem é o verdadeiro inventor nesse caso?

Apesar de bem-intencionada, a determinação possui falhas conceituais. A proposta de garantir que a propriedade intelectual continue sob domínio de pessoas é bem-vinda. Mas ao permitir que a IA seja usada na pesquisa (e não faz sentido proibir isso hoje), cria-se uma brecha para que ela seja vista como coautora do processo.

Como a tal contribuição humana não precisa ser comprovada, pode acontecer ainda de a IA fazer todo o trabalho e depois não ser “reconhecida” pelos pesquisadores. O aspecto tecnológico então dá lugar a outros, éticos e filosóficos: a máquina trabalha para nós ou o contrário, quando lhe fornecemos comandos e ela se torna coautora?

Como diz o ditado, “é nos detalhes que mora o diabo”.


Veja esse artigo em vídeo:


A inteligência artificial não é verdadeiramente criativa, pelo menos, não ainda. Ela é capaz de trazer grandes ideias ao processo por analisar e encontrar padrões que respondam a questionamentos ao analisar uma quantidade gigantesca de informações, de uma maneira que nem o melhor cientista conseguiria. Mas por enquanto ela precisa que alguém lhe faça as perguntas corretas, porque, se para os humanos, suas experiências pessoais lhes permitem transcender para novas ideias, para as máquinas, seu arcabouço de conhecimento funciona como um limitador.

“A máquina fica como um apêndice seu, porque é você que está no comando do diálogo”, explica Lucia Santaella, professora da PUC-SP e autoridade global em semiótica. “Mas se você não sabe o que procura, se você não exercita a sua vida intelectual, você vira um apêndice da máquina”, provoca.

“Independentemente de quão avançada seja a IA, você precisa de algum humano para falar o que tem que inventar: aí que eu vejo uma ‘contribuição significativa’”, afirma Matheus Puppe, sócio especialista em novas tecnologias do Maneira Advogados. Para ele, essas brechas na decisão do Gabinete de Marcas e Patentes podem funcionar até como um freio ao progresso. “Essa decisão mostra que eles estão reagindo apenas, e não pensaram muito bem sobre os detalhes de como isso seria aplicável”, acrescenta.

A característica essencial da IA de extrair informações de grandes massas de dados traz uma preocupação em registro de patentes, pois, no processo, ela pode infringir outras existentes, de onde aprendeu algo. Tanto que diversas empresas de comunicação e produtores de conteúdo estão processando desenvolvedores dessas plataformas por infração de direitos autorais. Mas Puppe acredita que, em nome do progresso tecnológico e dos benefícios derivados da IA, o uso de fragmentos anonimizados de informações devem ser flexibilizados para o treinamento da IA.

Tudo ficará diferentes se (ou quando) chegarmos à chamada “inteligência artificial geral”, que se parece muito mais com o cérebro humano, deixando de ser especialista em apenas um tema e até possuindo iniciativa para tomar ações. Nesse caso, a máquina dispensaria os humanos e suas “contribuições significativas”.

Para Puppe, nesse caso, talvez tenha que ser criada uma personalidade jurídica de uma “pessoa digital”, que poderia ser detentora de direitos específicos, inclusive monetários. Enquanto isso não chega, ele sugere que patentes criadas com apoio de IA tenha a tecnologia (e seus desenvolvedores) como coautores, ou pelo menos que exista uma copropriedade, com pagamentos de royalties por isso.

 

A “sociedade do prompt

Ainda que imprecisa, a decisão do Gabinete de Marcas e Patentes reflete uma profunda mudança social que a IA vem impondo desde o ano passado. Cada vez mais, muitas tarefas passam a se resumir à criação de um prompt, um comando eficiente para a inteligência artificial realizar a tarefa com precisão.

Ela não substituirá as pessoas, mas elas poderão ser gradativamente substituídas por quem a use. Isso aumenta o abismo profissional entre os que têm acesso e dominam a tecnologia e os que não têm, pois o robô assumirá não apenas tarefas braçais, como processará grandes volumes de dados, com uma percepção sobre-humana, melhorando as entregas desses profissionais.

A IA também é capaz de realizar produções de conteúdo, incluindo obras artísticas. E isso tem desafiado a sociedade a redefinir o papel tanto de um cientista, quanto o de um artista. “O que define um escritor, um músico é a criatividade da ideia”, sugere Puppe. “Isso é o importante, e não a sua habilidade de executá-la”, conclui.

O grande risco dessa capacidade de produção e de simular a realidade que a IA oferece é que não consigamos mais distinguir o que é real. Somos uma civilização que aprendeu a confiar no que vemos, mas agora somos desafiados continuamente a duvidar de nossos olhos pelas diferentes telas, vivendo em uma insustentável “incerteza perceptiva”.

“O que nos constitui é a linguagem, e ela está crescendo”, afirma Santaella. “Com a IA generativa, produzimos imagens, vídeo, sons, essa tecnologia simula o humano!”

Temos que nos apropriar de todo esse poder com consciência e ética! Não devemos temer a IA, nem tampouco nos deslumbrarmos com ela! Sempre a máquina deve trabalhar para nós, e não nós para ela ou para seus desenvolvedores.

Por isso, talvez até seja justo que eles sejam remunerados por uma patente ou qualquer outra produção comercial criada com forte apoio da IA. Mas não podem ser classificados como coautores, pois isso implica uma responsabilidade que a máquina não tem (e que essas empresas não querem ter), especialmente no caso de algo dar errado.

Nessa “sociedade do prompt”, devemos sempre recordar que nós estamos no controle, e que a máquina é apenas uma ferramenta. E por mais fabulosa que seja, ela não deve ser usada de uma maneira que nos torne intelectualmente preguiçosos.

“Eu só acredito na educação e no crescimento através da aprendizagem”, afirma Santaella.” Não a educação no sentido formal, mas a educação no sentido de não deixar morrer a curiosidade pelo conhecimento!”

Afinal, a nossa humanidade é o nosso grande diferencial para não sermos substituídos de vez por um robô. Precisamos continuar cultivando tudo que a faz ser o que é.

 

Criada por IA, Ren Xiaorong é a âncora do telejornal “Diário do Povo”, controlado pelo governo chinês - Foto: reprodução

IA agora produz e publica notícias, aumentando os riscos de desinformação

By | Jornalismo, Tecnologia | No Comments

O que você sentiria se o presidente da República telefonasse a você para lhe convencer de algo? Ou se alguém bem próximo, como um sobrinho ou até um filho, enviasse um áudio pedindo dinheiro? Muita gente desconfiaria que se trata de um golpe. Mas o rápido avanço da inteligência artificial está tornando esse tipo de engodo cada vez mais crível, fazendo vítimas em todos os estratos sociais.

Portanto, cuidado ao gritar que jamais cairá em algo assim. Por muito menos, todo mundo já acreditou em alguma fake news!

A ameaça cresce quando se observa que o uso da IA vai muito além da produção de textos, áudios e vídeos bem-feitos. Os robôs agora constroem sequências de notícias falsas sobre temas que lhes forem solicitados. Além disso, eles as distribuem de maneiras cada vez mais criativas, até como se fossem jornalistas humanos.

Não por acaso, em janeiro, o Fórum Econômico Mundial apontou a desinformação potencializada pela inteligência artificial como o maior risco que a humanidade enfrentará nos próximos anos.

As big techs, responsáveis pela criação dessas plataformas, estão se mexendo. No mesmo Fórum, Nick Clegg, presidente de assuntos globais da Meta (dona do Facebook, Instagram e WhatsApp), anunciou que a empresa está trabalhando com os principais nomes do setor para criar mecanismos que identifiquem claramente que um conteúdo foi sintetizado por IA. O executivo classificou a iniciativa como “a tarefa mais urgente” da indústria tecnológica atualmente.

Já passamos há anos do ponto em que as versões ficaram mais “importantes” para o público que os fatos, e falhamos miseravelmente no combate a isso, com consequências desastrosas. Nesse ano, com mais de 2 bilhões de pessoas votando em 58 países, o desafio de todos passa a ser não apenas resgatar o valor da verdade, como também serem capazes de identificá-la.


Veja esse artigo em vídeo:


Isso já acontece, inclusive onde estão as sedes das big techs: os EUA. O país começou 2024 com a polarização nas alturas pela eleição presidencial em novembro, que deve colocar novamente o atual presidente, Joe Biden, frente a seu antecessor, Donald Trump. O primeiro já vem sendo vítima de vídeos falsos desde o ano passado.

Recentemente, eleitores do Estado de New Hampshire receberam telefonemas com a voz de Biden enganando-os para não votarem na eleição primária local. Isso fez com que o governo proibisse o uso de IA para simular vozes em ligações automáticas no país.

Legislações costumam chegar atrasadas e muitas vezes são ineficientes, diante da velocidade da inovação. O debate sobre regulamentar redes sociais e agora a inteligência artificial vem deixando claro que se focar nas tecnologias é infrutífero, devendo se concentrar na responsabilização dos desenvolvedores e dos usuários que usam esses recursos indevidamente.

O grande problema é que, com ou sem regras claras, os vilões –sejam empresas ou usuários– continuam fazendo o que bem entendem para garantir seus lucros ou outros objetivos. A IA deve facilitar esse processo ainda mais, e eles sabem disso.

A imprensa historicamente desempenha o papel de proteger a sociedade desse tipo de abuso, mas ela própria vem sendo impactada pela inteligência artificial, seja em seus próprios processos, seja na concorrência de “pseudojornalistas digitais” que tentam enganar o público.

O Reuters Institute divulgou em janeiro um detalhado estudo sobre as perspectivas para esse ano sobre jornalismo, mídia e tecnologia. O documento reconhece esses desafios, destacando que a maioria do conteúdo na Internet será produzido por IA já em 2026. Segundo os pesquisadores, isso exige que jornalistas e empresas noticiosas repensem seu papel e propósito urgentemente.

 

“Jornalistas sintéticos”

Essas empresas já observam queda na sua audiência vinda de redes sociais, que passaram a privilegiar criadores no estilo TikTok ao invés de jornalismo, pois isso lhes favorece. O desafio do jornalismo aumenta com o crescimento das “Experiências Generativas de Busca”, um recurso de buscadores como Google e Bing, em que a IA generativa redige parágrafos que explicam brevemente o que o usuário procura. Com isso, ele não precisa mais visitar as páginas de onde as informações foram tiradas.

Em outras palavras, os veículos de comunicação alimentam essas plataformas e não ganham nem mesmo a visita do usuário em troca. É quase como se cada um de nós agora tivesse um “jornalista sintético” a nossa disposição para nos explicar qualquer assunto.

Parece ótimo, mas isso embute um risco enorme: esses parágrafos podem misturar alegremente informações jornalísticas de qualidade com fake news bizarras. Portanto, podem se converter em poderosas ferramentas de desinformação, além de achatar a audiência dos veículos de comunicação.

Pesquisadores acreditam que, nesse ano, plataformas de inteligência artificial também passem a produzir grandes volumes de desinformação, não mais dependendo de comando individuais, mas seguindo diretrizes mais amplas. Como a publicação é automática, isso pode inundar as redes sociais com informações falsas, que soterrariam o conteúdo jornalístico diante dos algoritmos. Além disso, países como China e até Venezuela já usam avatares ultrarrealistas que se passam por jornalistas humanos e despudoradamente leem notícias que lhes forem ordenadas.

O relatório do Reuters Institute indica que as empresas de comunicação pretendem reforçar o contato direto com seu público, em detrimento das plataformas digitais. Mas isso pode afastá-las ainda mais de sua audiência mais jovem e menos instruída, que se sente satisfeita com as notícias geradas por IA.

A inteligência artificial é uma ferramenta fabulosa e estamos em um caminho sem volta para sua adoção em todos os setores da economia, inclusive na comunicação. Apesar de todos esses desafios, ela também oferece muitos ganhos ao jornalismo, se bem usada.

O risco a que todos nós –e não apenas jornalistas– temos que estar atentos é a possibilidade de decisões básicas da sociedade civil, como em quem votar, sejam sequestradas por robôs sem ética. As empresas de comunicação não podem repetir com a IA o erro que cometeram ao desprezar o poder das redes sociais, quando ainda estavam começando. Precisam compreender e se apropriar dessa tecnologia, e ajudar toda a sociedade a fazer o mesmo.

Caso contrário, seremos cada vez mais cidadãos teleguiados.