inteligência artificial

Rotuladores de dados realizam um trabalho essencial para a IA, porém estressante e mal pago - Foto: Drazen Zigic/Creative Commons

Para nos beneficiarmos da IA, uma multidão ameaça a própria saúde mental por trocados

By | Tecnologia | No Comments

Não cansamos de nos deslumbrar com as capacidades da inteligência artificial generativa. Quando foi apresentado no dia 13 de maio, o GPT-4o, versão mais recente do “cérebro” do ChatGPT, parecia mágico, com suas capacidades cognitivas refinadas e conversas bem-humoradas. Mas ironicamente, apesar de essa data estar associada à lei que formalizou o fim da escravidão no Brasil, o “milagre da IA” das grandes empresas de tecnologia depende de um trabalho muitas vezes estressante e mal remunerado, feito por uma multidão de pessoas subcontratadas em países pobres.

Conhecidos como “data taggers” (ou “rotuladores de dados”), esses trabalhadores desempenham o papel crucial de ajudar os modelos de IA no que eles não conseguem distinguir por conta própria, de modo que, a partir daquela informação, eles saibam decidir corretamente. Por exemplo, em um conjunto de fotos, o que é um gato, um tigre, um leão e um cachorro? Um texto está com linguagem jornalística, publicitária ou acadêmica? Uma foto apresenta uma mulher amamentando, um nu artístico ou não passa de pornografia?

São sutilezas fáceis para uma pessoa entender, mas impossíveis para uma plataforma digital ainda destreinada. Mas depois que o rotulador de dados explica o que cada coisa é para a máquina, ela passa a ser capaz de identificar padrões para que tome boas decisões no futuro.

Como se pode ver, as respostas da IA dependem desse trabalho para serem adequadas. E como a humanidade usa cada vez mais esses sistemas, o descuido com o processo e com as pessoas nessa etapa pode trazer impactos significativos em tudo que fazemos. Portanto, se essas pessoas atuarem em condições degradantes, podemos estar confiando nosso futuro a uma forma de precarização de trabalho que pode trazer perigosos impactos para todos.


Veja esse artigo em vídeo:


A IA precisa de uma quantidade brutal de dados na fase de seu treinamento para que funcione. Só assim ela consegue identificar padrões e criar vínculos entre elementos de informação para que tire suas conclusões depois. Nem todos esses dados passam por um processo de rotulação por humanos, mas os que passam são fundamentais para que o sistema desenvolva uma base sobre a qual trabalhará.

A rotulação pode ser feita por cientistas de dados ou profissionais especializados. Isso resulta em um modelo mais preciso, porém custa mais e demora para ser concluído. O custo e a qualidade podem cair com um serviço terceirizado, e caem muito mais no modelo de “crowdsourcing”. E esse último formato tem sido escolhido pelas big techs para rotular as bases de dados colossais de suas plataformas de IA. Com ele, a classificação de dados é transformada em uma infinidade de microtarefas.

Você certamente já participou, sem saber, de inúmeras delas, quando precisou comprovar que era um ser humano. Essa tecnologia se chama reCAPTCHA, na qual ajudamos plataformas a identificar elementos em fotos ou palavras digitalizadas. Com isso, estamos rotulando dados para o sistema, que compara nossas respostas com a de muitos outros usuários para ter uma informação de qualidade.

Mas dizermos que partes de uma foto têm semáforos não é suficiente para treinar uma base como a que faz um ChatGPT funcionar. Para isso, um exército de pessoas subcontratadas por empresas especializadas realiza milhões dessas microtarefas.

Elas não têm contato com outros indivíduos, trabalhando de casa e gerenciadas por um software. Tudo isso pode prejudicar a qualidade das entregas. Assim algumas técnicas são usadas para compensar isso e minimizar problemas, como interfaces intuitivas, a busca de um consenso na rotulação de vários profissionais para um mesmo conteúdo e uma auditoria dos rótulos, que verifica sua precisão.

Esses trabalhadores normalmente são pouco qualificados e vivem em países pobres, como Quênia ou Índia, recebendo apenas de US$ 1 a US$ 2 por hora. Pessoas nos EUA ou na Europa Ocidental não aceitam tão pouco. Mas, apesar de ser aviltante nessas regiões, esse valor pode ser significativo nas partes mais pobres do globo.

E aí reside uma perversidade no sistema. Quando precisam que alguma informação seja rotulada por um americano, por exemplo, a plataforma paga muito mais pela mesma tarefa. Por isso, muitos trabalhadores de países pobres tentam enganar o sistema sobre onde estão. Se são descobertos, suas contas são bloqueadas e podem até ficar sem receber seu pagamento.

 

Saúde mental comprometida

Eventualmente esses trabalhadores precisam rotular textos ou imagens com violência, discurso de ódio e elementos grotescos. Por isso, podem desenvolver problemas como ansiedade, depressão e estresse pós-traumático. Uma exposição prolongada a esses conteúdos pode levar ainda a uma perda de sensibilidade e de empatia.

Além dos óbvios e graves problemas para a saúde mental desses trabalhadores, a exposição contínua a dados tóxicos pode comprometer a qualidade das entregas, introduzindo vieses e discriminação nos modelos. E isso pode depois se propagar em uma sociedade que cada vez mais confia nas informações oferecidas pela IA.

As empresas que gerenciam essas plataformas precisam, portanto, oferecer suporte psicológico a esses trabalhadores e mecanismos para que eles indiquem se algo está mal. Mas isso normalmente não acontece. As big techs, por sua vez, não se importam em forçar que isso seja seguido pelas empresas que contratam.

É irônico que um negócio multibilionário tenha na sua base uma legião de anônimos trabalhando em condições tão degradantes. A sociedade deve pressionar as gigantes da tecnologia para que criem políticas de trabalho éticas e transparentes envolvendo os rotuladores de dados, e que determinem que as empresa que lhes prestem serviços cumpram essas regras. E em tempos em que se discutem leis para reger a inteligência artificial, inclusive no Brasil, esse tema não pode ficar de fora.

Sabemos que preocupações sociais nem sempre provocam mudanças em processos de produção, especialmente quando isso impactará nos seus custos. Mas se não for por isso, as empresas deveriam, pelo menos, entender que essa precarização da mão de obra implicará em produtos piores para seus clientes.

Quanto a nós, os usuários de toda essa “magia” da inteligência artificial, precisamos entender e não esquecer que, quando conversamos com o ChatGPT, aquelas respostas incríveis só são possíveis porque alguém lhe disse o que cada coisa é.

 

O primeiro-ministro indiano, Narendra Modi (direita), manteve o cargo, após as “eleições da IA” - Foto: Governo da Índia/Creative Commons

Índia inaugura novo jeito de fazer campanha eleitoral, com apoio da IA

By | Tecnologia | No Comments

O resultado das eleições sempre esteve ligado ao uso das tecnologias da época. A TV era fundamental para a vitória até 2018, quando foi suplantada pelas redes sociais, críticas para definir os pleitos desde então. Mas agora elas podem perder esse posto para a inteligência artificial. E a Índia, que acabou de realizar a maior eleição do mundo, demonstrou como dominar essa tecnologia ficou essencial para os candidatos.

A IA na política não se resume a criar deep fakes para desmoralizar adversários ou se valer do ChatGPT para compor peças publicitárias, legítimas ou falsas. Como alguns candidatos indianos demonstraram, ela pode desenvolver canais inovadores e personalizados com os eleitores. E isso parece até uma boa ideia!

Se a IA fornecesse a atenção que nenhum candidato humano conseguisse dar, atendendo cada cidadão individualmente, isso poderia até fortalecer a democracia. Mas o problema do uso da IA na política é o mesmo do seu uso em qualquer atividade: abusos de seus recursos para produzir resultados imprecisos, imorais e ilegais, para assim, mais que convencer, manipular multidões e vencer uma eleição.

No final, a IA maximiza a índole de quem a usa. E infelizmente a classe política tem sido pródiga em apresentar pessoas com uma moral rasteira, dispostas a pisotear a ética e usar todos os recursos para vencer. Por isso, devemos olhar para o que aconteceu na Índia e aprender algo com aquilo. Se um bom uso da IA pode fortalecer a democracia, seu mau uso pode colocá-la em seríssimo risco!


Veja esse artigo em vídeo:


Por décadas, os candidatos brasileiros com mais tempo na TV iam para o segundo turno das eleições. Isso mudou em 2018, quando Geraldo Alckmin, que tinha 5 minutos e 32 segundos (quase metade do tempo total do horário eleitoral gratuito), amargou uma quarta posição, enquanto Jair Bolsonaro, com apenas 8 segundos, foi eleito presidente.

Ele ganhou porque percebeu, antes e melhor que todos, que as redes sociais haviam se tornado o canal mais eficiente de disseminação de ideias e de manipulação de mentes. E não se tratava apenas de fazer um bom uso dos recursos técnicos, mas de se alterar o jeito de se fazer a própria política, com apoio de algoritmos, fake news e discursos que parecem falar aos anseios de cada um, e não aos de toda a sociedade.

Agora a inteligência artificial promete levar a “política digital” a patamares inimagináveis. O pleito indiano foi um laboratório que deve ser observado pela população, pela mídia, por autoridades eleitorais e pelos políticos, pelo seu tamanho gigantesco e pela disseminação da tecnologia entre os cidadãos.

Em janeiro, o Fórum Econômico Mundial classificou a desinformação potencializada pela inteligência artificial como um dos maiores desafios do mundo nos próximos anos. No caso da Índia, o relatório a classificou como um risco maior que o de doenças infecciosas ou atividades econômicas ilícitas.

E de fato, muito do que se esperava de ruim se materializou nessa campanha, como uma enxurrada de fake news e de deep fakes para se atacar adversários. Mas foram vistos também o uso extensivo de hologramas de políticos (inclusive de lideranças falecidas) em comícios, sintetização de áudios e vídeos de candidatos para responder, em tempo real, a dúvidas de eleitores, e a inteligência artificial analisando quantidades colossais de dados de usuários (muitos coletados ilegalmente) para apoiar a decisão de campanhas.

A IA generativa foi amplamente usada não apenas para gerar instantaneamente as respostas e o audiovisual, mas também para fazer com que o avatar do candidato falasse na língua de cada eleitor, chamando-o pelo nome. Isso é importante em um país como a Índia, que tem 23 idiomas oficiais e mais de 400 dialetos.

Se as redes sociais foram eficientes em desinformar as pessoas, a inteligência artificial agora pode encantar (e até iludir) os eleitores.

 

Mentiras cada vez mais críveis

Especialistas temem que essa tecnologia convença cada vez mais as pessoas sobre os que os candidatos quiserem, pelos conteúdos personalizados e visualmente convincentes. Além disso, muita gente pode acreditar que está realmente falando com o candidato, ao invés de seu avatar.

Há ainda outro aspecto a ser considerado: por mais que os modelos de IA sejam bem treinados para sintetizar respostas às perguntas de cada eleitor individualmente, eles podem “alucinar” e repassar informações completamente erradas ao público.

No Brasil, o Congresso não ajuda ao travar projetos de lei que poderiam organizar o uso dessas tecnologias nas eleições. As autoridades eleitorais tentam, por sua vez, impedir que esses problemas aconteçam no país, definindo regras claras para a eleição municipal desse ano, incluindo contra abusos da inteligência artificial. Ao assumir a presidência do Tribunal Superior Eleitoral (TSE) no dia 3, a ministra Cármen Lúcia fez um discurso enfatizando a responsabilidade das redes sociais no problema e o combate que fará aos usos indevidos das tecnologias digitais na desinformação.

Não será uma tarefa fácil! Três dias depois, Meta (dona do Facebook, Instagram e WhatsApp), Google (dono do YouTube), Microsoft, TikTok e Kwai aderiram ao Programa de Combate à Desinformação do Supremo Tribunal Federal (STF). O X, que se tornou um dos principais canais de fake news, não mandou representantes.

Ainda que a IA ofereça campanhas muito eficientes por uma fração do custo necessário para se obter os mesmos resultados de maneira convencional, esses recursos podem custar milhões de reais para um candidato. Isso desequilibra ainda mais a eleição entre os concorrentes ricos e os pobres.

A Índia demonstrou as incríveis oportunidades e os enormes problemas do uso da inteligência artificial em uma eleição. Regras são necessárias para disciplinar essa prática, mas bandidos são conhecidos por infringi-las, portanto não são suficientes.

Não podemos ser ingênuos! Esperar que as plataformas digitais tomem todos os devidos cuidados nas eleições é como esperar que a raposa cuide do galinheiro. E achar que todos os candidatos farão um bom uso desses recursos é como entregar as galinhas –ou seja, os eleitores– diretamente para a raposa.

É hora de aproveitar o que há de bom e redobrar a atenção para os usos nocivos da IA! É assim que a política será feita de agora em diante.

 

Theodore e Samantha (o sistema operacional do celular em seu bolso), em cena do filme “Ela” (2013) Foto: reprodução

Empresas querem que acreditemos que a inteligência artificial é humana

By | Tecnologia | No Comments

A nossa interação com diferentes plataformas de inteligência artificial fica cada vez mais parecida com conversas que temos com outras pessoas. Em alguns casos, nossos cérebros podem ser enganados para crer que estão interagindo com outros indivíduos, por mais que saibam que não é verdade. Não é por acaso: as big techs querem que nos relacionemos com esses produtos de maneira mais “humana” possível. Mas longe de ser apenas um recurso para melhorar sua usabilidade, isso levanta questionamentos éticos e até de produtividade.

Ao longo da nossa evolução, aprimoramos a capacidade de atribuirmos características humanas ao que não é. Fazemos isso com animais de estimação, objetos, fenômenos da natureza e até a deuses. É o que chamamos de antropomorfismo. Por exemplo, dizemos que “o cachorro é muito inteligente”, “o carro está nervoso”, “a chuva está chorando” e representamos divindades com corpos e emoções humanas.

Isso é importante, porque facilita a nossa compreensão e interação, especialmente com aquilo com que não somos familiarizados. Além disso, com essa prática, criamos vínculos e até sentimos empatia pelo que não é humano.

Isso explica, pelo menos parcialmente, o ChatGPT ter atingido 100 milhões de usuários em apenas dois meses, o que o tornou o produto de mais rápida adoção da história. Antropomorfizar a inteligência artificial nos deixa à vontade para usá-la intensamente e para acreditar em suas respostas, às vezes além do que deveríamos.

Porém atribuir capacidades que esses sistemas não têm pode atrapalhar a nossa compreensão sobre o que realmente eles são e o que podemos fazer com a inteligência artificial. Corremos o risco de acabar atribuindo responsabilidades que as máquinas não possuem, enquanto ignoramos quem fizer usos indevidos de todo esse poder. Por isso, precisamos usar a IA como ela realmente é.


Veja esse artigo em vídeo:


Para deixar mais claros os efeitos do antropomorfismo, podemos comparar como nos relacionamos com a IA com o que sempre fizemos com os buscadores, que existem há quase três décadas. O Google, maior exemplo deles, tenta responder a todas as nossas perguntas desde 1998, quando foi lançado. E faz isso com uma eficiência incrível, sendo mais confiável que qualquer plataforma de inteligência artificial generativa do momento. Nem por isso, nós atribuímos características humanas a ele.

Como já debati nesse espaço, o mais incrível da inteligência artificial generativa não é o que ela nos diz, mas o simples fato de ser capaz de conversar conosco, como se fosse outra pessoa! Isso facilita o seu uso e amenta a credibilidade de suas respostas, mesmo quando ela nos diz alguma bobagem, as chamadas “alucinações” da IA.

Quando lançou o GPT-4o, no dia 13, a OpenAI dobrou essa aposta! Essa nova versão do “cérebro” do ChatGPT fala conosco com uma fluidez ainda mais impressionante, e é capaz de analisar, ao mesmo tempo, texto, voz, áudios e imagens, em tempo real, “enxergando” (olha a antropomorfização!) e analisando o que filmamos como celular.

Para reforçar ainda mais essa projeção, a empresa sugeriu que estaríamos nos aproximando do visto no filme “Ela” (2013), dirigido por Spike Jonze e estrelado por Joaquin Phoenix e Scarlett Johansson. Na história, Theodore (Phoenix) se apaixona por Samantha (a voz de Johansson), o sistema operacional de seu computador e smartphone, movido por uma aparente inteligência artificial geral.

Sam Altman, CEO da OpenAI, disse que “Ela” é seu filme preferido. Ele tentou contratar Johansson para dar voz ao GPT-4o, mas ela recusou a oferta. Não satisfeito, ele lançou o produto com uma voz muito parecida com a dela, o que lhe rendeu um processo da atriz. Aquela voz deixou de ser oferecida na plataforma.

Se tudo isso parece ficção científica demais, uma pesquisa publicada no ano passado na JAMA, a revista da Associação Médica Americana, indicou que pacientes consideraram empáticas quase dez vezes mais respostas dadas por um chatbot em relação às de médicos humanos. Na verdade, os pacientes sentiram alguma empatia do médico em apenas 5% das consultas, o que não deixa de ser uma informação importante por si só.

As pessoas querem se sentir acolhidas! Será que chegamos a um ponto em que as máquinas serão mais eficientes que humanos nessa tarefa?

 

A máquina perfeita de convencimento

O filósofo italiano e professor de Oxford Luciano Floridi, considerado uma das maiores autoridades nos campos da filosofia e da ética da informação, publicou um artigo nesse ano em que afirma que a inteligência artificial cria os mecanismos do que ele chama de “hiperpersuasão”. Resumidamente, essas plataformas ofereceriam um enorme poder para se convencer qualquer pessoa sobre qualquer coisa.

Segundo o pesquisador, isso se dá graças à já incrível e crescente capacidade de a máquina coletar e processar dados dos indivíduos, identificando padrões de comportamentos, preferências e vulnerabilidades, para manipular opiniões e comportamentos. Além disso, a inteligência artificial generativa pode produzir todo tipo de conteúdo com alta qualidade e cada vez mais parecida ao gerado por humanos.

Para ele, tecnologias persuasivas são tecnologias de poder. Já experimentamos isso com as redes sociais, e a esse processo deve se intensificar muito com a IA, não apenas pela tecnologia em si, mas por usos indevidos de grupos políticos e econômicos.

Para minimizar esses riscos, Floridi afirma que é necessária uma melhor proteção legal e ética da privacidade, contra os usos persuasivos da IA. E curiosamente, diante do fato de que esses usos nocivos acontecerão, ele sugere que a “hiperpersuasão” seja pluralista. Em outras palavras, usos positivos desse recurso poderão “compensar” os maus usos, trazendo também visões complementares do mundo. É mais ou menos o que acontece desde sempre com a mídia, mas agora aplicado à inteligência artificial.

Uma população em que todos os membros fossem muito educados e engajados ajudaria a resolver esse problema. Devemos perseguir sempre isso, mas entendo que seja uma utopia.

Isso nos leva então de volta ao antropomorfismo. Precisamos usar a IA como ela realmente é. Ela certamente atua como um agente social, no sentido em que promove transformações em nosso mundo, mas não é um agente moral, pois não tem autonomia e capacidade de escolher o que fará. Atribuir característica humanas à máquina pode distorcer essa realidade, isentando criminosos que fazem maus usos dela, e responsabilizando a máquina.

E isso não faz sentido algum!

 

Sameer Samat, diretor de produtos do Android, apresenta novidades de segurança do sistema durante o Google I/O 2024 - Foto: reprodução

Criminalidade brasileira transforma smartphones e inteligência artificial

By | Tecnologia | No Comments

A semana passada foi pródiga em lançamentos na área de tecnologia, fortemente impulsionados pela inteligência artificial. Em meio a tantas novidades, alguns recursos de cibersegurança me chamaram atenção, porque podem ajudar muito no combate à criminalidade digital no Brasil ou até foram explicitamente criados para atender a demandas de usuários de nosso país.

Na terça (14), o Google anunciou, durante seu evento anual Google I/O, um grande pacote de novidades na sua plataforma de inteligência artificial Gemini e no sistema operacional Android. No dia anterior, a OpenAI mostrou o novo cérebro do ChatGPT, o GPT-4o, que se aproxima incrivelmente da capacidade conversacional humana, incluindo reconhecimento em tempo real de texto, áudio e vídeo.

As referidas novidades de segurança fazem parte do novo Android. Uma delas automaticamente travará o smartphone no caso de roubo pelas infames “gangues de bicicleta”, que assombram os brasileiros, especialmente em São Paulo. A outra tentará identificar, em chamadas por voz, possíveis golpes, avisando imediatamente a vítima para que não acredite na mentira. A IA é o motor de ambos os recursos.

Fiquei feliz ao saber dessas funcionalidades! Tristemente, há anos o brasileiro se obriga a limitar o uso de tecnologias revolucionárias pela ação de criminosos. É o caso de restrições ao Pix, de andar com smartphones sem todos os aplicativos e até de não poder usar caixas eletrônicos de madrugada.

Já passa da hora de as big techs se envolverem na solução desses problemas!


Veja esse artigo em vídeo:


O nome do recurso contra as “gangues de bicicleta” é “Bloqueio de Proteção Contra Roubo” (“Theft Protection Lock”). Durante o Google I/O, Sameer Samat, diretor de produtos do Android, disse que esteve no Brasil no ano passado para conversar com a equipe local da empresa e com autoridades sobre essa modalidade de roubo, que faz um número assombroso de vítimas, especialmente para usar aplicativos bancários para desvio de valores e redes sociais para aplicar golpes em nome das vítimas.

Com a novidade, quando a IA do smartphone identificar uma mudança brusca de movimento, seguida de um padrão que indique um deslocamento por bicicleta, o smartphone será bloqueado. Essa identificação acontece por uma combinação de sensores do aparelho, inclusive do seu acelerômetro.

Já a ferramenta contra golpes telefônicos funciona com a inteligência artificial monitorando continuamente as conversas do usuário com alguém ligando de um número desconhecido, procurando por frases suspeitas. No palco do Google I/O, Dave Burke, vice-presidente de engenharia do Android, simulou uma conversa em que o interlocutor dizia ser funcionário do seu banco, sugerindo que ele transferisse seu dinheiro para outra conta por supostas atividades suspeitas na sua. Nesse momento, o aparelho tocou um alerta sonoro e a tela exibiu uma mensagem que dizia que “bancos nunca pedirão para transferir seu dinheiro para sua segurança.”

Outro recurso de segurança apresentado oculta mensagens e notificações com informações sensíveis, senhas ou autenticações em dois fatores. O objetivo é evitar que, no caso de o smartphone ser clonado ou de sua tela estar espelhada em outros dispositivos, criminosos tenham acesso a essas informações confidenciais.

Burke disse que as pessoas perderam mais de US$ 1 trilhão em golpes digitais no ano passado, em todo o mundo. Esse número astronômico faz sentido: apesar de os bandidos ainda poderem ser presos eventualmente, a chance de isso acontecer é muito menor que em assaltos a bancos, além de muito menos arriscados.

Esses novos recursos de segurança farão parte da versão 15 do sistema operacional Android, que deve ser lançada no final do ano, mas também devem chegar a smartphones com Android a partir da versão 10. Ainda não foi definida a data para essa atualização.

 

Proteção pela IA

Os golpes digitais crescem a olhos vistos: a toda hora, surge uma nova modalidade, aproveitando-se de falhas dos sistemas e especialmente da inocência e inexperiência dos usuários. E os smartphones são o principal canal para sua execução.

Os bancos ficam em uma situação bastante cômoda diante desse gravíssimo problema. Argumentam que a culpa é do seu cliente e raramente ressarcem os valores. Na verdade, a pessoa é a vítima e os aplicativos dos bancos fazem pouco para protegê-la. Essa postura se assemelha a dizer que o correntista seria culpado por fazer um saque no caixa em uma agência com um bandido lhe apontando uma arma para sua cabeça.

As autoridades tratam o problema como caso de polícia, mas isso é insuficiente para eliminá-lo pelo absurdo volume de ocorrências. Adotam também medidas paliativas, como impedir o uso de caixas eletrônicos de madrugada, pelos sequestros-relâmpago.

As big techs, particularmente o Google e a Apple, criadoras dos sistemas operacionais de todos os smartphones do mundo, há anos lançam recursos para minimizar o problema, mas eles também são claramente insuficientes. Os cibercriminosos conseguem superar muitas dessas barreiras tecnológicas, o que chega a ser assustador, considerando os milhões de dólares investidos no seu desenvolvimento desses recursos.

Agora a inteligência artificial desponta como uma esperança para equilibrar essa balança. De fato, ela consegue oferecer aos smartphones habilidades até então inimagináveis, em diversas atividades.

As big techs desempenham um papel absolutamente central na solução do cibercrime, pois ele acontece usando suas tecnologias e plataformas. Mas isso não desobriga as autoridades e os bancos de se empenharem muito mais na busca por saídas, assumindo a responsabilidade que têm na segurança do cidadão e dos próprios clientes. Jogar a culpa no outro é uma atitude preguiçosa e vergonhosa!

Já não é de hoje que os smartphones se tornaram o centro de nossas vidas, pois fazemos uma grande quantidade de atividades com eles. Sem segurança, todas essas ferramentas ficam comprometidas. Por isso, esses recursos agora anunciados são muito bem-vindos. Esperamos apenas que os cibercriminosas não consigam superar também essas proteções.

 

Matt Hicks, CEO da Red Hat, explica a integração entre inteligência artificial e open source - Foto: Paulo Silvestre

Open source fortalece confiança e pode popularizar inteligência artificial

By | Tecnologia | No Comments

A corrida pela inteligência artificial acontece não apenas entre as big techs, que buscam estabelecer a dominância nesse mercado bilionário, mas também entre profissionais e empresas que querem construir uma vantagem sobre seus concorrentes, pelo uso dessa tecnologia. Agora o open source, modelo de produção e distribuição em que qualquer um pode propor melhorias em softwares, chega com ideias que podem tornar a IA mais segura, fácil e profissional.

Desde que o ChatGPT a apresentou às massas há 18 meses, seu avanço acontece a passos largos. Mas apesar de algumas aplicações disponíveis parecerem mágicas em seus resultados, a IA ainda está engatinhando. Muitos dos usos que vêm sendo feitos dela são poucos profissionais e podem até expor dados sigilosos.

Em grande parte, isso acontece porque as pessoas usam ferramentas genéricas, construídas para respostas sobre qualquer assunto, como o próprio ChatGPT. O amadurecimento desse mercado passa, portanto, pela oferta de plataformas que permitam que as empresas criem e ajustem seus próprios modelos, adequados a necessidades específicas e com suas informações usadas de maneira segura.

Durante o Red Hat Summit, maior evento de open source do mundo, que aconteceu em Denver (EUA) na semana passada, a Red Hat, líder global de soluções nesse formato, apresentou o InstructLab, plataforma que propõe solucionar esses problemas. Ela permite que qualquer pessoa, mesmo sem conhecimento técnico, contribua com o desenvolvimento de modelos de IA para seus negócios.


Veja esse artigo em vídeo:


Construído sobre o LLM (modelo de linguagem ampla) Granite, da IBM, a plataforma sintetiza dados a partir de informações do cliente, mesmo em pequenas quantidades, tentando vencer um problema atual dos grandes LLMs, que exigem volumes colossais de informação para seu treinamento, e estão esbarrando na falta de novo conteúdo. Com a ação dos usuários, esse modelo sintético tende a ficar melhor por uma fração dos custos de um desenvolvimento tradicional, para aplicações específicas.

“Isso permite que comunidades de pessoas ensinem os LLMs a aprender da mesma forma que os humanos aprendem”, explica Matt Hicks, CEO da Red Hat. “Ao permitir a qualquer pessoa que contribua para um modelo e ajustá-lo de novas maneiras, podemos realmente desbloquear o potencial da especialização em um assunto.”

“Talvez seja isso que de fato popularizará nas empresas esse modelo que a população experimentou, mas aplicado ao seu negócio, combinado com seus dados, com as suas informações”, sugere Gilson Magalhães, presidente da Red Hat Brasil. “Isso é revolucionário!”

Explicando de maneira mais simples, as empresas continuam se beneficiando das informações e da capacidade de produção dos grandes LLMs, mas agora podem construir modelos especializados para suas necessidades, a partir de seus dados e das habilidades e do conhecimento de sua equipe. “A tecnologia entra, mas sem os talentos, sem as pessoas, jamais se alcançará a transformação como ela deve ser feita”, afirma Paulo Bonucci, diretor-geral da Red Hat Latin America.

“O mundo não será composto por um único modelo, e sim, cada vez mais, por modelos especializados”, explica Thiago Araki, diretor de tecnologia da Red Hat Latin America. “Ao invés de usar um modelo de forma genérica, para qualquer caso, teremos modelos pequenos para usos específicos, para cada negócio.”

O amadurecimento do mercado implica também nas empresas entenderem que são responsáveis ao usar decisões tomadas pela IA. “Já existem ferramentas que ajudam nessa auditoria, mas trabalhar com código aberto permite identificar como e por que essas decisões foram tomadas e com quais dados”, detalha Victoria Martínez Suárez, líder em inteligência artificial da Red Hat Latin America.

 

Questões regulatórias

Todos esses executivos, com quem conversei em Denver, afirmam ser necessária alguma forma de regulamentação da tecnologia, naturalmente em um sentido que não prejudique seu desenvolvimento, mas para proteger os usuários de abusos econômicos das big techs e para dar segurança jurídica ao mercado.

Bonucci acredita que a legislação ideal deveria ficar entre a Lei da Inteligência Artificial, aprovada no mês passada pela União Europeia, e a proposta americana. A primeira é um documento extenso e detalhado, construído principalmente sobre os diferentes níveis de risco que a inteligência artificial pode oferecer às pessoas, orientando seu uso. Já o modelo dos EUA delega a decisão sobre o que pode ou não ser feito às diferentes agências regulatórias já existentes.

“A rastreabilidade e a transparência são exigidas em alguns setores, em outros são recomendadas”, explica Martínez. “Ter isso claro é bom porque, em algum momento, essas informações podem ser solicitadas para qualquer problema que ocorra.”

No momento, o Congresso Nacional analisa o Projeto de Lei 2338/23, que guarda muita semelhança com a lei europeia. Os legisladores brasileiros têm o desafio de criar regras claras para evitar que se repita na IA o que se vê nas redes sociais, que gostam de não dar satisfações, e com isso vêm causando muitos danos a usuários e à sociedade como um todo. “A regulação é um princípio ocidental muito útil para garantir que empresas e pessoas não sejam massacradas por qualquer que seja o domínio”, afirma Magalhães. “Mas ela tem que ser sábia para proteger, sem inibir”.

Tudo isso se faz necessário para que essa tecnologia, que evolui de forma exponencial, deixe de ser uma curiosidade e passe a trazer benefícios claros para pessoas e companhias. Por mais que esteja ainda em seus estágios incipientes, precisamos compreender seu funcionamento e recursos.

“A proposta é trabalhar não tecnologia por tecnologia, e sim algo que vai trazer impacto ao negócio”, acrescenta Araki. “Não devemos usar IA generativa só porque está na moda, e sim fazer o uso disso quando tem algum sentido para o negócio.”

É incrível pensar que, há apenas 18 meses, quase ninguém falava de inteligência artificial. No ano passado, ficamos deslumbrados com suas possibilidades. Agora estamos encontrando novas formas de nos apropriarmos dela. Assim, para que, no ano que vem, ela nos traga ainda mais benefícios, esse debate precisa ser ampliado.


Clique nos links para assistir à íntegra em vídeo das entrevistas com os executivos acima:

 

Sam Altman, CEO da OpenAI, líder global no desenvolvimento da inteligência artificial, no Fórum Econômico Mundial – Foto: reprodução

Sociedade exige da IA uma transparência que ela mesmo não pratica

By | Tecnologia | No Comments

Muito além do aquecido debate sobre legislações que organizem o uso da inteligência artificial, começa a se formar um consenso sobre alguns valores em torno dessa tecnologia, como uso e desenvolvimento responsáveis, decisões rastreáveis e dois conceitos que se confundem e são pouco conhecidos: transparência e explicabilidade. Todos são essenciais para que os impactos da IA sejam positivos. Mas a sociedade está exigindo algo dessas plataformas que ela mesma não pratica.

Se fizermos uma autoanálise, perceberemos que conscientemente não somos transparentes em muitas coisas de nosso cotidiano, assim como tampouco são empresas e instituições. Como exemplo, uma das maiores falhas das redes sociais, que levou à insana polarização da sociedade e a problemas de saúde mental de seus usuários, é a completa falta de transparência das decisões de seus algoritmos.

Diante disso, alguns especialistas afirmam que exigir esse nível de responsabilidade e transparência das plataformas de IA é um exagero e até, de certa forma, hipocrisia.

Talvez… Mas o fato de cultivarmos esses maus hábitos não pode ser usado para desestimular a busca desses objetivos nessa tecnologia com potencial de ofuscar a transformação que as redes sociais fizeram, que, por sua vez, deixou pequena as mudanças promovidas pela mídia tradicional anteriormente.

Se não tomarmos as devidas precauções, a inteligência artificial pode causar graves consequências para a humanidade pelas ações de grupos que buscam o poder de forma inconsequente. Por isso, ela precisa ser organizada para florescer como uma tecnologia que ampliará nossas capacidades criativas e de produção.

Sem esses pilares éticos, sequer confiaremos no que a IA nos disser, e então tudo irá por água abaixo.


Veja esse artigo em vídeo:


No momento, as plataformas de inteligência artificial funcionam como caixas pretas: colocamos nossos dados e fazemos nossos pedidos de um lado, e nos deslumbramos com os resultados do outro, sem saber como aquela “mágica” foi feita. Apenas quem está dentro das big techs que produzem esses sistemas sabe como aquilo funciona, mas até eles se surpreendem com alguns resultados das suas criaturas, como quando desenvolvem sozinhas habilidades para as quais não foram programadas.

Quando se cria algo que promove profundas mudanças na sociedade, mas não se conhecem seu funcionamento e objetivos, isso pode colocar em risco a própria democracia, não porque exista algo maquiavélico na sua confecção, mas justamente por esse desconhecimento. Não é à toa que legislações para a inteligência artificial ao redor do mundo, com o brasileiro Projeto de Lei 2338/23 e a europeia Lei da Inteligência Artificial, tentem definir rastreabilidade, transparência e explicabilidade.

A rastreabilidade é a capacidade de identificar e acompanhar as ações de um sistema de IA, saber quais dados foram usados para treiná-lo e seus algoritmos, manter registros sobre como chegou a uma determinada decisão e qual foi seu impacto. Isso permite que suas escolhas sejam auditadas e que vieses sejam corrigidos.

Já a transparência se refere às pessoas poderem ser capazes de entender como o sistema de IA funciona, quais dados ele usa e como ele toma decisões. Isso visa garantir que ele seja usado de forma justa e ética, aumentando sua aceitação pública.

Por fim, a explicabilidade se traduz na capacidade de um ser humano compreender as razões complexas pelas quais um sistema de IA toma uma determinada decisão, que fatores contribuíram e como foram ponderados. Ela é importante para identificar erros, prever resultados e garantir a conformidade com padrões éticos e legais.

Se não é fácil entender, mais difícil ainda é entregar esses valores. Os algoritmos mais eficientes são justamente os mais complexos, e uma simples documentação pode não ser suficiente. Ainda assim, o desafio dessa conformidade permanece.

 

Temos que entender

Como exemplo da importância de se entender essas plataformas, podemos pensar na exigência do artigo 20 da Lei Geral de Proteção de Dados (LGPD), que determina que o cidadão pode “solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses”. Mas como ele fará isso se nem compreende como a decisão foi tomada? Da mesma forma, como a empresa revisará a decisão, se tampouco a compreende?

Considerando que a IA estará cada vez mais presente e determinante em nossas vidas, sua compreensão deve ser ensinada até nas escolas, desde a infância, de maneira crescente. Não quer dizer que todos precisem dominar plenamente seu funcionamento: apenas o suficiente para suas necessidades. Fazendo uma comparação com um carro, existe sobre ele os conhecimentos de um projetista, de um mecânico, de um motorista e de um passageiro. E todos usam o carro à sua maneira!

Ao contrário do que alguns dizem, a exigência de que plataformas de inteligência artificial sigam esses preceitos éticos não pode ser visto como ameaça ao seu desenvolvimento e inovação. Pelo contrário, são condições que devem integrar sua própria concepção. A população precisa disso para confiar na inteligência artificial, ou, passada essa fase inicial de deslumbramento, ela poderá deixar de ser considerada como a incrível ferramenta de produtividade que é.

Entendo que as dificuldades para isso sejam imensas. Sei também que nós mesmos não somos transparentes em nosso cotidiano, como já disse. Mas nada disso pode servir como desculpa para se esquivar dessa tarefa. Tampouco é hipocrisia exigir que os desenvolvedores se esmerem para cumprir essas determinações.

Não podemos incorrer no mesmo erro cometido com as redes sociais, que até hoje atuam de maneira inconsequente e sem responsabilidade pelos eventuais efeitos muito nocivos de suas ações. A inteligência artificial já está transformando a sociedade de maneira determinante.

Seríamos inocentes se acreditássemos que essas empresas se autorregularão: seus interesses sempre falarão mais alto nesse caso. Precisamos de regulamentações claras, não para coibir o progresso, mas para dar um norte de bons princípios, para que a inteligência artificial beneficie a todos, e não apenas grupos tecnocratas.

 

Na quarta, o secretário da Educação de São Paulo, Renato Feder, falou sobre a IA nas escolas, durante o Bett Brasil - Foto: reprodução

ChatGPT na criação de aulas para escolas paulistas pode piorar a educação

By | Educação, Tecnologia | No Comments

A Secretaria da Educação do Estado de São Paulo confirmou que pretende usar o ChatGPT para “melhorar” as aulas que distribui para os professores das escolas estaduais paulistas. Apesar de garantir que todo o conteúdo gerado pela máquina será revisado por sua equipe de professores curriculistas, esse uso da inteligência artificial abriu uma grande discussão sobre uma possível redução no papel do professor e nos riscos vindos de uma tecnologia reconhecidamente ainda falha.

Segundo a Secretaria, a IA fará suas propostas a partir do material já existente, criado pelos curriculistas para alunos do Ensino Fundamental II (do 6º ao 9º ano) e do Ensino Médio. O ChatGPT deve propor ampliações no conteúdo e criação de exercícios.

Professores criticam o material do governo, que consideram limitante. Também possui erros gramaticais, de formatação e conceituais. Como exemplo, uma aula afirmava que a Lei Áurea teria sido assinada em 1888 por D. Pedro II (foi pela sua filha, a princesa Isabel), enquanto outra dizia que a cidade de São Paulo possuía praias.

O temor é que o ChatGPT agrave o problema. Assim como outras plataformas de IA generativa, ele é programado para sempre dizer algo, mesmo que não saiba o quê. Nesse caso, pode responder verdadeiras barbaridades, mas, como faz isso com grande “convicção”, muita gente acredita nas suas informações erradas. São as chamadas “alucinações”.

Caberá aos professores curriculistas não apenas ajustar pedagogicamente a produção do ChatGPT, como também verificar se o que ele diz está correto e se não fere direitos autorais. Fica a pergunta se eles terão recursos e disposição para fazer isso. Caso contrário, a inteligência artificial poderá deseducar, ao invés de melhorar aulas.


Veja esse artigo em vídeo:


A digitalização das escolas estaduais de São Paulo é uma bandeira do secretário da Educação, o empresário do setor de tecnologia Renato Feder. Desde o ano passado, 90 curriculistas produzem slides para os professores usarem em suas aulas. Ele chegou a anunciar que abandonaria os livros do Programa Nacional do Livro Didático (PNLD), obrigando os educadores a usar o material digital do governo.

Depois de muitas críticas, Feder recuou da ideia de desistir dos livros, mas os slides continuaram. Segundo ele, esse material prioriza conteúdos cobrados em avaliações nacionais, como o Saeb (Sistema de Avaliação da Educação Básica).

“A gente tem que tomar muito cuidado que o professor não seja apenas um aplicador de atividades”, afirma Ana Lúcia de Souza Lopes, professora da Universidade Presbiteriana Mackenzie e especialista em tecnologia para educação. “Ele deve ser aquele que media o conhecimento, que cria condições para o aluno aprender”, explica.

A especialista defende a criação de bons materiais para serem usados em salas de aula, desde que eles sejam criados por professores. Mas ela alerta que a formação desses profissionais tem sido deficiente, o que os atrapalha nessa atividade.

Até o momento, os professores curriculistas do Estado de São Paulo entregam quatro aulas por semana. Com o uso da IA, essa meta passa a ser de três aulas a cada dois dias úteis, podendo chegar a seis por semana.

 

Quantidade versus qualidade

Feder disse que continuará ampliando o uso da inteligência artificial na educação. Outra aplicação é o “fluencímetro”, um sistema que analisa fluência de leitura de alunos do 2º ao 5º ano. Segundo ele, a próxima etapa será a adoção de ferramentas para corrigir lições de casa dos alunos, que precisarão ser feitas em um aplicativo. A correção de redações também deve ser auxiliada pela IA.

A princípio, a adoção de ferramentas para auxiliar os sobrecarregados (e muitas vezes desmotivados) professores das escolas estaduais é bem-vinda. Mas recaímos no risco de os robôs piorarem o aprendizado, por suas próprias falhas. Além disso, isso pode diminuir ainda mais o protagonismo do professor, sem resolver problemas estruturais, como sua formação deficiente, enorme desvalorização social da carreira e condições precárias para realização de seu trabalho.

“Não sou contra o uso da inteligência artificial, mas precisamos ter atenção em como utilizar a ferramenta, principalmente em aspectos sensíveis, como no caso da educação”, alerta Lopes. E de fato, a recém-aprovada Lei da Inteligência Artificial europeia classifica o uso dessa tecnologia na educação como uma atividade de alto risco, e que, portanto, deve acontecer com muito cuidado.

O Ministério Público de São Paulo determinou que Feder apresente estudos científicas que justifiquem o uso de inteligência artificial na produção de material didático. Ele tem até a segunda quinzena de maio para fazer isso.

Muitos professores já usam a inteligência artificial na sala de aula. Os que mais poderiam se beneficiar dela são justamente aqueles que têm pouco apoio profissional e estão sobrecarregados. Uma grande ironia nisso é que normalmente eles são os que possuem uma formação deficiente e que, portanto, tendem a colher menos resultados de todo o poder que essa tecnologia lhes oferece. Isso pode aumentar ainda mais a distância entre professores e alunos de escolas privadas e os de escolas públicas.

Precisamos ter em mente que, mais que quantidade, educar é qualidade. Não basta oferecer materiais “mastigados” para alunos adestrados tirarem boas notas em avaliações oficiais. Isso se presta muito mais a gerar dividendos políticos.

A educação significa criar cidadãos conscientes, capazes de analisar seu cotidiano criticamente, entendendo de fato conteúdos e dominando habilidades que os permitam se desenvolver em um mundo cada vez mais competitivo. Para usar termos da moda, é preciso adquirir “hard skills” (como Matemática ou Língua Portuguesa), mas também as “soft skills” (habilidades intangíveis, como trabalho em equipe, capacidade de comunicação e resiliência).

A inteligência artificial é uma tecnologia fabulosa, com uma incrível capacidade de transformação social. Ela está apenas dando seus primeiros passos, e todos precisam se apropriar adequadamente de seus recursos, inclusive nas escolas. Ainda assim, ela não é capaz de cumprir essas tarefas, que só podem ser realizadas por um professor.

Mas eles precisam de apoio verdadeiro, melhor capacitação e reconhecimento profissional e social. Sem isso, nossos alunos ficarão cada vez mais desassistidos, e o Brasil cada vez menos competitivo. Enquanto governos, escolas, e famílias não apoiarem isso de maneira efetiva e coordenada, uma adoção afobada da IA na educação pode tornar essa nossa deficiência social ainda mais dramática.

 

Inteligência artificial pode deixar o mundo mais seguro e também perigoso

By | Tecnologia | No Comments

Como de qualquer ferramenta, os resultados da inteligência artificial dependem das ações de quem a utiliza. Pessoas que fazem usos positivos dela produzirão bons frutos. Já as de má índole podem causar danos profundos. Com seu poder disruptivo, essas consequências podem ser críticas! Esse foi o tema de um dos principais painéis do Web Summit Rio, um dos mais importantes eventos globais de tecnologia, mídia e inovação, que aconteceu no Rio de Janeiro, de terça a quinta da semana passada.

Um dos problemas deriva de a IA oferecer mecanismos para se alterar a realidade ou criar mentiras muito convincentes. Isso abre incontáveis possibilidade de golpes, ameaçando indivíduos, empresas e sociedades inteiras, como no caso de eleições. “Se a confiança for perdida, ficará muito difícil continuar inovando em coisas boas na IA”, disse no painel o estoniano Kaarel Kotkas, CEO da empresa de segurança Veriff.

Felizmente a mesma IA oferece recursos para combater essas ameaças. “A gente precisa pensar que seremos cada vez mais uma sociedade baseada em tecnologia”, me disse no evento Cesar Gon, CEO da empresa de tecnologia CI&T. “É importante acompanhar para onde a tecnologia vai e criar limites, mas garantindo que a ciência e a tecnologia continuem evoluindo para resolver os problemas humanos”, explicou, ressaltando que a IA deve sempre estar alinhada com os interesses da sociedade.

Diante de tanto poder computacional, chega a ser irônico que a maioria dos golpes não envolva invasão de sistemas. O elo mais frágil na segurança continua sendo o ser humano, enganado de diferentes maneiras para que repasse informações pessoais (como senhas) ou realize ações prejudiciais, uma técnica chamada de engenharia social. O que muda nisso com a IA é que os procedimentos para confundir as pessoas se tornam mais convincentes, difíceis de se identificar, e agora atingem muita gente, para aumentar a chance de fazerem suas vítimas.


Veja esse artigo em vídeo:


Esse é um dos grandes desafios da sociedade atualmente. Qualquer pessoa, mesmo alguém que domine a tecnologia, pode cair em golpes. Sua solução passa necessariamente pela educação dos usuários, mas também pelo comprometimento de empresas –de big techs a startups– para um desenvolvimento responsável dessas soluções, e de autoridades que criem regras claras para garantir isso.

Nesse cenário, técnicas tradicionais de proteção digital perdem eficiência. Mesmo autenticações em dois fatores –quando, além da senha, o usuário se autentica por um segundo método– podem expor pessoas e empresas. As companhias precisam adotar abordagens em camadas e usar múltiplas tecnologias, como autenticação avançada, verificação de dispositivos e incorporação preventiva de IA para detectar fraudes.

Os dados dos usuários valem ouro para os bandidos, mas também são importantes para sua identificação mais precisa. As empresas precisam ser transparentes sobre como serão usados, para que as pessoas se sintam confortáveis em compartilhá-los.

“Quando elas entendem esse valor, podem tomar uma decisão muito melhor sobre se querem compartilhar seus dados, para terem mais segurança”, disse no mesmo painel André Ferraz, CEO da empresa de identificação Incognia. “Se nós não formos capazes disso, as pessoas poderão deixar de acreditar na Internet”, concluiu.

As grandes empresas de tecnologia têm um papel decisivo na construção dessas boas práticas e na educação do mercado, até mesmo porque elas têm muito a perder se a situação se deteriorar para um cenário de desconfiança generalizada. “É essencial para elas perceberem que ignorar a importância de construir confiança e segurança em seus sistemas poderia prejudicar sua capacidade de implementar amplamente a tecnologia no futuro”, me explicou Kotkas. “Negligenciar isso poderia resultar em grandes repressões regulatórias e interromper o progresso na criação de novas tecnologias.”

A inteligência artificial também potencializa muito outro câncer social que se disseminou pelas redes sociais: a desinformação. O assunto foi abordado em diversas apresentações no Web Summit Rio, e ganha muita força em nesse ano, quando as maiores democracias do mundo realizarão eleições, incluindo municipais no Brasil, presidenciais nos EUA e gerais na Índia, país mais populoso do mundo, cujo pleito começou na semana passada e se estenderá por seis semanas.

 

Absurdos possíveis

As plataformas atuais de inteligência artificial tornaram muito mais fáceis, rápidas e baratas as confecções de deep fakes, técnica capaz de criar áudios, fotos e vídeos de pessoas realizando ações e dizendo coisas que nunca fizeram. Ela já existe há alguns anos, mas antes exigia equipamentos caros e bom conhecimento técnico, o que a tornava uma aplicação de nicho. Agora não é mais assim!

“Nas próximas eleições, o maior desafio não são as imagens, mas os áudios”, advertiu em outro painel Renata Lo Prete, editora-chefe do Jornal da Globo. “Com apenas um ou dois minutos da voz real de alguém, é possível criar um áudio falso perfeito, por menos de US$ 5 e em menos de cinco minutos, uma questão crítica, especialmente no Brasil, líder em trocas de mensagens pelo WhatsApp”, explicou.

Isso já acontece! Na eleição presidencial argentina, as equipes dos candidatos que foram ao segundo turno, o peronista Sergio Massa e o ultraliberal Javier Milei, fizeram amplo uso da IA para atingir as imagens dos adversários. Em outro caso internacional, americanos receberam ligações com a voz do presidente Joe Biden dizendo para que não votassem nas eleições primárias. E por aqui, um áudio com a voz do prefeito de Manaus, David Almeida, fazia ofensas contra professores. Tudo isso era falso!

Os diversos agentes da sociedade precisam se unir para que a IA seja usada de maneira positiva, sem “cortinas de fumaça” que mascaram interesses de um ou outro grupo. “Esse debate se misturou com uma visão bastante ingênua de fim do mundo, que nos afasta de discutir os reais impactos, que são a natureza do trabalho, os empregos, segurança, privacidade, ética e os algoritmos viciados”, explicou Gon.

“Nesse momento, talvez alguns humanos estejam procurando algo mágico”, disse o americano Todd Olson, CEO da empresa de software Pendo, em outro painel. “Não precisamos de mágica, mas de saber exatamente o que acontece, para que possamos aumentar a confiança na tecnologia”, concluiu.

Não dá para fugirmos desse debate, que nos envolve a todos cada vez mais. Gostemos ou não, a inteligência artificial se tornou nossa parceira. Por isso, ela precisa ser confiável e segura.


Assista e esse vídeo relacionado:

Íntegra da entrevista com Cesar Gon, CEO da CI&T

 

Zack Kass (esquerda) e Uri Levine dividem o palco principal no fim do primeiro dia do VTEX Day, que aconteceu em São Paulo - Foto: divulgação

Mais que aumento do desemprego, IA pode levar a uma crise de identidade

By | Tecnologia | No Comments

A enorme visibilidade em torno da inteligência artificial desde que o ChatGPT foi lançado, há um ano e meio, reacendeu o velho temor de que, em algum momento, perderemos os nossos empregos para as máquinas. Mas para o futurista em IA Zack Kass, a tecnologia pode provocar outras mudanças no mundo do trabalho, que podem levar a verdadeiras crises de identidade nas pessoas.

Kass, um dos primeiros profissionais da OpenAI (criadora do ChatGPT), onde atuou por 14 anos, acredita que as pessoas continuarão trabalhando. Mas em muitos casos, elas não poderão fazer o que gostam ou no que foram formadas, porque a função será realizada por um robô. E aí nasce o problema!

“Nós conectamos intrinsicamente nossa identidade de trabalho à nossa identidade pessoal”, explica o executivo, que esteve no Brasil na semana passada para participar do VTEX Day, um dos maiores eventos de e-commerce do mundo. Segundo ele, mesmo que as necessidades das pessoas sejam atendidas, não poderem trabalhar com o que desejam pode lhes causar fortes reações. “Esse é meu maior medo”, disse.

Se nada for feito, essa previsão sombria pode mesmo se concretizar. Diante dessa perspectiva, os profissionais experientes e os recém-formados devem fazer os movimentos certos para não ficarem desempregados ou para não serem jogados nessa crise profissional e de identidade, o que seria ainda mais grave.


Veja esse artigo em vídeo:


O futurista naturalmente não é o único a se preocupar com os impactos da inteligência artificial no mundo do trabalho. “Sempre há o medo de que ela tire nosso emprego”, disse Uri Levine, cofundador do Waze, que dividiu o palco com Kass. “Mas o que sempre aconteceu foi um aumento da produtividade e, portanto, do tamanho do mercado, ocasionalmente mudando os tipos de empregos”, afirmou.

Para Neil Patel, outro palestrante internacional do evento e referência global em marketing, “a inteligência artificial afetará as profissões e algumas pessoas perderão seus empregos”. Ele pondera que a IA também aumentará a produtividade das pessoas, mas, para isso, “elas precisarão ter conhecimento de IA para poderem fazer melhor seu trabalho.”

A aceleração de nossas vidas aumenta a chance do temor de Kass acontecer. “Somos constantemente levados a demonstrar resultados, a aparecer, a aprender coisas diferentes, em um ritmo cada vez mais intenso”, adverte Katty Zúñiga, psicóloga especializada nas interações entre o ser humano e a tecnologia. Ela explica que não podemos perder a nossa essência pessoal e profissional diante de tanta pressão.

Kass afirma que será muito difícil para algumas pessoas entenderem que haverá trabalho disponível, mas não o que elas gostariam de fazer. E mesmo que elas continuem ganhando seu dinheiro, isso poderá deixá-las sem propósito.

Segundo Zúñiga, nossa formação e experiência profissional são fortalezas que podem ajudar a nos posicionar diante do avanço dos robôs sobre nossas funções. Mesmo com máquinas mais eficientes, nossa essência continuará nos acompanhando e nada do que sabemos se perde. “Isso nos torna seres mais estruturados e completos”, explica. A nossa humanidade acaba sendo, portanto, o nosso diferencial!

A psicóloga lembra que isso não é uma briga contra a tecnologia. Ela observa que muitas pessoas estão se entregando a usos indevidos da IA, quando, na verdade, o que precisamos fazer e nos apropriarmos do que ela nos oferece de bom, reforçando o que somos e nossas profissões.

 

Desenvolvimento responsável

De fato, a inteligência artificial deve funcionar apoiando o ser humano, e não representando ameaças a sua integridade física e mental.

Kass ressalta que todo o desenvolvimento dessa tecnologia deveria atender a dois princípios essenciais: o alinhamento e a explicabilidade. O primeiro se refere a quanto as propostas das plataformas estão preocupadas com os interesses dos seres humanos. Já a explicabilidade, como o nome sugere, indica se os sistemas são capazes de explicar ao usuário, com clareza, suas decisões.

Ele diz que essa é uma busca contínua e interminável. “Se pudermos fazer essas duas coisas, então todo o resto torna-se totalmente aceitável, muito menos importante”, afirma Kass.

O futurista defende a regulação internacional da tecnologia para garantir esses dois conceitos, prevenindo desenvolvimentos irresponsáveis. “Qualquer coisa que não esteja falando sobre alinhamento e explicabilidade está introduzindo oportunidades para corrupção e interesses especiais”, conclui.

Todas essas considerações refletem um cenário de transição em que estamos envolvidos com a inteligência artificial. Os avanços dessa tecnologia são galopantes e invadem os mais diversos setores. Por outro lado, de tempos em tempos, os próprios desenvolvedores demonstram surpresa com os resultados de suas criações.

Isso alimenta incertezas e até medos em torno da IA, o que pode levar a decisões desastrosas que impeçam uma adoção construtiva e consciente dessa tecnologia transformadora. Kass possui uma posição privilegiada nessa indústria para poder fazer essas afirmações conscientemente.

Apesar disso (e de certa forma, principalmente por isso), precisamos encontrar mecanismos para garantir esse desenvolvimento responsável, para as máquinas buscarem o melhor para a humanidade, e não apenas para grupos específicos. Isso se dá por legislações maduras e por grandes debates sociais, para conscientização de usuários e de empresas desenvolvedoras.

Esses são caminhos necessários para que a inteligência artificial ajude a humanidade a atingir um novo patamar de produtividade, sem ameaçar a saúde mental das pessoas. E isso deve acontecer não porque as máquinas cuidarão de tudo, mas porque nós mesmos deveremos continuar realizando aquilo que gostamos, porém de maneira mais fácil, rápida e eficiente, com a ajuda delas. A nossa humanidade deve prevalecer!


Assista às íntegras em vídeo das minhas entrevistas com os três executivos. Basta clicar sobre os seus nomes:

Zack Kass, futurista de IA

Neil Patel, referência global em marketing

Uri Levine, cofundador do Waze

 

Plataformas digitais ajudam estudantes a se envolverem melhor com o conteúdo escolar - Foto: Freepik/Creative Commons

IA pode ajudar alunos a falar mais e a aprender melhor

By | Educação, Tecnologia | No Comments

Uma métrica eficiente para se identificar uma boa aula é medir o quanto os estudantes falam nela sobre o conteúdo. Quando interagem, os alunos aprendem melhor. Agora a inteligência artificial pode ajudar professores a envolverem mais suas turmas.

Ser professor pode ser uma tarefa solitária. Fora dos centros de excelência, os docentes costumam criar seus planos de ensino com apoio mínimo, e ministram suas aulas sem uma avaliação contínua, com a qual poderiam aprimorar o processo.

Não é uma tarefa fácil. Produzir esse tipo de análise exige recursos que as escolas normalmente não têm. Além disso, se essa informação vazasse, o monitoramento de aulas poderia municiar membros de uma parcela da sociedade que decidiu perseguir professores explicitamente nos últimos anos.

Diante disso tudo, a IA surge como uma poderosa aliada pedagógica. Se bem usada, ela pode acompanhar as aulas do professor e lhe oferecer o apoio necessário de maneira eficiente e segura. Pode ainda atuar como um supervisor educacional para os docentes e como um tutor permanentemente disponível aos alunos.

Como tudo que se refere à inteligência artificial, soluções que parecem mágicas precisam ser bem compreendidas para que aparentes milagres não se tornem pesadelos. O robô pode mesmo oferecer grandes vantagens educacionais, mas ele não pode, de forma alguma, substituir o professor, como alguns poderiam pensar.


Veja esse artigo em vídeo:


Recentemente descobri uma plataforma criada para ajudar os professores a aumentarem o engajamento de seus alunos. Apesar de usar reconhecimento de voz e inteligência artificial, a TeachFX não é nova: a empresa foi criada em 2016, muito antes de toda a visibilidade que essa tecnologia ganhou nos últimos meses.

Seu funcionamento é incrivelmente simples. O próprio professor grava o áudio de suas aulas como celular ou computador. A partir disso, o sistema cria relatórios que indicam quanto tempo o professor e os alunos falaram individualmente e em grupo, se o professor fez perguntas que promoveram o debate, se deu tempo adequado para reflexão dos alunos, quais as palavras mais usadas e até se elas foram muito acadêmicas ou técnicas.

Segundo a empresa, apesar de estudos comprovarem que alunos falando sobre o conteúdo aprendem melhor, a análise de 20 mil horas de áudio gravado de aulas do Ensino Básico americano indicou que cada aluno fala, em média, apenas 27 segundos a cada hora! Levantamentos internos indicam um incremento de 97% nesse tempo em alunos de professores que gravaram pelo menos oito de suas aulas e analisaram os dados oferecidos pelo sistema.

Os desenvolvedores afirmam que a ferramenta não serve como um “espião” para diretores e pais. Os dados de cada professor são acessíveis só a ele mesmo. A equipe pedagógica vê apenas os números agregados de toda a escola. Eles entendem que, sem isso, os docentes não se sentiriam seguros para usá-lo. Não se trata, portanto, de um sistema para dar uma “nota” ao docente, e sim de uma ferramenta para promover uma reflexão qualificada do próprio método pedagógico.

Outro uso da inteligência artificial na educação que ganhou bastante destaque é o Khanmigo. Em maio, Salman Khan, fundador e CEO da Khan Academy, uma organização que oferece educação online gratuita, demonstrou essa ferramenta que auxilia professores e alunos. Ela não dá respostas aos estudantes, ajudando-os a pensar na solução dos problemas. Para professores, a ferramenta ajuda a planejar aulas engajadoras. Khan afirmou que, para os alunos, a IA atua como um tutor, enquanto, para os professores, age como um assistente.

Em um primeiro momento, parecem iniciativas incríveis, mas nem todos os professores estão entusiasmados com novidades como essas.

 

O medo do desconhecido

Estamos em um período de transição no uso da inteligência artificial em todos os setores da economia, e a educação não é exceção. Mas, nesse caso, há alguns desafios adicionais, até pelas características de uma atividade bastante refratária a inovações tecnológicas, se comparada a outras profissões intelectuais.

Pela minha experiência como educador, analiso soluções digitais para a educação há quase duas décadas. Observo um medo desproporcional dos professores, que relutam em adotar novidades por desconhecimento e falta de preparo para usá-las em seu cotidiano. Como me confidenciou uma professora há alguns anos, “vejo muito valor no que esse sistema oferece, mas eu não sei colocá-lo na MINHA aula”.

Mais que vender ferramentas aos professores, os desenvolvedores, as universidades e as autoridades educacionais precisam apoiar os docentes para que eles entendam que a tecnologia não pretende substituí-los nem restringir sua liberdade pedagógica. E obviamente isso deve ser verdade!

Não é trivial, especialmente diante de grupos que enxergam a educação de maneira meramente utilitária. No início do ano passado, por exemplo, o governo paulista tentou eliminar o acesso a livros didáticos nas escolas do Estado, substituindo por questionáveis slides criados pela equipe da Secretaria de Educação. Segundo o secretário da Educação, Renato Feder, eles seriam “mais assertivos” que os livros. Felizmente a proposta acabou sendo retirada, diante de protestos generalizados.

Como pesquisador de inteligência artificial, entendo que ela tem um poder considerável de homogeneizar conhecimento, ao ajudar com produções a partir de uma base de informações que representa uma espécie de “média” do que a humanidade sabe sobre qualquer assunto. Sem falar que isso pode também reforçar vieses e visões polarizadas do mundo. Isso deve ser evitado a todo custo!

Mas esses riscos não devem servir de desculpa para que a IA não seja usada na educação, e sim que seja utilizada de maneira inteligente. Os professores devem ter seus receios acolhidos, enquanto lhes é ensinado como se apropriar dessas ferramentas para ampliar as boas práticas que conhecem e lhes apresentar outras, sempre de maneira transparente e explicada.

A inteligência artificial e qualquer outra tecnologia não devem, portanto, ameaçar a liberdade dos professores ou criar mecanismos para aprisioná-los em modelos padronizados e “assertivos”. Pelo contrário, devem permitir que sua experiência e sua intuição encontrem maneiras mais eficientes e divertidas para envolverem seus alunos no cotidiano da mais nobre das profissões.

 

Aura Popa e Kurt Schlegel, na abertura da conferência Gartner Data & Analytics, na semana passada em São Paulo - Foto: divulgação

IA cria uma inteligência coletiva unindo pessoas e máquinas em torno de um propósito

By | Tecnologia | No Comments

A cada dia, aplicações com inteligência artificial surgem nos mais diversos setores. O ChatGPT mostrou para as massas como essa tecnologia pode trazer grandes ganhos de produtividade, e isso ciou uma sensação de que a IA automatizará tudo por conta própria. Mas isso não é verdade: o ser humano ainda precisa supervisionar seu aprendizado e suas conclusões. Ainda assim, a colaboração inteligente entre máquinas e pessoas pode tornar possível coisas até então inimagináveis.

Esses foram alguns dos principais temas da conferência Gartner Data & Analytics, que aconteceu em São Paulo na terça e na quarta passada. Na palestra de abertura, Aura Popa, diretora-sênior, e Kurt Schlegel, vice-presidente da consultoria, fizeram uma analogia entre a inteligência coletiva do mundo animal e o que podemos fazer junto com a inteligência artificial.

Esse fenômeno se observa desde enxames de abelhas até matilhas de lobos. Nelas, cada indivíduo tem autonomia para tomar suas decisões, mas também trabalha para os objetivos do grupo. Dessa maneira, ele não apenas sobrevive, como também prospera, atingindo coletivamente ganhos que não conseguiria sozinho.

Segundo os executivos, a inteligência artificial funciona agora como um facilitador para as pessoas criarem valores inéditos juntas. Mas, para isso, as empresas precisam reorganizar seus modelos operacionais para dar autonomia e flexibilidade aos profissionais. Devem também ampliar sua educação para usos conscientes dos dados e da IA. Por fim, precisam distribuir autoridade e responsabilidade para que todos atuem com um propósito bem definido, em todos os níveis da organização.

É uma proposta interessante, neste momento em que ainda tateamos a inteligência artificial para encontrar formas positivas de usá-la. Em diversos momentos na conferência, ficou claro que não se deve delegar decisões críticas completamente à máquina, pois ela pode cometer erros graves. Fazer isso também aceleraria o temor generalizado de termos nossos empregos substituídos por robôs.


Veja esse artigo em vídeo:


“Desencadeamos uma nova era de inteligência coletiva, que combina inteligência humana e de máquina”, disse Schlegel. Segundo eles, para se atingir esses objetivos, as empresas precisam investir em estratégia, mas também se dedicar mais na execução.

“Concentre-se na execução e gaste mais tempo trabalhando em toda a empresa para descobrir como usar esses dados”, explicou Popa, que concluiu: “concentre-se nos fundamentos da governança e na maturidade da implantação, e olhe além dos resultados de curto prazo.”

Uma pesquisa do Gartner realizada no segundo trimestre de 2023, indicou que 75% dos CEOs já haviam experimentado a IA generativa, sendo que 64% não acham que exista exageros no que se fala dela e 62% já discutiram a IA com os conselhos de administração de suas empresas. Por outro lado, 53% dos líderes de tecnologia disseram não ter certeza se estão preparados para mitigar os riscos da IA.

Um bom caminho para se enfrentar esse desafio recai sobre os dados usados nas plataformas, incluindo a precisão, confiança e transparência nessas informações, além de sua proteção. Segundo a consultoria, organizações com práticas maduras de governança de dados têm 25% mais chance de ter sucesso com essas inovações.

Essa inteligência coletiva viabilizada pela IA abre um incrível caminho para melhorar as decisões de negócios, que passam a ser mais contextualizadas, conectadas e contínuas. Isso contrasta com o que se vê hoje: segundo o próprio Gartner, 65% dos entrevistados disseram usar dados para justificar uma decisão já tomada, normalmente pela pessoa mais bem paga na organização.

 

IA ajudando nas decisões

“Muitas escolhas de negócios ainda possuem poucos dados internos, e isso tem que mudar”, afirmou Pieter den Hamer, vice-presidente do Gartner. Para ele, as empresas precisam passar de “orientadas por dados” para “orientadas por decisões”. “É essencial abrir a caixa preta da tomada de decisões”, disse.

Frank Buytendijk, chefe de pesquisa do Gartner Futures Lab, sugeriu que poderemos ver, em poucos anos, plataformas de IA ocupando posições em conselhos de administração, e ele considera isso assustador. Segundo ele, um robô que soubesse tudo que os grandes executivos disseram ou escreveram não seria necessariamente útil, pois esse “superexecutivo” nunca existiu e nunca esteve na liderança de uma única companhia.

Mas ele não duvida que decisões de alto nível passem a ser cada vez mais auxiliadas (e até feitas) pela inteligência artificial. Isso poderia levar a um futuro distópico, com dois extremos. Em um deles, veremos a tomada de decisões e a liderança se tornando demasiadamente centralizadas por tecnologias digitais. “Isto eliminaria a autonomia das pessoas, e lhe falta a diversidade e a inclusão que levam a melhores decisões”, explicou. O extremo oposto é um cenário de excessiva distribuição, em que cada um faz suas próprias coisas, sem a visão do todo.

Gestores de diferentes áreas, mas principalmente aqueles ligados a implantações de inteligência artificial e análise de dados, devem cuidar para que não cheguemos a isso. A IA deve auxiliar na tomada de decisões, mas não pode responder sozinha por elas. Considerando que, em um tempo relativamente curto, todo mundo usará essa tecnologia no seu cotidiano, as pessoas devem ser educadas para compreender o que estão fazendo e se apropriar do processo, sedo responsáveis pelas consequências de suas decisões apoiadas pelas máquinas.

No final, o conceito de inteligência coletiva do mundo animal pode mesmo guiar nossos passos nesse mundo em transformação acelerada pela IA. Todos devemos ter autonomia para tomar mais e melhores decisões dentro do escopo de nossas atuações, mas elas devem estar sempre alinhadas com um objetivo maior, que vise o crescimento de onde estivermos e o bem-estar da sociedade como um todo.

 

Soldados ucranianos exibem drone russo capturado em agosto passado - Foto: Ministério de Assuntos Internos da Ucrânia/Creative Commons

Como vencer uma guerra sem disparar um único tiro

By | Tecnologia | No Comments

Para mim, as guerras representam a falência da humanidade. Quando governos recorrem a armas para impor pontos de vista ou obter ganhos às custas de incontáveis vidas humanas e enorme destruição, algo dramaticamente deu errado, partindo para a força. A tecnologia vem abrindo novos caminhos para a guerra, em que as armas dividem seu protagonismo com o mundo digital.

Talvez cheguemos a um cenário em que se vença um conflito sem que nenhum tiro seja disparado, o que não quer dizer que não mais existirão prejuízos e sofrimento. Ainda não estamos lá, mas a brutal invasão russa na Ucrânia fez dos dois anos desse teatro de guerra um campo de testes tecnológicos de drones, novos materiais e inteligência artificial para fins militares, que estão transformando o conceito da guerra.

Ela sempre esteve associada à ciência, para o desenvolvimento de melhores estratégias e armamentos. Grandes avanços para a humanidade também se derivaram disso, como a penicilina e até os fornos de micro-ondas.

Agora a Ucrânia vivencia uma guerra de algoritmos, inteligência artificial e satélites. O desconhecido se torna claro, previsível e muitas vezes evitável. Por outro lado, tropas e civis se tornam mais vulneráveis. Generais criam assim suas estratégias com o apoio de algoritmos preditivos e de armas que cumprem “suas missões” sozinhas.

Mas então por que o conflito da Ucrânia chegou a um impasse, sem conclusão aparente? Por que as cidades seguem sendo destruídas e as pessoas continuam sendo mortas? Como se pode ver, nesse videogame, ninguém tem vida extra.


Veja esse artigo em vídeo:


A resposta passa, em parte, por essas novas tecnologias serem relativamente portáteis, baratas e disponíveis para ambos os lados do conflito. Em janeiro, dois comandantes veteranos, o general Yuri Baluievski, ex-chefe do Estado-Maior russo, e o general Valeri Zaluzhni, chefe do Estado-Maior ucraniano, fizeram publicações em que abordam a digitalização da guerra, respectivamente na publicação russa “Army Standard” e no site do Ministério de Defesa da Ucrânia.

As tropas de ambos os países estão aprendendo as mesmas lições. Entre elas, está que a tecnologia favorece mais a defesa. A exceção são os drones, veículos aéreos e aquáticos não-tripulados, que conseguem causar danos aos inimigos de maneira barata, eficiente e preservando tropas, enquanto tanques, aviões e navios têm sido mais facilmente interceptados. Eles são as estrelas desse conflito sangrento.

Não se trata dos sofisticados drones militares americanos. Os veículos usados no conflito são baratos, às vezes equipamentos de mercado, que podem ser adquiridos em grande quantidade. Eles são modificados para carregar explosivos e para tentarem ser menos suscetíveis aos sistemas do inimigo que embaralham as frequências que usam, fazendo com que os pilotos percam seu controle. E nessas contramedidas digitais, a Rússia vem levando vantagem, com sua massiva máquina de guerra.

Mas uma nova geração de drones tenta resolver esse problema. Graças à inteligência artificial, eles são capazes de cumprir sua missão, mesmo que seu piloto remoto perca o contanto com eles. Nesse caso, o sistema no próprio veículo assume o controle e faz tudo que for necessário para atingir seu alvo, mesmo que ele se mova.

Nem sempre dá certo. Em uma simulação no ano passado, um “drone inteligente” atacou seu próprio centro de comando depois de receber dele um comando para cancelar a missão. O robô entendeu que essa ordem atrapalhava o objetivo de destruir o inimigo, e por isso atacou a própria base. Felizmente era apenas uma simulação.

Às vezes, soluções simples podem ser mais eficientes. As armas antigas, sem inteligência ou guiadas por GPS, ganham uma sobrevida com o apoio da tecnologia, que indica com precisão onde os disparos devem acontecer. Os ucranianos também têm usado celulares espalhados pelo território para captar o zunido típico dos drones. Dessa forma, identificam sua aproximação melhor que caros sistemas de radar.

Smartphones nas mãos dos soldados tornaram-se, por outro lado, uma perigosa ameaça a sua segurança. A Ucrânia infligiu pesadas baixas aos russos ao atacar locais em que identificaram grande concentração de sinais de celulares, WiFi ou Bluetooth.

 

Uma guerra sem disparos

A guerra do futuro tem outras formas, igualmente ligadas ao avanço da tecnologia. Ela pode viabilizar confrontos que acontecerão sem disparos e uso de tropas militares, mas ainda assim criarão grandes prejuízos ao inimigo.

Além dos já citados drones, mais fáceis de compreender e implantar, Forças Armadas de diversos países investem no desenvolvimento de ataques cibernéticos, capazes de inutilizar digitalmente a infraestrutura de inimigos. Em um mundo cada vez mais digital, isso pode colocar uma nação de joelhos em curtíssimo tempo. Militares estão atentos a isso e tratam de proteger seus equipamentos. Mas atacar sistemas civis, muito mais vulneráveis, podem trazer resultados catastróficos.

A inteligência artificial, especialmente modelos de linguagem amplos (como o ChatGPT), está sendo usada para identificar fragilidades em inimigos, analisar fotos de satélite e até decifrar suas mensagens cifradas, o que pode conceder uma vantagem tática incrível. Isso teve um papel decisivo na vitória dos Aliados na Segunda Guerra Mundial, quando uma equipe de matemáticos britânicos, liderada por Alan Turing, construiu um rudimentar computador mecânico capaz de decifrar a máquina Enigma, usada pelos nazistas para suas transmissões militares codificadas.

Rompendo a tradição de se manterem afastadas de desenvolvimentos militares, algumas big techs e startups americanas, como Microsoft, Amazon Web Services, OpenAI e Scale AI, têm trabalhado com os militares do país para que sua tecnologia seja usada com esse fim. O Google também fazia isso, mas encerrou sua colaboração com o Pentágono em 2019, após protestos de seus funcionários.

A mistura de IA com armamentos desperta medo em muita gente, alguns oriundos da ficção científica, como nos filmes do “Exterminador do Futuro”. Espero que não cheguemos àquilo, mas uma guerra cibernética pode envolver a contaminação de bases de dados dessas plataformas no inimigo, para que elas tomem decisões erradas e potencialmente devastadoras.

O militar prussiano Carl Von Clausewitz (1790-1831), especialista em estratégias militares, escreveu em sua obra “Sobre a Guerra” (1832) que “a guerra é a continuação da política por outros meios”. Segundo ele, trata-se de “um ato de violência destinado a forçar o adversário a submeter-se à nossa vontade.”

Para isso, ao longo da história, o ser humano usou porretes, flechas, rifles, canhões e bombas, armas químicas e biológicas, e dispositivos nucleares. A tecnologia da vez vem do mundo digital. Mas qualquer que seja o meio, a guerra continua sendo o que é, conduzida por homens que desprezam qualquer vida que não seja a sua própria, para atingir objetivos no mínimo questionáveis.

 

Roberta Metsola, presidente do Parlamento Europeu, que acaba de aprovar a Lei da Inteligência Artificial - Foto: PE/Creative Commons

Europa regulamenta a IA protegendo a sociedade e sem ameaçar a inovação

By | Tecnologia | No Comments

O Parlamento Europeu aprovou, na quarta passada (13), a Lei da Inteligência Artificial, uma legislação pioneira que visa a proteção da democracia, do meio ambiente e dos direitos fundamentais, enquanto promove o desenvolvimento dessa tecnologia. As novas regras, que devem entrar em vigor ao longo dos próximos dois anos, estabelecem obrigações para desenvolvedores, autoridades e usuários da IA, de acordo com potenciais riscos e impacto de cada aplicação.

Na semana anterior, a Europa já havia aprovado uma lei que regula a atuação das gigantes da tecnologia, favorecendo a competição. Tudo isso consolida a vanguarda do continente na organização do uso do mundo digital para proteger e beneficiar a sociedade, inspirando leis pelo mundo. O maior exemplo é a GDPR, para proteção de dados, que no Brasil inspirou a LGPD, nossa Lei Geral de Proteção de Dados.

Legislações assim se tornam necessárias à medida que a digitalização ocupa espaço central em nossas vidas, transformando profundamente a sociedade. Isso acontece desde o surgimento da Internet comercial, na década de 1990. De lá para cá, cresceu com as redes sociais, com os smartphones e agora com a inteligência artificial.

O grande debate em torno dessas regras é se elas podem prejudicar a sociedade, ao atrapalhar o desenvolvimento tecnológico. A preocupação é legítima, mas ganha uma dimensão muito maior que a real por influência dessas empresas, que se tornaram impérios por atuarem quase sem regras até agora, e gostariam de continuar assim.

Infelizmente essas big techs abusaram dessa liberdade, sufocando a concorrência e criando recursos que, na prática, podem prejudicar severamente seus usuários. Portanto, essas leis não devem ser vistas como ameaças à inovação (que continuará existindo), e sim como necessárias orientações sociais para o uso da tecnologia.


Veja esse artigo em vídeo:


A nova lei proíbe algumas aplicações da IA. Por exemplo, o uso de câmeras fica restrito, sendo proibido o “policiamento preditivo”, em que a IA tenta antecipar um crime por características e ações das pessoas. Também são proibidos a categorização biométrica e a captação de imagens da Internet ou câmeras para criar bases de reconhecimento facial. A identificação de emoções em locais públicos, a manipulação de comportamentos e a exploração de vulnerabilidades tampouco são permitidos.

“O desafio é garantir que tecnologias de vigilância contribuam para a segurança e bem-estar da sociedade, sem prejuízo das liberdades civis e direitos individuais”, explica Paulo Henrique Fernandes, Legal Ops Manager no Viseu Advogados. “Isso requer um diálogo contínuo para aprimoramento de práticas e regulamentações que reflitam valores democráticos e éticos”, acrescenta.

A lei também disciplina outros sistemas de alto risco, como usos da IA em educação, formação profissional, emprego, infraestruturas críticas, serviços essenciais, migração e Justiça. Esses sistemas devem reduzir os riscos, manter registros de uso, ser transparentes e ter supervisão humana. As decisões da IA deverão ser explicadas aos cidadãos, que poderão recorrer delas. Além disso, imagens, áudios e vídeo sintetizados (os deep fakes) devem ser claramente rotulados como tal.

A inovação não fica ameaçada pela lei europeia, porque ela não proíbe a tecnologia em si, concentrando-se em responsabilidades sobre aplicações que criem riscos à sociedade claramente identificados. Como a lei prevê um diálogo constante entre autoridades, desenvolvedores, universidades e outros membros da sociedade civil, esse ambiente pode até mesmo favorecer um desenvolvimento sustentável da IA, ao criar segurança jurídica a todos os envolvidos.

A nova legislação também aborda um dos temas mais polêmicos do momento, que é o uso de conteúdos de terceiros para treinar as plataformas de IA. Os donos desses sistemas vêm usando tudo que podem coletar na Internet para essa finalidade, sem qualquer compensação aos autores. A lei aprovada pelo Parlamento Europeu determina que os direitos autorias sejam respeitados e que os dados usados nesse treinamento sejam identificados.

 

Evitando Estados policialescos

Um grande ganho da nova lei europeia é a proteção do cidadão contra o próprio Estado e seus agentes. A tecnologia digital vem sendo usada, em várias partes do mundo, para monitorar pessoas e grupos cujas ideias e valores sejam contrárias às do governo da vez, uma violação inaceitável a direitos fundamentais, além de criar riscos enormes de injustiças por decisões erradas das máquinas.

Em várias partes do mundo, inclusive no Brasil, muitas pessoas foram presas por terem sido confundidas pelos sistemas com criminosos. Em São Paulo, a primeira proposta do programa Smart Sampa, implantado em 2023 pela Prefeitura e que monitora os cidadãos com milhares de câmeras, previa que o sistema indicasse à polícia pessoas “em situação de vadiagem”, seja lá o que isso significasse.

A ficção nos alerta há muito tempo sobre os problemas desses abusos. O filme “Minority Report” (2002), por exemplo, mostra que mesmo objetivos nobres (como impedir assassinatos, nessa história) podem causar graves danos sociais e injustiças com a tecnologia. E há ainda os casos em que as autoridades deliberadamente a usam para controlar os cidadãos, como no clássico livro “1984”, publicado por George Orwell em 1949.

O Congresso brasileiro também estuda projetos para regulamentar a inteligência artificial. O mais abrangente é o Projeto de Lei 2.338/2023, que propõe o Marco Legal da Inteligência Artificial. “Enquanto a União Europeia estabeleceu um quadro regulatório detalhado e abrangente, focando na gestão de riscos associados a diferentes usos da IA, o Brasil ainda está definindo seu caminho regulatório, com um enfoque aparentemente mais flexível e menos prescritivo”, explica Fernandes.

É inevitável a profunda transformação que a inteligência artificial já promove em nossa sociedade, um movimento que crescerá de maneira exponencial. Os benefícios que ela traz são imensos, mas isso embute também muitos riscos, especialmente porque nem os próprios desenvolvedores entendem tudo que ela vem entregando.

Precisamos estar atentos também porque muitos desses problemas podem derivar de maus usos da IA, feito de maneira consciente ou não. Por isso, leis que regulamentem claramente suas utilizações sem impedir o desenvolvimento são essenciais nesse momento em que a colaboração entre pessoas e máquinas ganha um novo e desconhecido patamar. Mais que aspectos tecnológicos ou de mercado, essas legislações se tornam assim verdadeiros marcos civilizatórios, críticos para a manutenção da sociedade.

 

IA pode ser usada na eleição, mas seguindo regras para evitar fake news - Ilustração: Paulo Silvestre com Freepik/Creative Commons

Regras para IA nas eleições são positivas, mas criminosos não costumam seguir a lei

By | Tecnologia | No Comments

A tecnologia volta a ser protagonista na política, e não dá para ignorar isso em um mundo tão digital. Na terça, o Tribunal Superior Eleitoral (TSE) aprovou instruções para o pleito municipal desse ano. Os usos de redes sociais e inteligência artificial nas campanhas chamaram atenção. Mas apesar de positivas e bem-produzidas, elas não dizem como identificar e punir a totalidade de crimes eleitorais no ciberespaço, que só aumentam. Enquanto isso, a tecnologia continua favorecendo os criminosos.

Claro que a medida gerou uma polêmica instantânea! Desde 2018, as eleições brasileiras vêm crescentemente sendo decididas com forte influência do que se vê nas redes sociais, especialmente as fake news, que racharam a sociedade brasileira ao meio. Agora a inteligência artificial pode ampliar a insana polarização que elege candidatos com poucas propostas e muito ódio no discurso.

É importante que fique claro que as novas regras não impedem o uso de redes sociais ou de inteligência artificial. Seria insensato bloquear tecnologias que permeiam nossa vida e podem ajudar a melhorar a qualidade e a baratear as campanhas, o que é bem-vindo, especialmente para candidatos mais pobres. Mas não podemos ser inocentes e achar que os políticos farão apenas usos positivos de tanto poder em suas mãos.

Infelizmente a solução para essas más práticas do mundo digital não acontecerá apenas com regulamentos. Esse é também um dilema tecnológico e as plataformas digitais precisam se envolver com seriedade nesse esforço.


Veja esse artigo em vídeo:


A iniciativa do TSE não é isolada. A preocupação com o impacto político do meio digital atingiu um pico no mundo em 2024, ano com 83 eleições ao redor do globo, a maior concentração pelos próximos 24 anos. Isso inclui algumas das maiores democracias do mundo, como Índia, Estados Unidos e Brasil, o que fará com que cerca de metade dos eleitores do planeta depositem seus votos até dezembro.

As regras do TSE procuram ajudar o eleitor a se decidir com informações verdadeiras. Por isso, determinam que qualquer texto, áudio, imagem ou vídeo que tenha sido produzido ou manipulado por IA seja claramente identificado como tal. Além disso, proíbem que sejam criados sistemas que simulem conversas entre o eleitor e qualquer pessoa, inclusive o candidato. Vedam ainda as deep fakes, técnica que cria áudios e vídeos falsos que simulam uma pessoa dizendo ou fazendo algo que jamais aconteceu.

Além de não praticar nada disso, candidatos e partidos deverão denunciar fraudes à Justiça Eleitoral. As plataformas digitais, por sua vez, deverão agir por conta própria, sem receberem ordens judiciais, identificando e removendo conteúdos que claramente sejam falsos, antidemocráticos ou incitem ódio, racismo ou outros crimes. Se não fizerem isso, as empresas podem ser punidas. Candidatos que infringirem as regras podem ter a candidatura e o mandato cassados (no caso de já terem sido eleitos).

Outra inovação é equiparar as redes sociais aos meios de comunicação tradicionais, como jornal, rádio e TV, aplicando a elas as mesmas regras. Alguns especialistas temem que esse conjunto de medidas faça com que as plataformas digitais exagerem nas restrições, eliminando conteúdos a princípio legítimos, por temor a punições. E há ainda o interminável debate se elas seriam capazes de identificar todos os conteúdos problemáticos de maneira automática.

Os desenvolvedores estão se mexendo, especialmente por pressões semelhantes que sofrem nos Estados Unidos e na União Europeia. Em janeiro, 20 empresas de tecnologia assinaram um compromisso voluntário para ajudar a evitar que a IA atrapalhe nos pleitos. A OpenAI, criadora do ChatGPT, e o Google, dono do concorrente Gemini, anunciaram que estão ajustando suas plataformas para que não atendam a pedidos ligados a eleições. A Meta, dona do Facebook, do Instagram e do WhatsApp, disse que está refinando técnicas para identificar e rotular conteúdos criados ou modificados por inteligência artificial.

Tudo isso é necessário e espero que não se resuma apenas a “cortinas de fumaça” ou “leis para inglês ver”. Mas resta descobrir como fiscalizar as ações da parte ao mesmo tempo mais frágil e mais difícil de ser verificada: o usuário.

 

Ajudando o adversário a se enforcar

Por mais que os políticos e as big techs façam tudo que puderem para um bom uso desses recursos, o maior desafio recai sobre os cidadãos, seja um engajado correligionário (instruído ou não pelas campanhas), seja um inocente “tio do Zap”. Esses indivíduos podem produzir e distribuir grande quantidade de conteúdo incendiário e escapar da visão do TSE. Pior ainda: podem criar publicações ilegais como se fossem o adversário deliberadamente para que ele seja punido.

O tribunal não quer que se repita aqui o que foi visto na eleição presidencial argentina, em novembro. Lá as equipes dos candidatos que foram ao segundo turno, o peronista Sergio Massa e o ultraliberal Javier Milei, fizeram amplo uso da IA para denegrir a imagens dos adversários.

Em outro caso internacional, os moradores de New Hampshire (EUA) receberam ligações de um robô com a voz do presidente Joe Biden dizendo para que não votassem nas primárias do Estado, no mês passado. Por aqui, um áudio com a voz do prefeito de Manaus, David Almeida, circulou em dezembro com ofensas contra professores. Os dois casos eram falsos.

Esse é um “jogo de gato e rato”, pois a tecnologia evolui muito mais rapidamente que a legislação, e os criminosos se valem disso. Mas o gato tem que se mexer!

Aqueles que se beneficiam desses crimes são os que buscam confundir a população. Seu discurso tenta rotular essas regras como cerceamento da liberdade de expressão. Isso não é verdade, pois todos podem continuar dizendo o que quiserem. Apenas pagarão no caso de cometerem crimes que sempre foram claramente tipificados.

Há ainda o temor dessas medidas atrapalharem a inovação, o que também é questionável. Alguns setores fortemente regulados, como o farmacêutico e o automobilístico, estão entre os mais inovadores. Por outro lado, produtos reconhecidamente nocivos devem ser coibidos, como os da indústria do cigarro.

A inteligência artificial vem eliminando a fronteira entre conteúdos verdadeiros e falsos. Não se pode achar que os cidadãos (até especialistas) consigam identificar mentiras tão bem-criadas, mesmo impactando decisivamente seu futuro. E as big techs reconhecidamente fazem menos do que poderiam e deveriam para se evitar isso.

Ausência de regras não torna uma sociedade livre, mas anárquica. A verdadeira liberdade vem de termos acesso a informações confiáveis que nos ajudem a fazer as melhores escolhas para uma sociedade melhor e mais justa para todos.

Ao invés de atrapalhar, a tecnologia deve nos ajudar nessa tarefa. E ela pode fazer isso!

 

Nos EUA, uma patente só pode ser concedida se um humano fizer uma “contribuição significativa” - Foto: Freekpik/Creative Commons

Proibição de IA registrar patentes abre debate sobre seus limites criativos

By | Tecnologia | No Comments

No dia 13, o Gabinete de Marcas e Patentes dos Estados Unidos determinou que patentes não podem ser registradas em nome de plataformas de inteligência artificial, apenas por pessoas. Essa tecnologia pode, entretanto, ser usada intensamente no desenvolvimento de invenções: basta seres humanos terem feito uma “contribuição significativa” para que a patente possa ser concedida.

A questão que salta aos olhos é: quem é o verdadeiro inventor nesse caso?

Apesar de bem-intencionada, a determinação possui falhas conceituais. A proposta de garantir que a propriedade intelectual continue sob domínio de pessoas é bem-vinda. Mas ao permitir que a IA seja usada na pesquisa (e não faz sentido proibir isso hoje), cria-se uma brecha para que ela seja vista como coautora do processo.

Como a tal contribuição humana não precisa ser comprovada, pode acontecer ainda de a IA fazer todo o trabalho e depois não ser “reconhecida” pelos pesquisadores. O aspecto tecnológico então dá lugar a outros, éticos e filosóficos: a máquina trabalha para nós ou o contrário, quando lhe fornecemos comandos e ela se torna coautora?

Como diz o ditado, “é nos detalhes que mora o diabo”.


Veja esse artigo em vídeo:


A inteligência artificial não é verdadeiramente criativa, pelo menos, não ainda. Ela é capaz de trazer grandes ideias ao processo por analisar e encontrar padrões que respondam a questionamentos ao analisar uma quantidade gigantesca de informações, de uma maneira que nem o melhor cientista conseguiria. Mas por enquanto ela precisa que alguém lhe faça as perguntas corretas, porque, se para os humanos, suas experiências pessoais lhes permitem transcender para novas ideias, para as máquinas, seu arcabouço de conhecimento funciona como um limitador.

“A máquina fica como um apêndice seu, porque é você que está no comando do diálogo”, explica Lucia Santaella, professora da PUC-SP e autoridade global em semiótica. “Mas se você não sabe o que procura, se você não exercita a sua vida intelectual, você vira um apêndice da máquina”, provoca.

“Independentemente de quão avançada seja a IA, você precisa de algum humano para falar o que tem que inventar: aí que eu vejo uma ‘contribuição significativa’”, afirma Matheus Puppe, sócio especialista em novas tecnologias do Maneira Advogados. Para ele, essas brechas na decisão do Gabinete de Marcas e Patentes podem funcionar até como um freio ao progresso. “Essa decisão mostra que eles estão reagindo apenas, e não pensaram muito bem sobre os detalhes de como isso seria aplicável”, acrescenta.

A característica essencial da IA de extrair informações de grandes massas de dados traz uma preocupação em registro de patentes, pois, no processo, ela pode infringir outras existentes, de onde aprendeu algo. Tanto que diversas empresas de comunicação e produtores de conteúdo estão processando desenvolvedores dessas plataformas por infração de direitos autorais. Mas Puppe acredita que, em nome do progresso tecnológico e dos benefícios derivados da IA, o uso de fragmentos anonimizados de informações devem ser flexibilizados para o treinamento da IA.

Tudo ficará diferentes se (ou quando) chegarmos à chamada “inteligência artificial geral”, que se parece muito mais com o cérebro humano, deixando de ser especialista em apenas um tema e até possuindo iniciativa para tomar ações. Nesse caso, a máquina dispensaria os humanos e suas “contribuições significativas”.

Para Puppe, nesse caso, talvez tenha que ser criada uma personalidade jurídica de uma “pessoa digital”, que poderia ser detentora de direitos específicos, inclusive monetários. Enquanto isso não chega, ele sugere que patentes criadas com apoio de IA tenha a tecnologia (e seus desenvolvedores) como coautores, ou pelo menos que exista uma copropriedade, com pagamentos de royalties por isso.

 

A “sociedade do prompt

Ainda que imprecisa, a decisão do Gabinete de Marcas e Patentes reflete uma profunda mudança social que a IA vem impondo desde o ano passado. Cada vez mais, muitas tarefas passam a se resumir à criação de um prompt, um comando eficiente para a inteligência artificial realizar a tarefa com precisão.

Ela não substituirá as pessoas, mas elas poderão ser gradativamente substituídas por quem a use. Isso aumenta o abismo profissional entre os que têm acesso e dominam a tecnologia e os que não têm, pois o robô assumirá não apenas tarefas braçais, como processará grandes volumes de dados, com uma percepção sobre-humana, melhorando as entregas desses profissionais.

A IA também é capaz de realizar produções de conteúdo, incluindo obras artísticas. E isso tem desafiado a sociedade a redefinir o papel tanto de um cientista, quanto o de um artista. “O que define um escritor, um músico é a criatividade da ideia”, sugere Puppe. “Isso é o importante, e não a sua habilidade de executá-la”, conclui.

O grande risco dessa capacidade de produção e de simular a realidade que a IA oferece é que não consigamos mais distinguir o que é real. Somos uma civilização que aprendeu a confiar no que vemos, mas agora somos desafiados continuamente a duvidar de nossos olhos pelas diferentes telas, vivendo em uma insustentável “incerteza perceptiva”.

“O que nos constitui é a linguagem, e ela está crescendo”, afirma Santaella. “Com a IA generativa, produzimos imagens, vídeo, sons, essa tecnologia simula o humano!”

Temos que nos apropriar de todo esse poder com consciência e ética! Não devemos temer a IA, nem tampouco nos deslumbrarmos com ela! Sempre a máquina deve trabalhar para nós, e não nós para ela ou para seus desenvolvedores.

Por isso, talvez até seja justo que eles sejam remunerados por uma patente ou qualquer outra produção comercial criada com forte apoio da IA. Mas não podem ser classificados como coautores, pois isso implica uma responsabilidade que a máquina não tem (e que essas empresas não querem ter), especialmente no caso de algo dar errado.

Nessa “sociedade do prompt”, devemos sempre recordar que nós estamos no controle, e que a máquina é apenas uma ferramenta. E por mais fabulosa que seja, ela não deve ser usada de uma maneira que nos torne intelectualmente preguiçosos.

“Eu só acredito na educação e no crescimento através da aprendizagem”, afirma Santaella.” Não a educação no sentido formal, mas a educação no sentido de não deixar morrer a curiosidade pelo conhecimento!”

Afinal, a nossa humanidade é o nosso grande diferencial para não sermos substituídos de vez por um robô. Precisamos continuar cultivando tudo que a faz ser o que é.