Paulo Silvestre

Sundar Pichai, CEO do Google, fala durante a conferência Google I/O 2024, realizada em 14 de maio do ano passado - Foto: reprodução

Google dá sua bênção para que a IA seja usada em armas e vigilância

By | Tecnologia | No Comments

Em mais um caso de big tech que trai seus princípios, na terça passada (4), o Google alterou suas regras éticas para que a inteligência artificial da empresa possa ser usada no desenvolvimento de armas, na vigilância de pessoas, em produtos que possam causar danos severos à sociedade ou que violem direitos humanos.

Não quer dizer que a companhia entrou no negócio de armas de destruição em massa. Sua posição agora é de “mitigar resultados não intencionais ou prejudiciais” e buscar “princípios amplamente aceitos do direito internacional e dos direitos humanos”. Mas na prática, isso significa pouco ou nada.

É uma mudança profunda, que pode ter impacto global no uso da IA. Pela posição de enorme destaque do Google, ela pode inspirar empresas do mundo todo a fazer o mesmo, provavelmente com ainda menos cuidado.

É inevitável perguntar por que decidiram fazer isso agora, e por que se recusavam até então. Além disso, se a IA poderá ser usada largamente em produtos criados com o objetivo de matar pessoas, qual garantia existe de que essa tecnologia não sairá do controle, com consequências devastadoras?

Vale lembrar o antigo lema do Google: “don’t be evil” (“não seja mau”), um pacto com práticas empresariais éticas e responsáveis. Mas em 2015, a Alphabet, conglomerado que incorporou o Google, trocou o mote por “faça a coisa certa”, bem mais genérico.

E cá estamos discutindo como a recente decisão pode ser tão má!


Veja esse artigo em vídeo:


O Google alega que a decisão reflete a necessidade de empresas de “países democráticos” defenderem seus valores em um cenário geopolítico complexo. Mas especialistas sugerem que a pressão do mercado de IA e a busca por lucrativos contratos militares de um governo nacionalista podem ter influenciado seus gestores.

Qualquer que seja o motivo, a empresa mina a confiança do público e sinaliza que a ética é negociável. Isso estabelece um novo padrão para toda a indústria, em uma competição global impiedosa e menos preocupada com direitos humanos.

Ironicamente, no início do mês, passaram a valer partes da Lei da Inteligência Artificial da União Europeia que proíbem o uso de sistemas de reconhecimento facial em espaços públicos e restringem aplicações consideradas de alto risco, como a manipulação comportamental e a vigilância em massa.

A nova posição do Google se choca com a anterior, que listava as “aplicações que não buscaremos”: armas, vigilância, tecnologias que “causam ou podem causar danos gerais” ou que violam os princípios do direito internacional e dos direitos humanos.

Essas regras que agora foram enterradas surgiram após protestos de funcionários em 2018 contra o projeto Maven, um contrato militar que usava seus algoritmos de visão computacional para analisar imagens de drones. Milhares assinaram uma carta aberta que dizia: “acreditamos que o Google não deveria estar no negócio da guerra”. Por isso, além daquelas regras, o contrato com o Pentágono não foi firmado na época.

O Google não está sozinho nesse novo posicionamento. Concorrentes como Microsoft, Amazon, OpenAI e Anthropic já oferecem suas IAs para aplicações militares. Mas o gigante de busca sempre serviu de inspiração para aqueles que procuram um uso ético da tecnologia. Agora isso acabou!

 

“Skynet feelings”

Algumas das maiores autoridades em IA do mundo, como o canadense Yoshua Bengio, vencedor em 2018 do prêmio Turing (o “Nobel da computação”), afirmam que a busca pela inteligência artificial geral (AGI), que terá autonomia e flexibilidade semelhante ao cérebro humano, pode levar a comportamentos inesperados ou indesejados, até mesmo contrários aos interesses humanos.

Sistemas com aprendizado autônomo podem criar estratégias para autopreservação ou poder, o que poderia torná-los difíceis de controlar. A falta de transparência aumenta o risco de decisões incompreensíveis e não-rastreáveis, dificultando a intervenção humana em casos críticos. Mesmo um botão físico para desligar um servidor (um “kill switch”) poderia ser contornado com a IA se replicando em incontáveis outros servidores antes que fosse possível interromper seu funcionamento.

Adicione a esse caldo a IA sendo usada para o desenvolvimento e operação de armas autônomas. Não entrarei em cenários da ficção em que máquinas decidem exterminar a humanidade, mas isso pode, sem dificuldade, levar a violações de direitos humanos e a escaladas militares perigosas. Pode ainda incentivar o uso de IA para vigilância em massa, especialmente por regimes autoritários, comprometendo as liberdades civis.

Para evitar isso, as big techs deveriam agir de forma oposta ao que estão fazendo. Devem existir regras internas e leis que impeçam o uso da IA em atividades potencialmente perigosas ou que violem direitos individuais. Além disso, os sistemas precisam ser transparentes para auditorias independentes. E isso deve acontecer em todos os países do mundo: talvez o mais difícil de tudo isso, e o que põe tudo a perder.

A decisão do Google de flexibilizar seus princípios éticos não pode ser vista como uma mera decisão empresarial. Como uma das empresas mais valiosas do mundo, cujos produtos são usados diariamente pela maior parte da população global, deveria ser um farol mostrando que responsabilidade e inovação podem coexistir. Mas a gigante decidiu priorizar os lucros em detrimento da segurança e dos direitos humanos.

Essa é uma lógica do capitalismo: companhias não fazem nada que comprometa seus lucros. Assim, é uma ilusão esperar que elas se autorregulem efetivamente por pressões competitivas e financeiras. Diante disso, regulamentações governamentais tornam-se essenciais para estabelecer limites claros e garantir que o desenvolvimento tecnológico continue existindo, mas sem comprometer valores humanos fundamentais.

Nada disso é ficção: vivemos uma realidade que nos brinda com avanços fabulosos, mas que oferece um mundo perigosamente instável por conflitos militares, Estados autoritários que atropelam a civilidade pelos interesses de seus governantes, e uma sociedade cada vez mais fragilizada, em que o cidadão, de tão manipulado pelo meio digital, defende ferozmente seus próprios algozes.

Com tudo isso, quem precisa de robôs assassinos?

 

Liang Wenfeng, CEO da DeepSeek, cujo modelo de IA desafia a liderança americana no setor - Foto: reprodução

Dinheiro, espionagem, boicotes: como a IA dominou o tabuleiro geopolítico

By | Tecnologia | No Comments

O domínio tecnológico sempre garantiu destaque na geopolítica, desde as Grandes Navegações. Países com essa liderança estendem seu poder econômico, político e cultural por grande parte do planeta. A bola da vez é a inteligência artificial, e os EUA estão fazendo de tudo para manter essa liderança. Não é para menos: a IA tem um poder sem precedentes de moldar o mundo seguindo os interesses de seus criadores.

Os EUA pareciam tranquilos nisso, mas, na semana passada, a chinesa DeepSeek surpreendeu o mercado, políticos e pesquisadores, com seu próprio LLM (modelo de linguagem de grande porte) para concorrer com os líderes americanos. Apesar de seus resultados se equipararem aos das plataformas ocidentais, o mais surpreendente dos chineses é o seu custo: enquanto elas já consumiram bilhões de dólares e querem ainda mais, a DeepSeek precisou de “apenas” US$ 5,6 milhões para seu produto!

Foi um “escândalo” os chineses conseguirem esse feito notável, ainda mais depois de os EUA imporem restrições à exportação de tecnologia (especialmente processadores poderosos) para segurar a China “na marra”. Isso deu uma surra no valor de mercado das big techs americanas. A NVIDIA perdeu US$ 589 bilhões em 27 de janeiro, a maior queda já registrada. Com as outras big techs, o saldo negativo foi de US$ 643 bilhões! É o mercado questionando os altos investimentos ocidentais em IA, depois de acreditar que ela só seria possível com uma enxurrada de dinheiro.

Tudo isso aconteceu apenas uma semana depois de o governo americano anunciar um megainvestimento de US$ 500 bilhões para construir datacenters para impulsionar sua IA contra os chineses. Isso certamente chama a atenção, mas os fatos estão demonstrando que inteligência e resiliência podem valer mais que dinheiro e boicotes.


Veja esse artigo em vídeo:


A tentativa de impor travas à IA da China começou ainda na administração Joe Biden. Mas a presença dos CEOs da big techs na primeira fila da posse de Donald Trump, à frente até de seus ministros, escancarou que a tecnologia e a política nunca estiveram tão juntas. Tanto que Elon Musk, dono do X, teve um papel enorme na vitória de Trump, que retribui dando a ele um cargo de grande poder em seu novo governo.

Inaugurou-se assim o período de dominação tecnossocial: o poder se constrói e se mantém com a tecnologia, não apenas pelos seus benefícios inerentes, mas também por oferecer um recurso inigualável de convencimento e de distorção da realidade.

Desde o início do ano passado, eu discuto nesse espaço como a explosão da inteligência artificial generativa pode reescrever a história, impor valores, alterar a cultura e até como as pessoas falam! Ao serem treinadas majoritariamente com conteúdos americanos e europeus, essas plataformas disseminam, de maneira subliminar, como os países dominantes pensam sobre tudo isso, podendo, em longo prazo, influenciar decisivamente pessoas do mundo todo.

A DeepSeek acrescenta um novo ingrediente nesse caldo: a submissão ao governo. Ao questionar a plataforma sobre temas sensíveis para a administração chinesa, como a independência de Taiwan, os protestos contra a política de “Zero Covid” na China, o massacre da praça da Paz Celestial em 1989 e até quem é o presidente chinês Xi Jinping, ela iniciou a exibição de boas respostas, mas subitamente elas foram apagadas e substituídas pela frase em inglês “Desculpe, isso está além do meu escopo atual. Vamos falar de outra coisa.” Em outras perguntas, como sobre a posição do governo chinês sobre a Guerra na Ucrânia, reproduziu o discurso governamental.

É amplamente sabido que o governo chinês obriga empresas locais a “colaborarem” com suas determinações, inclusive censura. Em contrapartida, nos EUA, as big techs já desafiaram a exigências do governo local no passado.

Mas o escandaloso alinhamento delas ao extremismo do recém-empossado Trump cria enorme desconfiança se não veremos nas empresas americanas o mesmo que se vê nas chinesas. Afinal, nesses poucos dias, elas já enterraram medidas que as diferenciavam, como mecanismos de checagem de fatos, restrição a discursos de ódio e intolerância, e incentivo à diversidade e inclusão em seus quadros. Trump, por sua vez, não esconde que exige delas fidelidade canina e total submissão.

A manipulação nos resultados chineses tem a sutileza de um rinoceronte correndo em uma loja de cristais. Por isso, o governo de Taiwan proibiu o uso de produtos da DeepSeek em seu país, para evitar a desinformação. Mas as mudanças adotadas pelas big techs americanas disseminarão amplamente, porém de maneira um pouco mais disfarçada, valores reprováveis até nos EUA. Se o mundo seguir o raciocínio de Taiwan, todos devem bloquear esses produtos americanos então?

 

Reação às restrições

Suprema ironia, as empresas americanas podem estar colhendo frutos amargos plantados pelo seu governo. A tentativa de impedir o avanço chinês na IA ignorou a capacidade de Pequim de incentivar empresas locais dispostas a assumir lideranças tecnológicas. As restrições dos EUA fizeram com que os chineses trocassem os produtos americanos por equivalentes locais ou de outros países, mas principalmente investissem em pesquisa, criatividade e colaboração.

Isso não vem de hoje. Levantamento do Instituto Australiano de Política Estratégica indicou que, até 2007, a China liderava só 3 de 64 tecnologias consideradas críticas. Entre 2019 e 2023, o país tornou-se líder em 57 delas, graças a investimentos de longo prazo em pesquisa e desenvolvimento. No mesmo período, os EUA passaram de líderes em 60 delas para apenas 7.

A DeepSeek mostrou ao mundo que é possível entrar para valer na briga da IA com investimentos modestos. A ministra da Ciência, Tecnologia e Inovação, Luciana Santos, afirmou que o Brasil está nessa corrida. No ano passado, seu ministério anunciou investimentos de R$ 23 bilhões em IA até 2028. Ela lembrou também que o país tem grande oferta de energia limpa e água, outra grande exigência da IA.

As ideias e ações de Trump podem levar a um caos na economia global, por uma crise de confiança generalizada. É difícil saber como isso impactará a China e os próprios EUA. Mas parecem ser inócuas para conter o avanço tecnológico chinês.

Apesar de ter sido péssima para as big techs, a chegada da DeepSeek é ótima para o desenvolvimento dessa tecnologia, pois mostra que ela pode ser criada com muito menos dinheiro, não precisando ficar restrita a empresas multibilionárias.

Resta a questão da dominação cultural e de uma patológica distorção da realidade, que pode vir da China, dos EUA e até do Brasil, caso desenvolvamos um LLM que também seja enviesado por interesses políticos.

Mais do que nunca, a população precisa de senso crítico, educação diversificada e de qualidade para todos, além de amplos programas de educação digital e midiática. Essa tríade fica cada vez mais essencial no mundo em que IA permeia tudo, para que façamos um uso positivo e seguro de todo seu poder.

 

Donald Trump toma posse como presidente dos EUA pela segunda vez - Foto: Congresso americano/Creative Commons

O resgate da civilidade digital depende de cada um de nós

By | Jornalismo, Tecnologia | No Comments

Com a posse para seu segundo mandato como presidente dos EUA, Donald Trump, um notório valentão que faz de agressões, desqualificações e fake news ferramentas do cotidiano, iniciou uma nova fase de deterioração da convivência online. Com a adesão explícita das big techs a essa agenda, o processo deve se ampliar exponencialmente. Isso seria grave o suficiente por si só. Mas em um mundo dominado por redes sociais, o maior risco vem do exército voluntário que amplia seus métodos para além dos limites do digital, esgarçando a própria trama da sociedade.

Há aqueles que se alinham a esse movimento e participam ativamente dele. Existem os que acham tudo “normal”, e acabam espalhando o conteúdo nocivo alegremente, com um entendimento distorcido da liberdade de expressão. E tem os que parecem não se importar com nada e acabam fazendo isso de forma inconsciente.

Não há nada de “normal” ou inocente nisso! Promover o ódio, cercear pensamentos diferentes, atacar grupos sociais, roubar identidades, expor pessoas estão entre os piores comportamentos de nosso tempo. Além da brutal violência psíquica e até física contra as vítimas, isso pode acabar com o debate público: em um meio inseguro e agressivo, as pessoas ficam desencorajadas a expor suas ideias construtivamente. E assim a democracia se enfraquece e os valentões ganham poder.

Pelo seu grande público e influência, jornalistas e criadores de conteúdo digital têm obrigação de combater essas práticas. Mas não são suficientes para eliminar esse mal. A sociedade só reencontrará um caminho sustentável de desenvolvimento quando cada um se empenhar em promover um ambiente digital civilizado.


Veja esse artigo em vídeo:


Não é uma tarefa simples ou pequena. Infelizmente muitos que propõem uma convivência harmônica e construtiva no meio online acabam sendo agredidos por aqueles que se beneficiam do ódio e da polarização, em uma tentativa explícita de silenciá-los. Por isso mesmo, não se devem deixar intimidar.

Mas há boas maneiras para se lidar com esses “trolls da política digital”. Fazer as escolhas certas diferencia entre uma explosão de ódio e uma contenção da violência pela racionalidade e pela empatia.

Como mencionado anteriormente, nada disso é protegido pela liberdade de expressão. O artigo 5º da Constituição Federal, que trata dos direitos e garantias fundamentais, determina, em seu inciso IV, que “é livre a manifestação do pensamento, sendo vedado o anonimato.” Isso assegura que se possa dizer o que quiser, mas, ao mesmo tempo, determina que os responsáveis por violações de direitos como honra, imagem ou privacidade, ou que cometam outros crimes sejam identificados e punidos.

Muitos argumentam que querem ter a liberdade de falar nas redes as maiores barbaridades, e que depois a Justiça que cuide das punições. Isso seria aceitável se o Judiciário tivesse capacidade infinita de julgar e punir todas as violações, o que está muito longe de acontecer. Assim essa proposta, travestida de liberdade, não passa de um subterfúgio para se cometer esses crimes impunemente.

Os ataques online se unem a outras formas de violência, como as direcionadas a grupos específicos, como mulheres, negros, pessoas com deficiência e LGBTQIA+, que vivem em determinada região ou professem uma fé específica. É comum que essas características sejam usadas para inflamar o ódio e ampliar a desinformação, para que o valentão atinja objetivos que não têm nada a ver com a situação da vítima.

 

Não alimentem os “trolls”

O ataque dos “trolls digitais” não pode ser classificado como mera contraposição de ideias divergentes (como costumam se defender), porque eles não aceitam o debate. Visam apenas desestabilizar sua vítima e prejudicar a troca saudável de argumentos.

Isso foi perfeitamente descrito em 1945 pelo austríaco Karl Popper (1902-1994) com seu “paradoxo da tolerância”, no best-seller “A Sociedade Aberta e Seus Inimigos”. Segundo ele “a tolerância ilimitada leva ao desaparecimento da tolerância”. O filósofo explicava que “se não estivermos preparados para defender a sociedade do assalto da intolerância, então os tolerantes serão destruídos e a tolerância com eles”.

Para ele, as filosofias intolerantes devem ser combatidas com argumentos racionais e mantidas em xeque frente à opinião pública. Mas alertava que os intolerantes não lidam com a razão, “a começar por criticarem todos os argumentos e proibindo seus seguidores de ouvir argumentos racionais, porque são enganadores e os ensinam a responder aos argumentos com punhos ou pistolas”. E sugeria que “devemos exigir que qualquer movimento que pregue a intolerância fique fora da lei e que qualquer incitação à intolerância e perseguição seja considerada criminosa”.

Popper queria evitar algo que se observa muito hoje. Formadores de opinião e pessoas comuns se afastam do debate público com medo dos “trolls”. Quando isso acontece, as ideias dos valentões evoluem para uma sociedade totalitária, em que os que não se alinharem ao grupo violento perdem gradualmente seus direitos.

Deve-se tomar cuidado ao responder aos “trolls”. Um confronto direto é tudo que eles querem, pois isso valida seus métodos e cria novos valentões. Além disso, o embate tende a normalizar o discurso violento e banalizar suas pautas excludentes.

Às vezes, deixar o “troll” falando sozinho é o melhor a se fazer. O problema é que, nas redes sociais, alguém pode amplificar os ataques desnecessariamente. Nesse caso, o silêncio pode não servir mais. A violência deve então, de maneira constante e resiliente, ser combatida com ética, sensatez e propostas construtivas.

Em 1947, Winston Churchill disse: “Ninguém espera que a democracia seja perfeita ou infalível. Na verdade, tem sido dito que a democracia é a pior forma de governo, excetuando-se todas as demais formas.” O ex-primeiro-ministro do Reino Unido, considerado um dos maiores estadistas da história, sabia que a democracia só funciona bem pela contraposição de ideias. Mas isso só é válido quando pessoas com ideias diferentes não apenas conseguem conviver entre si, como ainda constroem juntas uma sociedade, em nome de um bem maior.

Diante do avanço de governos encabeçados por valentões de qualquer ideologia, que sistematicamente silenciam ideias diferentes das suas, as sociedades precisam reforçar a educação digital e midiática. A primeira permitirá que seus cidadãos saibam usar adequadamente os recursos digitais para uma vida melhor; a segunda, que desenvolvam um senso crítico refinado, informem-se melhor e fiquem menos suscetíveis à desinformação e à brutalidade dos “trolls”.

Mas acima de tudo, precisamos urgentemente resgatar nossa humanidade e nossa capacidade de sermos empáticos, inclusive com quem não conhecemos. É assim que verdadeiramente se derrota um valentão.

 

Pela lei, alunos não poderão usar celulares nem no recreio ou no intervalo das aulas - Foto: pvproductions/Freepik/Creative Commons

Até onde escolas sem celulares resolvem problemas da superexposição às telas?

By | Educação, Tecnologia | No Comments

Desde o dia 13, alunos não podem mais usar celulares e tablets pessoais nas escolas brasileiras de Ensino Fundamental e Ensino Médio. A lei 15.100/2025, que visa “salvaguardar a saúde mental, física e psíquica das crianças e adolescentes”, também é positiva frente às enormes perdas pedagógicas que esses equipamentos produzem. Mas ela não resolve o problema da superexposição dos mais jovens às telas, pois isso acontece principalmente em casa.

É um desafio complexo, pois vivemos em um mundo profundamente digitalizado, desde tenra idade. A pesquisa TIC Kids Online Brasil 2024, publicada em outubro pelo Cetic.br, órgão de pesquisas do CGI.br (Comitê Gestor da Internet no Brasil), indicou que 93% dos brasileiros entre 9 e 17 anos usam a Internet, quase sempre pelo celular. Praticamente todas as crianças ficam online em casa, e cerca de metade fazem isso na escola. E o primeiro contato se dá até os 6 anos para 23% e entre 7 e 9 anos para 26%, contrariando especialistas, que indicam que isso só comece na adolescência.

A lei reforça a autoridade do professor, que hoje tem que lutar contra as distrações do celular na sala de aula. Mas pais e mães precisam trabalhar com as escolas para combater os efeitos das telas sobre seus filhos, que vão muito além de piora no desempenho escolar. Elas podem causar sérios problemas de saúde mental, sono ruim, dificuldade de sociabilização, exposição a assédios, distúrbios alimentares e até de postura.

A tarefa cresce porque, por outro lado, os mais jovens precisam ser educados a usarem esses equipamentos de maneira segura e positiva. A proteção às crianças e aos adolescentes não pode ser confundida com alienação tecnológica.


Veja esse artigo em vídeo:


Tanto é assim que a lei permite que esses equipamentos sejam usados em atividades pedagógicas sob orientação do professor. Eles também podem ser usados por alunos que dependam deles por necessidades de saúde, acessibilidade ou inclusão.

A regra determina que não sejam usados nem no recreio ou nos intervalos entre aulas. Estudo realizado em 2023 pela Unesco (Organização das Nações Unidas para a Educação, a Ciência e a Cultura) indicou que o “dreno de atenção” dos smartphones é tão grande, que os alunos podem levar até 20 minutos para se concentrar novamente depois de usarem o celular em atividades não-acadêmicas. Mas o documento lembra que a tecnologia deve fazer parte da formação do indivíduo.

“É muito importante entender que olhar para os riscos de forma alguma exclui a necessidade de apropriação de tecnologias na educação”, afirma Ana Lucia de Souza Lopes, doutora em Educação e especialista em Educação e Tecnologias, e coordenadora na Universidade Presbiteriana Mackenzie. Para ela, “é muito simplista pensar dessa maneira, pois estamos diante de um grande desafio que precisa ser enfrentado para encontrar o equilíbrio”.

Portanto, a lei não propõe que o problema seja “varrido para baixo do tapete”. “A simples proibição do uso de celulares, sem o devido contexto, pode gerar desafios, como resistência ou ansiedade, especialmente em crianças e jovens que já apresentam sinais de dependência tecnológica”, explica Maria Eduarda Menezes, coordenadora de edtech da Beacon School. “Por isso, mais do que proibir, é essencial adotar uma abordagem educativa e dialógica”, acrescenta.

Não se pode achar que a escola dará conta disso sozinha, mas ela desempenha um papel essencial, por ser um lugar que prioriza o cuidado com o ser humano. Ela pode também instruir pais e mães a como lidar com essa questão, pois o uso equilibrado da tecnologia que começa na escola deve continuar em casa. Pouco adianta restringir o acesso ao celular e liberar outras telas, como o videogame e a televisão. Os responsáveis também devem avaliar se o celular é realmente necessário para os filhos ou se o oferecem apenas por pressões sociais ou modismos.

 

Combate ao “vício”

Se os adultos sofrem um impulso às vezes incontrolável de olhar informações no seu celular, isso é ainda mais forte em adolescentes. E não raro elas dominam a tecnologia melhor que seus pais, mas não sabem usá-la para aprender.

“É importante incluir letramento digital e cidadania digital nos currículos das escolas, pois permitem que os alunos compreendam como as tecnologias funcionam, saibam utilizá-las de maneira ética e responsável e desenvolvam habilidades para navegar com segurança no ambiente online”, explica Menezes.

Lopes explica que a escola deve oferecer aos estudantes estruturas de convivência e desenvolvimento que ampliem seus repertórios além das telas. “Ou, ao chegar da escola, os estudantes irão diretamente para a tela para compensar as horas de ‘privação’, agravando o quadro”, acrescenta.

Nada disso é simples, e a maioria dos professores não está preparada para incorporar essas demandas em suas aulas. Sua formação deve ser atualizada para conhecerem os riscos e desafios de lidar com a tecnologia digital, mas também para a enxergarem além de uma mera ferramenta, descobrindo como aproveitar seu potencial e compreender o papel que ocupa em nossas vidas. Para os docentes já formados, as escolas e o governo devem oferecer capacitação contínua.

Esse papel aparece em um alerta que alguns especialistas fazem sobre uma brecha na lei, que permite que os celulares sejam usados em aula para “garantir os direitos fundamentais”, sem explicar quais seriam. Eles temem que alguns alunos usem isso para manter a prática de filmar professores que digam algo com o que não concordem, em uma reprovável tentativa de exposição e até criminalização dos docentes. Vale dizer que isso afronta o direito à imagem garantido pela Constituição e pela Lei Geral de Proteção de Dados. Por isso, o governo deve explicar melhor o que são tais direitos, no processo de regulamentação da lei, que deve acontecer em 30 dias.

De qualquer forma, ela é muito bem-vinda, e deve auxiliar na solução de graves problemas causados pelo uso descontrolado desses dispositivos na escola. Abre também uma porta para se construir uma boa educação digital na escola e em casa.

Smartphones não podem ser vistos como meros brinquedos ou –pior ainda– uma “chupeta digital” para acalmar os mais jovens. Crianças e adolescentes merecem o apoio de pais, mães e educadores para se apropriarem de todo esse poder digital de maneira segura e construtiva. Essa é uma tarefa de toda a sociedade.

 

Mark Zuckerberg, CEO da Meta, durante anúncio de medidas como o fim da moderação de conteúdo em suas redes - Foto: reprodução

Por que a guinada de Zuckerberg sobre conteúdo é uma tragédia social

By | Jornalismo, Tecnologia | No Comments

A grande notícia no mundo digital na semana passada foi o cavalo de pau que Mark Zuckerberg deu na política de moderação de conteúdo da Meta, afetando Facebook, Instagram e Threads. Com um intenso alinhamento às ideias do presidente eleito dos EUA, Donald Trump, as medidas levantam preocupações legítimas sobre como isso impactará a qualidade das entregas das redes sociais e a própria democracia.

Especialistas diversos afirmam que o nível das publicações e dos debates nessas redes deve cair dramaticamente, empobrecendo seu papel social e corroendo a credibilidade da empresa. Pela sua descomunal penetração, isso deve agravar a polarização na sociedade. E a disposição manifestada pelo seu CEO de ativamente afrontar governos que contrariarem seus interesses pode desestabilizar nações.

Esse é o ponto mais grave desse movimento. Executivos das big techs cada vez mais se dão o direito de se colocar acima da lei e de valores, não apenas dos EUA, mas de países muito diferentes. Com uma grotesca distorção do conceito de liberdade de expressão, ameaçam a estabilidade social, uma influência nefasta e indevida nunca vista na história, que impõe seus interesses pessoais sobre populações inteiras.

Essa é uma perigosíssima nova ordem mundial que precisa ser combatida, sob o risco de desaguarmos em uma barbárie onde ninguém mais se respeite, colocando o próprio conceito de sociedade em risco.


Veja esse artigo em vídeo:


As políticas de moderação da Meta surgiram com o escândalo da Cambridge Analytica, que estourou em março de 2018. Os jornais “The Guardian” e “The New York Times” demonstraram que essa empresa coletou dados de 87 milhões de usuários do Facebook sem seu consentimento, para influenciar a primeira eleição de Trump e o referendo do Brexit, ambos em 2016. Isso escancarou a manipulação das redes, e o Facebook foi acusado pelo Congresso americano de não proteger seus usuários desse controle.

Trump, que teve suas contas no Facebook e no Instagram suspensas em 2021 por incitar a violência que levou à invasão do Capitólio no dia 6 de janeiro daquele ano, comemorou o novo posicionamento da Meta. Em entrevista após o anúncio, disse, sem nenhum constrangimento, que provavelmente sua ameaça de prisão perpétua a Zuckerberg no ano passado pode ter pesado nessa decisão.

Mas não sejamos inocentes: o alinhamento dessas empresas a Trump lhes trará muitos benefícios. E com seu virtual controle dos três Poderes no país, as ameaças sobre as big techs que se unirem a ele tendem a desaparecer. “Na verdade, elas nunca quiseram combater desinformação”, explica Pollyana Ferrari, pesquisadora em mídias e professora da PUC-SP. “Eram mais ações isoladas para dizer que faziam algo, porém agora os bilionários não precisam mais disfarçar seus objetivos.”

“Em 2017, Chris Cox, então diretor de produtos do Facebook, descobriu que havia uma correlação entre maximizar o envolvimento do usuário e inflamar as tensões, e que reduzir a polarização significaria prejudicar o engajamento”, relembra Magaly Prado, pesquisadora do Instituto de Estudos Avançados da USP. Então, mesmo sabendo que algumas eram “anticrescimento”, propôs várias soluções, mas elas não foram implantadas. “As big techs que abrigam as redes sociais não estão nem aí com as pessoas que eles costumam chamar de usuários”, acrescenta.

O anúncio de Zuckerberg provocou protestos de especialistas do mundo todo, que pedem que as mudanças sejam revertidas. Em resposta, a Meta tomou mais medidas na mesma linha, como acabar com seu programa de Diversidade e Inclusão.

“O mais preocupante não é apenas o fim do programa de checagem, mas o fato de que Zuckerberg encerrou essa iniciativa com um ataque perigoso e infundado a um trabalho que vinha sendo feito de forma criteriosa”, diz Clara Becker, jornalista especializada em desinformação e diretora da ONG de educação midiática Redes Cordiais. “Em vez de fortalecer o combate à desinformação, a Meta escolheu um caminho que descredibiliza os esforços existentes e agrava ainda mais o cenário de manipulação e polarização nas plataformas”, alerta.

 

O que Zuckerberg quer?

Ao se alinhar aos interesses de Trump, o CEO da Meta espera diminuir seus custos e ganhar um aliado para combater países que ameaçarem seus negócios, além de apoio contra pressões políticas e legais domésticas.

“Atuar contra regulações locais pode ser percebido como uma forma de neocolonialismo digital, prejudicando a autonomia de países e minando a confiança em governança global”, adverte Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). Para ele, “promover políticas alinhadas exclusivamente a interesses americanos pode agravar tensões globais e alimentar narrativas antidemocráticas”.

Zuckerberg quer fazer o que bem entender na sua companhia, o que, a princípio, é seu direito. Mas redes sociais não são empresas como outras, pela sua absurda influência sobre o mundo! Portanto, dizer que defende a liberdade de expressão é, no mínimo, hipócrita, pois ninguém sabe como seus algoritmos promovem e escondem o que quiserem.

“O discurso de garantir a liberdade de expressão é falacioso, na medida em que a remoção de conteúdos inverídicos, falseados, criminosos não configura censura”, explica Crespo. “No Brasil, não há liberdade plena de expressão, por isso a Constituição determina que é vedado o anonimato, justamente para responsabilizar quem cometer abusos.”

Duas situações podem surgir disso. Na primeira, governos, Justiça, empresas e outros membros da sociedade reagem para elaborar regras equilibradas para evitar a desinformação, exigindo uma responsabilidade e uma transparência que as redes sociais nunca tiveram, o que seria muito positivo. Na outra, ruim, a proposta de Zuckerberg avança e seus algoritmos privilegiam lucros ao invés de segurança, explodindo os conteúdos nocivos, como aconteceu no X de Elon Musk, criando sociedades instáveis, em que as pessoas não concordam, nem constroem coisas juntas. Por isso, segundo Prado, “é inevitável e fundamental que possamos debater a justiça dos dados, as leis que vão reger quem provoca o distúrbio informacional”.

“A moderação de conteúdo é um dos grandes desafios do século XXI, e não há sistema infalível para lidar com desinformação e discurso de ódio”, afirma Becker. “O cenário ideal seria aquele que promove um equilíbrio entre liberdade de expressão e responsabilidade, garantindo que conteúdos enganosos, discursos de ódio e incitações à violência ou discriminação sejam eficazmente controlados”, conclui.

A desinformação deve ser combatida com boa informação. Quando Zuckerberg confirma a anarquia das redes sociais, isso reforça a importância do jornalismo e da checagem de fatos profissionais. Mas infelizmente eles não são suficientes, pois os algoritmos continuarão promovendo o conteúdo nocivo, que lhe é mais lucrativo.

Por tudo isso, deve-se exigir mais transparência das plataformas, ao invés de aceitar o contrário, que nos está sendo imposto. A verdade não pode ser opcional, devendo ser cuidada por todos como um bem público, ou corremos o risco de ter consolidado um animalesco Estado sob a lei do mais forte.

 

Para Gilson Magalhães, diretor-geral da Red Hat Latin America, IA trará resultados em 2025 com agentes - Foto: Paulo Silvestre

Esse será o ano em que a IA começará a trazer resultados

By | Tecnologia | No Comments

Como não poderia ser diferente, 2025 começa acelerado pela inteligência artificial. Mas esse ano deve trazer algo que empresários desejam desde que começaram a investir pesadamente nessa tecnologia, com o lançamento do ChatGPT: resultados!

Se 2023 foi o ano da curiosidade e 2024 representou a democratização dessa tecnologia, 2025 deve ser aquele em que aplicações realmente transformadoras devem chegar ao mercado. E engana-se quem acredita que isso se dará por uma IA poderosíssima, capaz de resolver qualquer coisa.

Segundo um ditado popular, “os melhores perfumes estão nos pequenos frascos”. Talvez isso também seja verdade na inteligência artificial. E, nesse caso, respondem pelo nome de “agentes”. Eles são sistemas que usam a IA para realizar tarefas específicas de maneira autônoma, com pouca ou nenhuma dependência de um ser humano. Agem de maneira contínua, monitorando o ambiente e analisando dados para tomar decisões seguindo o que lhes foi pedido.

Especializados em uma tarefa e alimentados por dados controlados, os agentes tendem a ser mais baratos e mais confiáveis que um grande LLM, como o ChatGPT, ainda sujeito a suas “alucinações”, quando responde bobagens quando não sabe o que dizer. O desafio agora é tornar a criação desses agentes um processo mais simples.

Claro que continuaremos nos maravilhando com novas aplicações da IA generativa, mas será uma grande notícia vê-la finalmente transformando os negócios.


Veja esse artigo em vídeo:


Para Adriana Aroulho, presidente da SAP Brasil, “2025 será um ano em que o foco permanecerá na Inteligência Artificial Generativa, mas com o diferencial de transformar expectativas em resultados práticos.” Essa percepção é compartilhada por Marco Stefanini, fundador e CEO Global do Grupo Stefanini. Segundo ele, “uma coisa é você implementar IA, outra é você realmente utilizar IA no dia a dia, adotar a solução que realmente fará diferença no seu negócio.”

Esse deve ser também o ano em que o hype, a excitação em torno dessa tecnologia dará espaço a aplicações estruturadas, com resultados mais bem planejados. O tempo de usar grandes IAs “genéricas”, como o ChatGPT, para se resolver soluções empresariais vai ficando para trás.

“As empresas vão dizer: ‘inteligência artificial é legal, mas eu vou aplicá-la criando agentes muito específicos”, afirma Gilson Magalhães, diretor-geral da Red Hat Latin America. Ele explica que esses sistemas, apesar de limitados a uma tarefa, trazem grande ganhos ao negócio. “Ao usar uma quantidade de dados controlada, num ambiente controlado, ele assumirá uma função que era manual e foi automatizada.”

É preciso que fique claro que não se trata de mera automação, existente há décadas. De fato, uma das diferenças da inteligência artificial para um programa convencional de computador é tomar decisões como um ser humano, especialmente diante de imprevistos, a partir do que sabe e do que se espera dela. Um software convencional não consegue fazer isso.

Marcelo Flores, gerente-geral da consultoria da IBM Brasil, inventou o verbo “cognitivar” para diferenciar uma coisa da outra. “Os agentes usam uma tecnologia supernova para fazer aquilo que não é só automação ou só repetição”, explica. “Isso é algo mais sofisticado, que exige cognição, por isso conseguem essa autonomia.”

Tudo isso parece incrível, mas antes de finalmente colher esses resultados, as empresas precisam cuidar de algo que também deve ganhar mais destaque em 2025: “limpar” os seus dados.

 

“Poluição digital”

Dados de baixa qualidade são um problema histórico nas empresas. Elas guardam em seus arquivos informações erradas, desatualizadas e até conflitantes. Isso pode derivar de migrações descuidadas de sistemas, coletas de informações redundantes por critérios diferentes a cada momento, departamentos que não compartilham suas informações e outros pesadelos de TI.

O problema é que nem a melhor inteligência artificial dá bons resultados se for alimentada com dados ruins. “Se a gente não corrigir os dados que estão ‘sujos’, desorganizados, perdidos, a gente não vai a lugar nenhum”, diz categoricamente Magalhães. “E essa é uma tarefa cara, difícil e demorada”, adverte.

Essa não é a única “poluição” ligada à IA. Em 2024, as empresas se deram conta das enormes demandas de recursos dessa tecnologia. Estudo divulgado em novembro pela consultoria Gartner indicou que, nos próximos dois anos, o consumo dos data centers de IA deve crescer até 160%, atingindo 500 terawatts-hora (TWh) por ano. Como comparação, em 2022, a cidade de São Paulo consumiu “apenas” 21,18 TWh.

“Estamos vivendo tempos desafiadores, especialmente com a crise climática nos pressionando a agir”, alerta Aroulho. Por isso, ela afirma que a SAP “renovará o compromisso com a inovação aberta e a sustentabilidade.”

Dados “sujos” e impactos ambientais demonstram como uma tecnologia tão poderosa como a inteligência artificial custa muito caro. Ninguém quer se preocupar com os gastos de conversar com o ChatGPT, mas eles existem e são altos.

“A tecnologia força as pessoas a se reinventarem”, afirma Flores. Para ele, “as empresas têm acesso a tecnologias mais disruptivas, que respondem muitas perguntas, mas, no final, a transformação vem das pessoas”.

Stefanini adverte que “2025 e 2026 serão anos de adoção mais massiva da IA nas empresas”, que permitirá, como já explicado, que comecem finalmente a colher grandes benefícios dessa tecnologia. E isso é muito bom!

Mas temos que cuidar também das discussões associadas a todos esses benefícios. Os próximos 12 meses abrirão espaço para isso. Resta saber quem aparecerá para conversar sobre uma IA mais sustentável. Mas uma coisa é certa: “não existe almoço grátis”.

 

Anúncios dos vencedores do Prêmio Nobel de Física de 2024, pelo seu trabalho nos fundamentos do machine learning - Foto: reprodução

Este ano foi um ano de democratização da inteligência artificial

By | Tecnologia | No Comments

Estamos nos últimos momentos de 2024, um ano de novidades profundas em tecnologias e seus impactos nas empresas e nas vidas das pessoas. Por exemplo, o 5G se difundiu ainda mais, e grandes avanços aconteceram em veículos autônomos, tecnologias sustentáveis, biotecnologia e robótica. Mas no ano em que os prêmios Nobel tanto de Física quanto de Química foram entregues a cientistas com pesquisas ligadas à inteligência artificial, foi ela que deixou indiscutivelmente sua marca.

Vale dizer que a IA já fazia parte da nossa vida há muitos anos, potencializando aplicações e equipamentos, porém de maneira invisível. Tudo mudou em novembro de 2022, quando o ChatGPT ganhou as ruas, dando ao cidadão comum o gostinho de fazer facilmente criações com a inteligência artificial generativa. E isso deflagrou uma corrida para que se buscasse aplicar a IA em tudo.

Obviamente os primeiros resultados disso pareciam protótipos mal-acabados e muitos tinham aplicações questionáveis. O ano de 2023 viu a desconfiança de profissionais, que mesclavam deslumbramento diante das possibilidades da IA e medo de que ela roubasse seus empregos.

Agora, ao fim de 2024, pode-se dizer que ela deixou o terreno da curiosidade: esse foi o ano em que seu uso foi disseminado, com pessoas e principalmente empresas abandonando a especulação e incorporando a IA em seu cotidiano. Mas ainda há muito a se aprender sobre como aproveitá-la de maneira ética, produtiva e segura.


Veja esse artigo em vídeo:


“Estamos em uma fase muito importante, de democratização da IA generativa e também de uma compreensão maior dessa tecnologia”, afirma Adriana Aroulho, presidente da SAP Brasil, subsidiária brasileira da gigante alemã de software que vem incorporando a tecnologia em seus produtos.

Essa percepção é compartilhada por Gilson Magalhães, diretor-geral da Red Hat Latin America. “Não é só aquela questão de você ter perguntas respondidas por uma máquina de forma brilhante, mas como aquilo poderá ser inserido nas empresas”, explica. Segundo ele, depois da fase inicial de experimentação, nesse ano as companhias começaram a colher benefícios na produtividade de suas equipes, com método. “A gente viu algumas empresas já criando processos internos para permitir que a inteligência artificial fosse incorporada, considerando aspectos de segurança, de compliance, de copyright, de soberania de dados”, acrescenta.

É importante notar que, apesar dos impressionantes avanços exponenciais (e para alguns, quase sobrenaturais) dos grandes modelos de linguagem, quando se olha para os ganhos para os negócios pela IA, isso se deve também a um amadurecimento de suas equipes.

“É muito mais do lado das empresas, de os gestores começarem a ter uma visão mais concreta, mas tangível do que pode e do que não pode ser feito, o que é exagerado ou não”, explica Marco Stefanini, fundador e CEO Global do Grupo Stefanini. Isso é muito importante, pois muitos gestores acreditam que a tecnologia sozinha fará “mágicas” em seu negócio, e esse é um caminho fácil para a frustração. Para o executivo, “vem muito mais de maturidade das empresas que da própria tecnologia.”

Esse também foi um ano em que a IA passou a ser usada para melhorar planos de negócios, ajudar a vencer a burocracia, diminuir custos e concretizar ideias. “As pessoas já vinham abrindo negócios nas redes sociais sem apoio da inteligência artificial, mas agora, com ela, ganham muito poder”, sugere Marcelo Flores, gerente-geral da consultoria da IBM Brasil. E vai além nos benefícios da IA nisso: “as pessoas estão tendo mais poder de escolha das suas carreiras.”

Não é exagero, portanto, dizer que a IA é uma das tecnologias mais transformadoras que existiram, ao lado da marcos como a imprensa, o domínio da eletricidade e a Internet. Mas tudo traz consequências e, com a velocidade típica da IA, nem sempre temos tempo de pensar sobre isso.

 

Ética e segurança

Se em 2023, vimos diversos exemplos de sérios problemas decorrentes de usos descuidados da IA, 2024 trouxe alguma conscientização sobre um uso mais responsável dela. “Em um momento de intenso hype em torno da inteligência artificial, reforçamos a importância de uma abordagem equilibrada e construtiva, focada em resultados tangíveis e no impacto a longo prazo nos negócios”, explica Aroulho.

“Houve uma discussão muito grande neste ano para não se entrar de forma inconsequente no uso de uma tecnologia que pode ter desdobramentos em todas as direções, inclusive para divulgação de dados que não deveriam sair de dentro da empresa”, acrescenta Magalhães. “Isso passou a ser uma preocupação, que, de certa forma, trava um avanço mais rápido.”

Essa também foi uma das marcas de 2024: quais os limites éticos do uso da IA? Se ela deve ser regulamentada para proteger o cidadão, como fazer isso sem impedir o seu desenvolvimento?

A Europa puxou a fila das regulamentações dessa tecnologia: o Parlamento Europeu aprovou a sua Lei da Inteligência Artificial em março, criando vários níveis de risco de seus usos, atribuindo a cada um diferentes níveis de responsabilidade de empresas e governos. Ela não trata da tecnologia em si, para evitar empecilhos ao seu desenvolvimento. No Brasil, o projeto de lei 2338/2023, que visa regulamentar a IA e que apresenta forte inspiração na lei europeia, foi aprovado pelo Senado Federal em 10 de dezembro, e começará 2025 em análise na Câmara dos Deputados.

“Não sou contra regulamentação de maneira alguma –é necessária–, mas não pode ser exagerada”, explica Stefanini, dando voz a um debate que movimenta intensamente o setor. “A gente está perdendo essa janela, olhando para um viés muito político, carregado de controle, nocivo para o desenvolvimento da IA no país”, afirma.

A falta de consenso em torno disso foi outra marca de 2024. O lobby das big techs, que preferem pouca ou nenhuma regulamentação para acelerarem o máximo que puderem no desenvolvimento da IA, é intenso! Mas alguns dos maiores especialistas do setor afirmam que isso é um grande risco, pois a IA vem se comportando de maneiras que surpreendem seus próprios desenvolvedores.

O ano termina então com um grande desafio de encontrarmos maneiras de ampliarmos o desenvolvimento e os usos da IA para todos, porém de maneira responsável e segura. Como afirma Flores, “temos que democratizar a tecnologia, porque ela tem que ser benéfica para todos no seu dia a dia.”

Pelo que vimos nesse ano, esse debate se desdobrará de maneiras muito interessantes em 2025.

 

Para Kant (esquerda), não se pode ser imoral, mesmo para um bom fim; já Maquiavel defendia que o fim justifica os meios - Foto: reproduções

Como equilibrar a ética, a competitividade tecnológica e a liberdade de expressão

By | Tecnologia | No Comments

Estamos chegando ao final de um ano em que o debate sobre o equilíbrio entre a ética, a competitividade tecnológica e a liberdade de expressão ganhou novos contornos com o avanço da inteligência artificial, de práticas questionáveis das big techs e com as discussões em torno do Marco Civil da Internet. Enfrentamos uma grande dificuldade para encontrar um caminho razoável para, ao mesmo tempo, proteger as pessoas da voracidade irresponsável das plataformas digitais, evitar a censura, fazer um uso seguro da tecnologia e garantir a competitividade pessoal, nos negócios e até de nações, em uma geopolítica cada vez mais determinada pela tecnologia.

Esse é um dos grandes desafios dessa geração, pois a sociedade não está conseguindo processar as mudanças na velocidade em que estão sendo impostas. Insistimos em medir essa transformação com réguas que foram criadas para um mundo que já não existe. Esse é um processo fadado ao fracasso!

O exemplo mais claro é o impacto social das casas de aposta online, as infames “bets”. Elas crescem exponencialmente no mundo todo, mas no Brasil se tornaram um problema de saúde pública, com pessoas perdendo economias de uma vida e indivíduos das camadas mais pobres gastando o dinheiro da comida na jogatina.

Alguns podem dizer que “aposta quem quiser”. Só que atribuir toda a culpa ao livre arbítrio é um reducionismo de tudo que se discute aqui. A facilidade de se apostar pelo smartphone fica irresistível com a influência dos algoritmos dessas plataformas, com a promessa mentirosa de ganhos fáceis (ampliada por influenciadores pagos), com a interface gamificada e até com um senso de pertencimento no grupo de amigos apostadores.

Em outras palavras, nosso livre arbítrio é manipulado pelas mais diversas plataformas digitais, e engana-se quem acredita ser totalmente imune a isso. A sedução digital insidiosa vence mesmo mentes afiadas, em algum momento. É disso que temos que tratar, sem perder os inegáveis benefícios da tecnologia ou ferir direitos fundamentais.


Veja esse artigo em vídeo:


Agora o Supremo Tribunal Federal (STF) debate a inconstitucionalidade do artigo 19 do Marco Civil da Internet. “Inconstitucionalidade” é uma palavra forte, mas não me parece ser o caso do referido artigo. Ainda assim, os votos já dados por ministros do STF indicam que ele acabará sendo classificado dessa forma.

Historicamente, defendo o artigo 19. Ele determina que cada um seja responsável pelo que publica nas plataformas digitais, que elas não sejam corresponsáveis por isso, e que elas devem retirar do ar apenas conteúdos que a Justiça tenha julgado ofensivos. Já o artigo 21 abre uma exceção para conteúdo com nudez ou sexo não autorizados, quando basta uma notificação extrajudicial para que as redes sejam obrigadas a remover a publicação. Essa combinação de artigos valoriza a liberdade de expressão.

Não há dúvida sobre qualquer um ser responsável, para o bem e para o mal, pelo que publica na Internet. Mas há uma simplificação muito grande sobre o papel das empresas. Elas já retiram sumariamente o que consideram inadequado seguindo seus critérios, muitas vezes questionáveis. O processo ocorre majoritariamente de forma automática, e seus algoritmos erram muito na sua decisão, tanto ao retirar conteúdos legítimos, quanto ao preservar outros, que ferem leis e seus próprios termos de uso.

As plataformas oferecem sistemas de denúncia contra conteúdos inadequados, mas eles são muito falhos. Eu mesmo já fui vítima de diversos delitos digitais, como discurso de ódio e roubo de conteúdo. Sempre utilizo essas ferramentas de denúncia, mas é muito raro que isso produza qualquer resultado.

Pela redação do artigo 19, eu e pessoas vítimas de afrontas online muito mais graves precisamos entrar na Justiça para nos defender, um processo complexo, caro e muito longo. Enquanto isso, o problema continuará no ar, infligindo severos danos. Como as plataformas ficarão isentas, não farão nada, apesar de viabilizarem o crime.

Em sua defesa, elas argumentam que, se tomarem para si a decisão de o que pode ser publicado, correm o risco de promover censura. O argumento é verdadeiro, mas é cínico, pois as mesmas plataformas promovem ostensivamente conteúdos claramente nocivos, pois são os que lhes rendem maiores ganhos. E nada lhes acontece!

Esse é o tipo de conflito que esses tempos digitalmente acelerados nos impõem.

 

A superinteligência digital

Esse debate também se aplica à inteligência artificial.

Na sexta (20), a OpenAI, criadora do ChatGPT, lançou o OpenAI o3, seu novo modelo de IA, com capacidades cognitivas ainda mais impressionantes. A empresa não mede esforços em incensar seus novos produtos como passos em direção à Inteligência Artificial Geral, um estágio teórico em que o sistema deixaria de ser especializado em uma coisa e passaria a pensar como um ser humano, dispensando comandos e sendo capaz de resolver qualquer coisa sem ter sido criado para aquilo, de pintar um quadro a dirigir um carro. Algumas pessoas afirmam que o o3 seria algo ainda maior: o caminho para a superinteligência artificial, um conceito teórico ainda mais ousado, em que a máquina superaria largamente as capacidades humanas em qualquer área.

Todos esses holofotes são ótimos para os negócios da OpenAI, que lidera essa indústria, mas sofre forte concorrência de empresas como o Google e a Anthropic. Mas mostra também que essas empresas parecem dispostas a acelerar contra uma parede, se isso lhes garantir o protagonismo nessas tecnologias.

Alguns dos maiores especialistas do setor, como Geoffrey Hinton, considerado o “padrinho da IA”, demonstram sérias preocupações com isso. Alguns afirmam que nunca chegaremos a esse estágio tecnológico, mas o maior temor é que percamos o controle desses sistemas, que passariam a se autoatualizar seguindo seus interesses, e não mais os da humanidade, algo conhecido no setor como “desalinhamento”.

Caímos novamente na questão de regulações. Como de costume, a Europa saiu na frente, com sua Lei da Inteligência Artificial, focada em proteger os cidadãos de maus usos dessa tecnologia e de abusos de empresas e de governos.

Muita gente acredita que ela reduzirá a competitividade do continente cada vez mais, especialmente diante de nações que regulam pouco ou nada a IA, como a China. No caso dos EUA, há uma grande expectativa de como o país se comportará nisso com o início, em janeiro, do segundo mandato presidencial de Donald Trump, fortemente influenciado pelo libertário Elon Musk, publicamente contrário a regulamentações.

A verdade é que ninguém sabe como equilibrar a ética, a competitividade e os direitos individuais nessa corrida desenfreada e irresponsável da tecnologia. Ela naturalmente deve continuar sendo desenvolvida e precisamos aprender a fazer usos produtivos dela. Mas isso não pode passar por cima da segurança e do bem-estar das pessoas.

O mundo atual vem sendo guiado por princípios do filósofo Nicolau Maquiavel (1469-1527), que defendia que o sucesso e a manutenção do poder justificariam os métodos empregados, mesmo imorais, desde que fossem eficazes. Mas talvez devêssemos olhar mais para as ideias de outro filósofo, Immanuel Kant (1724-1804). Para ele, mentir ou agir imoralmente nunca é justificável, mesmo para alcançar um bom fim.

Temos que fazer isso logo, antes que a sociedade se esfacele irreversivelmente.

 

Influenciadores dominam a linguagem das redes, mas a maioria não checa as informações que publica - Foto: Freepik/Creative Commons

Influenciadores promovem desinformação por amadorismo e descuido

By | Jornalismo | No Comments

Que as redes sociais são o grande vetor da desinformação, não é novidade. Mas em tempos em que o Supremo Tribunal Federal (STF) discute se essas plataformas têm responsabilidade sobre conteúdos nocivos em suas páginas, precisamos entender as motivações que levam alguém a fazer isso. Nesse cenário, os influenciadores digitais desempenham um papel central, pelo seu poder de persuasão de grandes plateias.

Existem aqueles que conscientemente propagam informações falsas, e esses devem ser combatidos. Mas o estudo “Por Trás das Telas”, publicado no dia 26 de novembro pela Unesco (Organização das Nações Unidas para a Educação, a Ciência e a Cultura) mostra que muitos fazem isso sem intenção, por amadorismo ou descuido.

Realizada com 500 influenciadores de 45 países, incluindo o Brasil, a pesquisa indica que apenas 36,9% dos influenciadores verificam a correção das informações que publicam. Além disso, 41,7% deles consideram curtidas e visualizações como o principal critério de credibilidade de suas fontes.

Esses dois números deixam claro que eles podem ser facilmente manipulados pelos criadores de desinformação, agravando o problema. A boa notícia é que 73% demonstraram interesse em serem treinados para melhorarem em sua atividade.

Apesar dos ataques daqueles que se beneficiam da desinformação, a imprensa ainda goza de boa credibilidade com a maior parte da população. Mas há anos ela não está mais sozinha no processo informativo, dividindo esse espaço com os influenciadores.

Seria ótimo que esses dois grupos trabalhassem juntos, mas parecem viver em mundos distintos. É uma pena, pois o público se informa por ambos, cada um com suas vantagens e desvantagens.


Veja esse artigo em vídeo:


O estudo aponta que apenas 36,9% dos influenciadores digitais se informam pela imprensa, a mesma quantidade dos que fazem isso a partir de fontes online que não sejam da mídia profissional. Sua principal “fonte” é a própria experiência (58,1%), seguido por pesquisas e entrevistas próprias (38,7%).

Para os influenciadores, as já citadas curtidas e visualizações de longe dão mais credibilidade a uma fonte. Depois vem a simples confiança em um amigo ou especialista (20,6%), seguida de perto pela reputação do autor (19,4%). Documentações são usadas apenas por 17,0% dos influenciadores.

Se apenas 4 entre 10 deles checam as informações antes de publicá-las, 33,5% publicam sem checar se confiarem na fonte. Outros 15,8% publicam sem verificar se considerarem o conteúdo divertido ou útil. Por fim 13,2% checam apenas se o que compartilharem for uma notícia.

Vale dizer que 59,0% desconhecem ou apenas ouviram falar de regras relacionadas às comunicações digitais e 56,4% conhecem treinamentos voltados para eles, mas só 13,9% desses participaram de algum. Isso faz com que saibam pouco sobre seus direitos e deveres como produtores de conteúdo, o que facilita com que 32,3% sofram com discursos de ódio nas redes. Tudo fica mais grave quando se pensa que ganhar dinheiro é a principal motivação de um quarto deles.

O estudo considera que alguém com mais de mil seguidores já pode ser considerado um seguidor, mas 68,0% dos entrevistados tinham até 10 mil seguidores. Desse valor a 100 mil seguidores, eram 25,0%. Apenas 1,6% tinham mais de 1 milhão de seguidores. A rede preferida é o Instagram (34,0%), seguido pelo Facebook (25,0%), o TikTok (16,4%) e YouTube (9%).

A categoria mais popular é de “moda e estio de vida” (39,3%). Na sequência, vêm “beleza” e “viagem e comida” (ambos com 34,0%), “jogos” (29,0%) e “comédia” (27,1%). Os estilos mais populares de publicações são “coisas bonitas” (18,0%), “entretenimento e memes” (15,6%) e “recomendações” (13,8%).

Ao contrário da imprensa, que, a despeito de imperfeições, segue regras rígidas para produção de conteúdo, esse amadorismo dos influenciadores representa um sério ponto de atenção.

 

“Desordem informacional”

Em 2017, um estudo do Conselho da Europa e da Universidade de Harvard classificou a “desordem informacional” em desinformação (informação deliberadamente errada para causar danos), informação falsa (errada, mas sem intenção de causar danos) e informação maliciosa (correta, mas usada para causar danos). Influenciadores, muitas vezes, se encontram na segunda categoria, quando espalham informações incorretas por confiarem em fontes ruins ou por não saberem como verificar uma informação.

O instituto britânico Alan Turing detalhou em 2021 como uma sociedade pode ameaçar a própria sobrevivência com ataques deliberados à aquisição de conhecimento. Segundo a pesquisa, há quatro ameaças a isso, nenhuma ao acaso. A primeira são pessoas que atrapalham as decisões com desinformação, de maneira consciente ou não. Há também o excesso de informação, que atrapalha as pessoas na separação de verdades e mentiras. Elas também se acostumaram a rejeitar o que desafia suas ideias, particularmente se houver uma forte identidade no grupo. E, por fim, as redes sociais tornaram mais difícil avaliar a confiabilidade das fontes.

A pesquisa conclui que, quando não sabemos em quem acreditar, confiamos naquilo que nos mostra o mundo como queremos. Novamente os influenciadores podem se tornar ferramentas poderosas para a desinformação, mesmo inconscientemente.

Infelizmente as perspectivas de melhora desse quadro não são animadoras, diante da resistência das redes sociais de sofrerem qualquer tipo de responsabilização e do persistente amadorismo dos influenciadores. A colaboração desses profissionais com jornalistas, atuando de maneira complementar, traria grande benefício à sociedade.

Os influenciadores têm alcance e confiança de seus seguidores, além de dominar a linguagem das plataformas digitais. Já os jornalistas possuem ética e técnica para produzir informações precisas e contextualizadas. Uma parceria efetiva entre essas comunidades poderia não apenas mitigar os impactos da desinformação, como fortalecer a confiança no ecossistema informacional.

Infelizmente isso esbarra em barreiras culturais e estruturais. Influenciadores priorizam sua autonomia criativa, e podem ver jornalistas como representantes de um modelo de comunicação pouco dinâmico e distante da realidade das redes. Jornalistas, por sua vez, frequentemente subestimam a capacidade dos influenciadores de se adaptarem às boas práticas jornalísticas.

A desinformação é um dos maiores desafios dessa geração. Ela sempre existiu, mas as redes sociais transformaram o que antes não passava de fofocas restritas em uma indústria milionária de distorção da realidade. Apesar desse fenômeno digital ter menos de uma década, já provocou danos irreparáveis no mundo.

A solução desse problema depende de todos nós, começando por escolhermos fontes confiáveis de informação. O estudo da Unesco mostra que, se influenciadores e jornalistas conseguissem juntar forças criativamente, poderiam construir ambientes informacionais mais saudáveis, transparentes e comprometido com a verdade.

A sociedade agradecerá muito se isso acontecer!

 

O Parlamento Australiano, que aprovou uma lei que proíbe menores de 16 anos nas redes sociais - Foto: Dietmar Rabich/Creative Commons

Austrália põe fogo no debate ao proibir redes sociais para menores de 16 anos

By | Tecnologia | No Comments

Enquanto o Supremo Tribunal Federal (STF) debate regras mais rígidas para as redes sociais no Brasil, a Austrália “pôs fogo” no debate ao aprovar, no último dia 28, uma lei que sumariamente proíbe o uso dessas plataformas por qualquer pessoa com menos de 16 anos. E a responsabilidade para isso não acontecer recai sobre essas empresas, sob pena de multas equivalentes a quase R$ 200 milhões.

Apesar de restrições às redes sociais serem debatidas no mundo todo, essa é a primeira legislação que impede seu uso por crianças e adolescentes em qualquer situação. Ela também inova por atribuir às big techs a função de “porteiro”.

A lei despertou aplausos e gritarias. Especialistas afirmam que a iniciativa representa um passo importante para proteger os mais jovens de sérios riscos a que são expostos nessas plataformas, como cyberbullying, assédio moral e sexual, desinformação e outros conteúdos que podem provocar sérios problemas de saúde mental e até a suicídio. Também é vista como maneira de responsabilizar empresas por priorizarem lucros em detrimento da segurança dos mais jovens.

Os críticos, capitaneados pelas próprias big techs, dizem que a lei é inócua, pois os adolescentes encontrarão maneiras de burlar o sistema. Argumentam que isso pode privar os mais jovens de informações importantes e restringiria sua capacidade de socialização. Por fim, a lei prejudicaria a privacidade desses usuários.

A iniciativa australiana escancara o poder desmedido que as big techs construíram. Nunca houve empresa, governo ou instituição capaz de influenciar decisivamente a vida de bilhões de pessoas ao redor do mudo, enfrentando legislações e culturas de países muito diferentes. Resta saber se a lei conseguirá mesmo proteger os mais jovens, e como isso pode incentivar outros países a criarem legislações semelhantes.


Veja esse artigo em vídeo:


Há duas décadas, a desinformação era restrita a falas de políticos e a veículos sensacionalistas, discursos de ódio não se alastravam além de pequenos grupos e fatores de ansiedade adolescente eram muito mais facilmente manejáveis. As redes sociais criadas naquela época, como o Facebook, o Instagram e o Twitter, não foram pensadas para se tornar os veículos que dariam alcance planetário e velocidade descontrolada a tudo isso e a muitos outros conteúdos nocivos.

Elas argumentam que não têm como controlar tudo que seus usuários publicam em suas páginas, e se eximem de qualquer responsabilidade, apoiando-se em legislações como a seção 230 da americana CDA (sigla em inglês para “Lei de Decência nas Comunicações”) e o artigo 19 do Marco Civil da Internet brasileiro.

Leis como essas foram fundamentais para o desenvolvimento das redes sociais, mas foram criadas para realidades que há muito não existem mais. Essas plataformas deixaram de ser inocentes veículos de conteúdos de terceiros quando seus algoritmos passaram a identificar e promover aqueles que geram mais engajamento e lucros, mesmo sabendo que costumam ser publicações com os problemas já citados.

Isso foi evidenciado em outubro de 2021, quando a ex-gerente de produtos do Facebook Frances Haugen divulgou milhares de documentos internos da Meta (empresa dona do Facebook, Instagram e WhatsApp) que explicitavam que a empresa sabe do problema e faz muito menos do que poderia para evitá-lo, especialmente no que se refere a adolescentes, pois isso prejudicaria os seus lucros. O escândalo ficou conhecido como “Facebook Papers”.

No dia 31 de janeiro, em audiência no Senado americano sobre o impacto das redes sociais em crianças, o CEO da Meta, Mark Zuckerberg, se levantou e pediu desculpas aos pais de vítimas jovens das redes sociais que estavam no local. O senador republicano Josh Hawley disse a ele que “seu produto está matando pessoas”.

Dado que o grave problema existe e está indelevelmente associado às redes sociais, mas elas não podem ou não querem resolvê-lo, a solução seria simplesmente “cortar o mal pela raiz”, tirando os mais jovens dali?

 

Grandes poderes e responsabilidades

A Austrália acha que sim! Levantamento da empresa de pesquisas YouGov realizada no mês passado indicou que 77% dos australianos apoiam a proibição de menores de 16 anos nas redes sociais. A lei passa a valer em 2025 e as empresas terão que se adaptar até uma data que ainda não foi definida.

Curiosamente, a Meta prometeu para o próximo ano o recurso “classificador de adultos”, que usará inteligência artificial para descobrir a idade real de um usuário. Se concluir que tem menos de 18 anos, a conta será automaticamente classificada como de adolescente, com várias restrições. Para isso, a tecnologia monitorará publicações e gostos do próprio usuário e de seus amigos. Ao se tentar alterar a idade, o sistema poderá exigir que o usuário grave um vídeo para estimá-la por características faciais.

Isso é muito bem-vindo, mas obviamente a Meta não quer que os valiosos e engajados adolescentes deixem de usar seus produtos. Na verdade, antes dos “Facebook Papers”, a empresa pensava em criar versões de seus sistemas para usuários com menos de 13 anos, como o “Instagram Kids”. Depois do escândalo, a empresa interrompeu esses projetos.

As big techs estão chamando a nova lei australiana de “vaga”, “precipitada” e “contrária a normas internacionais”. De fato, ela foi debatida e aprovada no Parlamento Australiano em apenas uma semana, mas isso se deu após um longo debate público.

Os resultados dessa iniciativa provavelmente influenciarão debates semelhantes em outros países. É o caso do Reino Unido, que está realizando estudos para uma lei muito semelhante à australiana.

A regulamentação dessas plataformas se faz necessária pela incomensurável influência que elas exercem sobre nós, muitas vezes de forma bastante negativa. É preciso criar padrões globais para regulamentação, evitando que essas empresas se aproveitem de brechas legais em países com legislações mais permissivas.

Mas tudo isso precisa ser acompanhado por programas sérios de educação digital e midiática da população, começando nos primeiros anos escolares. Temos que formar pessoas mais críticas e menos suscetíveis a manipulações.

Com seus bilhões de usuários, as big techs se tornaram não apenas um negócio muito lucrativo, mas uma poderosa força política. Qualquer que seja o modelo para minimizar os aspectos tóxicos de seu uso deve considerar o envolvimento e a responsabilização dessas empresas, para que sejam mais transparentes e éticas.

Todos os países precisam exigir ambientes digitais mais saudáveis e seguros, sem sufocar a inovação ou comprometer os direitos fundamentais dos cidadãos. Por isso, uma boa regulamentação dessas plataformas não deve ser vista como um obstáculo, mas como uma oportunidade para elaborar um futuro digital responsável.

 

A estátua da Justiça, diante do STF: ministros julgam o artigo 19 do Marco Civil da Internet - Foto: Marcelo Casal Jr./Agência Brasil

Quem diz o que pode e o que não pode na Internet

By | Tecnologia | No Comments

Na quarta passada, o STF (Supremo Tribunal Federal) começou um julgamento que pode impactar profundamente como usamos a Internet e como ela nos influencia. Ele se refere ao artigo 19 do Marco Civil da Internet, que estabelece que a responsabilidade sobre um conteúdo publicado nas redes sociais é de seu criador, com essas plataformas respondendo por ele apenas se não tomarem providências após uma decisão judicial.

A despeito da enorme importância do tema, é preciso questionar quem deve decidir sobre isso e por qual motivo.

Publicado no dia 23 de abril de 2014, esse mecanismo visa proteger a liberdade de expressão, impedir a censura e garantir a inovação da Internet. Ele se alinha à seção 230 da CDA (sigla em inglês para “Lei de Decência nas Comunicações”), trecho dessa lei americana de 1996 chamado de “as 26 palavras que criaram a Internet”.

Esses princípios continuam valendo, mas o mundo mudou profundamente nessa década. As plataformas digitais deixaram de ser neutras no momento em que seus algoritmos passaram a ativamente promover o que gerava mais engajamento e consequentemente lucros. Ainda assim, essas empresas continuaram se beneficiando dessa proteção jurídica, mesmo quando tais conteúdos destacados levaram à extrema polarização social e à deterioração da saúde mental dos seus usuários.

Criou-se uma situação em que a sociedade padece exponencialmente com os mais diversos abusos nas plataformas digitais, com pouco ou nada sendo feito sobre isso. O Legislativo deveria então atualizar a lei, mas a letargia do Congresso Nacional no tema acaba pressionando a Justiça. E isso é ruim, porque diminui o debate democrático em torno de algo crítico para nossas vidas.


Veja esse artigo em vídeo:


Para Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propagando e Marketing), “nesse contexto, é justo que as plataformas assumam responsabilidades proporcionais pelos impactos dessas escolhas algorítmicas”. Mas ele alerta que não basta simplesmente atribuir o ônus às plataformas. “Eventual regulação deve estabelecer limites claros e mecanismos de contestação para que a moderação não se transforme em censura ou inviabilize a atividade”, explica.

“A responsabilidade excessiva pode levar as plataformas a adotarem uma postura conservadora, eliminando conteúdos legítimos por receio de sanções”, adverte Antonielle Freitas, especialista em direito digital e proteção de dados do Viseu Advogados. “Isso pode, sim, configurar censura, prejudicando o debate público e a liberdade de expressão”, acrescenta.

O Congresso já tratou do tema, com o projeto de lei 2630/2020, apelidado de “PL das Fake News”, que foi enterrado na Câmara dos Deputados em maio do ano passado. Ele propunha regulamentar o combate à desinformação e ao discurso de ódio, estabelecendo transparência e responsabilização das plataformas digitais.

Ironicamente ele foi vítima de desinformação, promovida por alguns grupos sociais e pelas próprias big techs, que convenceram a população e deputados federais que a lei promoveria censura estatal e restringiria a liberdade de expressão. Por isso, graças a um ambiente político muito polarizado e a pontos polêmicos, não houve consenso.

Depois disso, o tema perdeu relevância no Legislativo, mas os impactos das redes sociais na sociedade continuam intensos, desaguando em ações no STF. Crespo lembra que a Corte não escolhe o que julgar, mas, para ele, o artigo 19 não é inconstitucional. “O problema é que o Supremo parece querer mudar o regime de responsabilidade das plataformas e o está fazendo a partir do julgamento do artigo 19”, diz o advogado. “Entendo que possamos rever o regime de responsabilidade das plataformas, mas não acredito que o melhor caminho seja pelo julgamento da inconstitucionalidade do artigo 19”, conclui.

 

Equilíbrio entre Poderes

É um consenso que o assunto deveria ser tratado pelo Legislativo. Mas a baixa disposição dos congressistas para lidar com o problema, motivada por ignorarem sua gravidade, por interesses pessoais ou simplesmente por privilegiarem assuntos que considerem mais importantes, empurra o imbróglio para os outros Poderes. Nesse sentido, a ação do STF pode ser necessária quando a inoperância do Congresso comprometa direitos fundamentais ou a segurança jurídica, como na proliferação descontrolada da desinformação e do discurso de ódio.

Ministros do STF entendem que os ataques à Democracia nos últimos anos, culminando no atentado com bombas contra a Corte, no último dia 13, justificam sua ação. De fato, juristas apontam que a lei seja aperfeiçoada para combater a disseminação de conteúdos que promovam terrorismo, abusos contra mulheres e menores, exploração sexual, racismo e ataques à Democracia.

Um elemento externo esquentará esse debate. O presidente eleito dos EUA, Donald Trump, anunciou o empresário Elon Musk, dono da rede social X, como líder do recém-criado Departamento de Eficiência Governamental. Entre suas funções estará desregulamentar diversos setores da economia e reestruturar agências federais.

“Se os EUA flexibilizarem suas regulações (das redes sociais), outros países podem sentir-se pressionados a adotar posições semelhantes, seja por alinhamento político ou para manter competitividade econômica”, sugere Freitas. “Isso enfraqueceria iniciativas globais voltadas à criação de um ambiente digital mais seguro e responsável, potencializando os desafios relacionados à desinformação, discurso de ódio e exploração de vulnerabilidades dos usuários”, afirma. Mas a advogada lembra que esse movimento pode ter um efeito contrário, com governos e organizações intensificando esforços para estabelecer normas que mitiguem os efeitos de uma desregulamentação excessiva.

Qualquer que seja o desfecho desse movimento do STF, ela já tem um mérito: reacender o debate em torno desse tema crítico para a sociedade. Enquanto o Legislativo não fizer a sua parte, as big techs continuarão monopolizando o assunto e se beneficiando de premissas às quais não têm mais direito. A polarização, o ódio e outros males de nosso tempo gestados e promovidos em suas páginas precisam ser contidos. Mas isso só acontecerá se essas companhias forem parte ativa da solução, assumindo responsabilidades proporcionais por suas ações e omissões.

 

Para o CEO da OpenAI, Sam Altman, devemos chegar à IA Geral nos próximos anos: agentes são um possível caminho - Foto: reprodução

Líderes da IA começam nova corrida tecnológica

By | Tecnologia | No Comments

A disputa para dominar a inteligência artificial anda tão acirrada, que se parece cada vez mais a uma corrida de cavalos, em que o ganhador vence “por um nariz”. Agora foi dada a largada para um novo páreo, o dos agentes de IA, e os principais nomes dessa indústria já estão na pista!

Isso não quer dizer que os agentes sejam uma novidade: eles já existem há anos em nossas vidas pessoais e profissionais. Mas até agora são soluções prontas dos fabricantes. Criar o próprio agente é uma tarefa complexa e que exige conhecimentos técnicos. O que Microsoft, OpenAI, Google e Anthropic prometem agora é tornar essa tarefa tão simples quanto conversar com um chatbot, como já nos acostumamos.

Um agente é um sistema que usa a IA para realizar tarefas específicas de maneira autônoma, com pouca ou nenhuma dependência de um ser humano. Ele age de maneira contínua, monitorando o ambiente e analisando dados para tomar decisões seguindo o que lhe foi pedido. Isso é bem diferente de um uso da IA generativa, como conversas com o ChatGPT, em que, por mais incríveis que seus resultados sejam, são atividades pontuais e totalmente dependentes da interação com o usuário.

Essas empresas agora prometem unir o melhor desses dois mundos, de modo que qualquer pessoa possa criar agentes sofisticados de maneira tão simples, quanto pedir que o chatbot escreva um texto. Ainda que isso não vá acontecer imediatamente, a simples abertura desse caminho pode ser realmente revolucionária.


Veja esse artigo em vídeo:


A Microsoft saiu na frente nessa nova etapa, com o lançamento do Copilot Studio. Ele permite criar agentes de IA com relativa facilidade, expandindo as funcionalidades do Copilot ao integrá-lo a bases de dados empresariais, gerando respostas a partir dessas informações, considerando cada contexto específico. Esses agentes podem ser distribuídos para pessoas dentro e fora da organização.

Já a Anthropic, startup de IA ligada ao Google e à Amazon, anunciou recentemente uma abordagem inusitada para sua plataforma Claude, batizada de “uso do computador”. Ainda na fase de testes, ela inova ao adaptar a IA para o uso de sistemas existentes, e não o contrário. Ela pode, por exemplo, assumir o controle de um computador como se fosse o usuário, para realizar tarefas de acordo com o que aparece na tela, até mesmo usando vários programas.

A OpenAI, que continua sendo a estrela mais brilhante do setor com seu ChatGPT, obviamente não quer ficar para trás. A empresa anunciou a versão de testes de um produto para desenvolvedores semelhante à solução da Anthropic. Ela deve ser liberada em janeiro.

O Google também “está dando seus pulos”. A empresa promete novidades na área de agentes ainda nesse ano! Vale lembrar que a empresa impressionou muita gente em 2019, quando ninguém ainda falava de IA generativa, com o lançamento do Google Duplex. Ele permite que o usuário peça que o Assistente realize tarefas simples, com a possibilidade de fazer ligações telefônicas, para, por exemplo, reservar uma mesa de restaurante, interagindo com atendentes humanos. Essas conversas são tão impressionantes, que muita gente se incomodou quando descobria que estava falando com um robô, e não com outra pessoa.

Os agentes que já estão disponíveis em nosso cotidiano se diferenciam de automações convencionais justamente pelas características da IA, especialmente de continuar funcionando se algo não sai como o esperado. Eles também melhoram com o uso, aprendendo coisas novas.

 

O futuro é dos agentes

Nas empresas, os agentes vêm sendo usados cada vez mais no atendimento automatizado a clientes. Eles também são muito úteis ao identificar movimentos do mercado e propor ações mais assertivas para as equipes comerciais, além de ajudar em negociações e de propor ideias aos gestores. Eles também são bastante usados pelo RH, em processo de contratação e até de demissão de profissionais.

Em nosso cotidiano pessoal, os agentes estão em nossos smartphones (no Google Assistente e na Siri) e em alto-falantes inteligentes, como o Amazon Echo. Nesse último, a Alexa pode, entre outras coisas, identificar compras recorrentes e auxiliar em novos pedidos, quando necessário. Relógios inteligentes e outros dispositivos podem monitorar a nossa saúde, e até eletrodomésticos, como aspiradores de pó robôs, realizam tarefas da casa de forma autônoma e cada vez melhor.

Quando a nova geração de agentes sair da fase de testes e chegar ao cidadão comum, ela poderá ampliar seus poderes consideravelmente. As pessoas não ficarão mais restritas aos agentes criados pelos fabricantes dos equipamentos.

Isso permitirá a definição de regras complexas, que combinarão recursos e informações de diferentes serviços aos que o usuário tem acesso. Por exemplo, será possível tirar automaticamente dinheiro de uma aplicação financeira que esteja com baixa rentabilidade para comprar ações de uma empresa com boas perspectivas.

É praticamente um consenso entre especialistas que os agentes representam o futuro da IA. Eles não apenas se tornarão mais diversificados e poderosos, como também serão mais fáceis de se criar. Além disso, veremos cada vez mais soluções complexas resultantes da combinação de vários agentes trabalhando em conjunto.

Muita gente acredita que esse seja o caminho para a Inteligência Artificial Geral (IAG), o “Santo Graal” dessa tecnologia. Quando (e se) estiver disponível, ela tomará decisões de maneira autônoma (ou seja, sem necessidade de comandos de alguém), sobre qualquer assunto e de maneira adaptável. É basicamente como nosso cérebro funciona, mas a IAG terá sobre nós a vantagem de analisar, com velocidade sobre-humana, uma quantidade de dados gigantesca, para tomar decisões mais assertivas.

Ainda existe muita especulação se chegaremos a isso algum dia. Especialistas de alto nível afirmam que a IAG é um conceito teórico inatingível. As big techs apostam fortemente no sucesso, dizendo que isso acontecerá ainda nessa década. Mas não podemos esquecer que elas têm interesses comerciais em afirmações como essas.

Qualquer que seja esse desfecho, devemos nos manter atentos às oportunidades que essa tecnologia oferece, apropriando-nos do que ela pode nos oferecer de bom e nos mantendo vigilantes contra eventuais armadilhas que desenvolvimentos descuidados e usos pouco éticos possam colocar em nosso caminho.

Esse é um trabalho de educação digital importantíssimo, envolvendo empresas, instituições de ensino, governos e outros atores da sociedade civil. As pessoas precisam entender e se apropriar conscientemente da IA e seus agentes, e isso deve chegar a todos.

 

IA pode agravar situação de pessoas já marginalizadas digitalmente - Foto: Freepik/Creative Commons

A desigualdade social faz com que a mesma IA que impulsiona carreiras tire empregos

By | Tecnologia | No Comments

A inteligência artificial pode maximizar nossas habilidades, mas também amplia contradições de nosso tempo. Isso aparece com muita força no âmbito profissional.

Já se tornou quase um mantra do mercado dizer que as pessoas que não abraçarem essa tecnologia perderão os empregos para colegas que o fizerem, e é verdade. Mas ironicamente quem a usar também pode ir para o olho da rua, se não fizer isso direito.

Cria-se então uma zona de contato bastante estreita, entre um “superpoder” para voar aos céus da carreira e a queda em um abismo profissional resultante de uma má educação no uso da IA. E esse não é um mero exercício intelectual. Ela já aumenta, agora mesmo, as vantagens de muitos profissionais e empresas. Do outro lado, vemos cerca de 14% da população brasileira sem qualquer acesso à Internet.

Surgem alguns dilemas sociais profundos. Talvez algumas pessoas gostariam de simplesmente não usar essa tecnologia, e esse seria um direito legítimo. Mas ainda dá para se almejar isso? Na ponta oposta, outras desejariam aproveitá-la, mas estão completamente alijadas desses recursos. Como lhes garantir isso, que já se configura como um direito fundamental?

Quem está no topo da pirâmide social deve parar de olhar para a sociedade como se todos estivessem na mesma situação frente à IA. Existe uma muralha a ser transposta para que se tenha pelo menos algum acesso digital, mas o presente nos empurra para uma desigualdade ainda mais ostensiva. Esse é o dilema que precisa ser solucionado.


Veja esse artigo em vídeo:


Estudo da consultoria Gallup divulgado em outubro indicou que 45% dos profissionais que usam a IA disseram que ela melhorou sua produtividade e eficiência, 26% se disseram mais criativos e inovadores e 23% apontaram melhora nas suas entregas. Apesar disso, 67% dos profissionais entrevistados disseram que nunca usaram a IA no trabalho, e apenas 4% fazem isso diariamente.

Infelizmente o “buraco é mais embaixo”. A pesquisa TIC Domicílios 2023, publicada em novembro passado pelo Cetic.br, órgão de pesquisas ligado ao CGI.br (Comitê Gestor da Internet no Brasil), indicou que, apesar de os 156 milhões de usuários de Internet representarem um recorde de brasileiros conectados, 29,4 milhões de pessoas nunca ficaram online em nosso país.

É importante ressaltar que não basta apenas dar acesso à Internet e à IA: é preciso ensinar as pessoas a fazerem bom uso desses recursos. O levantamento do Cetic.br apontou uma clara correlação entre o uso da Internet e os graus de educação e de renda: dos 29,4 milhões de pessoas desconectadas no Brasil, 24 milhões têm apenas até o Ensino Fundamental e 17 milhões são das classes D ou E.

Os pesquisadores apontaram que o pleno aproveitamento das oportunidades online depende ainda da qualidade da conexão e de dispositivos adequados. Ele é maior entre quem fica online tanto pelo computador quanto pelo smartphone, frente aos que se conectam só por dispositivos móveis. E se 99% dos domicílios da classe A têm computador, isso acontece apenas em 11% dos das classes D e E.

Para se colocar isso na devida perspectiva, é preciso entender que a inteligência artificial generativa não se trata de só mais uma tecnologia, como tantas outras que são lançadas a todo momento. Ela efetivamente oferece a possibilidade de se ampliar as capacidades de qualquer um que esteja disposto a fazer um uso consciente dela.

Mas tanto poder também guarda armadilhas.

 

Benefícios e riscos

A IA generativa embute recursos muito bem-vindos. Certamente o que a distingue de todo o resto é a capacidade de nos entender e dar suas respostas em linguagem natural, como se estivéssemos falando com outra pessoa. Além disso, ela é capaz de processar quantidades imensuráveis de informação para encontrar respostas e padrões. Por fim, ela efetivamente aprende e melhora com o uso.

Essa combinação a torna extremamente poderosa e flexível. Mas nesse funcionamento quase mágico, reside um de seus maiores riscos.

Quando o ChatGPT foi lançado e assombrou o mundo há dois anos, muitos diziam que ele poderia gerar uma “geração de preguiçosos”. Passado esse breve período, esse medo pode estar se concretizando em algumas pessoas.

Assim como uma simples calculadora agiliza as operações matemáticas que fazemos, mas não nos dispensa de sabermos como realizá-las, a inteligência artificial, por mais incrível e eficiente que seja, não pode tirar de nós a compreensão do que está sendo feito e principalmente as decisões que tomemos a partir desses resultados.

Além disso, as entregas em si da IA generativa normalmente têm uma qualidade mediana (na melhor das hipóteses), sofrendo de repetições e estilos limitados. E há ainda o maior de seus problemas: as “alucinações”, quando, diante de não saber o que dizer, entrega absurdos como se fossem verdades, sem qualquer ressalva.

Outra grave falha é a privacidade dos dados, pois essas plataformas podem aprender e depois replicar para estranhos informações confidenciais que usemos com elas. E isso flerta com outro conhecido problema dessa tecnologia: a violação de direitos autorais de conteúdos usados durantes suas etapas de treinamento.

Entre os que já usam a IA profissionalmente, a maioria se descuida em pelo menos um desses problemas, quando não em todos. É nessa hora que a IA deixa de ser uma poderosa aliada e passa a ser uma ameaça. Apesar de serem falhas intrínsecas da tecnologia, os riscos vêm da má utilização pelas pessoas. A revolução da IA invadiu nossas vidas sem manual de instrução, e por isso usos indevidos aparecem a toda hora.

Pior que isso são aqueles que terceirizam sua criatividade e decisões para os robôs: esses profissionais se colocam na posição de dispensáveis. Afinal, se eles não acrescentam nada sobre o que a IA faz, então basta a máquina para fazer o trabalho!

Antes vistos em obras de ficção científica, esses agora são dilemas da vida real! As pessoas precisam ser educadas não apenas para aproveitar os incríveis benefícios da IA, mas também para não cair em suas armadilhas.

Empresas, escolas, mídia, governo devem cuidar disso, mas não podem esquecer daqueles que já são marginalizados digitais. Caso contrário, teremos, em bem pouco tempo, uma “casta” com “superpoderes da IA” e uma massa de pessoas cada vez mais inabilitadas profissionalmente pela mesma tecnologia.

 

Alfie (Lucien Laviscount) e Emily (Lily Collins), com a torre Eiffel ao fundo, em cena de “Emily em Paris” – Foto: reprodução

O que “Emily em Paris” diria sobre o câncer de mama

By | Tecnologia | No Comments

Que o apreço pela verdade anda em baixa, não é surpresa. Há muitos anos, a pós-verdade, aquela que prega que a versão dos fatos que interessam às pessoas é mais importante que os fatos em si, tornou-se uma muleta que justifica que pensem e façam o que quiserem, por mais absurdo que seja. Mas observo apreensivo uma nova fase dessa “paranoia coletiva”, em que alguns esperam que a própria realidade se curve aos seus devaneios, como se fossem o centro de seus próprios universos.

Isso se manifesta de maneira mais ou menos escancarada. Um dos exemplos mais emblemáticos e antigos é aquela turma que insiste que a Terra seja plana, contrariando evidências tão enormemente abundantes, que tornam essa crença caricata e patética.

Às vezes, esse descolamento da realidade se torna tragicômico. Por exemplo, a série “Emily em Paris”, sucesso adolescente da Netflix, mostra uma França “perfeita”, que parece gravitar em torno da torre Eiffel, sem moradores de rua, sujeira, crimes ou ratos. Disso surgiram turistas abobalhados que vão a Paris e ficam indignados quando descobrem que ela –como qualquer cidade– não é daquele jeito, e tem problemas!

Em outros casos, as consequências podem ser graves, como em episódios recentes no Brasil de uma médica afirmando nas redes sociais que o câncer de mama não existe e de um médico que disse que a doença pode ser causada por mamografias. Se o fato de profissionais de saúde dizerem algo que pode literalmente matar pessoas não fosse grave o suficiente, esses posts legitimaram que uma legião de pessoas que, por qualquer motivo “não acreditam na doença”, viesse a público “expor essa verdade”.

Os três exemplos, apesar de muito diferentes entre si, guardam uma raiz comum que corrói a sociedade há anos: quando qualquer um pode arrebanhar uma multidão com distorções deliberadas do real, os ganhos civilizatórios começam a colapsar.


Veja esse artigo em vídeo:


Uma pergunta que surge naturalmente é por que alguém comete um desatino desses?

O caso dos médicos é ilustrativo. Eles realmente acreditam naquilo, o que faria deles reprodutores inocentes de um processo anterior de desinformação, ou têm interesses próprios e, portanto, se configurariam como criadores? Os casos estão sendo investigados pelos respectivos Conselhos Regionais de Medicina. No caso da médica, ela também está sendo processada pelo Colégio Brasileiro de Radiologia.

O câncer de mama é a principal neoplasia maligna entre as brasileiras, com mais de 70 mil novos casos por ano por aqui. Em 2022, matou 19.130 mulheres no Brasil. Quanto à mamografia, ela é a principal forma de prevenção de mortes pela doença.

Também podemos aprender com “Emily em Paris”. A série conta a vida de uma jovem publicitária americana que desembarca na Cidade-Luz para trabalhar. Atrapalhada e bem-intencionada, ela colhe tanto vitórias no trabalho, quanto confusões em relacionamentos. Mas chama atenção as locações e figurinos brilhantes, novos, limpos, com cores saturadas. A protagonista sempre veste alta-costura, troca de roupa várias vezes a cada episódio e nunca repetiu um modelo em quatro temporadas no ar!

Pode-se argumentar –com razão– que se trata apenas de entretenimento. Os roteiristas da série não buscam promover a desinformação. Entretanto, acabam contribuindo para um caldo de degradação cognitiva de pessoas que cada vez menos toleram que a vida não seja como imaginam ou esperam. Perdem a capacidade de separar fantasia de realidade, e atacam quem lhes mostra os fatos.

Não se pode desprezar as causas e as consequências de nada disso.

 

Sociedade autodestrutiva

Um estudo de 2021 do instituto britânico Alan Turing detalhou como uma sociedade pode ameaçar a própria sobrevivência, com ataques deliberados à capacidade de se adquirir conhecimento. Para a líder do estudo, Elizabeth Seger, da Universidade de Cambridge, “mesmo que estivesse claro como salvar o mundo, um ecossistema de informações estragado e não-confiável poderia impedir que isso acontecesse”.

Segundo a pesquisa, há quatro ameaças a isso, e nenhuma ao acaso. A primeira são pessoas que atrapalham as decisões com desinformação, algumas agindo de maneira consciente, outras inocentemente. Há ainda um excesso de informação que sobrecarrega nossa concentração, dificultando separar verdades de mentiras. As pessoas também se acostumaram a rejeitar o que desafia suas ideias, particularmente se houver uma forte identidade no grupo, criando o que os pesquisadores chamaram de “racionalidade limitada”. E, por fim, as redes sociais tornaram mais difícil avaliar a confiabilidade das fontes. O estudo conclui que, quando não sabemos em quem acreditar, confiamos naquilo que nos mostra o mundo como queremos.

Há alguns dias, discordei do professor da Universidade de Oxford William Dutton. Ele acredita que as mídias digitais podem disseminar informações enviesadas, mas afirma que as pessoas não são passivas, podendo encontrar facilmente a verdade na Internet ou com amigos e familiares, se assim desejarem. Até diminuiu a importância dos “filtros de bolha”, a que chamou de um “mito tecnológico determinista”. Afirmou ainda que o problema não são as plataformas, e sim os usuários. “Se quiserem, então sabem que podem obter o que desejarem deste canal de televisão e deste site, e ficarão felizes”, acrescenta.

Outro estudo, organizado em 2017 pelo Conselho da Europa e liderado por Claire Wardle, da Universidade de Harvard, trata da “desordem informacional”. Ela se divide em desinformação (informação deliberadamente errada para causar danos), informação falsa (errada, mas sem intenção de causar danos) e informação maliciosa (correta, mas usada para causar danos). Também explica que é preciso considerar quem são os agentes (quem cria e distribui a mensagem, e qual sua motivação), as mensagens em si, e os intérpretes (quem as recebe e suas interpretações).

Essas pesquisas demonstram, entre tantas outras, que as pessoas não conseguem sair facilmente da desinformação, especialmente quando 47% dos brasileiros deliberadamente se recusam a consumir notícias, como demonstrou o Digital News Report 2024, publicado em junho pelo Instituto Reuters e pela Universidade de Oxford. O estudo diz ainda que apenas 43% dos brasileiros confiam no noticiário, o pior índice já registrado no país.

Em um mundo antes da pós-verdade, a vida fantasiosa de Emily seria apenas deleite para os olhos. Mas no cenário de negação em que vivemos, ela inadvertidamente contribui para a desordem informacional. Ainda assim, a jovem personagem, que sempre busca o melhor para todos, jamais negaria a existência do câncer de mama! Pelo contrário: provavelmente encontraria uma forma genial de usar as redes sociais para a conscientização da sociedade para esse gravíssimo problema de saúde.

 

Projeto de lei em debate no Congresso Nacional pode restringir celulares nas escolas já no ano que vem - Foto: Freepik/Creative Commons

Celular na sala de aula não deve ser banido, e sim usado com orientação

By | Educação | No Comments

Ao que tudo indica, o próximo ano letivo começará com os celulares restritos nas salas de aula. Em um raro consenso entre governo e oposição, um projeto de lei que disciplina seu uso deve ser aprovado até o fim do ano no Congresso Nacional. E apesar de eu concordar com a restrição, fico apreensivo com declarações de todos os lados que demonizam smartphones e outras tecnologias em sala de aula.

Esse pensamento torna o debate mais raso e prejudica a possibilidade de crianças e adolescentes aprenderem a usar esses recursos de forma consciente e produtiva. Em um mundo profundamente digital, a simples proibição pode levar a um uso desses equipamentos descontrolado e escondido, o que pode ter consequências negativas.

Todos nós sofremos com as distrações causadas pelos smartphones e suas intermináveis notificações, que sequestram nossa atenção. Para uma criança ou adolescente, essa sedução pode ser muito maior: pesquisas indicam que os alunos podem levar até 20 minutos para se concentrar novamente no que estavam aprendendo depois de usarem o celular para atividades não-acadêmicas. E mesmo o aparelho desligado pode levar a problemas de aprendizagem.

Nesse sentido, não resta dúvida de que os alunos não devem ter acesso livre ao equipamento nas aulas. Especialistas defendem que não o usem nem no recreio, pois ele também comprometeria atividades de socialização típicas daquele momento.

Isso é muito diferente de não usar os celulares com objetivos pedagógicos. Mas desperta outras preocupações, como se o professor está preparado para essa tarefa e se o celular do aluno deveria ser usado nesse caso, o que lhe daria, por exemplo, aceso a suas redes sociais, um verdadeiro “dreno de atenção”.


Veja esse artigo em vídeo:


O consenso entre governo e oposição pode estar associado ao faro político de que a população apoia fortemente a proibição dos celulares em sala de aula. Segundo pesquisa feita recentemente pelo Datafolha, 62% dos brasileiros com mais de 16 anos querem isso. E 76% dos entrevistados acham que o celular traz mais prejuízos que benefícios ao aprendizado, índice que aumenta entre os pais.

O projeto em debate na Câmara prevê que alunos até o quinto ano não possam ter o celular nem na mochila. Já os do sexto ano até o fim do Ensino Médio poderiam levar o equipamento, mas sem usá-lo na sala de aula ou no recreio. Eles seriam permitidos em atividades pedagógicas, com orientação dos professores, e para estudantes com necessidades especiais, que dependam do aparelho para acessibilidade. As escolas públicas e privadas decidiriam como seria a implementação dessas medidas.

As principais evidências que apoiam essa medida vêm do Relatório Global de Monitoramento da Educação, publicado pela Unesco (Organização das Nações Unidas para a Educação, a Ciência e a Cultura) em julho de 2023. Intitulado “A tecnologia na educação, uma ferramenta a serviço de quem?”, compilou estudos que relacionam o uso de celulares e resultados educacionais em 14 países. A conclusão foi de que os efeitos são negativos, principalmente na memória e na compreensão.

O relatório não sugere a proibição irrefletida, e sim que, se usado em excesso ou para atividades não-pedagógicas, os celulares trazem malefícios. “Banir a tecnologia das escolas pode ser legítimo se a integração não melhorar o aprendizado ou piorar o bem-estar do aluno”, diz uma das conclusões. “Trabalhar com tecnologia nas escolas e seus riscos pode exigir algo mais do que o banimento”.

O texto ainda diz que “deve haver clareza sobre o papel que essas novas tecnologias desempenham na aprendizagem e sobre seu uso responsável pelas escolas” e que os alunos “precisam aprender os riscos e oportunidades que vêm com a tecnologia, desenvolver habilidades críticas e entender como viver com e sem tecnologia”.

O abuso do celular e de outras telas por crianças e adolescentes transcende as salas de aula. Normalmente ele é ainda mais intenso em casa, longe dos olhos de pais trabalhando. Muitos até mesmo incentivam o uso da tecnologia, como uma “babá eletrônica”, sem qualquer monitoramento ou orientação. E isso vem agravando problemas de saúde mental nessa faixa etária.

 

Um mundo digital

Segundo a pesquisa TIC Kids Online Brasil 2023, publicada em setembro pelo Cetic.br, órgão de pesquisas ligado ao CGI.br (Comitê Gestor da Internet no Brasil), 28% das escolas de ensino básico públicas e particulares no país proíbem os celulares, enquanto 64% delas permitem com restrições a espaços e horários.

O levantamento também indicou que 95% dos brasileiros entre 9 e 17 anos usam a Internet, quase todos com acesso ao celular. O primeiro contato se deu até os 6 anos de idade para 24% (eram 11% em 2015) e entre 7 e 9 anos para 27%, contrariando especialistas, que sugerem que isso só aconteça na adolescência. Em contrapartida, 580 mil brasileiros nessa faixa nunca tinham acessado a Internet.

Esses números são muito emblemáticos. O celular está impregnado na vida de crianças e adolescentes, que criam contas em redes sociais antes mesmo da idade mínima definida por essas plataformas, com ou sem consentimento dos pais. Esses por sua vez, querem ver o celular fora das aulas, mas muitos paradoxalmente exigem que as escolas permitam que entrem em contato com os filhos a qualquer momento.

No meio disso tudo, fica o professor, acuado por pais e estudantes, e sem saber como usar pedagogicamente a tecnologia. E disso vêm preocupações que as escolas devem endereçar quando essas regras forem implantadas.

Apesar de o projeto de lei ser calcado em estudos sérios, há um certo oportunismo político nele. E gostaria de ver esses pais que disseram querer a proibição dos celulares na escola bancando isso com seus próprios filhos.

Em qualquer cenário, o professor continuará sendo o condutor do processo educacional. Assim ele deve receber apoio do governo, das escolas e das famílias para fazer um uso consciente e construtivo não apenas de smartphones, mas também da inteligência artificial nas salas de aula. Os celulares devem ser restritos na maior parte do tempo, mas usados em atividades pedagógicas, de preferência em equipamentos que não sejam dos próprios alunos.

A proibição pura e simples preservará a saúde mental e eliminará os graves problemas apontados pela Unesco, o que é essencial! Mas também impedirá a chance de criarmos uma geração que faça um uso consciente de tecnologias que moldarão suas vidas de agora em diante.