regulamentação

Em 2026, a IA continuará no trono da tecnologia, mas seu reinado será marcado pela automação de decisões – Imagem: Paulo Silvestre

Em 2026, a IA avançará sobre decisões empresariais e da sociedade

By | Tecnologia | No Comments

Neste ano que está começando, a inteligência artificial continuará no trono da tecnologia, mas seu reinado será muito diferente do que vimos até agora. Se nos últimos anos, ela impressionou por gerar textos, imagens e códigos, agora o debate se deslocará para a automação de decisões, a delegação de tarefas cognitivas e a reorganização do poder dentro das empresas e da sociedade, algo muito mais sensível.

Essa é a conclusão de conversas que tive com executivos de quatro das principais empresas de tecnologia que operam no Brasil. Essas lideranças apontam para um horizonte em que a “IA agêntica” não será mais uma novidade, mas um motor central de estratégias corporativas. A automação não mais se restringirá a tarefas repetitivas, passando a assumir processos cognitivos de julgamento e orquestração.

A pressão por produtividade não diminuiu, os custos de operação aumentaram e a paciência com experimentos sem retorno se esgotou. A evolução dos processadores especializados, a pressão por eficiência energética e a necessidade urgente de governança real sustentam essa visão. Por isso, as empresas buscam sistemas menores, mais inteligentes e capazes de operar dentro de casa, garantindo segurança e conformidade com leis cada vez mais rígidas.

Embora estejamos falando de tecnologia, o impacto na vida das pessoas e na rotina das empresas será profundo e, por vezes, invisível. Quando um sistema decide sozinho se concede um empréstimo, aprova um tratamento médico ou freia um carro autônomo, ele desloca o eixo da responsabilidade humana. Passamos a delegar à IA o julgamento moral e a capacidade de agir no mundo físico.

Isso nos coloca diante de um dilema que ultrapassa a engenharia e entra no campo da ética e da política. A pergunta que definirá 2026 não será, portanto, se esses sistemas serão eficientes, mas quem responderá quando eles inevitavelmente errarem.


Veja esse artigo em vídeo:


Nesse cenário, o próprio sucesso deve ser repensado. Sandra Vaz, presidente da Red Hat Brasil, afirma que “a eficiência operacional continua relevante, mas ela deixa de ser suficiente”. Para ela, em 2026, “as empresas terão de medir o impacto estratégico e ser muito criteriosas na escolha dos dados utilizados para criar novas experiências para o cliente”. Afinal, decisões ruins automatizadas em escala podem destruir o valor de uma companhia em pouco tempo.

Rui Botelho, presidente da SAP Brasil, toca exatamente nesse ponto ao projetar a consolidação de uma IA capaz de orquestrar tarefas “do fechamento financeiro à gestão de talentos, sempre com governança e rastreabilidade”. Ele destaca que o diferencial estará em “combinar essa automação com dados de negócio confiáveis”. A credibilidade torna-se, portanto, uma moeda valiosíssima nesse novo mercado.

Essa transformação é descrita por Fabricio Lira, diretor de IA e Dados da IBM Brasil, como a criação de “ecossistemas onde múltiplos agentes colaboram, compreendendo dinâmicas de contexto, intenção humana e cenários complexos”. Para ele, isso permitirá “oferecer decisões autônomas e seguras em tempo real”.

Perceba que a palavra-chave é “decisão”. Estamos saindo da era da venda de software (Software as a Service) para a venda de trabalho (Service as a Software), em que a máquina entrega o resultado final, e não apenas o meio para alcançá-lo. Isso exigirá novos processos para gerenciar conflitos entre agentes e garantir que a autonomia da IA não quebre a lógica de negócios ou a segurança institucional.

Marco Stefanini, CEO Global e fundador da Stefanini, reforça essa visão, citando que “a previsão da IDC é de que 65% das empresas adotarão esses agentes até o final de 2026, com foco em valor imediato e apoio à decisão”. No entanto, ele faz um alerta fundamental sobre a natureza dessa mudança, lembrando que “IA não é mágica, é método”. “Modelos genéricos, treinados apenas com conteúdo da Internet, não dão conta da complexidade das operações corporativas”, explica.

 

Decisão como produto

Essas visões convergem para um cenário em que sistemas multiagentes começam a decidir em cadeia, coordenando ações, priorizando caminhos e resolvendo conflitos em tempo real. O ganho de eficiência é evidente, mas cria-se um sério risco de naturalização da delegação moral.

Se um conjunto de algoritmos toma decisões, cria-se uma zona cinzenta em que “ninguém decidiu sozinho”. Para mitigar isso, a governança deixará de ser um discurso bonito de marketing para se tornar um requisito de engenharia. Sem isso, empresas enfrentarão não apenas crises de imagem, mas barreiras legais severas.

Por trás desse debate ético e regulatório, crescerá exponencialmente uma disputa material em torno de uma tecnologia vendida como “imaterial”. A IA consome quantidades absurdas de energia e depende de escassos processadores avançados. A infraestrutura definirá o poder, e a soberania digital dos países dependerá de quem controla esses recursos.

Além das máquinas, há o desafio humano. Botelho ressalta que “nada disso se sustenta sem investimento contínuo em mão de obra qualificada”. Enquanto os agentes assumem tarefas cognitivas, os humanos precisam ser requalificados para gerenciar, auditar e corrigir essas inteligências. Vaz complementa dizendo que a tecnologia ficará mais sofisticada, com ferramentas “orientadas para a escala dos negócios e a capacitação das equipes”.

Com tudo isso, em 2026 nos depararemos com escolhas que não poderemos postergar. Precisaremos decidir quanta autonomia estamos dispostos a delegar às máquinas, como garantir que a eficiência não atropele direitos fundamentais e quem terá poder para treinar modelos em escala. A IA continuará ficando mais poderosa, mas continua valendo a máxima de que tecnologia sozinha não resolve nada.

De agora em diante, essa história exigirá menos deslumbramento e mais responsabilidade coletiva. Empresas, governos e sociedade civil precisarão construir juntos os mecanismos de supervisão, auditoria e responsabilização que ainda não existem. Não há atalho para essa maturidade, e fingir que as empresas de tecnologia se autorregularão é uma fantasia inocente e perigosa.

Ainda bem que estamos a tempo de fazer as escolhas certas.

 

Para Zygmunt Bauman, as relações frágeis digitais destroem o bem comum - Foto: Narodowy Instytut Audiowizualny/Creative Commons

Proibição australiana de redes sociais a jovens reflete o desespero de um país com os males digitais

By | Tecnologia | No Comments

Nesta quarta (10), começa a valer a lei australiana que proíbe que pessoas com menos de 16 anos acessem qualquer rede social. Extremista para alguns, inócua para outros, vejo essa medida como um movimento desesperado de uma sociedade que não sabe mais como lidar com os notórios males que essas plataformas causam às pessoas, especialmente os mais jovens. Diante do cinismo e da falta de colaboração das big techs, a Austrália decidiu “cortar o mal pela raiz”.

Enquanto isso, a Europa é pressionada pelo governo americano para afrouxar suas leis que protegem cidadãos contra abusos dessas companhias. A iniciativa australiana pode assim definir um novo marco civilizatório contra um grave problema que afeta todos os países, mas cujos governos repetidamente falham em encontrar soluções.

Ao contrário do que muitos dizem, não se trata de “perseguição” a essas empresas. Há apenas alguns dias, por exemplo, documentos de um processo judicial nos Estados Unidos revelaram a postura da Meta diante dos resultados de um estudo interno. Segundo ele, adolescentes que ficaram uma semana sem Facebook relataram menos depressão, ansiedade e solidão. Mas em vez de publicar os resultados e buscar soluções, a empresa enterrou o estudo, alegando falhas metodológicas.

Nada disso é isolado. Apesar dos benefícios que essas plataformas também nos oferecem, é inegável que elas distorcem relacionamentos. Tanto que as “palavras do ano” recentemente escolhidas pelos prestigiosos dicionários Oxford (“isca de raiva”) e Cambridge (“parassocial”) descrevem diferentes facetas dessa mudança.

Resta saber se a nova lei australiana conseguirá reduzir, pelo menos entre os mais jovens, a deterioração da saúde mental provocada pelas redes sociais, e se isso será replicado por outros países, a despeito da pressão americana.


Veja esse artigo em vídeo:


A expressão “isca de raiva” (“rage bait”, no original em inglês) significa conteúdo online “deliberadamente criado para provocar raiva ou indignação ao ser frustrante, provocativo ou ofensivo”, como uma prática intencional na disputa por atenção. Os organizadores do Dicionário Oxford explicaram que essa prática triplicou neste ano e que, se antes a Internet atraía a atenção pela curiosidade, agora ela sequestra e influencia nossas emoções mais negativas, como raiva e ódio.

“Parassocial”, por sua vez, representa sentimentos de intimidade unilaterais que muitas pessoas projetam em celebridades. Apesar de não ser algo novo, isso se tornou muito mais comum graças às redes e, mais recentemente, com a inteligência artificial, com pessoas que passam a se relacionar afetivamente com chatbots.

A nova lei australiana responsabiliza as próprias big techs por verificar a idade dos usuários e impedir que menores acessem as redes sociais, sob pena de multas que podem chegar a 50 milhões de dólares australianos (cerca de R$ 181 milhões). Meta e Google já iniciaram a remoção preventiva de perfis. Com ela, o governo local admite tacitamente que o ambiente digital se tornou tóxico demais para mentes em formação.

Isso nos remete imediatamente à profética declaração de Umberto Eco em 2015, de que a Internet havia dado voz a uma “legião de imbecis”. O drama atual é que as redes sociais não apenas promoveram o “idiota da aldeia” a portador da verdade, como sugeriu na época o filósofo italiano, mas o transformaram em um influenciador rentável. O “rage bait” industrializa a estupidez, com a indignação superando os fatos. A verdade perde seu valor intrínseco e torna-se apenas uma ferramenta performática para gerar engajamento.

O novo regime afetivo, moldado por algoritmos que amplificam extremos, corrói vínculos silenciosamente. O filósofo polonês Zygmunt Bauman descreveu essa “liquefação” da vida, em que relações frágeis servem ao mercado, mas destroem o bem comum. Ao nos afastar do real, as redes substituíram sentimentos verdadeiros por emoções performáticas, algo visível nestas duas “palavras do ano”.

 

Fábricas de egocentrismo

Bauman explicou como nos tornamos simultaneamente consumidores e produtos. Nas redes sociais, oferecemos versões editadas de nós mesmos para serem curtidas, comentadas e consumidas. Quando o engajamento cai, nos sentimos descartados, e quando alguém discorda de nós, bloqueamos a pessoa. Eco antecipou isso, pois, quando todos falam qualquer coisa, o conteúdo vira espetáculo, não substância.

O filósofo sul-coreano Byung-Chul Han completa esse quadro ao mostrar como a exigência de performance permanente nas redes nos esgota. Elas não só registram o que fazemos, como nos cobram produtividade emocional constante, opinião sobre tudo, presença em todos os debates e resposta imediata a qualquer provocação. Disso vem um cansaço difuso, que combina burnout, culpa e a sensação de que nunca estamos à altura do padrão de felicidade exigido nas telas, criando uma sociedade deprimida e ansiosa, que busca no ódio digital uma válvula de escape.

Quando dicionários escolhem termos que denotam raiva e ilusão como símbolos do ano, fica claro que esse novo regime digital é patológico. Assim, Eco estava certo ao temer a diluição da autoridade intelectual, pois a raiva brilha mais do que a sensatez.

Talvez a decisão da Austrália seja um exagero sob a ótica da liberdade individual, mas pode ser o alerta que o resto do mundo se recusa a ouvir. Bauman dizia que o medo se tornara ubíquo e difuso em nossos tempos. Portanto, nosso desafio é resgatar o compromisso com o outro, que seja real, ainda que imperfeito e difícil.

A saída para esse labirinto não reside apenas nas canetas dos legisladores, embora a regulação seja urgente e necessária para conter a ganância irresponsável das big techs. Precisamos decidir se estamos dispostos a reconstruir nossas relações para além das telas ou se aceitaremos que a indústria da atenção decida quem amamos, quem odiamos e até o que pensamos sobre nós mesmos.

A resposta não virá de Camberra, Bruxelas, Washington ou Brasília. Nós temos que escolher desligar o celular e olhar nos olhos de quem está ao lado. Precisamos resistir à tentação de transformar discordância em confronto e priorizar a substância sobre a performance. As redes sociais não nos salvarão da armadilha que elas criaram.

 

Felca entrevista a psicóloga Ana Beatriz Chamat no seu vídeo “Adultização” - Foto: reprodução

Mais que criminosos, Felca denunciou uma sociedade que vive de barbaridades

By | Educação | No Comments

O Brasil está em polvorosa desde que Felipe Bressanim Pereira, o Felca, denunciou a pedofilia nas redes sociais em seu vídeo “Adultização”, publicado no dia 6. Mais do que bem-vindo, o movimento é essencial para resgatarmos uma sociedade civilizada, que proteja crianças e adolescentes. Mas corremos o risco de que o problema seja tratado de maneira superficial e –pior ainda– que acabe em uma escandalosa pizza.

O influenciador apontou os responsáveis mais evidentes, como personalidades digitais que exploram a erotização de crianças, os pedófilos que inundam as redes sociais e até pais e mães que, por ação, omissão ou ignorância, colocam os próprios filhos em risco. Mas essa situação também resulta de uma sociedade que, nos últimos 15 anos, se acostumou com todo tipo de barbaridade e até se beneficia delas.

O maior exemplo é a classe política. Apesar desses abusos contra os mais jovens serem conhecidos e debatidos há anos, bastou a comoção criada por Felca para o surgimento de dezenas de projetos de lei para combater esse delito. Porém mais grave ainda são os parlamentares que querem impedir que uma solução avance.

É o caso também das plataformas digitais, que apresentam um discurso de proteção a crianças e adolescentes, mas que se beneficiam largamente dessas práticas criminosas, que acontecem de maneira explícita em suas páginas, em perfis com milhões de seguidores. Em vez de combaterem a prática, elas desmantelaram suas próprias estruturas de moderação de conteúdo e de proteção. Em seu lugar, montaram poderosos esforços de lobby para convencer políticos a defenderem seus interesses. Não satisfeitas, associaram-se ao presidente americano, Donald Trump, para usar o poder dos EUA para achacar países que buscam soluções.

Além de combater os criminosos óbvios, a sociedade precisa, portanto, enquadrar aqueles que sustentam a estrutura para essas atrocidades.


Veja esse artigo em vídeo:


O oportunismo faz parte do jogo político. Diante do vídeo do Felca, parlamentares já apresentaram mais de 30 propostas para proteger crianças e adolescentes nas redes sociais, proibindo a monetização de conteúdos de menores, criminalizando a “adultização” e a sexualização infantil, responsabilizando pais e plataformas digitais e bloqueando perfis de infratores. Uma CPI sobre o assunto também pode acontecer.

Da mesma forma, apesar da urgência do tema, um grupo de parlamentares se aproveita destes holofotes para afirmar suas pautas de que tudo não passa de um complô do governo para calar a oposição, e que o objetivo é limitar a liberdade de expressão.

“Na lei brasileira, o Norte é o melhor interesse da criança e do adolescente”, afirma Marcelo Crespo, coordenador do curso de graduação de Direito da Escola Superior de Propaganda e Marketing (ESPM). Ele explica que, “em ambiente digital, o teste do melhor interesse implica zero sexualização, nada de humilhação, nada de exploração comercial desproporcional, mínima coleta de dados e rotina compatível com a idade”.

Mas passadas duas semanas, a Agência Lupa constatou que as redes sociais continuam promovendo conteúdos que erotizam crianças e atraem pedófilos. Em julho, já havia revelado que o Facebook e o Telegram permitem a venda de imagens criadas por inteligência artificial de influenciadoras nuas, incluindo menores de idade. Alguns anúncios prometem vídeos com “novinhas”, “incestos” e “conteúdo banido no Brasil”.

Em outubro de 2024, a organização americana Aliança para Combater o Crime Digital (ACCO, em inglês) divulgou um relatório que conclui que a Meta, dona do Facebook, Instagram e WhatsApp, viola sistematicamente a Lei de Serviços Digitais europeia (DSA). Ela pede que as autoridades imponham sanções contra a empresa “por hospedar esse vasto ecossistema de infratores que compartilham conteúdo violador”.

“Essas plataformas assumem um papel ativo na formatação do ambiente informacional e, portanto, devem implementar medidas efetivas para evitar que sua infraestrutura seja utilizada para fins ilícitos ou prejudiciais”, explica Marcelo Cárgano, advogado especialista em direito digital e proteção de dados do escritório Abe Advogados. Segundo ele, “o STF considerou que os mesmos mecanismos tecnológicos usados para direcionar anúncios com alto grau de precisão poderiam ser aplicados para identificar, bloquear e remover rapidamente tais conteúdos”.

 

Hipocrisia online

Quando confrontadas com esses crimes em suas páginas, as big techs se defendem com um discurso padrão de que não toleram essas práticas e que removem esse tipo de conteúdo. Mas os fatos demonstram o contrário.

No dia 14, a Reuters divulgou uma análise de um documento interno da Meta que indica que sua inteligência artificial deliberadamente pode manter conversas românticas e sensuais com crianças e promover racismo e informações médicas incorretas. A dona do Facebook admitiu a veracidade do documento, mas disse que retirou a permissão para as conversas de teor sexual com crianças pela sua IA.

Só que esse é um problema recorrente. Em outubro de 2021, por exemplo, Frances Haugen, ex-gerente do setor de integridade cívica do Facebook, divulgou milhares de documentos internos da empresa que revelavam como a plataforma priorizava seus lucros frente a práticas que causavam danos à sociedade, à democracia e à saúde mental dos jovens.

Quando a sociedade falha ao encontrar mecanismos razoáveis para esses abusos, podem surgir medidas extremas. É o caso da lei australiana que sumariamente proíbe o uso de qualquer rede social por menores de 16 anos. Aprovada em novembro de 2024, entra plenamente em vigor em 10 de dezembro desse ano, determinando que as plataformas impeçam esse uso, sob pena de multas equivalentes a R$ 175 milhões.

O cinismo das big techs e a inoperância dos parlamentares podem levar a indesejados extremos como esse. Enquanto isso, vemos o governo americano atacando o Brasil, a União Europeia e outros países para proteger os interesses dessas empresas.

No final, caímos de novo no surrado debate de defesa da liberdade de expressão, usurpada para defender interesses inconfessáveis. O mesmo artigo da Constituição que a garante também veda o anonimato, pois ela não é absoluta.

Mecanismos que garantem outros direitos individuais não ameaçam a liberdade de expressão, e sim criam uma sociedade segura, para uma coexistência pacífica e saudável. Posicionar-se contra isso demonstra uma profunda distorção cívica. O debate criado por Felca nos dá mais uma chance de fazermos o que é certo.

 

O presidente americano Donald Trump tenta desequilibrar a geopolítica usando a inteligência artificial - Ilustração: Paulo Silvestre

Plano de IA dos EUA adota caminho perigoso para superar China

By | Tecnologia | No Comments

O plano de inteligência artificial americano, divulgado na quarta passada (23), merece nossa atenção. Apesar dos grandes avanços da China, os EUA ainda lideram nessa tecnologia. Assim, suas ações influenciam a IA no mundo. Além disso, mecanismos da proposta podem impedir o Brasil de acessar tecnologias de ponta. Mas o que mais preocupa é a escolha de uma política de desenvolvimento irresponsável e perigosa.

A nova Guerra Fria acontece em torno da inteligência artificial. No anúncio do chamado “Plano de Ação de IA dos EUA: Vencendo a Corrida”, o presidente americano, Donald Trump, não economizou palavras para deixar isso claro.

Em suas 28 páginas, o documento se concentra em três pilares: acelerar a inovação em IA, construir infraestrutura americana, e liderar a diplomacia e segurança internacionais no setor. Eles atendem diretamente a demandas das big techs, como OpenAI, Google, Meta e Microsoft, que combatem ferozmente qualquer restrição a seus produtos, nos EUA e principalmente no exterior.

Essas regras vêm principalmente da Europa, mas também estão sendo criadas ao redor do mundo, inclusive no Brasil. Por aqui, o Marco da IA, aprovado pelo Senado Federal e francamente inspirado na Lei da IA europeia, está sendo discutido na Câmara. Por lá, Trump revogou a ordem executiva do governo anterior, que previa uma avaliação de risco no desenvolvimento de IA, e ameaça retirar recursos de Estados que tenham leis mais restritivas, como a Califórnia.

A nova diretriz manda às favas a prudência recomendada pelos maiores especialistas em IA do mundo. É um documento mais político que técnico, acenando aos eleitores mais radicais de Trump e às gigantes de tecnologia, essenciais para seus planos.

A IA não pode ser vista como apenas “mais uma tecnologia”. Sua evolução desafia os próprios desenvolvedores e ela pode facilmente ser usada para criar severos danos à humanidade. Ao tratá-la de forma política, esses riscos crescem exponencialmente.


Veja esse artigo em vídeo:


Trump quer transformar os EUA em um território livre para o avanço da IA, eliminando o que considera “barreiras regulatórias desnecessárias”. O novo plano prevê revisar ou suprimir normas federais que limitariam a inovação, incentivando a atuação do setor privado, ao promover a desburocratização em todas as áreas ligadas à IA.

A estratégia também altera diretrizes técnicas e regulatórias, retirando referências a diversidade, inclusão, mudança climática e desinformação dos guias federais. A justificativa é garantir que os sistemas de IA promovam a liberdade de expressão e reflitam “valores americanos”, do ponto de vista conservador. Para Trump, a IA deve buscar a objetividade, sem filtros que comprometam sua função de transmitir “a verdade”. E isso, por si só, é temerário, pois a IA reconhecidamente erra, e muito.

O documento incentiva a construção de data centers, fábricas de semicondutores e infraestrutura energética, essenciais para a liderança dos EUA no setor. Para isso, propõe simplificar licenças ambientais, criar exceções dentro do marco regulatório e até permitir o uso de fontes de energia “sujas”, como termelétricas, ignorando seu impacto. A meta é garantir velocidade na expansão da infraestrutura física que sustenta a IA, mesmo que isso signifique driblar normas ecológicas.

Embora o plano não mencione explicitamente os direitos autorais, ele endossa a ideia de que as plataformas de IA tenham acesso irrestrito a conteúdos para treinar seus modelos. Ao defender que obstáculos legais sejam eliminados, abre caminho para que obras protegidas, como livros, músicas e imagens, sejam usadas sem consentimento dos autores. Trata-se de uma flexibilização implícita das leis de copyright, favorecendo as big techs e colocando em risco a remuneração e os direitos de criadores.

Pela proposta, os EUA exportarão seus modelos, softwares e equipamentos de IA apenas a países aliados, garantindo que eles adotem padrões americanos. Ao mesmo tempo, impedirão que adversários tenham acesso a tecnologias sensíveis. Essa política transforma a IA em instrumento de influência internacional, usando sua distribuição como ferramenta diplomática e de contenção estratégica.

O Brasil pode ser ainda mais pressionado pelos EUA, para se submeter aos interesses das big techs. Caso contrário, podemos ser impedidos de ter acesso a tecnologias de ponta e de firmar colaborações de pesquisa e comerciais.

 

“Vieses ideológicos” na IA

Vale notar que o que o governo americano chama de “eliminar vieses ideológicos” na IA significa filtrar suas respostas, para remover conteúdos que considera inadequados. Ironicamente, isso inclui um viés ideológico. Mas tentativas anteriores de se fazer isso não funcionaram: as plataformas continuaram criando respostas que os extremistas não aprovavam por serem moderadas e promoverem diversidade.

Alguns episódios mancharam a reputação de plataformas quando foram lançadas, como quando o gerador de imagens da IA do Google incluiu negros e japoneses entre soldados nazistas. Nesses casos, a diversidade gerou erros de informação histórica. Mas fica difícil eliminar a variedade da vida “na marra”, quando a maioria dos conteúdos usados para treinar a IA tem natureza diversa. Seria necessário eliminar todas essas informações da base, o que é inviável.

O temor é que, ao insistir nisso, as plataformas de inteligência artificial americanas passem a se comportar como as chinesas no que elas têm de pior: a censura explícita. Sistemas como o DeepSeek deliberadamente não abordam assuntos que o governo de Pequim reprova, apesar de serem capazes de dar boas respostas sobre eles.

O novo plano americano reconhece explicitamente que os sistemas de IA podem representar riscos em áreas como ciberataques, desenvolvimento de armas de toda natureza e vulnerabilidades de segurança. Por isso, propõe que os EUA compreendam essas ameaças, que estarão nas mãos de adversário em breve.

Esses riscos e a politização da IA sintetizam os problemas dessas regras, com uma geopolítica agora fortemente vinculada à inteligência artificial. Não se espera muito da China, um país que pratica a censura abertamente e que atropela a ética e até o bom senso para roubar a liderança política e econômica dos EUA.

Os americanos sempre se contrapuseram a isso, e, pelo menos em tese, mantinham sua influência global por exemplos considerados positivos na ciência e nos negócios. Agora agirão nos termos chineses, por medo de serem ultrapassados por eles.

Assim o mundo vê suas duas maiores potências em um vale-tudo explícito, com consequências imprevisíveis. O desenvolvimento irresponsável ou descuidado da IA pode promover uma manipulação sem precedentes, achatar o senso crítico das pessoas e até concretizar alguns cenários distópicos da ficção científica.

 

Para Donald Trump, o Pix é uma “prática desleal” brasileira - Foto: National Archives and Records Administration/Creative Commons

O que ainda une os brasileiros em tempos de polarização digital

By | Tecnologia | No Comments

A sociedade brasileira hoje difere muito do que era há 20 anos. Sempre tivemos divisões enraizadas em nossa cultura, algumas profundamente nocivas para determinados grupos sociais e prejudiciais ao desenvolvimento da sociedade como um todo. Mas em tempos sem smartphones e principalmente sem redes sociais, aparentávamos viver em harmonia, ainda que mais frágil do que acreditávamos.

A completa disseminação desses produtos digitais criou, nos anos seguintes, uma profunda rachadura na sociedade que inviabiliza o debate entre aqueles que se posicionam nos extremos opostos. Caiu por terra o mito do brasileiro cordial e colaborativo, dando lugar à intensa polarização.

As causas disso sempre estiveram entre nós, nutridas no íntimo de extremistas antes contidos pelas regras da civilidade. Os algoritmos das redes sociais destravaram essas forças ao juntar quem tem os mesmos valores, e os smartphones passaram a reforçar essas ideias o tempo todo. Não demorou para que políticos de várias ideologias se apropriassem dessa polarização, criando uma espiral destrutiva da qual não saímos.

Resta algo que ainda une os brasileiros? Nem a seleção de futebol, antes uma unanimidade, consegue fazer isso hoje.

Nesse cenário, as absurdas exigências do presidente americano ao Brasil, feitas na semana passada, merecem atenção. Apesar de ter provocado forte indignação na maioria dos brasileiros, nem Donald Trump conseguiu unir a todos nós.

Ainda assim, vale analisar aquelas que defendem os interesses das big techs e atacam conquistas tecnológicas e de proteção aos cidadãos do Brasil. Afinal, o Pix, criticado por Trump, é uma unanimidade nacional.


Veja esse artigo em vídeo:


De fato, do ponto de vista econômico e político, não há justificativa racional para as grotescas agressões do americano, algo sem precedentes nos 200 anos de boas relações entre os dois países. E a proteção explícita das plataformas digitais, que fere severamente a soberania brasileira, não vem ao acaso, amplificando as reclamações de empresas que não querem ver seus enormes privilégios ameaçados.

Não se trata apenas dos ganhos bilionários. Smartphones, redes sociais e agora inteligência artificial permitem profunda manipulação das massas, influenciando fortemente a geopolítica. Esses setores estão prestes a ser regulados no Brasil, a exemplo do que já acontece em outras partes do mundo. Por isso, o lobby de empresas como Meta, Google e Amazon busca convencer o governo americano de que um país lhes impor regras significa um ataque aos interesses americanos.

Elas sabem que são estratégicas para a economia dos EUA. Por outro lado, o Brasil é um mercado muito importante para as essas plataformas, pela quantidade de clientes e pelo comportamento digital do brasileiro, que lhes garante receitas monumentais. Por isso, limitações ou regulamentações por aqui podem influenciar outros países a adotarem legislações similares, restringindo a atuação global dessas companhias.

Isso explica por que as ameaças americanas também miraram a Lei Geral de Proteção de Dados (LGPD). Elas afirmam que a proteção aos dados dos cidadãos brasileiros atrapalha “objetivos comerciais de rotina” das empresas americanas, exigindo que aceitemos os padrões de privacidade dos EUA como “adequados”.

Mas a LGPD não é um entrave, e sim um selo de qualidade que posiciona o Brasil como um parceiro sério na economia digital. Enfraquecê-la seria renunciar a uma conquista civilizatória compatível com as melhores práticas globais e, aliás, uma das poucas defesas do cidadão frente ao poder dos algoritmos e da vigilância digital.

Mas talvez o que mais tenha chocado foram os ataques ao Pix, rotulado de “prática desleal nos serviços de pagamento eletrônico”. Novamente, buscam proteger os interesses de gigantes americanas, como Visa, Mastercard, Google, Apple e Meta, contra os da população brasileira.

 

Orgulho nacional

Trump reclama que o Pix foge do controle dessas companhias e é gratuito, o que as prejudica, pois dependem de taxas de transação para lucrar. E ele teme que o sistema brasileiro evolua para uma plataforma de transações internacionais, servindo como alternativa ao dólar em determinados contextos comerciais.

O Pix é um caso de inovação tecnológica brasileira que é referência mundial. Ele funciona, é eficiente e é nosso. Por isso, evoca um sentimento de orgulho nacional baseado em competência, não em símbolos vazios. Acabar com ele ou mesmo desincentivá-lo seria um retrocesso absurdo, pois ele é um instrumento de inclusão financeira, de modernização do Estado e de democratização do acesso bancário.

Não é de se estranhar, portanto, que as bravatas de Trump tenham aumentado a união dos brasileiros, ainda que circunstancialmente. Precisamos garantir essas conquistas e avançar na regulamentação das big techs. Isso não busca censura ou tecnofobia, mas garantir que os direitos humanos, o debate público saudável e a integridade das instituições democráticas sejam preservados em um ambiente digital que foi sequestrado pelo engajamento e pelo lucro a qualquer custo.

Ironicamente, esse embate internacional pode nos ajudar a entender que precisamos resgatar a escuta de quem pensa diferente, sem ataques. E isso começa em cada um de nós. A polarização só se sustenta se houver plateia para o confronto.

Nosso engajamento político, cultural e social deve sair do automático. A educação midiática precisa ser um projeto nacional. Sem isso, as tentativas de regulamentação podem parecer autoritárias para uma população que não entende por que isso importa.

O que ainda pode nos unir são valores compartilhados que sobrevivem à polarização, como o desejo de viver com dignidade, a rejeição à corrupção, o orgulho por inovações locais e o carinho por símbolos culturais. Paradoxalmente, as mesmas redes sociais que nos dividem podem reconstruir contatos. Mas isso exige que deixemos de ser meros usuários e passemos a ser cidadãos digitais conscientes.

A união nacional não virá “de cima”, de instituições, empresas ou governos, nacionais ou estrangeiros. Ela deve surgir de nós mesmos, quando soubermos olhar para o outro sem medo e sem ódio. E então poderá acontecer até ao defendermos juntos algo pontual, como o Pix, ou algo complexo, como a democracia.

 

A personagem Marisa Maiô, criada por inteligência artificial, satiriza os programas de auditório - Foto: reprodução

Vídeos criados por IA atolam a sociedade no lamaçal da confiança na mentira

By | Jornalismo, Tecnologia | No Comments

Os mais recentes geradores de vídeo por inteligência artificial, lançados nas últimas semanas, põem o nosso discernimento à prova. Simplesmente não é mais possível saber o que é real! A impressionante capacidade de geração dessas plataformas permite que uma mentira suculenta se torne mais crível que uma verdade tristemente limitada pelos fatos, até para olhos treinados.

Isso era “crônica de uma morte anunciada”: todo mundo sabia que a tragédia aconteceria, mas ninguém fez nada para evitá-la. E se já não bastasse todo tipo de lixo produzido por IA sendo destacado pelos algoritmos das redes sociais (ao mesmo tempo que escondem bons conteúdos), esse recurso já é usado para enganar a população de maneira voraz, especialmente na política.

Já é bem ruim pessoas que não existem fazendo de tudo nos vídeos. Mais grave, entretanto, é ver, diante de nossos olhos, pessoas reais em atividades que nunca realizaram, muitas vezes comprometedoras.

Essa tecnologia já existe há algum tempo, mas, até então, seus desenvolvedores limitavam seu uso a pouquíssimos especialistas, enquanto buscavam maneiras para evitar que ela fosse usada indevidamente, uma precaução muito bem-vinda. Mas parece que agora mandaram os escrúpulos às favas, como se vê, aliás, em muitas outras atitudes das big techs desde o começo deste ano.

Quando tudo pode ser simulado com perfeição e quando passamos a desconfiar até do que é real, cria-se um ambiente de paranoia e cinismo. Essa erosão da confiança coletiva pode levar as pessoas a rejeitarem fatos documentados e a se refugiarem em teorias conspiratórias. E assim a democracia vai dando lugar à barbárie.


Veja esse artigo em vídeo:


A responsabilização é um ponto nevrálgico nesse dilema. Quem responde por um uso daninho dessa tecnologia: o criador do vídeo, a plataforma que o hospedou ou a empresa dona do algoritmo? Diante da ausência de regulamentação da inteligência artificial e das redes sociais, ninguém assume as falhas.

As big techs responsáveis por essas plataformas investem pesado no lobby para que tudo continue assim. Afinal, esse cenário de impunidade é muito bom para seu negócio, seja pela infinidade de conteúdos criados e distribuídos assim, seja pelo estímulo a um desenvolvimento descuidado dessas tecnologias. Para elas, quanto menos regras, melhor.

Claro que nem todos os vídeos criados com IA são nocivos. Um bom exemplo de seu uso para fins humorísticos são os programas da apresentadora Marisa Maiô. Criada como uma brincadeira para testar a tecnologia por Raony Phillips, a personagem satiriza programas de auditório e faz um enorme sucesso nas redes.

Apesar de sua proposta inofensiva, muita gente pode achar que ela é mesmo uma mulher e que seu programa passa em algum canal. Isso demonstra a responsabilidade dos criadores de conteúdo com o que geram com a inteligência artificial.

Em tese, todas essas plataformas possuem mecanismos para que não sejam usadas em práticas condenáveis, mas eles não garantem nada. Por isso, outro grave problema é o uso indevido da imagem de pessoas comuns retratadas em conteúdos pornográficos ou vexatórios, muitas vezes para extorsão ou vingança. Mesmo figuras públicas, que têm menos controle sobre sua imagem, enfrentam dificuldades para lidar com problemas derivados desses conteúdos, pela velocidade com que se espalham.

Não por acaso, em janeiro de 2024, o Fórum Econômico Mundial concluiu que a desinformação impulsionada por inteligência artificial será o risco mais severo para a humanidade nesse ano e no próximo.

 

Diversão e responsabilidade

Àqueles que defendem esse uso irrestrito da IA como um caminho inevitável do progresso, é preciso lembrar que inevitabilidade não justifica irresponsabilidade. O avanço tecnológico é constante, mas o modo como o usamos define os valores da sociedade que queremos construir.

Marisa Maiô e outras criações mostram o grande potencial da IA para a diversão, e isso atrai as massas. Não há nenhum problema em rir com gatinhos tocando Chopin no piano, mas essa banalização do irreal está destruindo a característica de documentação que o vídeo sempre teve, assim como já aconteceu com a fotografia.

Uma sociedade não se desenvolve sem ter algo para confiar. Se a qualidade técnica de um vídeo não servir mais de medida para isso, precisaremos encontrar outra.

O jornalismo profissional pode recuperar o posto de porto-seguro da informação, com trabalhos sérios de apuração e divulgação. Justamente ele, que vem sendo combatido há anos por aqueles que mais se beneficiam de usos criminosos dessas tecnologias, tentando se escudar depois na “liberdade de expressão”. Isso não é uma coincidência!

A imprensa precisa fazer a sua parte garantindo produtos de qualidade. Mas também é necessário que as pessoas recebam uma melhor educação midiática, que lhes permita diferenciar mais facilmente verdades de mentiras, mesmo as mais críveis.

A forma como uma tecnologia é concebida, distribuída e adotada carrega intencionalidades. Ao se criar uma ferramenta capaz de simular pessoas com perfeição, sem mecanismos nativos de identificação ou rastreio, a pretensão de neutralidade das big techs desaparece. A ética não pode ser um detalhe técnico, pois é a linha que separa a inovação do controle das massas.

A defesa de que essa tecnologia seja liberada sem critérios significa fechar os olhos para os desequilíbrios de poder. Ignorar os riscos ou tratá-los como “efeitos colaterais” do progresso é uma postura não apenas ingênua, mas perigosa. Afirmações sobre o uso irrestrito ser “inevitável” são maneiras cômodas de se eximir da responsabilidade.

Esse tipo de determinismo tecnológico ignora o fato de que toda inovação carrega consigo escolhas humanas, com impactos concretos sobre vidas, direitos e estruturas sociais. Assim como não permitimos o uso irrestrito de armas ou remédios, não dá para liberar tecnologias tão poderosas sem limites, critérios ou consequências.

Mas é o que está acontecendo, e deve acontecer cada vez mais, contando com aplausos de parte da população que insiste em ver apenas os inegáveis benefícios da tecnologia. Por isso, esses impactos devem ser amplamente discutidos. Afinal, não é porque ganhamos um carro superveloz que podemos abrir mão de seus freios. Se fizermos isso, não chegaremos vivos ao nosso destino.

 

Sundar Pichai, CEO do Google, fala durante a conferência Google I/O 2024, realizada em 14 de maio do ano passado - Foto: reprodução

Google dá sua bênção para que a IA seja usada em armas e vigilância

By | Tecnologia | No Comments

Em mais um caso de big tech que trai seus princípios, na terça passada (4), o Google alterou suas regras éticas para que a inteligência artificial da empresa possa ser usada no desenvolvimento de armas, na vigilância de pessoas, em produtos que possam causar danos severos à sociedade ou que violem direitos humanos.

Não quer dizer que a companhia entrou no negócio de armas de destruição em massa. Sua posição agora é de “mitigar resultados não intencionais ou prejudiciais” e buscar “princípios amplamente aceitos do direito internacional e dos direitos humanos”. Mas na prática, isso significa pouco ou nada.

É uma mudança profunda, que pode ter impacto global no uso da IA. Pela posição de enorme destaque do Google, ela pode inspirar empresas do mundo todo a fazer o mesmo, provavelmente com ainda menos cuidado.

É inevitável perguntar por que decidiram fazer isso agora, e por que se recusavam até então. Além disso, se a IA poderá ser usada largamente em produtos criados com o objetivo de matar pessoas, qual garantia existe de que essa tecnologia não sairá do controle, com consequências devastadoras?

Vale lembrar o antigo lema do Google: “don’t be evil” (“não seja mau”), um pacto com práticas empresariais éticas e responsáveis. Mas em 2015, a Alphabet, conglomerado que incorporou o Google, trocou o mote por “faça a coisa certa”, bem mais genérico.

E cá estamos discutindo como a recente decisão pode ser tão má!


Veja esse artigo em vídeo:


O Google alega que a decisão reflete a necessidade de empresas de “países democráticos” defenderem seus valores em um cenário geopolítico complexo. Mas especialistas sugerem que a pressão do mercado de IA e a busca por lucrativos contratos militares de um governo nacionalista podem ter influenciado seus gestores.

Qualquer que seja o motivo, a empresa mina a confiança do público e sinaliza que a ética é negociável. Isso estabelece um novo padrão para toda a indústria, em uma competição global impiedosa e menos preocupada com direitos humanos.

Ironicamente, no início do mês, passaram a valer partes da Lei da Inteligência Artificial da União Europeia que proíbem o uso de sistemas de reconhecimento facial em espaços públicos e restringem aplicações consideradas de alto risco, como a manipulação comportamental e a vigilância em massa.

A nova posição do Google se choca com a anterior, que listava as “aplicações que não buscaremos”: armas, vigilância, tecnologias que “causam ou podem causar danos gerais” ou que violam os princípios do direito internacional e dos direitos humanos.

Essas regras que agora foram enterradas surgiram após protestos de funcionários em 2018 contra o projeto Maven, um contrato militar que usava seus algoritmos de visão computacional para analisar imagens de drones. Milhares assinaram uma carta aberta que dizia: “acreditamos que o Google não deveria estar no negócio da guerra”. Por isso, além daquelas regras, o contrato com o Pentágono não foi firmado na época.

O Google não está sozinho nesse novo posicionamento. Concorrentes como Microsoft, Amazon, OpenAI e Anthropic já oferecem suas IAs para aplicações militares. Mas o gigante de busca sempre serviu de inspiração para aqueles que procuram um uso ético da tecnologia. Agora isso acabou!

 

“Skynet feelings”

Algumas das maiores autoridades em IA do mundo, como o canadense Yoshua Bengio, vencedor em 2018 do prêmio Turing (o “Nobel da computação”), afirmam que a busca pela inteligência artificial geral (AGI), que terá autonomia e flexibilidade semelhante ao cérebro humano, pode levar a comportamentos inesperados ou indesejados, até mesmo contrários aos interesses humanos.

Sistemas com aprendizado autônomo podem criar estratégias para autopreservação ou poder, o que poderia torná-los difíceis de controlar. A falta de transparência aumenta o risco de decisões incompreensíveis e não-rastreáveis, dificultando a intervenção humana em casos críticos. Mesmo um botão físico para desligar um servidor (um “kill switch”) poderia ser contornado com a IA se replicando em incontáveis outros servidores antes que fosse possível interromper seu funcionamento.

Adicione a esse caldo a IA sendo usada para o desenvolvimento e operação de armas autônomas. Não entrarei em cenários da ficção em que máquinas decidem exterminar a humanidade, mas isso pode, sem dificuldade, levar a violações de direitos humanos e a escaladas militares perigosas. Pode ainda incentivar o uso de IA para vigilância em massa, especialmente por regimes autoritários, comprometendo as liberdades civis.

Para evitar isso, as big techs deveriam agir de forma oposta ao que estão fazendo. Devem existir regras internas e leis que impeçam o uso da IA em atividades potencialmente perigosas ou que violem direitos individuais. Além disso, os sistemas precisam ser transparentes para auditorias independentes. E isso deve acontecer em todos os países do mundo: talvez o mais difícil de tudo isso, e o que põe tudo a perder.

A decisão do Google de flexibilizar seus princípios éticos não pode ser vista como uma mera decisão empresarial. Como uma das empresas mais valiosas do mundo, cujos produtos são usados diariamente pela maior parte da população global, deveria ser um farol mostrando que responsabilidade e inovação podem coexistir. Mas a gigante decidiu priorizar os lucros em detrimento da segurança e dos direitos humanos.

Essa é uma lógica do capitalismo: companhias não fazem nada que comprometa seus lucros. Assim, é uma ilusão esperar que elas se autorregulem efetivamente por pressões competitivas e financeiras. Diante disso, regulamentações governamentais tornam-se essenciais para estabelecer limites claros e garantir que o desenvolvimento tecnológico continue existindo, mas sem comprometer valores humanos fundamentais.

Nada disso é ficção: vivemos uma realidade que nos brinda com avanços fabulosos, mas que oferece um mundo perigosamente instável por conflitos militares, Estados autoritários que atropelam a civilidade pelos interesses de seus governantes, e uma sociedade cada vez mais fragilizada, em que o cidadão, de tão manipulado pelo meio digital, defende ferozmente seus próprios algozes.

Com tudo isso, quem precisa de robôs assassinos?

 

Pela lei, alunos não poderão usar celulares nem no recreio ou no intervalo das aulas - Foto: pvproductions/Freepik/Creative Commons

Até onde escolas sem celulares resolvem problemas da superexposição às telas?

By | Educação, Tecnologia | No Comments

Desde o dia 13, alunos não podem mais usar celulares e tablets pessoais nas escolas brasileiras de Ensino Fundamental e Ensino Médio. A lei 15.100/2025, que visa “salvaguardar a saúde mental, física e psíquica das crianças e adolescentes”, também é positiva frente às enormes perdas pedagógicas que esses equipamentos produzem. Mas ela não resolve o problema da superexposição dos mais jovens às telas, pois isso acontece principalmente em casa.

É um desafio complexo, pois vivemos em um mundo profundamente digitalizado, desde tenra idade. A pesquisa TIC Kids Online Brasil 2024, publicada em outubro pelo Cetic.br, órgão de pesquisas do CGI.br (Comitê Gestor da Internet no Brasil), indicou que 93% dos brasileiros entre 9 e 17 anos usam a Internet, quase sempre pelo celular. Praticamente todas as crianças ficam online em casa, e cerca de metade fazem isso na escola. E o primeiro contato se dá até os 6 anos para 23% e entre 7 e 9 anos para 26%, contrariando especialistas, que indicam que isso só comece na adolescência.

A lei reforça a autoridade do professor, que hoje tem que lutar contra as distrações do celular na sala de aula. Mas pais e mães precisam trabalhar com as escolas para combater os efeitos das telas sobre seus filhos, que vão muito além de piora no desempenho escolar. Elas podem causar sérios problemas de saúde mental, sono ruim, dificuldade de sociabilização, exposição a assédios, distúrbios alimentares e até de postura.

A tarefa cresce porque, por outro lado, os mais jovens precisam ser educados a usarem esses equipamentos de maneira segura e positiva. A proteção às crianças e aos adolescentes não pode ser confundida com alienação tecnológica.


Veja esse artigo em vídeo:


Tanto é assim que a lei permite que esses equipamentos sejam usados em atividades pedagógicas sob orientação do professor. Eles também podem ser usados por alunos que dependam deles por necessidades de saúde, acessibilidade ou inclusão.

A regra determina que não sejam usados nem no recreio ou nos intervalos entre aulas. Estudo realizado em 2023 pela Unesco (Organização das Nações Unidas para a Educação, a Ciência e a Cultura) indicou que o “dreno de atenção” dos smartphones é tão grande, que os alunos podem levar até 20 minutos para se concentrar novamente depois de usarem o celular em atividades não-acadêmicas. Mas o documento lembra que a tecnologia deve fazer parte da formação do indivíduo.

“É muito importante entender que olhar para os riscos de forma alguma exclui a necessidade de apropriação de tecnologias na educação”, afirma Ana Lucia de Souza Lopes, doutora em Educação e especialista em Educação e Tecnologias, e coordenadora na Universidade Presbiteriana Mackenzie. Para ela, “é muito simplista pensar dessa maneira, pois estamos diante de um grande desafio que precisa ser enfrentado para encontrar o equilíbrio”.

Portanto, a lei não propõe que o problema seja “varrido para baixo do tapete”. “A simples proibição do uso de celulares, sem o devido contexto, pode gerar desafios, como resistência ou ansiedade, especialmente em crianças e jovens que já apresentam sinais de dependência tecnológica”, explica Maria Eduarda Menezes, coordenadora de edtech da Beacon School. “Por isso, mais do que proibir, é essencial adotar uma abordagem educativa e dialógica”, acrescenta.

Não se pode achar que a escola dará conta disso sozinha, mas ela desempenha um papel essencial, por ser um lugar que prioriza o cuidado com o ser humano. Ela pode também instruir pais e mães a como lidar com essa questão, pois o uso equilibrado da tecnologia que começa na escola deve continuar em casa. Pouco adianta restringir o acesso ao celular e liberar outras telas, como o videogame e a televisão. Os responsáveis também devem avaliar se o celular é realmente necessário para os filhos ou se o oferecem apenas por pressões sociais ou modismos.

 

Combate ao “vício”

Se os adultos sofrem um impulso às vezes incontrolável de olhar informações no seu celular, isso é ainda mais forte em adolescentes. E não raro elas dominam a tecnologia melhor que seus pais, mas não sabem usá-la para aprender.

“É importante incluir letramento digital e cidadania digital nos currículos das escolas, pois permitem que os alunos compreendam como as tecnologias funcionam, saibam utilizá-las de maneira ética e responsável e desenvolvam habilidades para navegar com segurança no ambiente online”, explica Menezes.

Lopes explica que a escola deve oferecer aos estudantes estruturas de convivência e desenvolvimento que ampliem seus repertórios além das telas. “Ou, ao chegar da escola, os estudantes irão diretamente para a tela para compensar as horas de ‘privação’, agravando o quadro”, acrescenta.

Nada disso é simples, e a maioria dos professores não está preparada para incorporar essas demandas em suas aulas. Sua formação deve ser atualizada para conhecerem os riscos e desafios de lidar com a tecnologia digital, mas também para a enxergarem além de uma mera ferramenta, descobrindo como aproveitar seu potencial e compreender o papel que ocupa em nossas vidas. Para os docentes já formados, as escolas e o governo devem oferecer capacitação contínua.

Esse papel aparece em um alerta que alguns especialistas fazem sobre uma brecha na lei, que permite que os celulares sejam usados em aula para “garantir os direitos fundamentais”, sem explicar quais seriam. Eles temem que alguns alunos usem isso para manter a prática de filmar professores que digam algo com o que não concordem, em uma reprovável tentativa de exposição e até criminalização dos docentes. Vale dizer que isso afronta o direito à imagem garantido pela Constituição e pela Lei Geral de Proteção de Dados. Por isso, o governo deve explicar melhor o que são tais direitos, no processo de regulamentação da lei, que deve acontecer em 30 dias.

De qualquer forma, ela é muito bem-vinda, e deve auxiliar na solução de graves problemas causados pelo uso descontrolado desses dispositivos na escola. Abre também uma porta para se construir uma boa educação digital na escola e em casa.

Smartphones não podem ser vistos como meros brinquedos ou –pior ainda– uma “chupeta digital” para acalmar os mais jovens. Crianças e adolescentes merecem o apoio de pais, mães e educadores para se apropriarem de todo esse poder digital de maneira segura e construtiva. Essa é uma tarefa de toda a sociedade.

 

Anúncios dos vencedores do Prêmio Nobel de Física de 2024, pelo seu trabalho nos fundamentos do machine learning - Foto: reprodução

Este ano foi um ano de democratização da inteligência artificial

By | Tecnologia | No Comments

Estamos nos últimos momentos de 2024, um ano de novidades profundas em tecnologias e seus impactos nas empresas e nas vidas das pessoas. Por exemplo, o 5G se difundiu ainda mais, e grandes avanços aconteceram em veículos autônomos, tecnologias sustentáveis, biotecnologia e robótica. Mas no ano em que os prêmios Nobel tanto de Física quanto de Química foram entregues a cientistas com pesquisas ligadas à inteligência artificial, foi ela que deixou indiscutivelmente sua marca.

Vale dizer que a IA já fazia parte da nossa vida há muitos anos, potencializando aplicações e equipamentos, porém de maneira invisível. Tudo mudou em novembro de 2022, quando o ChatGPT ganhou as ruas, dando ao cidadão comum o gostinho de fazer facilmente criações com a inteligência artificial generativa. E isso deflagrou uma corrida para que se buscasse aplicar a IA em tudo.

Obviamente os primeiros resultados disso pareciam protótipos mal-acabados e muitos tinham aplicações questionáveis. O ano de 2023 viu a desconfiança de profissionais, que mesclavam deslumbramento diante das possibilidades da IA e medo de que ela roubasse seus empregos.

Agora, ao fim de 2024, pode-se dizer que ela deixou o terreno da curiosidade: esse foi o ano em que seu uso foi disseminado, com pessoas e principalmente empresas abandonando a especulação e incorporando a IA em seu cotidiano. Mas ainda há muito a se aprender sobre como aproveitá-la de maneira ética, produtiva e segura.


Veja esse artigo em vídeo:


“Estamos em uma fase muito importante, de democratização da IA generativa e também de uma compreensão maior dessa tecnologia”, afirma Adriana Aroulho, presidente da SAP Brasil, subsidiária brasileira da gigante alemã de software que vem incorporando a tecnologia em seus produtos.

Essa percepção é compartilhada por Gilson Magalhães, diretor-geral da Red Hat Latin America. “Não é só aquela questão de você ter perguntas respondidas por uma máquina de forma brilhante, mas como aquilo poderá ser inserido nas empresas”, explica. Segundo ele, depois da fase inicial de experimentação, nesse ano as companhias começaram a colher benefícios na produtividade de suas equipes, com método. “A gente viu algumas empresas já criando processos internos para permitir que a inteligência artificial fosse incorporada, considerando aspectos de segurança, de compliance, de copyright, de soberania de dados”, acrescenta.

É importante notar que, apesar dos impressionantes avanços exponenciais (e para alguns, quase sobrenaturais) dos grandes modelos de linguagem, quando se olha para os ganhos para os negócios pela IA, isso se deve também a um amadurecimento de suas equipes.

“É muito mais do lado das empresas, de os gestores começarem a ter uma visão mais concreta, mas tangível do que pode e do que não pode ser feito, o que é exagerado ou não”, explica Marco Stefanini, fundador e CEO Global do Grupo Stefanini. Isso é muito importante, pois muitos gestores acreditam que a tecnologia sozinha fará “mágicas” em seu negócio, e esse é um caminho fácil para a frustração. Para o executivo, “vem muito mais de maturidade das empresas que da própria tecnologia.”

Esse também foi um ano em que a IA passou a ser usada para melhorar planos de negócios, ajudar a vencer a burocracia, diminuir custos e concretizar ideias. “As pessoas já vinham abrindo negócios nas redes sociais sem apoio da inteligência artificial, mas agora, com ela, ganham muito poder”, sugere Marcelo Flores, gerente-geral da consultoria da IBM Brasil. E vai além nos benefícios da IA nisso: “as pessoas estão tendo mais poder de escolha das suas carreiras.”

Não é exagero, portanto, dizer que a IA é uma das tecnologias mais transformadoras que existiram, ao lado da marcos como a imprensa, o domínio da eletricidade e a Internet. Mas tudo traz consequências e, com a velocidade típica da IA, nem sempre temos tempo de pensar sobre isso.

 

Ética e segurança

Se em 2023, vimos diversos exemplos de sérios problemas decorrentes de usos descuidados da IA, 2024 trouxe alguma conscientização sobre um uso mais responsável dela. “Em um momento de intenso hype em torno da inteligência artificial, reforçamos a importância de uma abordagem equilibrada e construtiva, focada em resultados tangíveis e no impacto a longo prazo nos negócios”, explica Aroulho.

“Houve uma discussão muito grande neste ano para não se entrar de forma inconsequente no uso de uma tecnologia que pode ter desdobramentos em todas as direções, inclusive para divulgação de dados que não deveriam sair de dentro da empresa”, acrescenta Magalhães. “Isso passou a ser uma preocupação, que, de certa forma, trava um avanço mais rápido.”

Essa também foi uma das marcas de 2024: quais os limites éticos do uso da IA? Se ela deve ser regulamentada para proteger o cidadão, como fazer isso sem impedir o seu desenvolvimento?

A Europa puxou a fila das regulamentações dessa tecnologia: o Parlamento Europeu aprovou a sua Lei da Inteligência Artificial em março, criando vários níveis de risco de seus usos, atribuindo a cada um diferentes níveis de responsabilidade de empresas e governos. Ela não trata da tecnologia em si, para evitar empecilhos ao seu desenvolvimento. No Brasil, o projeto de lei 2338/2023, que visa regulamentar a IA e que apresenta forte inspiração na lei europeia, foi aprovado pelo Senado Federal em 10 de dezembro, e começará 2025 em análise na Câmara dos Deputados.

“Não sou contra regulamentação de maneira alguma –é necessária–, mas não pode ser exagerada”, explica Stefanini, dando voz a um debate que movimenta intensamente o setor. “A gente está perdendo essa janela, olhando para um viés muito político, carregado de controle, nocivo para o desenvolvimento da IA no país”, afirma.

A falta de consenso em torno disso foi outra marca de 2024. O lobby das big techs, que preferem pouca ou nenhuma regulamentação para acelerarem o máximo que puderem no desenvolvimento da IA, é intenso! Mas alguns dos maiores especialistas do setor afirmam que isso é um grande risco, pois a IA vem se comportando de maneiras que surpreendem seus próprios desenvolvedores.

O ano termina então com um grande desafio de encontrarmos maneiras de ampliarmos o desenvolvimento e os usos da IA para todos, porém de maneira responsável e segura. Como afirma Flores, “temos que democratizar a tecnologia, porque ela tem que ser benéfica para todos no seu dia a dia.”

Pelo que vimos nesse ano, esse debate se desdobrará de maneiras muito interessantes em 2025.

 

A estátua da Justiça, diante do STF: ministros julgam o artigo 19 do Marco Civil da Internet - Foto: Marcelo Casal Jr./Agência Brasil

Quem diz o que pode e o que não pode na Internet

By | Tecnologia | No Comments

Na quarta passada, o STF (Supremo Tribunal Federal) começou um julgamento que pode impactar profundamente como usamos a Internet e como ela nos influencia. Ele se refere ao artigo 19 do Marco Civil da Internet, que estabelece que a responsabilidade sobre um conteúdo publicado nas redes sociais é de seu criador, com essas plataformas respondendo por ele apenas se não tomarem providências após uma decisão judicial.

A despeito da enorme importância do tema, é preciso questionar quem deve decidir sobre isso e por qual motivo.

Publicado no dia 23 de abril de 2014, esse mecanismo visa proteger a liberdade de expressão, impedir a censura e garantir a inovação da Internet. Ele se alinha à seção 230 da CDA (sigla em inglês para “Lei de Decência nas Comunicações”), trecho dessa lei americana de 1996 chamado de “as 26 palavras que criaram a Internet”.

Esses princípios continuam valendo, mas o mundo mudou profundamente nessa década. As plataformas digitais deixaram de ser neutras no momento em que seus algoritmos passaram a ativamente promover o que gerava mais engajamento e consequentemente lucros. Ainda assim, essas empresas continuaram se beneficiando dessa proteção jurídica, mesmo quando tais conteúdos destacados levaram à extrema polarização social e à deterioração da saúde mental dos seus usuários.

Criou-se uma situação em que a sociedade padece exponencialmente com os mais diversos abusos nas plataformas digitais, com pouco ou nada sendo feito sobre isso. O Legislativo deveria então atualizar a lei, mas a letargia do Congresso Nacional no tema acaba pressionando a Justiça. E isso é ruim, porque diminui o debate democrático em torno de algo crítico para nossas vidas.


Veja esse artigo em vídeo:


Para Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propagando e Marketing), “nesse contexto, é justo que as plataformas assumam responsabilidades proporcionais pelos impactos dessas escolhas algorítmicas”. Mas ele alerta que não basta simplesmente atribuir o ônus às plataformas. “Eventual regulação deve estabelecer limites claros e mecanismos de contestação para que a moderação não se transforme em censura ou inviabilize a atividade”, explica.

“A responsabilidade excessiva pode levar as plataformas a adotarem uma postura conservadora, eliminando conteúdos legítimos por receio de sanções”, adverte Antonielle Freitas, especialista em direito digital e proteção de dados do Viseu Advogados. “Isso pode, sim, configurar censura, prejudicando o debate público e a liberdade de expressão”, acrescenta.

O Congresso já tratou do tema, com o projeto de lei 2630/2020, apelidado de “PL das Fake News”, que foi enterrado na Câmara dos Deputados em maio do ano passado. Ele propunha regulamentar o combate à desinformação e ao discurso de ódio, estabelecendo transparência e responsabilização das plataformas digitais.

Ironicamente ele foi vítima de desinformação, promovida por alguns grupos sociais e pelas próprias big techs, que convenceram a população e deputados federais que a lei promoveria censura estatal e restringiria a liberdade de expressão. Por isso, graças a um ambiente político muito polarizado e a pontos polêmicos, não houve consenso.

Depois disso, o tema perdeu relevância no Legislativo, mas os impactos das redes sociais na sociedade continuam intensos, desaguando em ações no STF. Crespo lembra que a Corte não escolhe o que julgar, mas, para ele, o artigo 19 não é inconstitucional. “O problema é que o Supremo parece querer mudar o regime de responsabilidade das plataformas e o está fazendo a partir do julgamento do artigo 19”, diz o advogado. “Entendo que possamos rever o regime de responsabilidade das plataformas, mas não acredito que o melhor caminho seja pelo julgamento da inconstitucionalidade do artigo 19”, conclui.

 

Equilíbrio entre Poderes

É um consenso que o assunto deveria ser tratado pelo Legislativo. Mas a baixa disposição dos congressistas para lidar com o problema, motivada por ignorarem sua gravidade, por interesses pessoais ou simplesmente por privilegiarem assuntos que considerem mais importantes, empurra o imbróglio para os outros Poderes. Nesse sentido, a ação do STF pode ser necessária quando a inoperância do Congresso comprometa direitos fundamentais ou a segurança jurídica, como na proliferação descontrolada da desinformação e do discurso de ódio.

Ministros do STF entendem que os ataques à Democracia nos últimos anos, culminando no atentado com bombas contra a Corte, no último dia 13, justificam sua ação. De fato, juristas apontam que a lei seja aperfeiçoada para combater a disseminação de conteúdos que promovam terrorismo, abusos contra mulheres e menores, exploração sexual, racismo e ataques à Democracia.

Um elemento externo esquentará esse debate. O presidente eleito dos EUA, Donald Trump, anunciou o empresário Elon Musk, dono da rede social X, como líder do recém-criado Departamento de Eficiência Governamental. Entre suas funções estará desregulamentar diversos setores da economia e reestruturar agências federais.

“Se os EUA flexibilizarem suas regulações (das redes sociais), outros países podem sentir-se pressionados a adotar posições semelhantes, seja por alinhamento político ou para manter competitividade econômica”, sugere Freitas. “Isso enfraqueceria iniciativas globais voltadas à criação de um ambiente digital mais seguro e responsável, potencializando os desafios relacionados à desinformação, discurso de ódio e exploração de vulnerabilidades dos usuários”, afirma. Mas a advogada lembra que esse movimento pode ter um efeito contrário, com governos e organizações intensificando esforços para estabelecer normas que mitiguem os efeitos de uma desregulamentação excessiva.

Qualquer que seja o desfecho desse movimento do STF, ela já tem um mérito: reacender o debate em torno desse tema crítico para a sociedade. Enquanto o Legislativo não fizer a sua parte, as big techs continuarão monopolizando o assunto e se beneficiando de premissas às quais não têm mais direito. A polarização, o ódio e outros males de nosso tempo gestados e promovidos em suas páginas precisam ser contidos. Mas isso só acontecerá se essas companhias forem parte ativa da solução, assumindo responsabilidades proporcionais por suas ações e omissões.

 

Sam Altman, CEO da OpenAI, líder global no desenvolvimento da inteligência artificial, no Fórum Econômico Mundial – Foto: reprodução

Sociedade exige da IA uma transparência que ela mesmo não pratica

By | Tecnologia | No Comments

Muito além do aquecido debate sobre legislações que organizem o uso da inteligência artificial, começa a se formar um consenso sobre alguns valores em torno dessa tecnologia, como uso e desenvolvimento responsáveis, decisões rastreáveis e dois conceitos que se confundem e são pouco conhecidos: transparência e explicabilidade. Todos são essenciais para que os impactos da IA sejam positivos. Mas a sociedade está exigindo algo dessas plataformas que ela mesma não pratica.

Se fizermos uma autoanálise, perceberemos que conscientemente não somos transparentes em muitas coisas de nosso cotidiano, assim como tampouco são empresas e instituições. Como exemplo, uma das maiores falhas das redes sociais, que levou à insana polarização da sociedade e a problemas de saúde mental de seus usuários, é a completa falta de transparência das decisões de seus algoritmos.

Diante disso, alguns especialistas afirmam que exigir esse nível de responsabilidade e transparência das plataformas de IA é um exagero e até, de certa forma, hipocrisia.

Talvez… Mas o fato de cultivarmos esses maus hábitos não pode ser usado para desestimular a busca desses objetivos nessa tecnologia com potencial de ofuscar a transformação que as redes sociais fizeram, que, por sua vez, deixou pequena as mudanças promovidas pela mídia tradicional anteriormente.

Se não tomarmos as devidas precauções, a inteligência artificial pode causar graves consequências para a humanidade pelas ações de grupos que buscam o poder de forma inconsequente. Por isso, ela precisa ser organizada para florescer como uma tecnologia que ampliará nossas capacidades criativas e de produção.

Sem esses pilares éticos, sequer confiaremos no que a IA nos disser, e então tudo irá por água abaixo.


Veja esse artigo em vídeo:


No momento, as plataformas de inteligência artificial funcionam como caixas pretas: colocamos nossos dados e fazemos nossos pedidos de um lado, e nos deslumbramos com os resultados do outro, sem saber como aquela “mágica” foi feita. Apenas quem está dentro das big techs que produzem esses sistemas sabe como aquilo funciona, mas até eles se surpreendem com alguns resultados das suas criaturas, como quando desenvolvem sozinhas habilidades para as quais não foram programadas.

Quando se cria algo que promove profundas mudanças na sociedade, mas não se conhecem seu funcionamento e objetivos, isso pode colocar em risco a própria democracia, não porque exista algo maquiavélico na sua confecção, mas justamente por esse desconhecimento. Não é à toa que legislações para a inteligência artificial ao redor do mundo, com o brasileiro Projeto de Lei 2338/23 e a europeia Lei da Inteligência Artificial, tentem definir rastreabilidade, transparência e explicabilidade.

A rastreabilidade é a capacidade de identificar e acompanhar as ações de um sistema de IA, saber quais dados foram usados para treiná-lo e seus algoritmos, manter registros sobre como chegou a uma determinada decisão e qual foi seu impacto. Isso permite que suas escolhas sejam auditadas e que vieses sejam corrigidos.

Já a transparência se refere às pessoas poderem ser capazes de entender como o sistema de IA funciona, quais dados ele usa e como ele toma decisões. Isso visa garantir que ele seja usado de forma justa e ética, aumentando sua aceitação pública.

Por fim, a explicabilidade se traduz na capacidade de um ser humano compreender as razões complexas pelas quais um sistema de IA toma uma determinada decisão, que fatores contribuíram e como foram ponderados. Ela é importante para identificar erros, prever resultados e garantir a conformidade com padrões éticos e legais.

Se não é fácil entender, mais difícil ainda é entregar esses valores. Os algoritmos mais eficientes são justamente os mais complexos, e uma simples documentação pode não ser suficiente. Ainda assim, o desafio dessa conformidade permanece.

 

Temos que entender

Como exemplo da importância de se entender essas plataformas, podemos pensar na exigência do artigo 20 da Lei Geral de Proteção de Dados (LGPD), que determina que o cidadão pode “solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses”. Mas como ele fará isso se nem compreende como a decisão foi tomada? Da mesma forma, como a empresa revisará a decisão, se tampouco a compreende?

Considerando que a IA estará cada vez mais presente e determinante em nossas vidas, sua compreensão deve ser ensinada até nas escolas, desde a infância, de maneira crescente. Não quer dizer que todos precisem dominar plenamente seu funcionamento: apenas o suficiente para suas necessidades. Fazendo uma comparação com um carro, existe sobre ele os conhecimentos de um projetista, de um mecânico, de um motorista e de um passageiro. E todos usam o carro à sua maneira!

Ao contrário do que alguns dizem, a exigência de que plataformas de inteligência artificial sigam esses preceitos éticos não pode ser visto como ameaça ao seu desenvolvimento e inovação. Pelo contrário, são condições que devem integrar sua própria concepção. A população precisa disso para confiar na inteligência artificial, ou, passada essa fase inicial de deslumbramento, ela poderá deixar de ser considerada como a incrível ferramenta de produtividade que é.

Entendo que as dificuldades para isso sejam imensas. Sei também que nós mesmos não somos transparentes em nosso cotidiano, como já disse. Mas nada disso pode servir como desculpa para se esquivar dessa tarefa. Tampouco é hipocrisia exigir que os desenvolvedores se esmerem para cumprir essas determinações.

Não podemos incorrer no mesmo erro cometido com as redes sociais, que até hoje atuam de maneira inconsequente e sem responsabilidade pelos eventuais efeitos muito nocivos de suas ações. A inteligência artificial já está transformando a sociedade de maneira determinante.

Seríamos inocentes se acreditássemos que essas empresas se autorregularão: seus interesses sempre falarão mais alto nesse caso. Precisamos de regulamentações claras, não para coibir o progresso, mas para dar um norte de bons princípios, para que a inteligência artificial beneficie a todos, e não apenas grupos tecnocratas.

 

Roberta Metsola, presidente do Parlamento Europeu, que acaba de aprovar a Lei da Inteligência Artificial - Foto: PE/Creative Commons

Europa regulamenta a IA protegendo a sociedade e sem ameaçar a inovação

By | Tecnologia | No Comments

O Parlamento Europeu aprovou, na quarta passada (13), a Lei da Inteligência Artificial, uma legislação pioneira que visa a proteção da democracia, do meio ambiente e dos direitos fundamentais, enquanto promove o desenvolvimento dessa tecnologia. As novas regras, que devem entrar em vigor ao longo dos próximos dois anos, estabelecem obrigações para desenvolvedores, autoridades e usuários da IA, de acordo com potenciais riscos e impacto de cada aplicação.

Na semana anterior, a Europa já havia aprovado uma lei que regula a atuação das gigantes da tecnologia, favorecendo a competição. Tudo isso consolida a vanguarda do continente na organização do uso do mundo digital para proteger e beneficiar a sociedade, inspirando leis pelo mundo. O maior exemplo é a GDPR, para proteção de dados, que no Brasil inspirou a LGPD, nossa Lei Geral de Proteção de Dados.

Legislações assim se tornam necessárias à medida que a digitalização ocupa espaço central em nossas vidas, transformando profundamente a sociedade. Isso acontece desde o surgimento da Internet comercial, na década de 1990. De lá para cá, cresceu com as redes sociais, com os smartphones e agora com a inteligência artificial.

O grande debate em torno dessas regras é se elas podem prejudicar a sociedade, ao atrapalhar o desenvolvimento tecnológico. A preocupação é legítima, mas ganha uma dimensão muito maior que a real por influência dessas empresas, que se tornaram impérios por atuarem quase sem regras até agora, e gostariam de continuar assim.

Infelizmente essas big techs abusaram dessa liberdade, sufocando a concorrência e criando recursos que, na prática, podem prejudicar severamente seus usuários. Portanto, essas leis não devem ser vistas como ameaças à inovação (que continuará existindo), e sim como necessárias orientações sociais para o uso da tecnologia.


Veja esse artigo em vídeo:


A nova lei proíbe algumas aplicações da IA. Por exemplo, o uso de câmeras fica restrito, sendo proibido o “policiamento preditivo”, em que a IA tenta antecipar um crime por características e ações das pessoas. Também são proibidos a categorização biométrica e a captação de imagens da Internet ou câmeras para criar bases de reconhecimento facial. A identificação de emoções em locais públicos, a manipulação de comportamentos e a exploração de vulnerabilidades tampouco são permitidos.

“O desafio é garantir que tecnologias de vigilância contribuam para a segurança e bem-estar da sociedade, sem prejuízo das liberdades civis e direitos individuais”, explica Paulo Henrique Fernandes, Legal Ops Manager no Viseu Advogados. “Isso requer um diálogo contínuo para aprimoramento de práticas e regulamentações que reflitam valores democráticos e éticos”, acrescenta.

A lei também disciplina outros sistemas de alto risco, como usos da IA em educação, formação profissional, emprego, infraestruturas críticas, serviços essenciais, migração e Justiça. Esses sistemas devem reduzir os riscos, manter registros de uso, ser transparentes e ter supervisão humana. As decisões da IA deverão ser explicadas aos cidadãos, que poderão recorrer delas. Além disso, imagens, áudios e vídeo sintetizados (os deep fakes) devem ser claramente rotulados como tal.

A inovação não fica ameaçada pela lei europeia, porque ela não proíbe a tecnologia em si, concentrando-se em responsabilidades sobre aplicações que criem riscos à sociedade claramente identificados. Como a lei prevê um diálogo constante entre autoridades, desenvolvedores, universidades e outros membros da sociedade civil, esse ambiente pode até mesmo favorecer um desenvolvimento sustentável da IA, ao criar segurança jurídica a todos os envolvidos.

A nova legislação também aborda um dos temas mais polêmicos do momento, que é o uso de conteúdos de terceiros para treinar as plataformas de IA. Os donos desses sistemas vêm usando tudo que podem coletar na Internet para essa finalidade, sem qualquer compensação aos autores. A lei aprovada pelo Parlamento Europeu determina que os direitos autorias sejam respeitados e que os dados usados nesse treinamento sejam identificados.

 

Evitando Estados policialescos

Um grande ganho da nova lei europeia é a proteção do cidadão contra o próprio Estado e seus agentes. A tecnologia digital vem sendo usada, em várias partes do mundo, para monitorar pessoas e grupos cujas ideias e valores sejam contrárias às do governo da vez, uma violação inaceitável a direitos fundamentais, além de criar riscos enormes de injustiças por decisões erradas das máquinas.

Em várias partes do mundo, inclusive no Brasil, muitas pessoas foram presas por terem sido confundidas pelos sistemas com criminosos. Em São Paulo, a primeira proposta do programa Smart Sampa, implantado em 2023 pela Prefeitura e que monitora os cidadãos com milhares de câmeras, previa que o sistema indicasse à polícia pessoas “em situação de vadiagem”, seja lá o que isso significasse.

A ficção nos alerta há muito tempo sobre os problemas desses abusos. O filme “Minority Report” (2002), por exemplo, mostra que mesmo objetivos nobres (como impedir assassinatos, nessa história) podem causar graves danos sociais e injustiças com a tecnologia. E há ainda os casos em que as autoridades deliberadamente a usam para controlar os cidadãos, como no clássico livro “1984”, publicado por George Orwell em 1949.

O Congresso brasileiro também estuda projetos para regulamentar a inteligência artificial. O mais abrangente é o Projeto de Lei 2.338/2023, que propõe o Marco Legal da Inteligência Artificial. “Enquanto a União Europeia estabeleceu um quadro regulatório detalhado e abrangente, focando na gestão de riscos associados a diferentes usos da IA, o Brasil ainda está definindo seu caminho regulatório, com um enfoque aparentemente mais flexível e menos prescritivo”, explica Fernandes.

É inevitável a profunda transformação que a inteligência artificial já promove em nossa sociedade, um movimento que crescerá de maneira exponencial. Os benefícios que ela traz são imensos, mas isso embute também muitos riscos, especialmente porque nem os próprios desenvolvedores entendem tudo que ela vem entregando.

Precisamos estar atentos também porque muitos desses problemas podem derivar de maus usos da IA, feito de maneira consciente ou não. Por isso, leis que regulamentem claramente suas utilizações sem impedir o desenvolvimento são essenciais nesse momento em que a colaboração entre pessoas e máquinas ganha um novo e desconhecido patamar. Mais que aspectos tecnológicos ou de mercado, essas legislações se tornam assim verdadeiros marcos civilizatórios, críticos para a manutenção da sociedade.

 

Imagem: composição por Paulo Silvestre

Chamamos de “magia” muitas coisas que simplesmente não entendemos

By | Tecnologia | No Comments

Em 1985, eu e três amigos começamos a nos interessar por computadores, em uma época em que pouquíssimas pessoas sabiam o que eles eram ou para que serviam. Fomos a uma pioneira “escola de computação” no bairro para saber se poderíamos aprender mais sobre aquilo. A recepcionista nos levou a um TK-85 (um pequeno computador como o da imagem) e digitou o seguinte programa:

 

10 PRINT "Qual é o seu nome?"
20 INPUT nome$
30 PRINT "Olá, " + nome$ + "."
40 END

 

Quando ela rodou aquele código “espantoso”, a tela da TV preto-e-branco exibiu “Qual o seu nome?” Cada um de nós digitou o seu, ao que a máquina respondeu (para mim) “Olá, Paulo.”

Assombro geral com a “inteligência” do computador! Suficiente para aqueles pré-adolescentes se matricularem no cursinho de BASIC.

Não é preciso ser um programador para perceber que aquilo era algo extremamente simples. Mas para quem nunca tinha tocado em um computador (1985, lembra?), foi o suficiente para abrir as portas que me permitiram, a partir dali, olhar para o digital como forma de ampliar meus horizontes, procurando entender o que acontece no mundo dos bits.

O ser humano tem medo do desconhecido, porque não o pode controlar. Mesmo que algo aconteça incontestavelmente diante de seus olhos, se não compreender o fenômeno com o que sabe, recai sobre obra do divino ou –pior– vira “bruxaria”. Por conta disso, muitas mulheres e homens geniais foram, ao longo da história, calados, presos ou mortos por suas ideias, mesmo as mais benéficas à humanidade.

Por outro lado, quando adquirimos conhecimento, qualquer coisa, mesmo aquelas até então tidas como mágicas, deixa o campo do desconhecido e passa a ser uma ferramenta sob nosso domínio. E de tempos em tempos, uma nova tecnologia disruptiva surge para “testar a nossa fé”.

A bola da vez é a inteligência artificial, que já está revolucionando muitos negócios, mas igualmente desperta medo, pois o cidadão médio não consegue entender como ela funciona. Para ficar ainda mais confuso, temos pesquisadores e executivos da própria área revelando publicamente restrições a ela.

Talvez exista exagero nesses temores; talvez não. A dúvida se dá porque essa, que é uma das mais poderosas tecnologias já criadas, ainda seja majoritariamente incompreendida pela massa, que a vê, portanto, como “mágica”.

Precisamos desmistificar a IA, assim como qualquer outra tecnologia. Essa é a melhor maneira de tirarmos bom proveito do que ela pode nos oferecer, enquanto escapamos de eventuais armadilhas. Não quer dizer que teremos que ser todos programadores ou cientistas de dados: entendermos o que é, como funciona e para que serve já ajudará muito!

 

PS: tenho até hoje o meu TK-85 (foto a seguir), testemunha daquele momento histórico do nascimento da microinformática no país, nos anos 1980.

Foto: Paulo Silvestre

Foto: Paulo Silvestre

 


Vídeo relacionado:

Joan, protagonista do primeiro episódio da sexta temporada de “Black Mirror”, surta por causa de um mau uso da IA - Foto: divulgação

“Black Mirror” explica ludicamente os riscos da inteligência artificial

By | Tecnologia | No Comments

Em uma sociedade polarizada pelo poder descontrolado dos algoritmos das redes sociais, cresce o debate se a inteligência artificial vai exterminar ou salvar a humanidade. Como costuma acontecer com esses extremismos, a verdade provavelmente fica em algum lugar no meio do caminho. Agora a sexta temporada da série “Black Mirror”, que estreou na Netflix na última quinta (15), surge com uma explicação lúdica de como essa tecnologia pode ser incrível ou devastadora, dependendo apenas de como será usada.

A icônica série, criada em 2011 pelo britânico Charlie Brooker, é conhecida pelas suas perturbadoras críticas ao mau uso de tecnologias. Sem correr risco de “dar spoiler”, o primeiro episódio da nova temporada (“A Joan É Péssima”) concentra-se na inteligência artificial generativa, mas guarda espaço para apontar outros abusos do mundo digital pela sociedade. Sobra até para a própria Netflix, a vilã do episódio!

Como fica claro na história, o poder da inteligência artificial cresce de maneira que chega a ser assustador, alimentando as teorias pessimistas ao redor dela. Se até especialistas se pegam questionando como essas plataformas estão “aprendendo”, para uma pessoa comum isso é praticamente incompreensível, algo ainda no campo da ficção científica.

Mas é real e está a nossa volta, começando pelos nossos smartphones.


Veja esse artigo em vídeo:


Como acontece em tantos episódios de “Black Mirror”, algo dá muito errado. E a culpa não é do digital, mas de como ele é usado por seres humanos movidos por sentimentos ou interesses condenáveis. A lição é que, quanto mais poderosa for a tecnologia, mais incríveis serão os benefícios que ele pode trazer, mas também maiores os riscos associados à sua desvirtuação.

É nesse ponto que estamos com a inteligência artificial. Mas ela não estraga a vida da protagonista do episódio sozinha: tem a “ajuda” de celulares (que estão captando continuamente o que dizemos e fazemos), dos algoritmos das plataformas de streaming (que nos dizem o que assistir), da “ditadura das curtidas”, do sucesso de discursos de ódio e até de instalarmos aplicativos sem lermos seus termos de uso.

A indústria de tecnologia costumava ser regida pela “Lei de Moore”, uma referência a Gordon Moore, um dos fundadores da Intel. Em um artigo em 1965, ele previu que a quantidade de circuitos em chips dobraria a cada 18 meses, pelo mesmo custo. Em 1975, reviu sua previsão para 12 meses. Hoje, o poder da inteligência artificial –que é software, mas depende de um processamento gigantesco– dobra a cada três meses.

O “problema” é que nossa capacidade humana não cresce no mesmo ritmo. E quando não conseguimos acompanhar uma evolução, ela pode nos atropelar. Essa é a gênese de muitos desses problemas, pois tanto poder à disposição pode fazer com que as pessoas deixem cuidados de lado e até passem por cima de limites morais.

É como diz o ditado: “quem nunca comeu melado, quando come, se lambuza!”

 

Faça a coisa certa

Na quarta, participei do AI Forum 2023, promovido pela IBM e pela MIT Sloan Review Brasil. As palestras demonstraram o caminho desse avanço da inteligência artificial e de como ela está se tornando uma ferramenta essencial para empresas de qualquer setor.

De fato, com tantos recursos incríveis que novas plataformas movidas pela IA oferecem aos negócios, fica cada vez mais difícil para uma empresa se manter relevante no mercado sem usar essa tecnologia. É como procurar emprego hoje sem saber usar a Internet ou um smartphone. Por mais experiente e qualificado em outras áreas que se seja, não haveria chance de ser contratado, porque esses pontos fortes seriam facilmente suplantados por outros candidatos que dominassem esses recursos.

Um estudo recém-divulgado pela IBM mostra que, se em 2016 58% dos executivos das empresas estavam familiarizados com a IA tradicional, agora em 2023 83% deles conhecem a IA generativa. Além disso, cerca de dois terços se sentem pressionados a acelerar os investimentos na área, que devem quadruplicar em até três anos.

A mesma pesquisa aponta que o principal fator que atravanca essas decisões é a falta de confiança na tecnologia, especialmente em aspectos de cibersegurança, privacidade e precisão. Outros problemas levantados foram a dificuldade de as decisões tomadas pela IA generativa serem facilmente explicadas, a falta de garantia de segurança e ética, a possibilidade de a tecnologia propagar preconceitos existentes e a falta de confiança nas respostas fornecidas pela IA generativa.

Conversei no evento com Marcela Vairo, diretora de Automação, Dados e IA da IBM (a íntegra da entrevista pode ser vista no vídeo abaixo). Para ela, três premissas devem ser consideradas para que a inteligência artificial nos ajude efetivamente, resolvendo essas preocupações.

A primeira delas é que as aplicações movidas por IA devem ser construídas para tornar as pessoas mais inteligentes e produtivas, e não para substituí-las. Deve existir também um grande cuidado e respeito com os dados dos clientes, que pertencem apenas a eles e não podem ser compartilhados em outra plataforma ou com outros clientes. E por fim, as aplicações devem ser transparentes, para que as pessoas entendam por que elas estão tomando uma determinada decisão e de onde ela veio, o que também ajuda a combater os possíveis vieses que a IA desenvolva.

O que precisamos entender é que essa corrida tecnológica está acontecendo! Não sejamos inocentes em achar que ela será interrompida pelo medo do desconhecido. Os responsáveis por esse desenvolvimento devem incluir travas para que seus sistemas não saiam do controle, garantindo essas premissas.

O que nos leva de volta a “Black Mirror”: tampouco podemos ser inocentes em achar que todos os executivos da indústria serão éticos e preocupados em fazer a coisa certa. É por isso que a inteligência artificial precisa ser regulamentada urgentemente, para pelo menos termos a tranquilidade de continuar usufruindo de seus benefícios incríveis sem o risco de sermos dominados pela máquina.

E no final, sempre temos que ter uma tomada para puxar e desligar a coisa toda se ela sair completamente dos trilhos.


Íntegra de entrevista com Marcela Vairo (IBM):

Por que os taxistas nunca vencerão o Uber (e o que você pode tirar disso)

By | Jornalismo, Tecnologia | 5 Comments
Taxistas protestam contra a regulamentação do Uber em São Paulo – Foto: Rovena Rosa/Agência Brasil

Taxistas protestam contra a regulamentação do Uber em São Paulo

No dia 11, o prefeito Fernando Haddad regulamentou os aplicativos de transporte, como o Uber, em São Paulo. Isso desencadeou uma nova onda de protestos violentos dos taxistas, que acusam a empresa de concorrência desleal. Mas é uma luta que eles jamais vencerão, pois o Uber redefiniu o transporte de pessoas, “commoditizando” o serviço dos taxistas. E esse é um fenômeno social e econômico que pode atingir qualquer negócio ou categoria profissional.

Mas o que é essa “commoditização” de produtos e serviços? Isso acontece quando novas empresas, novas tecnologias ou novos modelos de negócios começam a oferecer a mesma coisa de maneira inovadora, acrescentando uma camada inédita de valor sobre algo que já existe. Nesse processo, o produto ou o serviço original continua lá e até pode ser essencial no novo formato, mas o público deixa de ver valor naquilo, passando a pagar apenas pela novidade.


Vídeo relacionado:


É o que o Uber fez com os táxis. Trocando em miúdos, os passageiros passaram a querer mais que o simples transporte em quaisquer condições, oferecido pelos taxistas. Para esses consumidores, o verdadeiro valor é ter esse serviço em um carro novo, limpo e confortável, com um motorista educado, treinado e bem vestido, com serviço de bordo. É por tudo isso que cada vez mais pessoas estão dispostas a pagar. E é isso que o Uber oferece, e os taxistas não conseguem –ou não querem– entender e fazer.

É claro que o que os taxistas e o Uber vendem é transporte de passageiros. Mas o Uber tirou o valor disso, que virou apenas o básico, aquilo que o público nem vê, por mais que seja a essência do serviço: foi “commoditizado”. O valor foi transferido para a camada de serviços extra.

O que os taxistas oferecem não vale mais. É por isso que não vencerão o Uber.

 

“Commoditizando” tudo

Mas isso pode afetar qualquer um, inclusive você, seja lá o que você faça. Isso porque, quando menos se espera, alguém pode chegar oferecendo a mesma coisa, só que de uma maneira que faça mais sentido para o seu público.

Qualquer jornalista já sentiu isso na pele. Com a popularização das redes sociais e a explosão de oferta de conteúdo de qualquer tipo, muitos colegas chegam a achar que a profissão encontrou o seu fim, com uma massa enorme e crescente de desempregados. Eles não estão sozinhos: veículos de comunicação tradicionais quebram um após o outro no mundo todo, incapazes de fazer frente à fuga de público e de anunciantes.

Assim como os taxistas, esses profissionais e essas empresas ficam em um “mimimi” eterno, reclamando que são eles que sabem fazer esse trabalho direito, que são eles que produzem o conteúdo de qualidade, e que isso custa muito caro! E que não é justo que novos veículos digitais cheguem e acabem com o seu monopólio da notícia, que durava mais de um século.

Oras, mas esses novos veículos, como a Vice, vão muito bem, e o que eles oferecem, na base, é conteúdo jornalístico. Mas eles tiveram sucesso em criar aquela “camada de valor extra”. Ou seja, o conteúdo jornalístico está mesmo “commoditizado”, mas ele serve para viabilizar esses novos títulos e profissionais.

Outro exemplo que gosto muito de citar é o da indústria fonográfica. Há uns 20 anos, ela era bilionária, com lucros calcados principalmente sobre a venda de CDs. Surgiram então os serviços de compartilhamento de MP3, como o Napster, que mostraram ao público que aquele modelo da indústria já havia caducado. Eventualmente isso acabou perdendo força, com as gravadoras processando os serviços e até seus clientes (o que demonstra como estavam dissociadas desse novo mundo).

Mas então a Apple lançou o iTunes, oferecendo a possibilidade de compra digital de cada faixa por uma fração do valor do álbum, e jogou a pá de cal no modelo de negócios de CDs. Só que esse modelo também já está perdendo força, sendo substituído pelo do Spotify, onde se paga um valor fixo por mês e se consome à vontade do seu gigantesco acervo de músicas online.

A música foi “commoditizada”: sorte do Spotify! Azar dos vendedores de CDs…

Agora pense com carinho: o seu produto ou serviço já está sendo “commoditizado” por alguém ou isso ainda vai acontecer?

 

Como escapar da “commoditização”

A Apple também poderia ficar rangendo os dentes, como as gravadoras, os jornais, revistas ou os taxistas. Mas, ao invés disso, ela reinventou seu serviço! O iTunes ainda existe, mas a empresa já lançou a Apple Music, exatamente nos mesmos moldes do Spotify. Porque, como diz o filósofo, “quem fica parado é poste!”

Esse deveria ser o mantra de todos os gestores, de qualquer negócio. Mais cedo ou mais tarde, isso que eles fazem tão bem e que parece essencial à sociedade perderá o valor. Se continuarem insistindo, serão substituídos por alguém com uma visão mais moderna dos negócios e do mundo.

Então voltemos ao caso dos taxistas, para entender como sobreviver à “commoditização”.

Não é o Uber que ameaça os taxistas, e por vários motivos. Primeiramente porque existe espaço para todos. Como a Prefeitura de São Paulo não emite novos alvarás para táxis comuns desde 1996, há um déficit estimado de 20 mil carros para transporte particular na cidade. O Uber pode triplicar a sua frota atual em São Paulo, que isso mal fará cócegas nessa demanda reprimida.

No final das contas, a verdadeira ameaça aos taxistas são o seu sindicato, a máfia dos alvarás e os próprios taxistas! O primeiro porque promove o ódio entre os motoristas e incentiva essa baderna que temos visto nas cidades. O resultado disso é um sentimento de rejeição ao serviço de táxi como um todo entre a população, seja pelos recorrentes transtornos causados por aquela parcela dos motoristas, seja pela repulsa à violência injustificável que alguns criminosos praticam contra motoristas e até passageiros do Uber.

Sobre a máfia dos alvarás (que chega a cobrar R$ 150 mil por algo que é uma concessão municipal), ela é uma facção do crime organizado que lesa a população e o poder público por manipular essas autorizações para obter lucros milionários. Os próprios taxistas são os principais prejudicados por esses bandidos, pois, para que consigam trabalhar, precisam comprar ou alugar essa licença, pagando valores astronômicos.

Portanto, se os taxistas realmente quiserem sobreviver à “commoditização”, não deveriam se organizar contra Uber, muito menos do jeito que estão fazendo. A solução dos seus problemas passa por ficar livres justamente desse sindicato, que os manipula, e dessa máfia, que os explora ao extremo. Os dois são dignos representantes do pior que existe na sociedade brasileira. Além disso, os taxistas precisam repensar o seu serviço: se o que eles oferecem não é mais o que as pessoas estão dispostas a pagar, é hora de se reinventar. E o Uber, ao invés de algoz, pode ser o modelo a ser seguido.

Não há como resistir à evolução do mercado. Ranger os dentes, distribuir pancada ou desqualificar novos concorrentes não resolverá o problema de nenhum negócio. A única solução é melhorar: ficar parado é o mesmo que piorar.


Vamos falar sobre a linguagem certa para público certo na Social Media Week? Esse é o segredo do sucesso nas redes sociais. É só entrar nesta página e clicar no botão verde de CURTIR abaixo da minha foto.


Artigos relacionados: