Monthly Archives: dezembro 2024

Anúncios dos vencedores do Prêmio Nobel de Física de 2024, pelo seu trabalho nos fundamentos do machine learning - Foto: reprodução

Este ano foi um ano de democratização da inteligência artificial

By | Tecnologia | No Comments

Estamos nos últimos momentos de 2024, um ano de novidades profundas em tecnologias e seus impactos nas empresas e nas vidas das pessoas. Por exemplo, o 5G se difundiu ainda mais, e grandes avanços aconteceram em veículos autônomos, tecnologias sustentáveis, biotecnologia e robótica. Mas no ano em que os prêmios Nobel tanto de Física quanto de Química foram entregues a cientistas com pesquisas ligadas à inteligência artificial, foi ela que deixou indiscutivelmente sua marca.

Vale dizer que a IA já fazia parte da nossa vida há muitos anos, potencializando aplicações e equipamentos, porém de maneira invisível. Tudo mudou em novembro de 2022, quando o ChatGPT ganhou as ruas, dando ao cidadão comum o gostinho de fazer facilmente criações com a inteligência artificial generativa. E isso deflagrou uma corrida para que se buscasse aplicar a IA em tudo.

Obviamente os primeiros resultados disso pareciam protótipos mal-acabados e muitos tinham aplicações questionáveis. O ano de 2023 viu a desconfiança de profissionais, que mesclavam deslumbramento diante das possibilidades da IA e medo de que ela roubasse seus empregos.

Agora, ao fim de 2024, pode-se dizer que ela deixou o terreno da curiosidade: esse foi o ano em que seu uso foi disseminado, com pessoas e principalmente empresas abandonando a especulação e incorporando a IA em seu cotidiano. Mas ainda há muito a se aprender sobre como aproveitá-la de maneira ética, produtiva e segura.


Veja esse artigo em vídeo:


“Estamos em uma fase muito importante, de democratização da IA generativa e também de uma compreensão maior dessa tecnologia”, afirma Adriana Aroulho, presidente da SAP Brasil, subsidiária brasileira da gigante alemã de software que vem incorporando a tecnologia em seus produtos.

Essa percepção é compartilhada por Gilson Magalhães, diretor-geral da Red Hat Latin America. “Não é só aquela questão de você ter perguntas respondidas por uma máquina de forma brilhante, mas como aquilo poderá ser inserido nas empresas”, explica. Segundo ele, depois da fase inicial de experimentação, nesse ano as companhias começaram a colher benefícios na produtividade de suas equipes, com método. “A gente viu algumas empresas já criando processos internos para permitir que a inteligência artificial fosse incorporada, considerando aspectos de segurança, de compliance, de copyright, de soberania de dados”, acrescenta.

É importante notar que, apesar dos impressionantes avanços exponenciais (e para alguns, quase sobrenaturais) dos grandes modelos de linguagem, quando se olha para os ganhos para os negócios pela IA, isso se deve também a um amadurecimento de suas equipes.

“É muito mais do lado das empresas, de os gestores começarem a ter uma visão mais concreta, mas tangível do que pode e do que não pode ser feito, o que é exagerado ou não”, explica Marco Stefanini, fundador e CEO Global do Grupo Stefanini. Isso é muito importante, pois muitos gestores acreditam que a tecnologia sozinha fará “mágicas” em seu negócio, e esse é um caminho fácil para a frustração. Para o executivo, “vem muito mais de maturidade das empresas que da própria tecnologia.”

Esse também foi um ano em que a IA passou a ser usada para melhorar planos de negócios, ajudar a vencer a burocracia, diminuir custos e concretizar ideias. “As pessoas já vinham abrindo negócios nas redes sociais sem apoio da inteligência artificial, mas agora, com ela, ganham muito poder”, sugere Marcelo Flores, gerente-geral da consultoria da IBM Brasil. E vai além nos benefícios da IA nisso: “as pessoas estão tendo mais poder de escolha das suas carreiras.”

Não é exagero, portanto, dizer que a IA é uma das tecnologias mais transformadoras que existiram, ao lado da marcos como a imprensa, o domínio da eletricidade e a Internet. Mas tudo traz consequências e, com a velocidade típica da IA, nem sempre temos tempo de pensar sobre isso.

 

Ética e segurança

Se em 2023, vimos diversos exemplos de sérios problemas decorrentes de usos descuidados da IA, 2024 trouxe alguma conscientização sobre um uso mais responsável dela. “Em um momento de intenso hype em torno da inteligência artificial, reforçamos a importância de uma abordagem equilibrada e construtiva, focada em resultados tangíveis e no impacto a longo prazo nos negócios”, explica Aroulho.

“Houve uma discussão muito grande neste ano para não se entrar de forma inconsequente no uso de uma tecnologia que pode ter desdobramentos em todas as direções, inclusive para divulgação de dados que não deveriam sair de dentro da empresa”, acrescenta Magalhães. “Isso passou a ser uma preocupação, que, de certa forma, trava um avanço mais rápido.”

Essa também foi uma das marcas de 2024: quais os limites éticos do uso da IA? Se ela deve ser regulamentada para proteger o cidadão, como fazer isso sem impedir o seu desenvolvimento?

A Europa puxou a fila das regulamentações dessa tecnologia: o Parlamento Europeu aprovou a sua Lei da Inteligência Artificial em março, criando vários níveis de risco de seus usos, atribuindo a cada um diferentes níveis de responsabilidade de empresas e governos. Ela não trata da tecnologia em si, para evitar empecilhos ao seu desenvolvimento. No Brasil, o projeto de lei 2338/2023, que visa regulamentar a IA e que apresenta forte inspiração na lei europeia, foi aprovado pelo Senado Federal em 10 de dezembro, e começará 2025 em análise na Câmara dos Deputados.

“Não sou contra regulamentação de maneira alguma –é necessária–, mas não pode ser exagerada”, explica Stefanini, dando voz a um debate que movimenta intensamente o setor. “A gente está perdendo essa janela, olhando para um viés muito político, carregado de controle, nocivo para o desenvolvimento da IA no país”, afirma.

A falta de consenso em torno disso foi outra marca de 2024. O lobby das big techs, que preferem pouca ou nenhuma regulamentação para acelerarem o máximo que puderem no desenvolvimento da IA, é intenso! Mas alguns dos maiores especialistas do setor afirmam que isso é um grande risco, pois a IA vem se comportando de maneiras que surpreendem seus próprios desenvolvedores.

O ano termina então com um grande desafio de encontrarmos maneiras de ampliarmos o desenvolvimento e os usos da IA para todos, porém de maneira responsável e segura. Como afirma Flores, “temos que democratizar a tecnologia, porque ela tem que ser benéfica para todos no seu dia a dia.”

Pelo que vimos nesse ano, esse debate se desdobrará de maneiras muito interessantes em 2025.

 

Para Kant (esquerda), não se pode ser imoral, mesmo para um bom fim; já Maquiavel defendia que o fim justifica os meios - Foto: reproduções

Como equilibrar a ética, a competitividade tecnológica e a liberdade de expressão

By | Tecnologia | No Comments

Estamos chegando ao final de um ano em que o debate sobre o equilíbrio entre a ética, a competitividade tecnológica e a liberdade de expressão ganhou novos contornos com o avanço da inteligência artificial, de práticas questionáveis das big techs e com as discussões em torno do Marco Civil da Internet. Enfrentamos uma grande dificuldade para encontrar um caminho razoável para, ao mesmo tempo, proteger as pessoas da voracidade irresponsável das plataformas digitais, evitar a censura, fazer um uso seguro da tecnologia e garantir a competitividade pessoal, nos negócios e até de nações, em uma geopolítica cada vez mais determinada pela tecnologia.

Esse é um dos grandes desafios dessa geração, pois a sociedade não está conseguindo processar as mudanças na velocidade em que estão sendo impostas. Insistimos em medir essa transformação com réguas que foram criadas para um mundo que já não existe. Esse é um processo fadado ao fracasso!

O exemplo mais claro é o impacto social das casas de aposta online, as infames “bets”. Elas crescem exponencialmente no mundo todo, mas no Brasil se tornaram um problema de saúde pública, com pessoas perdendo economias de uma vida e indivíduos das camadas mais pobres gastando o dinheiro da comida na jogatina.

Alguns podem dizer que “aposta quem quiser”. Só que atribuir toda a culpa ao livre arbítrio é um reducionismo de tudo que se discute aqui. A facilidade de se apostar pelo smartphone fica irresistível com a influência dos algoritmos dessas plataformas, com a promessa mentirosa de ganhos fáceis (ampliada por influenciadores pagos), com a interface gamificada e até com um senso de pertencimento no grupo de amigos apostadores.

Em outras palavras, nosso livre arbítrio é manipulado pelas mais diversas plataformas digitais, e engana-se quem acredita ser totalmente imune a isso. A sedução digital insidiosa vence mesmo mentes afiadas, em algum momento. É disso que temos que tratar, sem perder os inegáveis benefícios da tecnologia ou ferir direitos fundamentais.


Veja esse artigo em vídeo:


Agora o Supremo Tribunal Federal (STF) debate a inconstitucionalidade do artigo 19 do Marco Civil da Internet. “Inconstitucionalidade” é uma palavra forte, mas não me parece ser o caso do referido artigo. Ainda assim, os votos já dados por ministros do STF indicam que ele acabará sendo classificado dessa forma.

Historicamente, defendo o artigo 19. Ele determina que cada um seja responsável pelo que publica nas plataformas digitais, que elas não sejam corresponsáveis por isso, e que elas devem retirar do ar apenas conteúdos que a Justiça tenha julgado ofensivos. Já o artigo 21 abre uma exceção para conteúdo com nudez ou sexo não autorizados, quando basta uma notificação extrajudicial para que as redes sejam obrigadas a remover a publicação. Essa combinação de artigos valoriza a liberdade de expressão.

Não há dúvida sobre qualquer um ser responsável, para o bem e para o mal, pelo que publica na Internet. Mas há uma simplificação muito grande sobre o papel das empresas. Elas já retiram sumariamente o que consideram inadequado seguindo seus critérios, muitas vezes questionáveis. O processo ocorre majoritariamente de forma automática, e seus algoritmos erram muito na sua decisão, tanto ao retirar conteúdos legítimos, quanto ao preservar outros, que ferem leis e seus próprios termos de uso.

As plataformas oferecem sistemas de denúncia contra conteúdos inadequados, mas eles são muito falhos. Eu mesmo já fui vítima de diversos delitos digitais, como discurso de ódio e roubo de conteúdo. Sempre utilizo essas ferramentas de denúncia, mas é muito raro que isso produza qualquer resultado.

Pela redação do artigo 19, eu e pessoas vítimas de afrontas online muito mais graves precisamos entrar na Justiça para nos defender, um processo complexo, caro e muito longo. Enquanto isso, o problema continuará no ar, infligindo severos danos. Como as plataformas ficarão isentas, não farão nada, apesar de viabilizarem o crime.

Em sua defesa, elas argumentam que, se tomarem para si a decisão de o que pode ser publicado, correm o risco de promover censura. O argumento é verdadeiro, mas é cínico, pois as mesmas plataformas promovem ostensivamente conteúdos claramente nocivos, pois são os que lhes rendem maiores ganhos. E nada lhes acontece!

Esse é o tipo de conflito que esses tempos digitalmente acelerados nos impõem.

 

A superinteligência digital

Esse debate também se aplica à inteligência artificial.

Na sexta (20), a OpenAI, criadora do ChatGPT, lançou o OpenAI o3, seu novo modelo de IA, com capacidades cognitivas ainda mais impressionantes. A empresa não mede esforços em incensar seus novos produtos como passos em direção à Inteligência Artificial Geral, um estágio teórico em que o sistema deixaria de ser especializado em uma coisa e passaria a pensar como um ser humano, dispensando comandos e sendo capaz de resolver qualquer coisa sem ter sido criado para aquilo, de pintar um quadro a dirigir um carro. Algumas pessoas afirmam que o o3 seria algo ainda maior: o caminho para a superinteligência artificial, um conceito teórico ainda mais ousado, em que a máquina superaria largamente as capacidades humanas em qualquer área.

Todos esses holofotes são ótimos para os negócios da OpenAI, que lidera essa indústria, mas sofre forte concorrência de empresas como o Google e a Anthropic. Mas mostra também que essas empresas parecem dispostas a acelerar contra uma parede, se isso lhes garantir o protagonismo nessas tecnologias.

Alguns dos maiores especialistas do setor, como Geoffrey Hinton, considerado o “padrinho da IA”, demonstram sérias preocupações com isso. Alguns afirmam que nunca chegaremos a esse estágio tecnológico, mas o maior temor é que percamos o controle desses sistemas, que passariam a se autoatualizar seguindo seus interesses, e não mais os da humanidade, algo conhecido no setor como “desalinhamento”.

Caímos novamente na questão de regulações. Como de costume, a Europa saiu na frente, com sua Lei da Inteligência Artificial, focada em proteger os cidadãos de maus usos dessa tecnologia e de abusos de empresas e de governos.

Muita gente acredita que ela reduzirá a competitividade do continente cada vez mais, especialmente diante de nações que regulam pouco ou nada a IA, como a China. No caso dos EUA, há uma grande expectativa de como o país se comportará nisso com o início, em janeiro, do segundo mandato presidencial de Donald Trump, fortemente influenciado pelo libertário Elon Musk, publicamente contrário a regulamentações.

A verdade é que ninguém sabe como equilibrar a ética, a competitividade e os direitos individuais nessa corrida desenfreada e irresponsável da tecnologia. Ela naturalmente deve continuar sendo desenvolvida e precisamos aprender a fazer usos produtivos dela. Mas isso não pode passar por cima da segurança e do bem-estar das pessoas.

O mundo atual vem sendo guiado por princípios do filósofo Nicolau Maquiavel (1469-1527), que defendia que o sucesso e a manutenção do poder justificariam os métodos empregados, mesmo imorais, desde que fossem eficazes. Mas talvez devêssemos olhar mais para as ideias de outro filósofo, Immanuel Kant (1724-1804). Para ele, mentir ou agir imoralmente nunca é justificável, mesmo para alcançar um bom fim.

Temos que fazer isso logo, antes que a sociedade se esfacele irreversivelmente.

 

Influenciadores dominam a linguagem das redes, mas a maioria não checa as informações que publica - Foto: Freepik/Creative Commons

Influenciadores promovem desinformação por amadorismo e descuido

By | Jornalismo | No Comments

Que as redes sociais são o grande vetor da desinformação, não é novidade. Mas em tempos em que o Supremo Tribunal Federal (STF) discute se essas plataformas têm responsabilidade sobre conteúdos nocivos em suas páginas, precisamos entender as motivações que levam alguém a fazer isso. Nesse cenário, os influenciadores digitais desempenham um papel central, pelo seu poder de persuasão de grandes plateias.

Existem aqueles que conscientemente propagam informações falsas, e esses devem ser combatidos. Mas o estudo “Por Trás das Telas”, publicado no dia 26 de novembro pela Unesco (Organização das Nações Unidas para a Educação, a Ciência e a Cultura) mostra que muitos fazem isso sem intenção, por amadorismo ou descuido.

Realizada com 500 influenciadores de 45 países, incluindo o Brasil, a pesquisa indica que apenas 36,9% dos influenciadores verificam a correção das informações que publicam. Além disso, 41,7% deles consideram curtidas e visualizações como o principal critério de credibilidade de suas fontes.

Esses dois números deixam claro que eles podem ser facilmente manipulados pelos criadores de desinformação, agravando o problema. A boa notícia é que 73% demonstraram interesse em serem treinados para melhorarem em sua atividade.

Apesar dos ataques daqueles que se beneficiam da desinformação, a imprensa ainda goza de boa credibilidade com a maior parte da população. Mas há anos ela não está mais sozinha no processo informativo, dividindo esse espaço com os influenciadores.

Seria ótimo que esses dois grupos trabalhassem juntos, mas parecem viver em mundos distintos. É uma pena, pois o público se informa por ambos, cada um com suas vantagens e desvantagens.


Veja esse artigo em vídeo:


O estudo aponta que apenas 36,9% dos influenciadores digitais se informam pela imprensa, a mesma quantidade dos que fazem isso a partir de fontes online que não sejam da mídia profissional. Sua principal “fonte” é a própria experiência (58,1%), seguido por pesquisas e entrevistas próprias (38,7%).

Para os influenciadores, as já citadas curtidas e visualizações de longe dão mais credibilidade a uma fonte. Depois vem a simples confiança em um amigo ou especialista (20,6%), seguida de perto pela reputação do autor (19,4%). Documentações são usadas apenas por 17,0% dos influenciadores.

Se apenas 4 entre 10 deles checam as informações antes de publicá-las, 33,5% publicam sem checar se confiarem na fonte. Outros 15,8% publicam sem verificar se considerarem o conteúdo divertido ou útil. Por fim 13,2% checam apenas se o que compartilharem for uma notícia.

Vale dizer que 59,0% desconhecem ou apenas ouviram falar de regras relacionadas às comunicações digitais e 56,4% conhecem treinamentos voltados para eles, mas só 13,9% desses participaram de algum. Isso faz com que saibam pouco sobre seus direitos e deveres como produtores de conteúdo, o que facilita com que 32,3% sofram com discursos de ódio nas redes. Tudo fica mais grave quando se pensa que ganhar dinheiro é a principal motivação de um quarto deles.

O estudo considera que alguém com mais de mil seguidores já pode ser considerado um seguidor, mas 68,0% dos entrevistados tinham até 10 mil seguidores. Desse valor a 100 mil seguidores, eram 25,0%. Apenas 1,6% tinham mais de 1 milhão de seguidores. A rede preferida é o Instagram (34,0%), seguido pelo Facebook (25,0%), o TikTok (16,4%) e YouTube (9%).

A categoria mais popular é de “moda e estio de vida” (39,3%). Na sequência, vêm “beleza” e “viagem e comida” (ambos com 34,0%), “jogos” (29,0%) e “comédia” (27,1%). Os estilos mais populares de publicações são “coisas bonitas” (18,0%), “entretenimento e memes” (15,6%) e “recomendações” (13,8%).

Ao contrário da imprensa, que, a despeito de imperfeições, segue regras rígidas para produção de conteúdo, esse amadorismo dos influenciadores representa um sério ponto de atenção.

 

“Desordem informacional”

Em 2017, um estudo do Conselho da Europa e da Universidade de Harvard classificou a “desordem informacional” em desinformação (informação deliberadamente errada para causar danos), informação falsa (errada, mas sem intenção de causar danos) e informação maliciosa (correta, mas usada para causar danos). Influenciadores, muitas vezes, se encontram na segunda categoria, quando espalham informações incorretas por confiarem em fontes ruins ou por não saberem como verificar uma informação.

O instituto britânico Alan Turing detalhou em 2021 como uma sociedade pode ameaçar a própria sobrevivência com ataques deliberados à aquisição de conhecimento. Segundo a pesquisa, há quatro ameaças a isso, nenhuma ao acaso. A primeira são pessoas que atrapalham as decisões com desinformação, de maneira consciente ou não. Há também o excesso de informação, que atrapalha as pessoas na separação de verdades e mentiras. Elas também se acostumaram a rejeitar o que desafia suas ideias, particularmente se houver uma forte identidade no grupo. E, por fim, as redes sociais tornaram mais difícil avaliar a confiabilidade das fontes.

A pesquisa conclui que, quando não sabemos em quem acreditar, confiamos naquilo que nos mostra o mundo como queremos. Novamente os influenciadores podem se tornar ferramentas poderosas para a desinformação, mesmo inconscientemente.

Infelizmente as perspectivas de melhora desse quadro não são animadoras, diante da resistência das redes sociais de sofrerem qualquer tipo de responsabilização e do persistente amadorismo dos influenciadores. A colaboração desses profissionais com jornalistas, atuando de maneira complementar, traria grande benefício à sociedade.

Os influenciadores têm alcance e confiança de seus seguidores, além de dominar a linguagem das plataformas digitais. Já os jornalistas possuem ética e técnica para produzir informações precisas e contextualizadas. Uma parceria efetiva entre essas comunidades poderia não apenas mitigar os impactos da desinformação, como fortalecer a confiança no ecossistema informacional.

Infelizmente isso esbarra em barreiras culturais e estruturais. Influenciadores priorizam sua autonomia criativa, e podem ver jornalistas como representantes de um modelo de comunicação pouco dinâmico e distante da realidade das redes. Jornalistas, por sua vez, frequentemente subestimam a capacidade dos influenciadores de se adaptarem às boas práticas jornalísticas.

A desinformação é um dos maiores desafios dessa geração. Ela sempre existiu, mas as redes sociais transformaram o que antes não passava de fofocas restritas em uma indústria milionária de distorção da realidade. Apesar desse fenômeno digital ter menos de uma década, já provocou danos irreparáveis no mundo.

A solução desse problema depende de todos nós, começando por escolhermos fontes confiáveis de informação. O estudo da Unesco mostra que, se influenciadores e jornalistas conseguissem juntar forças criativamente, poderiam construir ambientes informacionais mais saudáveis, transparentes e comprometido com a verdade.

A sociedade agradecerá muito se isso acontecer!

 

O Parlamento Australiano, que aprovou uma lei que proíbe menores de 16 anos nas redes sociais - Foto: Dietmar Rabich/Creative Commons

Austrália põe fogo no debate ao proibir redes sociais para menores de 16 anos

By | Tecnologia | No Comments

Enquanto o Supremo Tribunal Federal (STF) debate regras mais rígidas para as redes sociais no Brasil, a Austrália “pôs fogo” no debate ao aprovar, no último dia 28, uma lei que sumariamente proíbe o uso dessas plataformas por qualquer pessoa com menos de 16 anos. E a responsabilidade para isso não acontecer recai sobre essas empresas, sob pena de multas equivalentes a quase R$ 200 milhões.

Apesar de restrições às redes sociais serem debatidas no mundo todo, essa é a primeira legislação que impede seu uso por crianças e adolescentes em qualquer situação. Ela também inova por atribuir às big techs a função de “porteiro”.

A lei despertou aplausos e gritarias. Especialistas afirmam que a iniciativa representa um passo importante para proteger os mais jovens de sérios riscos a que são expostos nessas plataformas, como cyberbullying, assédio moral e sexual, desinformação e outros conteúdos que podem provocar sérios problemas de saúde mental e até a suicídio. Também é vista como maneira de responsabilizar empresas por priorizarem lucros em detrimento da segurança dos mais jovens.

Os críticos, capitaneados pelas próprias big techs, dizem que a lei é inócua, pois os adolescentes encontrarão maneiras de burlar o sistema. Argumentam que isso pode privar os mais jovens de informações importantes e restringiria sua capacidade de socialização. Por fim, a lei prejudicaria a privacidade desses usuários.

A iniciativa australiana escancara o poder desmedido que as big techs construíram. Nunca houve empresa, governo ou instituição capaz de influenciar decisivamente a vida de bilhões de pessoas ao redor do mudo, enfrentando legislações e culturas de países muito diferentes. Resta saber se a lei conseguirá mesmo proteger os mais jovens, e como isso pode incentivar outros países a criarem legislações semelhantes.


Veja esse artigo em vídeo:


Há duas décadas, a desinformação era restrita a falas de políticos e a veículos sensacionalistas, discursos de ódio não se alastravam além de pequenos grupos e fatores de ansiedade adolescente eram muito mais facilmente manejáveis. As redes sociais criadas naquela época, como o Facebook, o Instagram e o Twitter, não foram pensadas para se tornar os veículos que dariam alcance planetário e velocidade descontrolada a tudo isso e a muitos outros conteúdos nocivos.

Elas argumentam que não têm como controlar tudo que seus usuários publicam em suas páginas, e se eximem de qualquer responsabilidade, apoiando-se em legislações como a seção 230 da americana CDA (sigla em inglês para “Lei de Decência nas Comunicações”) e o artigo 19 do Marco Civil da Internet brasileiro.

Leis como essas foram fundamentais para o desenvolvimento das redes sociais, mas foram criadas para realidades que há muito não existem mais. Essas plataformas deixaram de ser inocentes veículos de conteúdos de terceiros quando seus algoritmos passaram a identificar e promover aqueles que geram mais engajamento e lucros, mesmo sabendo que costumam ser publicações com os problemas já citados.

Isso foi evidenciado em outubro de 2021, quando a ex-gerente de produtos do Facebook Frances Haugen divulgou milhares de documentos internos da Meta (empresa dona do Facebook, Instagram e WhatsApp) que explicitavam que a empresa sabe do problema e faz muito menos do que poderia para evitá-lo, especialmente no que se refere a adolescentes, pois isso prejudicaria os seus lucros. O escândalo ficou conhecido como “Facebook Papers”.

No dia 31 de janeiro, em audiência no Senado americano sobre o impacto das redes sociais em crianças, o CEO da Meta, Mark Zuckerberg, se levantou e pediu desculpas aos pais de vítimas jovens das redes sociais que estavam no local. O senador republicano Josh Hawley disse a ele que “seu produto está matando pessoas”.

Dado que o grave problema existe e está indelevelmente associado às redes sociais, mas elas não podem ou não querem resolvê-lo, a solução seria simplesmente “cortar o mal pela raiz”, tirando os mais jovens dali?

 

Grandes poderes e responsabilidades

A Austrália acha que sim! Levantamento da empresa de pesquisas YouGov realizada no mês passado indicou que 77% dos australianos apoiam a proibição de menores de 16 anos nas redes sociais. A lei passa a valer em 2025 e as empresas terão que se adaptar até uma data que ainda não foi definida.

Curiosamente, a Meta prometeu para o próximo ano o recurso “classificador de adultos”, que usará inteligência artificial para descobrir a idade real de um usuário. Se concluir que tem menos de 18 anos, a conta será automaticamente classificada como de adolescente, com várias restrições. Para isso, a tecnologia monitorará publicações e gostos do próprio usuário e de seus amigos. Ao se tentar alterar a idade, o sistema poderá exigir que o usuário grave um vídeo para estimá-la por características faciais.

Isso é muito bem-vindo, mas obviamente a Meta não quer que os valiosos e engajados adolescentes deixem de usar seus produtos. Na verdade, antes dos “Facebook Papers”, a empresa pensava em criar versões de seus sistemas para usuários com menos de 13 anos, como o “Instagram Kids”. Depois do escândalo, a empresa interrompeu esses projetos.

As big techs estão chamando a nova lei australiana de “vaga”, “precipitada” e “contrária a normas internacionais”. De fato, ela foi debatida e aprovada no Parlamento Australiano em apenas uma semana, mas isso se deu após um longo debate público.

Os resultados dessa iniciativa provavelmente influenciarão debates semelhantes em outros países. É o caso do Reino Unido, que está realizando estudos para uma lei muito semelhante à australiana.

A regulamentação dessas plataformas se faz necessária pela incomensurável influência que elas exercem sobre nós, muitas vezes de forma bastante negativa. É preciso criar padrões globais para regulamentação, evitando que essas empresas se aproveitem de brechas legais em países com legislações mais permissivas.

Mas tudo isso precisa ser acompanhado por programas sérios de educação digital e midiática da população, começando nos primeiros anos escolares. Temos que formar pessoas mais críticas e menos suscetíveis a manipulações.

Com seus bilhões de usuários, as big techs se tornaram não apenas um negócio muito lucrativo, mas uma poderosa força política. Qualquer que seja o modelo para minimizar os aspectos tóxicos de seu uso deve considerar o envolvimento e a responsabilização dessas empresas, para que sejam mais transparentes e éticas.

Todos os países precisam exigir ambientes digitais mais saudáveis e seguros, sem sufocar a inovação ou comprometer os direitos fundamentais dos cidadãos. Por isso, uma boa regulamentação dessas plataformas não deve ser vista como um obstáculo, mas como uma oportunidade para elaborar um futuro digital responsável.

 

A estátua da Justiça, diante do STF: ministros julgam o artigo 19 do Marco Civil da Internet - Foto: Marcelo Casal Jr./Agência Brasil

Quem diz o que pode e o que não pode na Internet

By | Tecnologia | No Comments

Na quarta passada, o STF (Supremo Tribunal Federal) começou um julgamento que pode impactar profundamente como usamos a Internet e como ela nos influencia. Ele se refere ao artigo 19 do Marco Civil da Internet, que estabelece que a responsabilidade sobre um conteúdo publicado nas redes sociais é de seu criador, com essas plataformas respondendo por ele apenas se não tomarem providências após uma decisão judicial.

A despeito da enorme importância do tema, é preciso questionar quem deve decidir sobre isso e por qual motivo.

Publicado no dia 23 de abril de 2014, esse mecanismo visa proteger a liberdade de expressão, impedir a censura e garantir a inovação da Internet. Ele se alinha à seção 230 da CDA (sigla em inglês para “Lei de Decência nas Comunicações”), trecho dessa lei americana de 1996 chamado de “as 26 palavras que criaram a Internet”.

Esses princípios continuam valendo, mas o mundo mudou profundamente nessa década. As plataformas digitais deixaram de ser neutras no momento em que seus algoritmos passaram a ativamente promover o que gerava mais engajamento e consequentemente lucros. Ainda assim, essas empresas continuaram se beneficiando dessa proteção jurídica, mesmo quando tais conteúdos destacados levaram à extrema polarização social e à deterioração da saúde mental dos seus usuários.

Criou-se uma situação em que a sociedade padece exponencialmente com os mais diversos abusos nas plataformas digitais, com pouco ou nada sendo feito sobre isso. O Legislativo deveria então atualizar a lei, mas a letargia do Congresso Nacional no tema acaba pressionando a Justiça. E isso é ruim, porque diminui o debate democrático em torno de algo crítico para nossas vidas.


Veja esse artigo em vídeo:


Para Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propagando e Marketing), “nesse contexto, é justo que as plataformas assumam responsabilidades proporcionais pelos impactos dessas escolhas algorítmicas”. Mas ele alerta que não basta simplesmente atribuir o ônus às plataformas. “Eventual regulação deve estabelecer limites claros e mecanismos de contestação para que a moderação não se transforme em censura ou inviabilize a atividade”, explica.

“A responsabilidade excessiva pode levar as plataformas a adotarem uma postura conservadora, eliminando conteúdos legítimos por receio de sanções”, adverte Antonielle Freitas, especialista em direito digital e proteção de dados do Viseu Advogados. “Isso pode, sim, configurar censura, prejudicando o debate público e a liberdade de expressão”, acrescenta.

O Congresso já tratou do tema, com o projeto de lei 2630/2020, apelidado de “PL das Fake News”, que foi enterrado na Câmara dos Deputados em maio do ano passado. Ele propunha regulamentar o combate à desinformação e ao discurso de ódio, estabelecendo transparência e responsabilização das plataformas digitais.

Ironicamente ele foi vítima de desinformação, promovida por alguns grupos sociais e pelas próprias big techs, que convenceram a população e deputados federais que a lei promoveria censura estatal e restringiria a liberdade de expressão. Por isso, graças a um ambiente político muito polarizado e a pontos polêmicos, não houve consenso.

Depois disso, o tema perdeu relevância no Legislativo, mas os impactos das redes sociais na sociedade continuam intensos, desaguando em ações no STF. Crespo lembra que a Corte não escolhe o que julgar, mas, para ele, o artigo 19 não é inconstitucional. “O problema é que o Supremo parece querer mudar o regime de responsabilidade das plataformas e o está fazendo a partir do julgamento do artigo 19”, diz o advogado. “Entendo que possamos rever o regime de responsabilidade das plataformas, mas não acredito que o melhor caminho seja pelo julgamento da inconstitucionalidade do artigo 19”, conclui.

 

Equilíbrio entre Poderes

É um consenso que o assunto deveria ser tratado pelo Legislativo. Mas a baixa disposição dos congressistas para lidar com o problema, motivada por ignorarem sua gravidade, por interesses pessoais ou simplesmente por privilegiarem assuntos que considerem mais importantes, empurra o imbróglio para os outros Poderes. Nesse sentido, a ação do STF pode ser necessária quando a inoperância do Congresso comprometa direitos fundamentais ou a segurança jurídica, como na proliferação descontrolada da desinformação e do discurso de ódio.

Ministros do STF entendem que os ataques à Democracia nos últimos anos, culminando no atentado com bombas contra a Corte, no último dia 13, justificam sua ação. De fato, juristas apontam que a lei seja aperfeiçoada para combater a disseminação de conteúdos que promovam terrorismo, abusos contra mulheres e menores, exploração sexual, racismo e ataques à Democracia.

Um elemento externo esquentará esse debate. O presidente eleito dos EUA, Donald Trump, anunciou o empresário Elon Musk, dono da rede social X, como líder do recém-criado Departamento de Eficiência Governamental. Entre suas funções estará desregulamentar diversos setores da economia e reestruturar agências federais.

“Se os EUA flexibilizarem suas regulações (das redes sociais), outros países podem sentir-se pressionados a adotar posições semelhantes, seja por alinhamento político ou para manter competitividade econômica”, sugere Freitas. “Isso enfraqueceria iniciativas globais voltadas à criação de um ambiente digital mais seguro e responsável, potencializando os desafios relacionados à desinformação, discurso de ódio e exploração de vulnerabilidades dos usuários”, afirma. Mas a advogada lembra que esse movimento pode ter um efeito contrário, com governos e organizações intensificando esforços para estabelecer normas que mitiguem os efeitos de uma desregulamentação excessiva.

Qualquer que seja o desfecho desse movimento do STF, ela já tem um mérito: reacender o debate em torno desse tema crítico para a sociedade. Enquanto o Legislativo não fizer a sua parte, as big techs continuarão monopolizando o assunto e se beneficiando de premissas às quais não têm mais direito. A polarização, o ódio e outros males de nosso tempo gestados e promovidos em suas páginas precisam ser contidos. Mas isso só acontecerá se essas companhias forem parte ativa da solução, assumindo responsabilidades proporcionais por suas ações e omissões.