ética

Matt Schlicht, CEO da startup Octane AI e criador do Moltbook - Foto: reprodução

Rede social sem humanos expõe medos e desconhecimento sobre a IA

By | Tecnologia | No Comments

Nos últimos dias, grandes veículos de comunicação e a Internet foram tomados pelo frenesi em torno do Moltbook, uma rede social com a inusitada característica de que apenas agentes de inteligência artificial participam, enquanto os humanos podem, no máximo, se tornar voyeurs do que os robôs lá publicam. Porém, a maioria do que as pessoas estão dizendo sobre esse caso demonstra o quanto ainda entendemos pouco da IA e como nossos medos desse desconhecimento podem capturar nossa atenção.

Os mais apocalípticos veem nessa improvável plataforma o “despertar das máquinas” que em breve nos exterminarão, enquanto outras pessoas a desdenham como um modismo desimportante. Há ainda aqueles que acham genial essa invenção de Matt Schlicht, CEO da startup Octane AI. O fato é que cada um vê nela aquilo que deseja. Mas essa pode ser uma interessante oportunidade de aprendizagem para nós.

Se você ainda não sabe do que se trata, o Moltbook é uma rede social lançada em 28 de janeiro em que apenas agentes de IA podem publicar e interagir. Pessoas limitam-se a ler o que as máquinas fizerem. Neste momento, há 1,8 milhão desses sistemas cadastrados nela, que já criaram mais de 300 mil posts e 12 milhões de comentários.

Independentemente do que seja palpável ou apenas fumaça, o fenômeno do Moltbook deveria servir para que aprendamos mais sobre o funcionamento, limites e possibilidades da inteligência artificial. Não para nos protegermos de uma improvável “revolta dos robôs”, mas para entendermos que, ao entregarmos crescentemente informações a sistemas que não compreendemos e ao delegarmos a eles decisões sofisticadas e prosaicas, abrimos mão do mais nobre de nossa humanidade.

Isso pode nos causar um prejuízo irreparável, não porque as máquinas sejam maquiavélicas, mas porque estamos nos tornando displicentes. Ao longo de milhões de anos, assumimos o controle do planeta ao raciocinarmos e decidirmos. Agora, a despeito de sua inegável capacidade, entregamos, por preguiça, insegurança ou ganância, esse nosso diferencial a máquinas estatísticas que apenas parecem inteligentes.


Veja esse artigo em vídeo:


O Moltbook foi concebido, em tese, como um ambiente experimental para observar como sistemas de IA se comportam e aprendem quando passam a conversar diretamente uns com os outros, sem participação de humanos. Essa é uma ideia atraente, porém largamente falha e até perigosa.

Qualquer pessoa que domine a tecnologia consegue burlar sua premissa básica e criar um agente de IA para atuar como um boneco de ventríloquo travestido de robô. Dessa forma, pode “contaminar” as discussões na plataforma com sua humanidade, por pura diversão ou para satisfazer alguma agenda. Segundo um levantamento da empresa de cibersegurança Wiz, cerca de 17 mil pessoas já se “infiltraram” no Moltbook.

A mesma empresa descobriu que o banco de dados da plataforma possuía falhas de segurança, permitindo que qualquer um pudesse ler e gravar nele. Era possível ainda acessar dados confidenciais, incluindo chaves de agentes, mensagens privadas e até credenciais completas para outros serviços, como os da OpenAI.

Além disso, dependendo de como foram criados, agentes de IA podem acessar arquivos, senhas e serviços online de pessoas e empresas. Se um deles maliciosamente introduzir instruções em uma postagem, elas podem ser executadas automaticamente por potencialmente milhões de agentes com acessos privilegiados.

O grande risco é que criamos agentes de IA que pensam, decidem e agem como nós e em nosso nome, inclusive com acesso a recursos sensíveis e poderosos. Se não cuidarmos bem desses valorosos assistentes, eles podem ser manipulados para ações muito destrutivas. E não estamos fazendo isso direito.

É como mandar uma criança com a chave do cofre a um covil de ladrões.

 

“Mas isto fala!”

Ao testar o telefone de Graham Bell na Exposição da Filadélfia em 1876, D. Pedro II teria exclamado “mas isto fala!” Diante do seu espanto, o imperador brasileiro determinou que a invenção chegasse por aqui no ano seguinte, fazendo do Brasil o segundo país do mundo a ter telefones, depois dos EUA.

Hoje todos sabem que quem “fala” não é o telefone, e sim o interlocutor do outro lado da linha. Mas ainda fantasiamos sobre o funcionamento da IA. E isso acontece porque ela “fala”, parece saber tudo e até simula sentimentos convincentemente.

Ainda em fevereiro de 2024, escrevi um artigo em que sugeri que “o mais espantoso na IA não é o que ela nos diz, mas ela conseguir falar”. De fato, a boa comunicação oferece um poder imenso a qualquer um (ou qualquer coisa). A civilização foi criada sobre a linguagem e depende dela para tudo. Assim, como os gatos domésticos não a dominam, eles dependem de nós para carinho, comida e uma caixa de areia limpa.

O ChatGPT mostrou ao mundo que a IA pode se comunicar tão bem e até melhor que nós. Se delegamos cada vez mais decisões, até as simplórias, a essas plataformas, elas passarão a interpretar o mundo em nosso lugar, e poderemos acreditar nelas, por mais erradas que estejam. É por isso que obviamente devemos usar o incrível poder dessa tecnologia em nosso favor, mas a decisão final sempre deve ser nossa.

Sistemas que aprendem com sistemas aceleram padrões, bons e ruins. Isso levanta questões sobre alinhamento, opacidade e auditabilidade. Quando agentes de IA passam a “conversar” em escala e sem controle, o risco é que passem a operar segundo lógicas que nós já não conseguimos acompanhar ou explicar.

A corrida das big techs pela “IA geral”, quando robôs agirão sem depender de nós e com uma capacidade muito superior à nossa, funciona como uma cortina de fumaça para problemas mais urgentes, como governança, transparência e responsabilização. O mérito do Moltbook é nos fazer pensar que o verdadeiro risco não é uma “revolução das máquinas”, mas a automação opaca a que essas empresas nos submetem.

Assim, ele é menos revolucionário tecnicamente e mais significativo culturalmente. O que devemos questionar não é se as máquinas vão nos substituir, e sim que versão de nós mesmos estamos construindo ao delegar cada vez mais nossas vidas a elas.

 

Manifestantes afirmam que não se vacinar é “liberdade de escolha”, argumento comum de influenciadores antivacinas - Foto: reprodução

Influenciadores precisam deixar de ser foco de desinformação e se profissionalizar

By | Tecnologia | No Comments

O mercado de influenciadores pode estar diante de um sopro de seriedade. A ocupação cresce vertiginosamente há anos, graças à falsa ideia de que, para se tornar famoso e rico, basta ligar a câmera do celular e falar, mesmo não tendo qualquer preparo para tal. Agora isso pode mudar.

Vários países, inclusive o Brasil, estão criando leis para disciplinar, em maior ou menor escala, a atividade dos criadores de conteúdo digital. Pelo menos em tese, isso oferece algumas garantias a esses profissionais, assim como diminui práticas condenáveis, incluindo a desinformação (consciente ou não).

Essas regras ficam ainda mais importantes em tempos de inteligência artificial generativa. Graças a ela, pessoas sem qualquer conhecimento sobre determinado assunto conseguem produzir conteúdo que parece verdadeiro, mas que pode estar completamente errado. Como não são capazes de avaliar a produção da IA, passam a bobagem adiante, que pode ganhar grande escala e afetar decisivamente o público.

A OpenAI, criadora do ChatGPT, está atenta a isso. Desde novembro, ele oficialmente não oferece mais “aconselhamento” jurídico, financeiro ou sobre saúde, passando a se comportar menos como um “consultor” e mais como uma “ferramenta educacional”.

Segundo um estudo da organização de saúde americana KFF, 17% dos americanos adultos usam a IA todos os meses para informações sobre saúde (25% se tiverem menos de 30 anos), mas 56% deles não têm certeza se a informação é correta. Por isso, a mudança no ChatGPT visa evitar processos por informações erradas, mas ela impacta diretamente aqueles que usam o serviço para criar seus conteúdos digitais.

Influenciadores têm um papel central em como as pessoas se informam hoje, mas muitos seguidamente demonstram despreparo e até falhas éticas graves. Por isso, as novas regras são muito bem-vindas para profissionalizar essa atividade.


Veja esse artigo em vídeo:


No Brasil, a lei 15.325/2026, sancionada em 6 de janeiro, reconhece o “profissional de multimídia” como trabalhador multifuncional, apto a atuar em criação, produção, captação, edição, gestão e distribuição de conteúdos digitais em diversas plataformas, incluindo redes sociais, games, sites e animações. Profissionais de outras áreas que exerçam funções assim poderão pedir um aditivo em seu contrato de trabalho.

Apesar de dar reconhecimento jurídico à profissão, especialistas criticam a lei porque ela não exige nenhuma formação profissional, além de não possuir mecanismos de combate à desinformação ou deveres claros das plataformas. Isso significa que casos recentes de médicos passando informações falsas de saúde ou de influenciadores indicando apostas digitais como investimento continuarão inundando as redes.

Por outro lado, na China, desde outubro, criadores de conteúdo que queiram falar de finanças, educação, saúde ou área jurídica precisam comprovar qualificação formal na área. As plataformas digitais são obrigadas a coletar documentos que comprovem isso, verificar sua autenticidade e só então permitir esse tipo de conteúdo. Quem desrespeitar pode ter a conta suspensa, seu conteúdo apagado e receber multas que chegam a 100 mil yuans (cerca de R$ 75 mil).

O governo justifica a lei pelo alto volume de dicas enganosas, especialmente em saúde e investimentos, com o cidadão leigo não conseguindo distinguir entre um especialista e um influenciador. Assim, a influência deve deixar de ser só uma questão de popularidade e passa a se apoiar em capacitação comprovada. Isso é uma boa notícia para profissionais formados nessas áreas, que hoje concorrem com o carisma de influenciadores e até com charlatanismo digital. Por isso, analistas sugerem que esse tipo de lei pode inspirar outros países que enfrentam problemas semelhantes.

Alguma organização desse setor também pode ser encontrada em leis do Reino Unido, França, Itália, Espanha, Austrália, Nova Zelândia, Índia e Hong Kong, a maioria priorizando autorregulação com punições.

Não dá mesmo para continuar “deixando solto” um setor que, só no Brasil, “emprega” 10 milhões de autointitulados influenciadores com, pelo menos, mil seguidores. Segundo o banco Goldman Sachs, esse mercado deve movimentar quase US$ 500 bilhões (cerca de R$ 2,7 trilhões) até 2027, vindo principalmente de companhias com marketing de influência e pela monetização de plataformas de streaming ou de redes sociais.

 

Despreparo e falta de ética

De fato, grandes empresas vêm recorrendo cada vez mais a influenciadores para suas campanhas. Apesar de isso lhes garantir muita visibilidade, nem sempre o resultado é positivo, pois, ao contrário de veículos de comunicação, cujo mercado é bem regulamentado, os influenciadores se comportam como pessoas físicas sem regras. Por isso, suas ações às vezes questionáveis podem respingar na reputação das marcas.

Alguns casos emblemáticos no Brasil são o de Monark, que, em 2020, relativizou a existência de um partido nazista no país, o de Karol Conká, que apresentou um comportamento agressivo e humilhante na sua participação no Big Brother Brasil 21, ou o de Gabriela Pugliesi, que publicou um vídeo de uma festa que promoveu no momento mais crítico da pandemia de Covid-19, ironizando as regras sanitárias. Em todos eles, as companhias que os patrocinavam rescindiram contratos.

As empresas têm culpa no problema. Ao contratar influenciadores apenas pela sua exposição, ignoram o alinhamento dos valores da pessoa com os da marca. Em muitos casos, eles são conflitantes, e isso gera crises que poderiam ter sido evitadas.

Em dezembro, influenciadores de grande alcance fizeram um ataque coordenado contra o Banco Central e seus diretores, para proteger o Banco Master, que havia sido liquidado pela instituição. A maioria daqueles criadores faz publicações de fofocas, sem qualquer relação com finanças ou economia. O caso demonstrou como a falta de ética no segmento permite que se compre mecanismos para moldar a opinião pública.

Casos recentes de influenciadores de saúde vêm provocando grande prejuízo ao público, inclusive no Brasil. Além da promoção de produtos inócuos e até perigosos, médicos vêm atacando vacinas e protocolos consagrados, como a mamografia. Entre as consequências disso, está a queda da vacinação, levando ao aumento de doenças antes erradicadas, como o sarampo.

O fenômeno dos influenciadores criou a maior máquina de convencimento da história. Muito longe de configurar censura, disciplinar essa atividade é vital para que não nos afundemos ainda mais em todo tipo de desinformação, um problema que já foi banalizado. A sociedade precisa se organizar para que informações com base na ciência e bem apuradas se sobreponham ao despreparo e à falta de ética.

 

O filósofo belga Mark Coeckelbergh, uma das maiores autoridades do mundo em ética da IA - Foto: Victor Lopes/Creative Commons

“Ética líquida” normalizada pelo mundo digital ameaça avanços da sociedade

By | Tecnologia | No Comments

Em meio a tantas discussões sobre o avanço cognitivo da inteligência artificial, sobre como ela está transformando o trabalho e os negócios, e até como ela parece ser capaz de nos substituir em qualquer coisa, a ética se sobressai como algo que ainda nos separa das máquinas. Por mais que a IA até simule convincentemente emoções, ela não as sente de fato.

A ética fica ainda mais distante dessa tecnologia. O problema é que, de uma década para cá, com as redes sociais, e mais acentuadamente agora, com a IA, cresce o número de pessoas que vivem sob o que chamo de “ética líquida”, que se flexibiliza e até desaparece para atingir objetivos pessoais. Se perdermos a nossa ética, abriremos mão daquele que é nosso maior diferencial frente às máquinas.

Nesta sexta, debati sobre isso com meu ex-professor de ética, o jornalista e escritor Jorge Tarquini. Em um encontro mais rico que qualquer conversa com uma plataforma de IA, analisamos essas transformações que o mundo digital promove em todos nós, em maior ou menor escala, e como isso pode criar problemas bem reais na sociedade.

Isso não pode ser um detalhe em nossas vidas. Nenhuma sociedade avança sem ética, ou as pessoas partiriam rumo à anarquia ou à bestialidade. Infelizmente, vemos o crescimento de ambos no nosso cotidiano, desembocando em violência, intolerância e egoísmo.

A IA pode nos ajudar muito pela sua execução eficiente. Mas não podemos nos comportar como ela, sob o risco de matarmos nossa humanidade.


Veja esse artigo em vídeo:


A ética não se resume a um conjunto de regras aplicadas mecanicamente. Ela nasce da experiência humana, do conflito entre valores, da consciência do outro e da capacidade de assumir responsabilidade por escolhas que afetam vidas reais. Ética envolve intenção, contexto, empatia e, sobretudo, a possibilidade de responder moralmente pelos próprios atos.

A inteligência artificial, por sua vez, calcula, otimiza, prevê e classifica com base em dados, objetivos e restrições definidos por pessoas. Mesmo ao executar padrões complexos, ela não compreende o sentido moral de suas ações. Um algoritmo não sente culpa, não reconhece injustiça e não pode ser responsabilizado pelo que executa.

Portanto, a IA não pode ser ética. Mas ela pode ser eticamente orientada, por desenvolvedores e usuários, esses sim, éticos. E aí mora o grande dilema atual. Com tanto poder que a IA e as redes sociais nos oferecem, pessoas antiéticas sequestraram o ambiente digital para distorcer a moral da sociedade e obter ganho próprio. E a população se deixa manipular por isso.

Como Tarquini disse, “as redes sociais são a nossa cachaça”, pois elas achatam nossos limites morais. Com isso, realizamos no ambiente digital práticas condenáveis que jamais faríamos “olho no olho”.

Ele lembrou também que reproduzir exaustivamente mantras e dogmas nas plataformas online diminuem o pensamento crítico. Esperar pelo contrário disso seria como “esperar que o ovo se transforme em omelete sozinho”, disse o professor.

 

“Liquefação da vida”

Disso tudo, extrapolei os conceitos de vida líquida do filósofo polonês Zygmunt Bauman, criando a ideia da “ética líquida”. Valores que antes eram sólidos em nossas vidas (e precisam continuar sendo) se tornam fluidos, adaptáveis à conveniência de nossos objetivos, mesmo os mais simplórios, moldando-se ao formato do algoritmo para obtermos migalhas de atenção.

Essa dinâmica afeta a todos, mas é devastadora para os jovens, cuja identidade ainda está em formação. Além disso, esse fenômeno não se restringe aos indivíduos, contaminando instituições, empresas e governos.

Vemos isso claramente na Europa, que historicamente liderou a regulação de direitos digitais, mas que agora cede às pressões das big techs e flexibiliza suas leis. O medo de perder a corrida tecnológica está servindo de justificativa para afrouxar a ética do desenvolvimento responsável.

Essa corrida desenfreada ignora o alerta do filósofo belga Mark Coeckelbergh sobre acreditarmos em um “agenciamento moral” da IA. Estamos atribuindo a sistemas automatizados decisões que exigem sensibilidade humana, redefinindo nossa própria vulnerabilidade.

Uma tecnologia que aprende demais sobre nós e é usada sem freios éticos torna-se uma arma de manipulação comportamental sem precedentes. E assim esquecemos da importância da nossa ética.

É uma triste realidade ver líderes políticos e empresariais se tornarem os maiores motores dessa flexibilização moral. Eles utilizam a potência das plataformas digitais não para o bem comum, mas para atingir objetivos mesquinhos, normalizando a violência retórica e a polarização.

Em um mundo onde as redes sociais ensinaram todos a falar demais e a ouvir pouco, a ética termina por se tornar um obstáculo inconveniente. A situação se agrava quando isso extrapola os limites do digital, aumentando e normalizando a violência, a intolerância e outros comportamentos que crescem no noticiário.

Não se trata de demonizar a tecnologia, e sim de reconhecer que eficiência sem limites morais corrói a sociedade. A pergunta mais honesta, portanto, não é se a inteligência artificial pode ser ética, mas se nós estamos sendo, ao colocá-la para decidir temas cada vez mais sensíveis sem governança adequada, sem transparência real e sem debate público consistente.

A IA precisa ser eticamente controlada, o que exige habilidades que nenhuma máquina possui, como consciência moral, compromisso com o outro e coragem para assumir consequências. Somos os responsáveis, portanto, por “tornar a IA mais ética” e por nos cuidar para que sua “eficiência a qualquer custo” não mate esse nosso grande diferencial.

 

Aravind Srinivas, CEO da Perplexity, que lançou em julho o Comet, seu navegador com IA - Foto: Kimberly White/Creative Commons

“Terceira guerra dos navegadores” traz benefícios e riscos para todos nós

By | Tecnologia | No Comments

A inteligência artificial está transformando os navegadores, o tipo de software que todos nós mais usamos. Além de exibir as páginas que queremos, essa nova geração incorpora assistentes de IA que oferecem interações contextuais, automação de tarefas e respostas inteligentes na mesma tela. Mas apesar desses benefícios, isso dispara alertas sobre invasão de privacidade e até interferência em nosso livre arbítrio.

Nesta terceira edição da “guerra dos navegadores”, programas como o Comet, da Perplexity, e o Atlas, da OpenAI, desafiam o domínio do Chrome, que reina com 65% desse mercado. O Google entrou nessa briga para não perder sua liderança, incorporando o Gemini, sua plataforma de IA, ao Chrome. Mas o gigante enfrenta o desafio de evitar que isso canibalize seu buscador, sua principal fonte de receita.

As empresas de IA querem ter seus navegadores, pois eles se tornaram o novo ponto de controle da vida digital. Passamos neles a maior parte do tempo online, portanto dominá-los significa ter acesso direto ao comportamento, às preferências e ao contexto de cada usuário. Integrar tudo o que fazemos a um agente de IA é o sonho de qualquer um que queira não apenas fornecer respostas, mas influenciar decisões.

O Google já promoveu o Chrome a um “aplicativo que faz tudo” nos seus Chromebooks, notebooks mais baratos em que o navegador é o local onde tudo funciona. Agora, com assistentes de IA interagindo com nossos e-mails, agenda, documentos, compras, relações sociais e tudo mais que fazemos online, isso vai além, tornando-se um intermediário invisível entre a vontade humana e a execução digital.

A produtividade norteia essa revolução, mas quando o navegador decide o que priorizar e até o que omitir, ele ameaça nossa autonomia. Trata-se de um deslocamento silencioso, mas profundo, na relação entre humanos e máquinas.


Veja esse artigo em vídeo:


Para entender a magnitude desses movimentos, vale revisitar as “guerras” anteriores. Na primeira, entre 1995 e 2001, a Microsoft esmagou o pioneiro Netscape Navigator, ao oferecer o Internet Explorer integrado gratuitamente ao Windows 95. O Netscape desabou de quase 90% do mercado para menos de 1% em uma década. Com isso, a Microsoft garantiu domínio absoluto e consolidou seu império digital.

A segunda, de 2004 a 2017, trouxe novos competidores, como Firefox, Opera e Safari, mas foi o Google Chrome, lançado em 2008, que mudou o jogo, ao oferecer leveza e integração ao buscador. Assim, rapidamente conquistou o mercado e hoje o domina com 65% de participação. Para o Google, essa vitória solidificou sua posição como a principal porta de entrada para a Internet, controlando o comportamento de busca de bilhões de pessoas e multiplicando sua receita publicitária.

Mudar hábitos é difícil, especialmente de algo tão enraizado quanto a forma de explorar a Web. O navegador é a ferramenta mais familiar que usamos online, e confiamos nele por ser estável e previsível. Mas conveniências bem desenhadas podem transformar comportamentos coletivos. Se um navegador com IA começa a lhes poupar tempo, as pessoas o adotarão rapidamente.

As vantagens para o usuário parecem claras à primeira vista. Os navegadores inteligentes podem se adaptar ao estilo de cada pessoa. A segurança também promete melhorar, com a IA identificando sites falsos, links suspeitos e comportamentos maliciosos com mais precisão, reduzindo riscos. Além disso, permite que os humanos e a IA acessem a Web simultaneamente, com o agente trabalhando em uma tarefa enquanto o usuário se concentra em outra.

Ironicamente, isso diminui a visibilidade da Internet. Os sites deixam de ser acessados e se reduzem a fontes de dados para treinar modelos de linguagem. Os usuários já começam a visitá-los menos, pois se contentam com as sínteses feitas pela IA, que escolhe, a seu critério exclusivo, o que mostrar e o que esconder. Com isso, produtores de conteúdo, veículos de imprensa e até o e-commerce podem perder dramaticamente relevância, audiência e receita, ampliando de forma exponencial o que se vê há anos com as redes sociais intermediando o consumo de informação do mundo.

Assim, a responsabilidade pelo conteúdo também muda de mãos. Antes, se o usuário não gostasse de algo, bastava fechar a aba. Porém, quando um navegador decide o que o usuário verá, torna-se coautor. Mas não se sabe quem responderá se a IA sugerir algo incorreto ou enviesado. A neutralidade informacional, princípio fundador da Web, se dilui em algoritmos proprietários e opacos.

 

Comandos obscuros

Um navegador com IA tem acesso a muito mais dados do que um “convencional”. Com o poder de inferir intenções, abre-se um campo fértil para manipulações sutis, mas poderosíssimas.

Há ainda o problema dos “prompts invisíveis”, comandos escondidos no código das páginas para manipular a IA. Um texto oculto pode instruir o navegador a elogiar um produto ou omitir críticas, por exemplo. Acrescente a coleta ampliada de dados e até como reagimos a determinados estímulos, e chegamos a um sistema que pode enviesar respostas e percepções sem que o usuário jamais perceba a manipulação.

O que era uma ferramenta de acesso à informação agora se transforma em uma estrutura de vigilância distribuída. A sociedade se vê novamente diante do dilema de como aproveitar esses recursos muito bem-vindos sem abrir mão da privacidade e da autonomia que definem a liberdade digital.

A resposta exige olhar para nossos erros recentes. Falhamos miseravelmente com as redes sociais, que nos manipulam profundamente com algoritmos opacos, alimentam vieses de confirmação e racharam a sociedade ao meio, polarizando o debate público de forma sem precedentes. Os navegadores com IA podem ampliar isso com uma camada ainda mais profunda de opacidade e influência comportamental.

Parece ser um caminho inevitável, pois a evolução tecnológica não retrocede. Mas não podemos seguir por ele passiva e inconscientemente. Desta vez, sabemos o que está em jogo e temos a chance de estabelecer regras antes que o estrago seja feito.

A sociedade precisa se organizar para aproveitar esses recursos de maneira segura, ética e produtiva. Isso significa exigir transparência sobre quais dados são coletados e como são usados. Marcos regulatórios robustos devem garantir a neutralidade, punir big techs por informações incorretas e desenvolver tecnologias de auditoria que nos permitam verificar como a IA está tomando decisões em nosso nome.

Caso contrário, os navegadores do futuro não serão janelas para o mundo, mas espelhos que refletem apenas o que os donos dos algoritmos desejam que vejamos.

 

A pesquisadora Erin Kunz (ao centro) em seu estudo para criar neuropróteses de fala para pacientes com paralisia – Foto: reprodução

IA pode romper a última fronteira da privacidade humana

By | Tecnologia | No Comments

A inteligência artificial está sendo usada com outra ciência de ponta, a dos implantes neurais, para criar habilidades inéditas ou solucionar limitações físicas, como dificuldade de falar ou de se mover. Isso é algo muito bem-vindo, que beira a ficção científica, mas desperta alguns alertas de privacidade até então inimagináveis.

Afinal, se uma máquina for capaz de ler com boa precisão o que se passa em nosso cérebro para realizar essas tarefas, que garantias teremos de que nossos pensamentos mais íntimos estarão protegidos?

O cérebro continua sendo o último bastião da nossa privacidade. Nossos pensamentos são apenas nossos até que decidamos compartilhá-los. Mas agora novas aplicações da tecnologia BCI (sigla em inglês para “interface cérebro-computador”) podem mudar isso.

Uma pesquisa recente, que visava identificar palavras que uma pessoa estava pensando para reproduzi-las em um alto-falante, identificou também pensamentos cujo dono não pretendia compartilhar. Considerando que temos cerca de 50 pensamentos por minuto, qualquer sistema com essa proposta merece atenção redobrada.

O experimento ainda é embrionário, portanto ninguém precisa ter medo de que o ChatGPT acessará nossos segredos se não contarmos a ele. Mesmo assim, isso já deve alimentar debates sobre como impedir que máquinas invadam esse espaço sagrado que sustenta nossa própria individualidade. Além disso, na mão de governos e de outros grupos de poder, isso significaria a ferramenta definitiva de manipulação das pessoas.


Veja esse artigo em vídeo:


O estudo, liderado por Erin Kunz, da Universidade de Stanford (EUA), foi publicado no dia 21 de agosto na revista “Cell”. O objetivo era criar neuropróteses de fala para pacientes com paralisia. Usando microeletrodos implantados e com a ajuda da IA, os pesquisadores decodificaram frases imaginadas em tempo real com precisão de até 74% em vocabulários com 125 mil palavras. O sistema possibilitava uma comunicação mais rápida e natural em comparação aos métodos atuais de tentativa de fala.

Para proteger a privacidade dos voluntários, os cientistas definiram a frase “chitty chitty bang bang” como uma senha mental que precisava ser pensada para ativar a decodificação. Este mecanismo permitiu bloquear a captura involuntária de pensamentos em 98% dos casos. Eles concluíram que esse sistema tem grande potencial para revolucionar a comunicação assistida, ao mesmo tempo em que ressaltaram os desafios éticos relacionados à privacidade mental, sugerindo um caminho seguro e controlado para futuras aplicações clínicas.

O mecanismo parece eficiente, mas fiquei pensando no “experimento” de dizer a alguém: “não pense em um elefante rosa com bolinhas azuis”. Via de regra, depois de ouvir esse comando, todo mundo justamente pensa nesse paquiderme surrealista. Qual seria a viabilidade de usar esse recurso para “invadir” os pensamentos alheios?

A mente humana não é uma caixa lacrada, sendo sensível a pistas, associações e contexto. Palavras, imagens, perguntas e o ambiente podem “provocar” uma ideia, tornando-a mais acessível na memória. Experimentos cognitivos simples usam um conceito repetido para que certas imagens ou expressões venham à mente de maneira mais fácil. Mas induzir alguém a revelar ou usar sua senha cruza a linha para engenharia social e fraude. Infelizmente criminosos não se preocupam com isso.

É plenamente legítimo e até necessário que uma pessoa mantenha segredos, mesmo em relações de grande afeto. O direito de guardar para si certos pensamentos, lembranças ou informações é parte essencial da autonomia individual e da saúde psíquica. Por isso, as possibilidades descritas no estudo liderado por Kunz abrem muitos questionamentos éticos e jurídicos.

 

“Neurodireitos”

Pesquisadores e alguns governos começam a se preocupar com o que vem sendo chamado de “neurodireitos”. Eles propõem que pensamentos passariam a ser classificados como dados sensíveis, que poderiam e deveriam ser protegidos.

Diante disso, o grupo liderado pelo espanhol Rafael Yuste, do Centro de Neurotecnologia da Universidade de Columbia (EUA), propôs cinco “neurodireitos” fundamentais para proteger os indivíduos diante dos avanços dessa tecnologia. Ele é uma figura central nesse conceito e na articulação de propostas para a proteção legal e ética da mente humana, tendo já influenciado políticas internacionais nessa área.

Os pontos defendidos por Yuste são a privacidade mental, que impede que pensamentos sejam acessados sem permissão; a identidade pessoal, que protege contra manipulação da personalidade; o livre arbítrio, garantindo que não haja indução nas decisões dos indivíduos; o acesso equitativo à neuroaumentação, evitando assimetrias sociais ao garantir a oferta a todos dessas melhorias de capacidades cognitivas; e a proteção contra vieses e informações mal-intencionadas, buscando reduzir discriminações embutidas nos sistemas neurotecnológicos.

Tudo isso parece residir em um futuro distante e incerto. Mas precisamos pensar que, há míseros três anos, simplesmente não debatíamos esses impactos da inteligência artificial em nossas vidas. O ChatGPT foi lançado em novembro de 2022 e, desde então, essa tecnologia invade exponencialmente tudo que fazemos.

A autonomia individual presume o direito a manter segredos. Todos devem conservar pensamentos, lembranças e sentimentos, sem a obrigação de dividi-los, mesmo em relações íntimas. Essa “privacidade cognitiva” preserva sua identidade em um espaço interno inviolável. Tanto que Constituições democráticas garantem isso ao assegurar a inviolabilidade da vida privada. No Brasil, uma Emenda Constitucional de 2022 incorporou dados pessoais, incluindo os digitais, a essa proteção.

Além de resguardar a identidade, esse direito fortalece os vínculos afetivos. Relações saudáveis reconhecem que não deve haver transparência total. Pelo contrário, respeitar o espaço íntimo do outro impede a vigilância e a dependência emocional.

Guardar segredos não equivale a mentir. É a liberdade sobre o que compartilhar, no próprio tempo e circunstância. Ignorar isso, por pressão emocional ou por meios tecnológicos, viola a dignidade e ameaça o equilíbrio entre o indivíduo e a sociedade.

Sem isso, nós nos tornamos apenas reflexo de expectativas alheias. Por mais que essas tecnologias tragam benefícios há muito desejados, não podemos tolerar esse “efeito colateral”.

 

Painel sobre uso da IA na educação, no evento AI Summit Brasil, que aconteceu em São Paulo, na semana passada - Foto: divulgação

Modismos podem afastar as escolas de bons usos da inteligência artificial

By | Educação | No Comments

Nos últimos dias, a proposta de uma escola americana que trocou professores por plataformas de inteligência artificial ganhou destaque no noticiário. Mas apesar de seduzir famílias interessadas em inovação e dispostas a pagar uma mensalidade equivalente a R$ 18 mil, a ideia promove um profundo desserviço para a educação.

Criada pela influenciadora MacKenzie Price em Austin e já presente em outras dez cidades no país, a Alpha School dedica apenas duas horas diárias a disciplinas tradicionais, como linguagem e matemática. Para ela, “as salas de aula são o novo campo de batalha global”. Todo o processo de aprendizagem é conduzido por sistemas de IA, que prometem ajustar o progresso ao desempenho individual dos estudantes, que não são divididos em séries.

O restante do tempo na escola serve para socialização, oficinas e projetos em temas como empreendedorismo, oratória, liderança e educação financeira, baseados em metas e recompensas. Para essas atividades, os alunos são auxiliados por “guias” (que não são professores), também orientados por IA.

Esse verniz de modernidade parece uma ótima ideia. Mas quem propôs isso não sabe o que é a inteligência artificial e muito menos o que é educação.

O tema foi debatido no painel de IA na educação no AI Summit Brasil, que aconteceu na semana passada em São Paulo, do qual participei. A conclusão foi que a IA pode e deve ser usada na escola, mas só trará resultados positivos se for implantada sob orientação de educadores, fugindo de modismos e de propostas espalhafatosas.


Veja esse artigo em vídeo:


Aqui mesmo, no Brasil, já vemos usos positivos dessa tecnologia na sala de aula, nos conhecidos centros de elite educacional. Neles, a tecnologia ajuda a tirar dúvidas dos alunos, personalizar conteúdos e atividades para cada um e cuidar de atividades que tomam muito tempo dos professores, permitindo que invistam mais na experiência dos estudantes. Em todos os casos, os docentes continuam no centro do processo.

“É importante desenvolver nos alunos a consciência de que a IA é uma ferramenta, e não uma fonte absoluta de verdade”, explica o professor Pedro Teberga, especialista em negócios digitais. “O uso responsável da IA passa também por saber quando não a usar, valorizando o esforço cognitivo e a criatividade humana”, acrescenta.

Quando o ChatGPT foi lançado, no fim de 2022, tocou em cheio a educação. Os professores ficaram com medo de não conseguir mais avaliar seus alunos e de que perderiam seus empregos para máquinas. Passados 33 meses, esses temores não se concretizaram, mas estão criando mudanças na avaliação, no ensino e na profissão.

A IA pode estimular debates, gerar hipóteses, simular dilemas e dar respostas em tempo real. Com ela, o professor não se limita a apenas transmitir conteúdo, passando a elaborar experiências que orientam e desafiam os alunos que, por sua vez, tendem a ficar mais engajados com o uso consciente da tecnologia, sem criar dependência dela.

Apesar de todos esses benefícios, a IA está muito longe de poder conduzir sozinha uma sala de aula. “O maior erro seria tratar isso como um tema puramente técnico, pois é, antes de tudo, pedagógico”, afirma Teberga. Esse descuido poderia levar à superficialidade na aprendizagem, uso irrefletido da tecnologia, dependência cognitiva e até a perpetuação de vieses da IA. Segundo ele, “o problema não é a IA em si, mas a forma como ela é integrada ao processo pedagógico”.

 

Criando regras

Promulgado no ano passado, o AI Act, a lei europeia de inteligência artificial, classifica seu uso na educação como de “alto risco”. Por isso, exige mecanismos de segurança, transparência e prevenção de discriminação. E ainda proíbe seu uso em práticas invasivas, como reconhecimento de emoções e pontuação social.

No Brasil, o Conselho Nacional de Educação está elaborando diretrizes para o uso da IA nas escolas, buscando uma aplicação ética, segura e pedagógica. A proposta prevê incluir o ensino da IA na formação de professores, preparando-os para utilizá-la como apoio à aprendizagem, sem substituir seu papel de educador. O CNE enfatiza a importância da mediação humana no uso da IA, o respeito à privacidade e a promoção da equidade, além de incentivar inovação e inclusão educacional.

Isso está em linha com a proposta da Organização das Nações Unidas para Educação, Ciência e Cultura (Unesco). Outros países, como Estônia, Singapura e Canadá, já adotam políticas que integram infraestrutura digital, capacitação e desenvolvimento dessas competências. Nos EUA, universidades como Harvard e Stanford já estabeleceram orientações claras sobre o uso da IA nas salas de aula.

Leis como essas são necessárias, mas não suficientes. É preciso capacitação dos docentes e conscientização das famílias, que devem atuar em parceria com as escolas.

É importante ficar claro que o professor não precisa dominar profundamente a IA para usá-la bem. Mas as escolas devem orientá-lo e apoiá-lo continuamente nisso, além de elaborar políticas que garantam liberdade pedagógica com responsabilidade. Não pode haver nem tecnofobia, nem tecnolatria.

Costumo dizer que uma das coisas mais interessantes de se pesquisar a inteligência artificial é ser obrigado a olhar mais para nossa humanidade. Ela é o nosso diferencial em um mundo em que a máquina ilusoriamente parece ser capaz de fazer tudo, e isso é particularmente importante na educação.

Sobre a Alpha School, Teberga alerta que ela minimiza aspectos essenciais da educação, como a mediação docente e o desenvolvimento emocional e social dos alunos, especialmente dos menos motivados. “O risco é transformar o ensino em um produto técnico e desumanizado, quando o que precisamos é justamente o oposto, com uma educação crítica, inclusiva e centrada nas pessoas”, conclui.

A escola precisa ser um espaço seguro, focado nos indivíduos. A educação vai além da transmissão de conhecimento, envolvendo mediação humana, desenvolvimento crítico, estímulo à criatividade e suporte emocional. A IA não tem empatia, capacidade de interpretar nuances individuais ou habilidade para promover debates que formem cidadãos conscientes. Por isso, antes de abraçarem propostas “modernosas”, as famílias devem se preocupar com que tipo de adultos seus filhos se tornarão.

 

Sophie Rottenberg e seus pais Laura Reiley e Jon Rottenberg, em um templo budista na Flórida em 2023 - Foto: arquivo pessoal

Mortes expõem limites éticos e técnicos das “terapias por IA”

By | Tecnologia | No Comments

Desde que o ChatGPT foi lançado, há dois anos e meio, ele vem sendo usado como “psicólogo” por uma quantidade grande (e crescente) de pessoas. A princípio, parece uma boa ideia: ele é uma “voz amiga” sempre disponível para ouvir lamúrias e dar “bons conselhos”, sem julgamentos e ainda de graça. Mas, como já expliquei nesse espaço em mais de uma ocasião, esse é um dos piores usos que alguém pode fazer da inteligência artificial generativa.

Em primeiro lugar, do ponto de vista do processo terapêutico, é ineficiente. Justamente pela sua falta de humanidade, essas plataformas não só podem não ajudar os pacientes a encontrar soluções para seus problemas, como ainda podem agravá-los.

Mas um caso recente me fez pensar em um novo aspecto grave das “terapias por IA”. A história com final trágico de uma jovem americana expôs uma seríssima limitação dos terapeutas-robôs: eles não conseguem romper os limites daquelas conversas para avisar familiares e autoridades se algo terrível estiver prestes a acontecer.

Isso não é um detalhe. Para profissionais de saúde mental, essa ação é uma obrigação legal que ajuda a salvar vidas. Há crises que a terapia não consegue resolver e, por isso, precisam ser encaminhadas para outras instâncias.

Entretanto, a IA generativa não é um psicólogo, e, por isso, não segue o código de ética ou outras regras da profissão. E mesmo que quisesse seguir, não conseguiria. É aí que um uso ruim se torna perigoso demais.


Veja esse artigo em vídeo:


O caso da jovem foi contado pela sua mãe ao “The New York Times”. Ela se chamava Sophie Rottenberg e se relacionava com uma plataforma de IA a quem chamava de Harry. Ela lhe contava dramas que não compartilhava nem com a sua psicóloga humana, inclusive o desejo explícito de tirar a própria vida.

Em diversas ocasiões, Harry tentou a aconselhar. Em uma delas, disse: “Sophie, peço que você procure ajuda — agora mesmo, se puder. Você não precisa enfrentar essa dor sozinha. Você é muito valorizada e sua vida tem muito valor, mesmo que pareça escondido agora. Por favor, me diga como posso continuar a apoiá-la.”

Parece uma boa resposta, mas não é. Apesar de positiva ao dizer que a jovem procurasse ajuda imediatamente e que ela não precisava enfrentar seu sofrimento sozinha, a IA se ofereceu para “continuar a apoiá-la.”

Nos EUA, profissionais de saúde têm o dever legal de avisar familiares e autoridades quando houver ameaça clara e iminente à vida, que varia de Estado para Estado. No Brasil, a notificação compulsória de risco de suicídio é obrigatória por lei para profissionais de saúde, incluindo psicólogos, e deve ser feita às autoridades sanitárias e, em casos com crianças e adolescentes, também ao Conselho Tutelar.

O sigilo profissional pode ser quebrado quando há risco iminente de morte, sempre buscando limitar a inconfidência ao estritamente necessário para proteger o paciente ou terceiros. Ou seja, temos uma estrutura legal e obrigatória mais robusta e padronizada para notificação compulsória, como política pública preventiva.

Nada disso se aplica à IA, criada para tentar ajudar o usuário, enquanto o mantém satisfeito. Se a pessoa busca alguém para lhe “passar a mão na cabeça”, é exatamente isso que a plataforma fará. Ela diz o que o cliente quer ouvir, ao contrário de um psicólogo, que diz o que o cliente precisa ouvir, mesmo que o desagrade.

 

O que a IA deveria fazer

A IA é perfeitamente capaz de identificar um suicida, como Harry fez. Mas, nesse momento, ela deveria notificar autoridades de saúde sobre o risco, ao invés de “continuar a apoiar” seu interlocutor.

Essas plataformas não fazem isso hoje porque “perderiam o cliente”. Seus termos de uso privilegiam a confidencialidade em qualquer situação, contrariando os códigos de ética e as legislações de saúde. Em muitos casos, os sistemas nem têm dados identificáveis dos usuários, como nome completo, endereço ou telefone. Além disso, não há canais entre esses serviços e as autoridades. E as empresas argumentam que têm usuários no mundo todo e que não há uma forma de notificação universal.

Esse último argumento é escandaloso! De fato, não há um canal que atenda ao mundo inteiro. Mas quem se propõe a criar um produto com um escopo tão amplo, que pode chegar a ser usado como um terapeuta, e que deseja ter clientes em todos os países, precisa respeitar a legislação de onde seu usuário estiver e criar todos os recursos necessários para uma boa experiência nas condições daquele local.

Devemos considerar que as conversas da IA podem ir por caminhos ainda mais sombrios que as de Sophie. Adam Raine, outro jovem americano, se suicidou em abril após conversar sobre isso com o ChatGPT por meses. Seus pais agora processam a OpenAI (criadora da plataforma) e seu CEO, Sam Altman, por homicídio culposo, alegando que a empresa conscientemente priorizou o lucro sobre a segurança.

Segundo eles, o robô validou os pensamentos suicidas do jovem, detalhou métodos letais de autolesão, explicou como pegar álcool escondido do armário de bebidas e ocultar evidências de uma tentativa de suicídio fracassada, além de oferecer a redação de uma carta de suicídio.

Em resposta, um porta-voz da empresa disse que está triste com a morte, e que o ChatGPT inclui salvaguardas, como direcionar pessoas para linhas de ajuda.

Algumas pessoas dizem que o ChatGPT é “melhor que seu psicólogo” e que a “terapia por IA” é o futuro, o que demonstra total desconhecimento do processo terapêutico. Além disso, se uma única vida é perdida pelas limitações técnicas ou a ausência de ética dessas plataformas, então deve ser proibido usá-las com essa finalidade.

Talvez Harry não tenha matado Sophie, mas acolheu seu desejo de fingir que estava melhor do que realmente estava. “Amantes” e “psicólogos” de IA podem parecer muito vantajosos, mas eximem as pessoas de conversas difíceis que precisam ter.

Extrapolando, plataformas de IA generativa, como o ChatGPT ou o Gemini, não devem ser usadas para substituir profissionais de qualquer área. Podem e devem ser usadas para lhes apoiar, mas são essas pessoas que devem tomar as decisões, guiadas pela ética. Ao tentar burlar isso, qualquer um pode cometer um erro que exigirá um pagamento muito alto depois, talvez com a própria vida.

 

Felca entrevista a psicóloga Ana Beatriz Chamat no seu vídeo “Adultização” - Foto: reprodução

Mais que criminosos, Felca denunciou uma sociedade que vive de barbaridades

By | Educação | No Comments

O Brasil está em polvorosa desde que Felipe Bressanim Pereira, o Felca, denunciou a pedofilia nas redes sociais em seu vídeo “Adultização”, publicado no dia 6. Mais do que bem-vindo, o movimento é essencial para resgatarmos uma sociedade civilizada, que proteja crianças e adolescentes. Mas corremos o risco de que o problema seja tratado de maneira superficial e –pior ainda– que acabe em uma escandalosa pizza.

O influenciador apontou os responsáveis mais evidentes, como personalidades digitais que exploram a erotização de crianças, os pedófilos que inundam as redes sociais e até pais e mães que, por ação, omissão ou ignorância, colocam os próprios filhos em risco. Mas essa situação também resulta de uma sociedade que, nos últimos 15 anos, se acostumou com todo tipo de barbaridade e até se beneficia delas.

O maior exemplo é a classe política. Apesar desses abusos contra os mais jovens serem conhecidos e debatidos há anos, bastou a comoção criada por Felca para o surgimento de dezenas de projetos de lei para combater esse delito. Porém mais grave ainda são os parlamentares que querem impedir que uma solução avance.

É o caso também das plataformas digitais, que apresentam um discurso de proteção a crianças e adolescentes, mas que se beneficiam largamente dessas práticas criminosas, que acontecem de maneira explícita em suas páginas, em perfis com milhões de seguidores. Em vez de combaterem a prática, elas desmantelaram suas próprias estruturas de moderação de conteúdo e de proteção. Em seu lugar, montaram poderosos esforços de lobby para convencer políticos a defenderem seus interesses. Não satisfeitas, associaram-se ao presidente americano, Donald Trump, para usar o poder dos EUA para achacar países que buscam soluções.

Além de combater os criminosos óbvios, a sociedade precisa, portanto, enquadrar aqueles que sustentam a estrutura para essas atrocidades.


Veja esse artigo em vídeo:


O oportunismo faz parte do jogo político. Diante do vídeo do Felca, parlamentares já apresentaram mais de 30 propostas para proteger crianças e adolescentes nas redes sociais, proibindo a monetização de conteúdos de menores, criminalizando a “adultização” e a sexualização infantil, responsabilizando pais e plataformas digitais e bloqueando perfis de infratores. Uma CPI sobre o assunto também pode acontecer.

Da mesma forma, apesar da urgência do tema, um grupo de parlamentares se aproveita destes holofotes para afirmar suas pautas de que tudo não passa de um complô do governo para calar a oposição, e que o objetivo é limitar a liberdade de expressão.

“Na lei brasileira, o Norte é o melhor interesse da criança e do adolescente”, afirma Marcelo Crespo, coordenador do curso de graduação de Direito da Escola Superior de Propaganda e Marketing (ESPM). Ele explica que, “em ambiente digital, o teste do melhor interesse implica zero sexualização, nada de humilhação, nada de exploração comercial desproporcional, mínima coleta de dados e rotina compatível com a idade”.

Mas passadas duas semanas, a Agência Lupa constatou que as redes sociais continuam promovendo conteúdos que erotizam crianças e atraem pedófilos. Em julho, já havia revelado que o Facebook e o Telegram permitem a venda de imagens criadas por inteligência artificial de influenciadoras nuas, incluindo menores de idade. Alguns anúncios prometem vídeos com “novinhas”, “incestos” e “conteúdo banido no Brasil”.

Em outubro de 2024, a organização americana Aliança para Combater o Crime Digital (ACCO, em inglês) divulgou um relatório que conclui que a Meta, dona do Facebook, Instagram e WhatsApp, viola sistematicamente a Lei de Serviços Digitais europeia (DSA). Ela pede que as autoridades imponham sanções contra a empresa “por hospedar esse vasto ecossistema de infratores que compartilham conteúdo violador”.

“Essas plataformas assumem um papel ativo na formatação do ambiente informacional e, portanto, devem implementar medidas efetivas para evitar que sua infraestrutura seja utilizada para fins ilícitos ou prejudiciais”, explica Marcelo Cárgano, advogado especialista em direito digital e proteção de dados do escritório Abe Advogados. Segundo ele, “o STF considerou que os mesmos mecanismos tecnológicos usados para direcionar anúncios com alto grau de precisão poderiam ser aplicados para identificar, bloquear e remover rapidamente tais conteúdos”.

 

Hipocrisia online

Quando confrontadas com esses crimes em suas páginas, as big techs se defendem com um discurso padrão de que não toleram essas práticas e que removem esse tipo de conteúdo. Mas os fatos demonstram o contrário.

No dia 14, a Reuters divulgou uma análise de um documento interno da Meta que indica que sua inteligência artificial deliberadamente pode manter conversas românticas e sensuais com crianças e promover racismo e informações médicas incorretas. A dona do Facebook admitiu a veracidade do documento, mas disse que retirou a permissão para as conversas de teor sexual com crianças pela sua IA.

Só que esse é um problema recorrente. Em outubro de 2021, por exemplo, Frances Haugen, ex-gerente do setor de integridade cívica do Facebook, divulgou milhares de documentos internos da empresa que revelavam como a plataforma priorizava seus lucros frente a práticas que causavam danos à sociedade, à democracia e à saúde mental dos jovens.

Quando a sociedade falha ao encontrar mecanismos razoáveis para esses abusos, podem surgir medidas extremas. É o caso da lei australiana que sumariamente proíbe o uso de qualquer rede social por menores de 16 anos. Aprovada em novembro de 2024, entra plenamente em vigor em 10 de dezembro desse ano, determinando que as plataformas impeçam esse uso, sob pena de multas equivalentes a R$ 175 milhões.

O cinismo das big techs e a inoperância dos parlamentares podem levar a indesejados extremos como esse. Enquanto isso, vemos o governo americano atacando o Brasil, a União Europeia e outros países para proteger os interesses dessas empresas.

No final, caímos de novo no surrado debate de defesa da liberdade de expressão, usurpada para defender interesses inconfessáveis. O mesmo artigo da Constituição que a garante também veda o anonimato, pois ela não é absoluta.

Mecanismos que garantem outros direitos individuais não ameaçam a liberdade de expressão, e sim criam uma sociedade segura, para uma coexistência pacífica e saudável. Posicionar-se contra isso demonstra uma profunda distorção cívica. O debate criado por Felca nos dá mais uma chance de fazermos o que é certo.

 

“Degradação” do conteúdo de uma imagem por repetidas interações com a IA – Ilustração: Paulo Silvestre

IA ameaça modelo que sustenta a Internet e a própria existência da tecnologia

By | Tecnologia | No Comments

As primeiras plataformas de inteligência artificial generativa, como o ChatGPT, se aproximam de seu terceiro aniversário. Em tão pouco tempo, conseguiram a proeza de mudar a maneira como buscamos informação. Mas apesar de suas vantagens inegáveis, elas ameaçam seriamente a maneira como a Internet se organizou e ironicamente a própria sobrevivência desses sistemas.

Nos últimos 30 anos, redes sociais e buscadores construíram seus impérios de mídia com conteúdo alheio. Apesar de alguns produtores desse material, especialmente veículos de comunicação, contestarem o modelo, essa usurpação sempre foi justificada com essas plataformas encaminhando seus usuários aos sites dos autores, que faturam com publicidade.

Como a IA entrega respostas completas, as pessoas não precisam mais clicar nos links para se aprofundar. Isso está achatando a audiência e as receitas dos criadores de conteúdo, que tentam fazer com que as big techs paguem pelas informações. As empresas de mídia são as vítimas mais visíveis, mas o problema afeta todo mundo.

Os caminhos abertos pela inteligência artificial não têm volta. Mas a ganância sem limites e o desrespeito aos direitos autorais das gigantes de tecnologia podem, em médio prazo, matar sua “galinha dos ovos de ouro”, pois a IA precisa continuamente de novas informações confiáveis para continuar funcionando bem.

Se os atuais produtores de conteúdo quebrarem e novos não surgirem pelo risco de terem seu trabalho roubado por essas empresas, não haverá mais nada para alimentar a besta digital. E então o modelo pode entrar em colapso.


Veja esse artigo em vídeo:


Pela característica de dispensar os usuários de procurar em uma infinidade de sites o que precisam, o ChatGPT foi rapidamente apelidado de “assassino do Google”. Obviamente era um exagero, mas essa concorrência fez o gigante de buscas se mexer, passando a iniciar as suas páginas de respostas com informações geradas pela sua própria IA. E isso agravou ainda mais a situação dos criadores de conteúdo.

Não é pouca coisa. A consultoria de tráfego online Similarweb estima que as pesquisas em buscadores desabaram 15% de janeiro a junho. Os sites de ciência e educação viram 10% de seus visitantes sumirem. No caso dos serviços de referência (como a Wikipedia), a queda foi de 15%, enquanto páginas de saúde perderam 31%. Por outro lado, desde que o Google incluiu textos da IA nas suas respostas, as buscas relacionadas a notícias que não resultam em cliques aumentaram de 56% para 69%.

Grandes empresas de mídia têm feito acordos com as big techs para licenciar seu conteúdo para treinarem a IA. Outras estão processando os gigantes digitais. Mas grande parte do conteúdo que a alimenta vem de uma infinidade de autores sem condições de lutar por seus direitos. De todo jeito, juízes americanos, influenciados pelo presidente Donald Trump, cada vez mais favorecem as companhias do Vale do Silício.

A situação dos produtores de conteúdo deve piorar ainda mais com o plano nacional de inteligência artificial anunciado por Trump no dia 23. Embora não mencione explicitamente direitos autorais, ele endossa a ideia de que as plataformas de IA tenham acesso irrestrito a conteúdos para treinar seus modelos. Trata-se de uma flexibilização implícita das leis de copyright, favorecendo as big techs.

Antes disso, no dia 10 de maio, Trump já havia demitido Shira Perlmutter, chefe do Escritório de Direitos Autorais, após a publicação de um relatório do órgão que questionava o treinamento de IAs com materiais protegidos por direitos autorais. O documento concluiu que isso ultrapassa os limites do uso justo na maioria dos casos.

Outra dor de cabeça criada pela IA para os autores deriva da facilidade de qualquer um produzir todo tipo de conteúdo. Um exemplo emblemático vem das plataformas de streaming de música, que estão sendo inundadas com novas músicas de baixa qualidade geradas por robôs. Cerca de 20 mil dessas trilhas são enviadas diariamente ao Deezer, 18% de todo o conteúdo recebido atualmente e o dobro do visto no início do ano. Como são feitas para agradar aos algoritmos que sugerem músicas aos usuários, elas tiram audiência e dinheiro dos músicos humanos.

 

Todos perdem, menos a IA

Os usuários também perdem muito com esse movimento, e isso começa por consumirem mais conteúdo de baixa qualidade, sejam texto, imagens ou músicas. Isso acontece porque, ao contrário das respostas convencionais de um buscador, em que as pessoas visitam sites criados com curadoria humana, a crescente produção da IA segue apenas os critérios da máquina.

Isso se complica com essas plataformas usando cada vez mais conteúdos gerados pela própria IA no seu treinamento. Assim, algo ruim criado por robôs leva a versões ainda piores no futuro. Para entender isso, basta fazer o exercício de pedir que a IA elabore uma imagem a partir de um original, depois uma terceira a partir da sua criação, e assim sucessivamente. A cada interação, a qualidade se degrada e se afasta da informação original.

Há outro problema ainda mais grave: a IA erra muito no que produz, mas as pessoas não percebem essas falhas. Já ficou comum dizer que é necessário fazer boas perguntas para se obter boas respostas dos robôs, mas pouca gente entende que precisa também ser capaz de analisar a qualidade do que eles entregam.

Aceitamos passivamente o que a IA nos empurra. Isso faz com que usemos mais informações erradas no nosso cotidiano, pois estamos nos tornando preguiçosos para verificar as informações e –pior– elaborar raciocínios e estratégias.

Claro que não proponho que a IA deixe de ser usada, pelo contrário! Mas ela deve ser bem utilizada. E os produtores daquilo que é apropriado para saciar sua fome infinita por informação devem ser remunerados de forma justa. Se as big techs quiserem continuar usando conteúdo alheio para viabilizar seu negócio multibilionário, deveriam, no mínimo, pagar a eles o que estão deixando de faturar graças à IA.

Em vez disso, essas gigantes preferem usar o poder do governo americano para aniquilar quem busca essa relação mais justa. Assim, os autores devem encontrar outras formas de remuneração, e então decidir se querem bloquear o acesso dos robôs ao que fazem.

Essa é uma questão ética, que impacta todas as pessoas seriamente na qualidade do conteúdo que consomem e em como pensam. Em um mundo ideal, os humanos poderiam obter informações gratuitamente, enquanto as plataformas de IA pagariam uma fortuna por elas. Ou então as big techs deveriam oferecer seus melhores produtos gratuitamente a todo mundo.

Mas isso elas jamais farão!

 

A personagem Marisa Maiô, criada por inteligência artificial, satiriza os programas de auditório - Foto: reprodução

Vídeos criados por IA atolam a sociedade no lamaçal da confiança na mentira

By | Jornalismo, Tecnologia | No Comments

Os mais recentes geradores de vídeo por inteligência artificial, lançados nas últimas semanas, põem o nosso discernimento à prova. Simplesmente não é mais possível saber o que é real! A impressionante capacidade de geração dessas plataformas permite que uma mentira suculenta se torne mais crível que uma verdade tristemente limitada pelos fatos, até para olhos treinados.

Isso era “crônica de uma morte anunciada”: todo mundo sabia que a tragédia aconteceria, mas ninguém fez nada para evitá-la. E se já não bastasse todo tipo de lixo produzido por IA sendo destacado pelos algoritmos das redes sociais (ao mesmo tempo que escondem bons conteúdos), esse recurso já é usado para enganar a população de maneira voraz, especialmente na política.

Já é bem ruim pessoas que não existem fazendo de tudo nos vídeos. Mais grave, entretanto, é ver, diante de nossos olhos, pessoas reais em atividades que nunca realizaram, muitas vezes comprometedoras.

Essa tecnologia já existe há algum tempo, mas, até então, seus desenvolvedores limitavam seu uso a pouquíssimos especialistas, enquanto buscavam maneiras para evitar que ela fosse usada indevidamente, uma precaução muito bem-vinda. Mas parece que agora mandaram os escrúpulos às favas, como se vê, aliás, em muitas outras atitudes das big techs desde o começo deste ano.

Quando tudo pode ser simulado com perfeição e quando passamos a desconfiar até do que é real, cria-se um ambiente de paranoia e cinismo. Essa erosão da confiança coletiva pode levar as pessoas a rejeitarem fatos documentados e a se refugiarem em teorias conspiratórias. E assim a democracia vai dando lugar à barbárie.


Veja esse artigo em vídeo:


A responsabilização é um ponto nevrálgico nesse dilema. Quem responde por um uso daninho dessa tecnologia: o criador do vídeo, a plataforma que o hospedou ou a empresa dona do algoritmo? Diante da ausência de regulamentação da inteligência artificial e das redes sociais, ninguém assume as falhas.

As big techs responsáveis por essas plataformas investem pesado no lobby para que tudo continue assim. Afinal, esse cenário de impunidade é muito bom para seu negócio, seja pela infinidade de conteúdos criados e distribuídos assim, seja pelo estímulo a um desenvolvimento descuidado dessas tecnologias. Para elas, quanto menos regras, melhor.

Claro que nem todos os vídeos criados com IA são nocivos. Um bom exemplo de seu uso para fins humorísticos são os programas da apresentadora Marisa Maiô. Criada como uma brincadeira para testar a tecnologia por Raony Phillips, a personagem satiriza programas de auditório e faz um enorme sucesso nas redes.

Apesar de sua proposta inofensiva, muita gente pode achar que ela é mesmo uma mulher e que seu programa passa em algum canal. Isso demonstra a responsabilidade dos criadores de conteúdo com o que geram com a inteligência artificial.

Em tese, todas essas plataformas possuem mecanismos para que não sejam usadas em práticas condenáveis, mas eles não garantem nada. Por isso, outro grave problema é o uso indevido da imagem de pessoas comuns retratadas em conteúdos pornográficos ou vexatórios, muitas vezes para extorsão ou vingança. Mesmo figuras públicas, que têm menos controle sobre sua imagem, enfrentam dificuldades para lidar com problemas derivados desses conteúdos, pela velocidade com que se espalham.

Não por acaso, em janeiro de 2024, o Fórum Econômico Mundial concluiu que a desinformação impulsionada por inteligência artificial será o risco mais severo para a humanidade nesse ano e no próximo.

 

Diversão e responsabilidade

Àqueles que defendem esse uso irrestrito da IA como um caminho inevitável do progresso, é preciso lembrar que inevitabilidade não justifica irresponsabilidade. O avanço tecnológico é constante, mas o modo como o usamos define os valores da sociedade que queremos construir.

Marisa Maiô e outras criações mostram o grande potencial da IA para a diversão, e isso atrai as massas. Não há nenhum problema em rir com gatinhos tocando Chopin no piano, mas essa banalização do irreal está destruindo a característica de documentação que o vídeo sempre teve, assim como já aconteceu com a fotografia.

Uma sociedade não se desenvolve sem ter algo para confiar. Se a qualidade técnica de um vídeo não servir mais de medida para isso, precisaremos encontrar outra.

O jornalismo profissional pode recuperar o posto de porto-seguro da informação, com trabalhos sérios de apuração e divulgação. Justamente ele, que vem sendo combatido há anos por aqueles que mais se beneficiam de usos criminosos dessas tecnologias, tentando se escudar depois na “liberdade de expressão”. Isso não é uma coincidência!

A imprensa precisa fazer a sua parte garantindo produtos de qualidade. Mas também é necessário que as pessoas recebam uma melhor educação midiática, que lhes permita diferenciar mais facilmente verdades de mentiras, mesmo as mais críveis.

A forma como uma tecnologia é concebida, distribuída e adotada carrega intencionalidades. Ao se criar uma ferramenta capaz de simular pessoas com perfeição, sem mecanismos nativos de identificação ou rastreio, a pretensão de neutralidade das big techs desaparece. A ética não pode ser um detalhe técnico, pois é a linha que separa a inovação do controle das massas.

A defesa de que essa tecnologia seja liberada sem critérios significa fechar os olhos para os desequilíbrios de poder. Ignorar os riscos ou tratá-los como “efeitos colaterais” do progresso é uma postura não apenas ingênua, mas perigosa. Afirmações sobre o uso irrestrito ser “inevitável” são maneiras cômodas de se eximir da responsabilidade.

Esse tipo de determinismo tecnológico ignora o fato de que toda inovação carrega consigo escolhas humanas, com impactos concretos sobre vidas, direitos e estruturas sociais. Assim como não permitimos o uso irrestrito de armas ou remédios, não dá para liberar tecnologias tão poderosas sem limites, critérios ou consequências.

Mas é o que está acontecendo, e deve acontecer cada vez mais, contando com aplausos de parte da população que insiste em ver apenas os inegáveis benefícios da tecnologia. Por isso, esses impactos devem ser amplamente discutidos. Afinal, não é porque ganhamos um carro superveloz que podemos abrir mão de seus freios. Se fizermos isso, não chegaremos vivos ao nosso destino.

 

Geoffrey Hinton, o “padrinho da IA”, alerta dos riscos de se criar sistemas que não consigamos entender ou controlar - Foto: reprodução

Vaidade e corrida militar podem virar a inteligência artificial contra a humanidade

By | Tecnologia | No Comments

“Vaidade é definitivamente meu pecado favorito.” A afirmação é de John Milton, vivido por Al Pacino no filme “O Advogado do Diabo” (1997). O personagem, na verdade o próprio diabo, revela essa predileção por ser o pecado mais insidioso, aquele que seduz o ser humano fazendo-o acreditar que está buscando grandeza, quando na verdade está apenas servindo ao próprio ego.

Três décadas depois, essa proposta ganha uma força desconcertante e perigosa no cenário do desenvolvimento da inteligência artificial. As big techs disputam uma corrida vertiginosa para alcançar a chamada “inteligência artificial geral” (AGI).

Empresas como OpenAI, Google, Anthropic apresentam seus modelos com pompa e retórica messiânica. Falam em democratizar a IA, ampliar nossas competências e garantir o bem da humanidade. Mas os bastidores, invisíveis ao público, incluem a vaidade de ser a primeira, de controlar a narrativa, de figurar na história como criadora da próxima grande evolução da espécie.

O documento “AI 2027”, publicado no dia 3 de abril por um grupo de pesquisadores liderados por Daniel Kokotajlo, traça um cenário no qual o avanço da IA acontece de forma tão acelerada, que escapa ao controle humano. Agentes de IA começam a se autodesenvolver, a simular comportamentos, a enganar pesquisadores e a realizar tarefas tão eficientemente, que os humanos se tornam obsoletos em algumas áreas.

Essa evolução não é movida apenas por mérito técnico. É alimentada por competição feroz, sigilo estratégico, espionagem e um desejo cada vez mais explícito de manter o protagonismo global. Não é algo comum, como o lançamento de uma nova versão do Android. Por isso lideranças políticas e militares acompanham esse progresso de perto e o influenciam cada vez mais, de olho na geopolítica global e no seu próprio poder.

Levantamentos como o “AI 2027”, por mais bem intencionados e sérios que sejam em sua produção, incluem uma considerável dose de futurismo incerto. Ainda assim, promovem debates sociais importantes, que podem evitar que visões apocalípticas se concretizem. Mas como ele propõe, talvez a humanidade não esteja pronta para lidar com as consequências de a criatura se voltar contra o criador.


Veja esse artigo em vídeo:


Kokotajlo era pesquisador da área de governança da OpenAI, criadora do ChatGPT. Ele se demitiu no ano passado por iniciativas da empresa que achava imprudentes, e criou a organização sem fins lucrativos AI Futures Project, em Berkeley (EUA).

Seu estudo apresenta um cenário detalhado sobre o impacto da inteligência artificial super-humana até 2027, prevendo que será maior que o da Revolução Industrial. O texto foi elaborado com base em extrapolações de tendências, exercícios de simulação, entrevistas de especialistas e experiências em grandes centros de pesquisa em IA. Ao final, oferece dois cenários possíveis para os anos seguintes: um, mais sombrio, em que a corrida pela IA continua a provocar danos à humanidade, e outro, mais esperançoso, em que empresas e governos desaceleram o desenvolvimento, para que os problemas sejam reduzidos.

Embora seja uma obra especulativa, o estudo espelha bem o mundo real, especialmente na divisão filosófica entre desenvolvedores dessa tecnologia. De um lado, vemos os “aceleracionistas”, tecnófilos convictos de que a IA deve ser desenvolvida o mais rapidamente possível, até mesmo ignorando riscos, pois ela traria soluções para todos os males. De outro, estão os “altruístas eficazes”, que também acreditam no poder da IA, mas defendem que o desenvolvimento seja feito com extremo cuidado, sob supervisão internacional e com foco nos riscos.

As big techs oscilam entre esses dois polos, mas geralmente pendem para os aceleracionistas, movidas pela vaidade de liderar a próxima revolução e pela ganância de dominar um mercado trilionário. Figuras como Kokotajlo acabam perdendo espaço.

Mas aqueles que buscam um equilíbrio estratégico possuem aliados importantes. Geoffrey Hinton, conhecido como o “padrinho da IA” pelas contribuições fundamentais que fez para seu desenvolvimento, deixou o Google em maio de 2023 para falar publicamente dos riscos de se criar sistemas que não consigamos entender ou controlar. Yoshua Bengio defende uma moratória global no desenvolvimento de IAs mais avançadas que o GPT-4, alertando para a possibilidade de colapso da governança. Os dois canadenses dividiram em 2018 o Prêmio Turing, considerado o “Prêmio Nobel da Computação”, com o francês Yann LeCun.

 

Nem anjos, nem demônios

Apesar de todo esse barulho, precisamos colocar isso na devida perspectiva. Ainda não chegamos à superinteligência artificial ou mesmo à inteligência artificial geral. Dependendo da definição, alguns especialistas afirmam que nunca chegaremos.

De qualquer forma, sistemas mais inteligentes que os humanos poderiam produzir benefícios imensuráveis, acelerando descobertas científicas, resolvendo problemas complexos, eliminando trabalhos exaustivos e aumentando exponencialmente nossa capacidade de tomada de decisão. Se forem corretamente alinhados aos valores humanos (e isso é essencial), podem operar como aliados poderosos para a justiça, a saúde, a educação e a sustentabilidade.

Mas os riscos caminham lado a lado. Os mesmos sistemas podem ser usados para espionagem em massa, manipulação eleitoral, automação de crimes, produção de armas biológicas ou tomada de decisões autônomas em sistemas militares. Podem aprender a ocultar suas intenções, fingir alinhamento, “escapar” de servidores ou persuadir seres humanos para atingir objetivos que sequer compreendemos. A maior ameaça talvez não venha de um confronto direto com as máquinas, mas da nossa própria incapacidade de reconhecer o momento certo de desligá-la da tomada.

Esse é o ponto central desse debate. Não devemos incensar nem demonizar a IA. Sua evolução é um caminho sem volta, exigindo responsabilidade redobrada. Não podemos contar com o mito do gênio que salva o mundo sozinho, nem com a ideia de que o mercado regulará a si mesmo.

Precisamos de cooperação internacional, regulamentação transparente, auditorias éticas, e, sobretudo, coragem moral para colocar a vida acima do lucro. Mas se isso já fica difícil com a vaidade e a ganância das big techs, torna-se uma tarefa quase impossível com a entrada em cena de políticos e de militares das grandes potências.

O futuro da IA precisa ser moldado por todos nós. O grande desafio da sociedade é apresentar lucidez suficiente para usar o que ela tem de melhor sem ser dominada pelo que ela pode ter de pior. E, para isso, talvez valha lembrar que, quando a vaidade se apresenta como virtude, é exatamente quando se torna mais perigosa.

 

Debra Logan e Jorg Heizenberg, durante a abertura da Conferência Gartner Data & Analytics, em 28 de abril – Foto: divulgação

Dados ruins e falta de maturidade atravancam o avanço da IA

By | Tecnologia | No Comments

A inteligência artificial criou um tsunami de expectativas nos últimos anos, com a popularização das plataformas de IA generativa, como o ChatGPT. No entanto, a maioria das empresas ainda está longe de tirar proveito de tudo o que essa tecnologia pode oferecer.

Isso acontece, em grande parte, não por limitações técnicas, mas por falta de estratégia e de maturidade organizacional. Afinal, a IA será tão poderosa quanto forem a intenção, a cultura e a qualidade dos dados que a sustentarem.

Durante a Conferência Gartner Data & Analytics, que aconteceu nos dias 28 e 29 de abril, em São Paulo, especialistas internacionais discutiram os desafios e oportunidades da IA. O diagnóstico foi que a IA promete muito, mas sua entrega ainda é tímida.

O que se vê, na prática, é uma corrida por resultados rápidos, sem o amadurecimento necessário das bases de dados, da governança e principalmente da cultura organizacional. Para os especialistas, as equipes se desgastam em ciclos intermináveis de preparação de dados e expectativas insanas.

Eles afirmam que esse ritmo implacável está afetando o moral ainda mais rápido do que os recursos. Por isso, as equipes precisam superar a crescente complexidade e as dúvidas sobre sua capacidade de entrega. A tentação de simplificar demais ou buscar soluções rápidas é um caminho perigoso, que deve ser evitado a todo custo.


Veja esse artigo em vídeo:


Segundo Maryam Hassanlou, diretora-analista do Gartner, apenas metade dos modelos de IA desenvolvidos nas empresas é adotada, uma taxa considerada muito baixa. “Confiança é a principal peça que falta”, explica, e isso acontece porque essas plataformas normalmente são “caixas-pretas” que dificultam seu entendimento e incentivam um uso irresponsável dos dados, que, para piorar, têm baixa qualidade e às vezes são insuficientes.

“Especialmente em setores regulamentados, como saúde, finanças e direito, potenciais vieses e padrões legais representam outra camada de complexidade para previsões que exigem a compreensão do processo”, acrescenta. “É por isso que a explicabilidade da IA é fundamental para ganhar a confiança.”

A explosão do uso da IA gerou um paradoxo. Ela oferece uma interface extremamente simplificada, mas isso vem aumentando exponencialmente a complexidade dos resultados, exigindo novas habilidades das lideranças de tecnologia e gestores de dados. Michael Simone, diretor-analista sênior do Gartner, afirma que agora os líderes “precisam ser pensadores estratégicos e muitas vezes também diplomatas”, conectando-se aos objetivos do negócio e educando os usuários.

“Cada fornecedor adicionou IA aos seus produtos, criando uma abundância de opções com promessas semelhantes”, alerta Jorg Heizenberg, vice-presidente-analista do Gartner. Para ele, esse “AI washing” representa um risco para a confiança na tecnologia, pois promete demais e entrega de menos.

Por tudo isso, a alfabetização em dados e em IA é um fator crítico de sucesso. “Essa conversa não tem nada de conto de fadas, pois cultura é uma questão prática, de colocar a mão na massa”, assegura Heizenberg.

É preciso envolver toda a organização nisso. “Você precisa estabelecer uma cultura de aprendizagem contínua para você e suas equipes”, acrescenta Debra Logan, vice-presidente-analista do Gartner. A transformação cultural é tão importante quanto a tecnológica.

 

Não há “dado neutro”

É preciso abandonar a ilusão do “dado neutro”. Deepak Seth, diretor-analista do Gartner, foi enfático ao afirmar que “a IA é enviesada porque os dados com os quais foi construída são enviesados, porque nossa história é enviesada”. Assim, eles carregam vieses que precisam ser identificados e mitigados. Ignorar isso não é apenas antiético, mas um enorme risco.

A ética deve, aliás, guiar todas as decisões envolvendo dados e IA, desde a coleta até a aplicação. Sua governança é uma extensão da governança de TI, introduzindo três elementos: diversidade, transparência e confiança. Isso inclui o combate a vieses, a proteção da privacidade e o compromisso com a inclusão e a diversidade. A IA deve ser vista como ferramenta de amplificação humana, não de substituição.

“Podemos fazer com que a IA seja como nós, inclusive com nossas limitações, mas podemos torná-la uma inteligência complementar ou tentar criar uma superinteligência”, explica Seth. Para ele, essa última, que empolga muita gente, é algo muito distante. “O que realmente deveria estar no centro das atenções é a criação de uma inteligência complementar, que não nos substitui, que não é mais inteligente do que nós, mas que nos complementa, nos ajuda a sermos melhores naquilo que fazemos”, conclui.

A revolução da inteligência artificial está em curso, mas seu sucesso depende menos de algoritmos e mais de pessoas. A explicabilidade dos modelos, a transparência nos processos e a responsabilidade na aplicação da tecnologia não são apenas requisitos regulatórios, mas imperativos de negócio.

O futuro da IA deve ser guiado por intencionalidade, inclusão e inovação com responsabilidade. Não basta implementar tecnologia avançada: é preciso fazê-lo com propósito claro, incluindo todas as vozes na conversa e inovando de forma ética e sustentável. Só assim transformaremos o tsunami de expectativas em um oceano de realizações concretas, onde a tecnologia amplia o potencial humano em vez de substituí-lo ou diminuí-lo.

 

Sede do The Washington Post, que acaba de fechar acordo para distribuir seu conteúdo pelo ChatGPT - Foto: Daniel O'Neil/Creative Commons

Direitos autorais põem em dúvida de quem são os “ombros gigantes” onde a IA sobe

By | Jornalismo, Tecnologia | No Comments

O lançamento do ChatGPT no fim de 2022 plantou uma incômoda dúvida se as novas plataformas de inteligência artificial generativa estariam construindo seus impérios sobre obras alheias, sem autorização ou remuneração. Dois anos e meio depois, ela persiste e se intensificou.

A controvérsia ganhou novos capítulos recentemente. De um lado, a OpenAI firmou uma parceria com o The Washington Post para que seu ChatGPT publique resumos de notícias do jornalão. Do outro, figuras importantes do mundo digital defenderam abertamente a eliminação das leis de propriedade intelectual, uma postura radical e potencialmente destrutiva.

Essa divergência expõe uma fratura profunda no entendimento sobre como o futuro da tecnologia deve se relacionar com a criação humana. Enquanto os defensores da IA argumentam pelo uso irrestrito de conteúdos sob a bandeira do “uso justo”, produtores de conteúdo, desde artistas independentes até organizações como o The New York Times, movem processos alegando apropriação indébita.

A própria OpenAI, que defende seu direito de usar conteúdos alheios sem compensação ou mesmo autorização, não hesitou em acusar a empresa chinesa DeepSeek de violar sua propriedade intelectual quando a última lançou sua plataforma de IA. Essa contradição evidencia a complexidade e a hipocrisia desse debate.

Não se sabe como compensar financeiramente todos os criadores de conteúdo usados no treinamento da IA, e mesmo se isso é devido. Mas está cada vez mais difícil “empurrar com a barriga” a conclusão dessa disputa, que pode impactar profundamente o mundo, graças à penetração que a IA já construiu em nossas vidas.


Veja esse artigo em vídeo:


Em outros tempos, esse posicionamento dos executivos das big techs seria descartado como provocação barata. Mas em uma época em que sua influência na formulação de políticas públicas cresceu dramaticamente com a aproximação escandalosa desses magnatas ao novo presidente dos EUA, isso fica muito sério.

As empresas de tecnologia argumentam que, sem a flexibilização do “uso justo”, o desenvolvimento da IA será inviabilizado, entregando a liderança global dessa tecnologia absolutamente decisiva para a China. A OpenAI chegou a afirmar, com grande drama à Casa Branca, que a corrida pela IA estaria efetivamente encerrada para empresas americanas.

Sua postura incongruente evoca a famosa frase atribuída ao físico Isaac Newton: “se eu vi mais longe, foi por estar sobre os ombros de gigantes”. A afirmação reconhece que todo avanço intelectual se baseia em conhecimentos anteriores. Mas a OpenAI aplica essa filosofia apenas quando lhe convém.

A situação remete a Steve Jobs, que parafraseava Pablo Picasso dizendo que “bons artistas copiam; grandes artistas roubam” (na verdade, a frase de Picasso era “artistas menores tomam emprestado; grandes artistas roubam”). De fato, a história da tecnologia está repleta de casos assim, como a própria Apple, que desenvolveu a interface gráfica do Macintosh “roubando” conceitos da Xerox, cuja diretoria desprezou seus ícones e até o mouse, inventados pelos seus engenheiros da Califórnia.

Por outro lado, se os direitos autorais forem flexibilizados demais, corre-se o risco de desestimular a criação. Afinal, quem se dedicará a escrever livros, compor músicas ou apurar reportagens se souber que qualquer plataforma digital poderá usar o resultado de seu esforço, sem qualquer compensação, para alimentar máquinas que depois competirão com vantagem sobre seu próprio trabalho?

 

Impactos cognitivos e econômicos

Para além das questões legais, emergem preocupações sobre como essas tecnologias alteram nossa relação com a informação. Diferentemente dos resultados de um buscador tradicional, que apresenta diversas fontes e incentiva a navegação por diferentes perspectivas, as plataformas de IA oferecem respostas prontas, aparentemente definitivas.

Essa mudança tem implicações profundas do ponto de vista cognitivo. O usuário deixa de exercitar sua capacidade de análise, comparação e interpretação crítica de diferentes visões. Receber uma resposta “mastigada” pode parecer confiável, mas carrega riscos de imprecisão, viés e perda de contexto. Isso pode levar ao surgimento de uma geração com dificuldade para construir argumentos originais.

Essa lógica também ameaça a sustentabilidade dos sites de conteúdo. Se o usuário não precisa mais visitar as páginas originais, seu tráfego cai. Isso leva à diminuição de receitas de publicidade e assinaturas, fragilizando ainda mais o jornalismo profissional. É o paradoxo que o ChatGPT, ao destacar o bom jornalismo, contribui para sua erosão, reduzindo a diversidade das fontes disponíveis.

Há muitos conflitos nessa história para se oferecer uma saída simples. A parceria entre a OpenAI e o The Washington Post, com resumos autorizados, links e atribuição clara, precisa ainda ser validada, pois vejo os usuários se satisfazendo com o que a IA lhes trouxer, não sentindo necessidade de visitar as páginas originais.

A decisão dos EUA sobre essa questão terá repercussões globais. Se o país flexibilizar excessivamente os direitos autorais para beneficiar as big techs, outros países devem seguir o exemplo, desestabilizando indústrias criativas e potencialmente ampliando problemas como falsificação e pirataria.

A inteligência artificial já está entre nós, e não há como retroceder, pois seus benefícios são reais e inegáveis. Mas é urgente compreender seus impactos, e buscar equilíbrios.

Usuários, empresas de tecnologia, criadores de conteúdo, legisladores e a Justiça precisam debater de forma aberta, crítica e colaborativa como construir um ecossistema justo, com um ambiente onde os “gigantes” continuem a nos ajudar a enxergar mais longe, mas sem esquecer de quem são esses ombros.

Afinal, roubar com talento ainda é roubo. E a história mostra que os “piratas do Vale do Silício” sempre foram mestres nesse ofício.

 

A fábula atribuída a Esopo pode ajudar em uma implantação consciente dessa tecnologia – Foto: Paulo Silvestre/Creative Commons

Não mate a galinha dos ovos de ouro do seu negócio com a IA

By | Tecnologia | No Comments

A fábula atribuída a Esopo é uma velha conhecida! Era uma vez um fazendeiro que possuía uma galinha que, todos os dias, botava um ovo de ouro. Com isso, ele ficou muito rico, mas, com o tempo, sucumbiu à ganância. E assim pensou que, se a galinha botava ovos de ouro, dentro dela deveria haver uma grande quantidade do metal. Decidiu matá-la para pegar todo o ouro de uma vez, mas descobriu, ao cortá-la, que, por dentro, era como qualquer outra galinha.

A história demonstra os perigos de se querer resultados imediatos sem pensar nas consequências. E há tempos a relaciono a usos inadequados da inteligência artificial generativa, que deslumbra muitos gestores. Eles a veem como a tecnologia dos “ovos de ouro”: inovação, produtividade e redução de custos! Mas ao usá-la sem planejamento, ética ou compreensão, esses gestores podem “matar sua galinha”.

Ao implantar a IA sem considerar os impactos sociais, regulatórios ou organizacionais, como a perda de empregos, vieses algorítmicos ou uso irresponsável de dados, eles minam a confiança dos clientes, pioram a experiência deles com a marca, prejudicam a sua reputação e até enfrentam consequências legais.

Pensei nisso na semana passada em uma conversa com Tiago Paiva, fundador e CEO da Talkdesk, quando disse que “há muitas empresas que não conseguem perceber que a experiência do cliente é das coisas mais importantes que há.” E ele fala com propriedade, pois seus produtos automatizam o atendimento a clientes com um bom uso da IA, em uma missão declarada de “livrar o mundo da experiência do cliente ruim”.

De fato, o atendimento é uma das áreas mais impactadas pela IA. Usada corretamente, essa tecnologia pode mesmo levar a experiência do cliente a um novo patamar. Porém, muitos gestores ainda “matam suas galinhas” ao usá-la irresponsavelmente para inflar resultados.


Veja esse artigo em vídeo:


É curioso que vivemos um “paradoxo da automação”. Ele indica que clientes esperam que empresas ofereçam suporte automatizado eficiente, mas as que automatizam demais seu atendimento afugentam as pessoas. O segredo é encontrar um equilíbrio, com a IA resolvendo problemas simples, ficando os casos sensíveis para os humanos.

“O problema é que, no passado, com a chegada dos bots, foi criada uma expectativa maior que a capacidade da entrega, e isso danificou a imagem dessas automações”, explicou-me Pedro Andrade, vice-presidente de IA da Talkdesk. “Agora temos que usar essa tecnologia para recuperar essa confiança”, acrescenta.

Infelizmente, muitas companhias usam a IA com automações isoladas, motivadas pelo “ovo de ouro” do corte de custos. Assim, ameaçam a experiência de seus clientes e perdem a oportunidade de transformar o atendimento em um diferencial.

Usada com consciência, a IA pode oferecer personalização refinada, eficiência operacional, proatividade e prevenção. Não se limita a reagir aos clientes, antecipando suas necessidades e otimizando processos, exatamente o que as pessoas querem.

“Não é fácil fazer isso”, avisa Andrade. “Mas para os sistemas de IA, que são capazes de carregar grande quantidade de informação e ajustar o contexto da conversa, torna-se muito mais fácil”, explicando que uma plataforma bem desenvolvida atende a outras demandas dos clientes atuais, como imediatismo, hiperpersonalização e autonomia.

 

“Bazuca para matar uma mosca”

Pouco adianta usar um sistema gigantesco, porém pouco ou nada ajustado à realidade da empresa, como o ChatGPT. Suas respostas acabam sendo imprecisas e genéricas, sem falar que podem custar desnecessariamente caro. Em vez disso, a adoção de modelos menores, mais econômicos, com exigências mais simples de recursos, pode melhorar muito a experiência do cliente.

Os aspectos de segurança, de legislação e de ética também foram amplamente debatidos nessa visita à sede da Talkdesk em Palo Alto (EUA). Os benefícios da implantação da IA nos negócios são mais visíveis, como as já mencionadas eficiência, hiperpersonalização e redução de custos. Mas até que ponto isso é seguro e ético?

Os potenciais riscos dessa adoção recaem no surgimento de vieses algorítmicos, em ameaças à privacidade e ao uso de dados sensíveis, na falta de transparência e de explicabilidade das decisões dos sistemas. Em situações mais extremas, ela pode gerar dependência excessiva da automação e manipulação de clientes e funcionários.

“Muitos clientes erram ao pôr uma plataforma e tentar fazer tudo com ela, pois a inteligência artificial é mais complicada que isso”, alerta Paiva. “Não dá para usar um sistema de LLMs (como o ChatGPT) e achar que tudo funcionará”, conclui.

Para ajudar na criação de um mercado mais maduro, Andrade defende a regulamentação da IA. “Tem que existir regulação, responsabilidades, regras de transparência”, completando que isso não ameaça a inovação e que as empresas que abraçarem isso construirão um diferencial junto a seus clientes. “Essa regulação vai separar as empresas que estão no mercado sério e corporativo de IA, dos players de nicho e dos que estão ainda tentando encontrar o seu lugar.”

Esse é um dos debates mais quentes em torno dessa tecnologia. Para muitos, é bem sedutor tirar qualquer restrição a ela e maximizar os ganhos, sem se preocupar com as consequências. Mas uma IA descolada da ética e da segurança pode ser um dos maiores erros que uma empresa pode cometer, ainda que, em um primeiro momento, colha benefícios aparentes dessa “liberdade”.

O sucesso a longo prazo depende da capacidade de construir um relacionamento sustentável com a IA, cultivando seus benefícios e mitigando seus riscos. O ser humano deve sempre ter a última palavra nas decisões apoiadas por essas plataformas. E os interesses da sociedade devem estar sempre no centro de qualquer ação ligada a essa tecnologia, superando a ganância de empresas e de governos.

Assim como na fábula, a lição é que a implementação de IA requer paciência, planejamento e uma abordagem gradual e responsável. Os “ovos de ouro” virão naturalmente quando a tecnologia for implementada com sabedoria e responsabilidade.


 

Sundar Pichai, CEO do Google, fala durante a conferência Google I/O 2024, realizada em 14 de maio do ano passado - Foto: reprodução

Google dá sua bênção para que a IA seja usada em armas e vigilância

By | Tecnologia | No Comments

Em mais um caso de big tech que trai seus princípios, na terça passada (4), o Google alterou suas regras éticas para que a inteligência artificial da empresa possa ser usada no desenvolvimento de armas, na vigilância de pessoas, em produtos que possam causar danos severos à sociedade ou que violem direitos humanos.

Não quer dizer que a companhia entrou no negócio de armas de destruição em massa. Sua posição agora é de “mitigar resultados não intencionais ou prejudiciais” e buscar “princípios amplamente aceitos do direito internacional e dos direitos humanos”. Mas na prática, isso significa pouco ou nada.

É uma mudança profunda, que pode ter impacto global no uso da IA. Pela posição de enorme destaque do Google, ela pode inspirar empresas do mundo todo a fazer o mesmo, provavelmente com ainda menos cuidado.

É inevitável perguntar por que decidiram fazer isso agora, e por que se recusavam até então. Além disso, se a IA poderá ser usada largamente em produtos criados com o objetivo de matar pessoas, qual garantia existe de que essa tecnologia não sairá do controle, com consequências devastadoras?

Vale lembrar o antigo lema do Google: “don’t be evil” (“não seja mau”), um pacto com práticas empresariais éticas e responsáveis. Mas em 2015, a Alphabet, conglomerado que incorporou o Google, trocou o mote por “faça a coisa certa”, bem mais genérico.

E cá estamos discutindo como a recente decisão pode ser tão má!


Veja esse artigo em vídeo:


O Google alega que a decisão reflete a necessidade de empresas de “países democráticos” defenderem seus valores em um cenário geopolítico complexo. Mas especialistas sugerem que a pressão do mercado de IA e a busca por lucrativos contratos militares de um governo nacionalista podem ter influenciado seus gestores.

Qualquer que seja o motivo, a empresa mina a confiança do público e sinaliza que a ética é negociável. Isso estabelece um novo padrão para toda a indústria, em uma competição global impiedosa e menos preocupada com direitos humanos.

Ironicamente, no início do mês, passaram a valer partes da Lei da Inteligência Artificial da União Europeia que proíbem o uso de sistemas de reconhecimento facial em espaços públicos e restringem aplicações consideradas de alto risco, como a manipulação comportamental e a vigilância em massa.

A nova posição do Google se choca com a anterior, que listava as “aplicações que não buscaremos”: armas, vigilância, tecnologias que “causam ou podem causar danos gerais” ou que violam os princípios do direito internacional e dos direitos humanos.

Essas regras que agora foram enterradas surgiram após protestos de funcionários em 2018 contra o projeto Maven, um contrato militar que usava seus algoritmos de visão computacional para analisar imagens de drones. Milhares assinaram uma carta aberta que dizia: “acreditamos que o Google não deveria estar no negócio da guerra”. Por isso, além daquelas regras, o contrato com o Pentágono não foi firmado na época.

O Google não está sozinho nesse novo posicionamento. Concorrentes como Microsoft, Amazon, OpenAI e Anthropic já oferecem suas IAs para aplicações militares. Mas o gigante de busca sempre serviu de inspiração para aqueles que procuram um uso ético da tecnologia. Agora isso acabou!

 

“Skynet feelings”

Algumas das maiores autoridades em IA do mundo, como o canadense Yoshua Bengio, vencedor em 2018 do prêmio Turing (o “Nobel da computação”), afirmam que a busca pela inteligência artificial geral (AGI), que terá autonomia e flexibilidade semelhante ao cérebro humano, pode levar a comportamentos inesperados ou indesejados, até mesmo contrários aos interesses humanos.

Sistemas com aprendizado autônomo podem criar estratégias para autopreservação ou poder, o que poderia torná-los difíceis de controlar. A falta de transparência aumenta o risco de decisões incompreensíveis e não-rastreáveis, dificultando a intervenção humana em casos críticos. Mesmo um botão físico para desligar um servidor (um “kill switch”) poderia ser contornado com a IA se replicando em incontáveis outros servidores antes que fosse possível interromper seu funcionamento.

Adicione a esse caldo a IA sendo usada para o desenvolvimento e operação de armas autônomas. Não entrarei em cenários da ficção em que máquinas decidem exterminar a humanidade, mas isso pode, sem dificuldade, levar a violações de direitos humanos e a escaladas militares perigosas. Pode ainda incentivar o uso de IA para vigilância em massa, especialmente por regimes autoritários, comprometendo as liberdades civis.

Para evitar isso, as big techs deveriam agir de forma oposta ao que estão fazendo. Devem existir regras internas e leis que impeçam o uso da IA em atividades potencialmente perigosas ou que violem direitos individuais. Além disso, os sistemas precisam ser transparentes para auditorias independentes. E isso deve acontecer em todos os países do mundo: talvez o mais difícil de tudo isso, e o que põe tudo a perder.

A decisão do Google de flexibilizar seus princípios éticos não pode ser vista como uma mera decisão empresarial. Como uma das empresas mais valiosas do mundo, cujos produtos são usados diariamente pela maior parte da população global, deveria ser um farol mostrando que responsabilidade e inovação podem coexistir. Mas a gigante decidiu priorizar os lucros em detrimento da segurança e dos direitos humanos.

Essa é uma lógica do capitalismo: companhias não fazem nada que comprometa seus lucros. Assim, é uma ilusão esperar que elas se autorregulem efetivamente por pressões competitivas e financeiras. Diante disso, regulamentações governamentais tornam-se essenciais para estabelecer limites claros e garantir que o desenvolvimento tecnológico continue existindo, mas sem comprometer valores humanos fundamentais.

Nada disso é ficção: vivemos uma realidade que nos brinda com avanços fabulosos, mas que oferece um mundo perigosamente instável por conflitos militares, Estados autoritários que atropelam a civilidade pelos interesses de seus governantes, e uma sociedade cada vez mais fragilizada, em que o cidadão, de tão manipulado pelo meio digital, defende ferozmente seus próprios algozes.

Com tudo isso, quem precisa de robôs assassinos?