Category Archives: Tecnologia

Taylor Swift e suas cópias, que podem ser geradas por IA para convencer as pessoas - Foto: Paulo Silvestre com Creative Commons

Pessoas se tornam vítimas de bandidos por acreditarem no que desejam

By | Tecnologia | No Comments

Usar famosos para vender qualquer coisa sempre foi um recurso poderoso do marketing. Mas agora as imagens e as vozes dessas pessoas estão sendo usadas sem sua permissão ou seu conhecimento para promover produtos que eles jamais endossariam e sem que ganhem nada com isso.

Esse conteúdo falso é criado por inteligência artificial e está cada vez mais convincente. Além de anunciar todo tipo de quinquilharia, esses “deep fakes”, como é conhecida essa técnica, podem ser usados para convencer as massas muito além da venda de produtos, envolvendo aspectos políticos e até para se destruir reputações.

O processo todo fica ainda mais eficiente porque as pessoas acreditam mais naquilo que desejam, seja em uma “pílula milagrosa de emagrecimento” ou nas ideias insanas de seu “político de estimação”. Portanto, os bandidos usam os algoritmos das redes sociais para direcionar o conteúdo falso para quem gostaria que aquilo fosse verdade.

Há um outro aspecto mais sério: cresce também o uso de deep fakes de pessoas anônimas para a aplicação de golpes em amigos e familiares. Afinal, é mais fácil acreditar em alguém conhecido. Esse recurso também é usado por desafetos, por exemplo criando e distribuindo imagens pornográficas falsas de suas vítimas.


Veja esse artigo em vídeo:


As redes sociais, que são os maiores vetores da desinformação, agora se deparam sob pressão com o desafio de identificar esse conteúdo falso criado por IA para prejudicar outras pessoas. Mas seus termos de uso e até alguns de seus recursos tornam essa tarefa mais complexa que as dificuldades inerentes da tecnologia.

Por exemplo, redes como TikTok e Instagram oferecem filtros com inteligência artificial para que seus usuários alterem (e supostamente “melhorem”) suas próprias imagens, uma distorção da realidade que especialistas afirmam criar problemas de autoestima, principalmente entre adolescentes. Além disso, muitas dessas plataformas permitem deep fakes em algumas situações, como paródias. Isso pode tornar esse controle ainda mais difícil, pois uma mentira, uma desinformação, um discurso de ódio pode se esconder subliminarmente nos limites do aceitável.

O deep fake surgiu em 2017, mas seu uso explodiu nesse ano graças ao barateamento das ferramentas e à melhora de seus resultados. Além disso, algumas dessas plataformas passaram a convincentemente simular a voz e o jeito de falar de celebridades. Também aprendem o estilo de qualquer pessoa, para “colocar na sua boca” qualquer coisa. Basta treiná-las com alguns minutos de áudio do indivíduo. O “pacote da enganação” se completa com ferramentas que geram imagens e vídeos falsos. Na prática, é possível simular qualquer pessoa falando e fazendo de tudo!

A complexidade do problema cresce ao transcender as simulações grosseiras e óbvias. Mesmo a pessoa mais ingênua pode não acreditar ao ver um vídeo de uma celebridade de grande reputação destilando insanidades. Por isso, o problema maior não reside em um “fake” dizendo um absurdo, mas ao falar algo que o “original” poderia ter dito, mas não disse. E nessa zona cinzenta atuam os criminosos.

Um exemplo pôde ser visto na terça passada (5), quando o apresentador esportivo Galvão Bueno, 73, precisou usar suas redes sociais para denunciar um vídeo com uma voz que parecia ser a sua insultando Ednaldo Rodrigues, presidente da Confederação Brasileira de Futebol (CBF). “Fizeram uma montagem com coisas que eu nunca disse e eu nunca diria”, disse Galvão em sua defesa.

Ele não disse mesmo aquilo, mas poucos estranhariam se tivesse dito! Duas semanas antes, após a derrota da seleção brasileira para a argentina nas eliminatórias da Copa do Mundo, o apresentador fez duras críticas ao mesmo presidente. Vale dizer que há uma guerra pela liderança da CBF, e Rodrigues acabou sendo destituído do cargo no dia 7, pela Justiça do Rio.

 

Ressuscitando os mortos

O deep fake de famosos já gerou um enorme debate no Brasil nesse ano. No dia 3 de julho, um comercial sobre os 70 anos da Volkswagen no país provocou polêmica ao colocar a cantora Elis Regina (morta em 1982) cantando ao lado da filha Maria Rita. Elis aparece no filme dirigindo um antigo modelo de Kombi, enquanto a filha aparece ao volante de uma ID.Buzz, furgão elétrico recém-lançado, chamado de “Nova Kombi”.

Muita gente questionou o uso da imagem de Elis. Mas vale dizer que, nesse caso, os produtores tiveram a autorização da família para o uso de sua imagem. Além disso, ninguém jamais propôs enganar o público para que achasse que Elis estivesse viva.

Outro exemplo aconteceu na recente eleição presidencial argentina. Durante a campanha, surgiram imagens e vídeos dos dois candidatos que foram ao segundo turno fazendo coisas condenáveis. Em um deles, o candidato derrotado, Sergio Massa, aparece cheirando cocaína. Por mais que tenha sido desmentido, ele “viralizou” nas redes e pode ter influenciado o voto de muita gente. Tanto que, no Brasil, o Tribunal Superior Eleitoral (TSE) já se prepara para combater a prática nas eleições municipais de 2024.

Na época do comercial da Volkswagen, conversei sobre o tema com Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propaganda e Marketing). Para ele, “ficará mais difícil, a olho nu, detectar o que é verdadeiro”, restando aos peritos identificar as falsificações. “O desafio, daqui para frente, é que será mais comum ver esse tipo de debate na Justiça”, acrescentou.

Essa é uma preocupação mundial. As fake news mais eficientes não escancaram uma informação falsa “completa”. Ao invés disso, o conceito que pretendem impor é apresentado aos poucos, em pequenos elementos aparentemente desconexos, mas criteriosamente entregues, para que a pessoa conclua “sozinha” o que os criminosos querem. Quando isso acontece, fica difícil convencê-la do contrário.

Não há clareza sobre como resolver esse problema. Os especialistas sugerem que exista algum tipo de regulamentação, mas ela precisa equilibrar a liberdade para se inovar e a garantia dos interesses da sociedade. Sem isso, podemos ver uma enorme ampliação da tragédia das fake news, construída por redes sociais que continuam não sendo responsabilizadas por disseminá-las.

Como determina a Constituição, todos podem dizer o que quiserem, mas respondem por isso. O desafio agora é que não se sabe mais se a pessoa disse o que parece ter dito de maneira cristalina diante de nossos olhos e ouvidos.

 

O CEO da OpenAI, Sam Altman, que ganhou a briga contra o antigo conselho da empresa - Foto: Steve Jennings/Creative Commons

Como a confusão na OpenAI determinará nossas vidas

By | Tecnologia | No Comments

Nessa quarta (30), o lançamento do ChatGPT completa seu primeiro aniversário. É bem pouco tempo para um produto que mudou a maneira como fazemos muitas coisas em nossas vidas. Isso se deu não por seus próprios recursos, limitados a escrever textos (ainda que de maneira surpreendente), mas por ter iniciado a corrida da inteligência artificial generativa, que invadiu todo tipo de ferramenta de produtividade.

Por uma infame coincidência, a OpenAI, criadora do sistema, quase deixou de existir na semana passada. Na sexta anterior (17), Sam Altman, fundador e CEO da empresa, foi sumariamente demitido, pegando o mundo da tecnologia –e aparentemente ele mesmo– de surpresa. A OpenAI só não desapareceu por uma cinematográfica sequência de eventos, que puseram Altman de volta na sua cadeira em apenas cinco dias.

Isso já tornaria essa história incrível, mas pouco se sabe e menos ainda se fala dos elementos mais suculentos em seus bastidores. Afinal, o que faria o conselho de administração da OpenAI mandar embora a estrela mais brilhante do Vale do Silício no momento, em plena ascensão?

A resposta é profundamente mais complexa que uma simples “quebra de confiança”, apresentada na justificativa. O real motivo são visões conflitantes sobre como o desenvolvimento da inteligência artificial deve continuar acontecendo. De um lado, temos uma maneira mais lenta e cuidadosa, até para se evitar que ela “saia do controle” e ameace a humanidade. Do outro, há os que defendam que isso aconteça de forma acelerada, criando freneticamente novos e fabulosos produtos com ela.


Veja esse artigo em vídeo:


Sam Altman faz parte do segundo grupo. Os agora ex-membros do conselho de administração da OpenAI fazem parte do outro.

No fim de semana seguinte a sua demissão, Altman tentou sem sucesso reassumir o cargo. Então a Microsoft, que é a principal investidora da OpenAI, anunciou na segunda (20) a sua contratação para liderar um novo centro de pesquisa de inteligência artificial. Disse ainda que aceitaria qualquer profissional da OpenAI que quisesse acompanhar Altman.

No dia seguinte, em um movimento ousado, cerca de 700 trabalhadores da startup publicaram uma carta aberta exigindo a readmissão de Altman e a renúncia dos membros do conselho. Caso contrário, todos se demitiriam, o que na prática acabaria com a empresa. Na quarta, Altman estava de volta e os conselheiros se demitiram.

A Microsoft não tinha nenhum interesse no fim da OpenAI, portanto contratar Altman foi uma jogada de mestre, por forçar a reação das suas equipes. Depois de investir US$ 13 bilhões na startup, seus produtos estão sendo gradualmente integrados aos da gigante, como o pacote 365 (antigo Office) e o buscador Bing. Além disso, a OpenAI está pelo menos seis meses à frente da concorrência, como Google e Meta, o que é um tempo enorme nas pesquisas de IA, e isso não pode ser jogado no lixo.

A confusão na OpenAI não se trata, portanto, se Altman estava fazendo um bom trabalho. Segundo o New York Times, ele e os antigos conselheiros já vinham brigando há mais de um ano, pois o executivo queria acelerar a expansão dos negócios, enquanto eles queriam desacelerar, para fazer isso com segurança.

Vale dizer que a OpenAI foi fundada em 2015 como uma organização sem fins lucrativos, para construir uma superinteligência artificial segura, ética e benéfica à humanidade. Mas a absurda capacidade de processamento que a inteligência artificial exige levou à criação de um braço comercial do negócio, em 2018.

 

A “mãe de todas as IAs”

Altman sempre disse que buscava o desenvolvimento de uma inteligência artificial geral (IAG), um sistema capaz de realizar qualquer tarefa por iniciativa própria, até mesmo se modificar para se aprimorar. Isso é muito diferente das IAs existentes, que realizam apenas um tipo tarefa e dependem de serem acionadas por um usuário.

Alguns pesquisadores afirmam que a IAG, que superaria largamente a capacidade cognitiva humana, jamais existirá. Outros dizem que já estamos próximos dela.

Na semana passada, a OpenAI deu mais um passo nessa busca, com o anúncio da Q* (lê-se “Q-Star”, ou “Q-Estrela”, em tradução livre), uma IA ainda mais poderosa que as atuais. Esse sistema pode ter contribuído para a demissão de Altman.

Nada disso é um “papo de nerd”. Se chegaremos a ter uma inteligência artificial geral ou até com que agressividade a IA transformará todo tipo de ferramentas já impacta decisivamente como vivemos. E isso vem acontecendo de maneira tão rápida, que mesmo os pesquisadores estão inseguros sobre benefícios e riscos que isso envolve.

Há ainda preocupações geopolíticas: se as grandes empresas ocidentais não fizerem isso, regimes autoritários e fundamentalistas podem chegar lá, com consequências imprevisíveis para a ordem mundial. Mas também não podemos ver candidamente o Vale do Silício como um campeão da liberdade e da ética. Eles querem dinheiro, e casos como o da OpenAI e de muitas redes sociais ilustram isso.

Mesmo uma “IA legítima” pode ser usada de forma antiética e abusiva. Acabamos de ver isso na eleição presidencial argentina, com os candidatos usando essas plataformas para se comunicar melhor com seus eleitores, mas também para criar imagens depreciativas dos concorrentes. O mesmo deve acontecer aqui nas eleições municipais de 2024. Tanto que o Tribunal Superior Eleitoral (TSE) já busca como coibir a bagunça. A inteligência artificial deve, portanto, nos preocupar desde um improvável extermínio da humanidade até problemas pelo seu uso incorreto em nosso cotidiano.

Os robôs têm “leis” para que não se voltem contra nós, propostas pelo escritor Isaac Asimov, em 1942. São elas: “um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal”, “um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que entrem em conflito com a Primeira Lei” e “um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.” Mais tarde, ele acrescentou a “Lei Zero”: “um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.”

Elas parecem suficientes, mas são apenas uma ideia, enquanto a IA é uma realidade. E mesmo que sejam implantadas no âmago de uma inteligência artificial geral, que garantia temos de que ela não encontre maneiras de alterar seu código para desobedecê-las se assim achar necessário?

Por tudo isso, as decisões do novo conselho da Open AI nos próximos meses, que a devem tornar mais capitalista, afetarão não apenas a empresa, mas o futuro de todos nós. Com tanto dinheiro envolvido, era pouco provável que um grupo de acadêmicos conseguisse desacelerar o desenvolvimento da IA por questões éticas.

No final das contas, estamos fazendo uma aposta entre produtividade e segurança. Uma goleada da primeira começa a se formar. O problema é que aparentemente não temos capacidade de antecipar com certeza o que acontecerá. Temos que estar monitorando a cada momento essa evolução e ter uma tomada física para simplesmente puxar e desligar a coisa toda, se assim for necessário.

 

Cena de “Black Mirror”, em que se vê o implante ocular digital que aparece em vários episódios, com usos diversos - Foto: Reprodução

IA traz as coisas mais legais e mais sinistras de “Black Mirror” para o nosso cotidiano

By | Tecnologia | No Comments

Você gostaria de ter a sua disposição algumas das tecnologias de “Black Mirror”, que praticamente dão “superpoderes” a seus usuários, mesmo que isso possa lhes trazer algum risco? Se a reposta for positiva, prepare-se, pois a inteligência artificial pode fazer algo parecido àquilo se tornar realidade em breve, com tudo de bom e de ruim que oferece.

A série britânica, disponível na Netflix, ficou famosa por mostrar uma realidade alternativa ou um futuro próximo com dispositivos tecnológicos incríveis, capazes de alterar profundamente a vida das pessoas. Mas, via de regra, algo dá errado na história, não pela tecnologia em si, mas pela desvirtuação de seu uso por alguns indivíduos.

Os roteiros promovem reflexões importantes sobre as pessoas estarem preparadas para lidar com tanto poder. Com as novidades tecnológicas já lançadas ou prometidas para os próximos meses, os mesmos dilemas éticos começam a invadir nosso cotidiano, especialmente se (ou quando) as coisas saírem dos trilhos. Diante de problemas inusitados (para dizer o mínimo), quem deve ser responsabilizado: os clientes, por usos inadequados dos produtos, ou seus fabricantes, que não criaram mecanismos de segurança para conter isso?


Veja esse artigo em vídeo:


Provavelmente o dispositivo mais icônico de “Black Mirror”, que aparece em vários episódios, com diferentes aplicações, é uma espécie de implante ocular capaz de captar tudo que a pessoa vê em sua vida, que fica armazenado em um chip implantado atrás da orelha. Essa memória eterna e detalhada pode ser recuperada a qualquer momento, sendo projetada diretamente no próprio olho ou em uma tela.

Não é difícil imaginar como isso pode ser problemático, especialmente quando outras pessoas têm acesso a memórias alheias. Algumas coisas deveriam ser simplesmente esquecidas ou jamais compartilhadas!

A privacidade se torna um bem cada vez mais valioso em um mundo em que nossas informações pessoais viram dinheiro na mão de empresas que as transformam em dados comercializáveis. Um bom exemplo são equipamentos que vestimos (os chamados “wearables”) que captam informações sobre nossa saúde, muitas delas compartilhadas com os fabricantes. Mas para que esse envio é necessário?

Os relógios inteligentes (os “smart watches”) são o exemplo mais popular desses equipamentos. Mas uma nova geração de dispositivos melhorados pela inteligência artificial aprendem como nosso corpo funciona e nos oferecem informações personalizadas para uma vida melhor.

É o caso do Whoop 4.0, uma pulseira com diversos sensores biométricos, como batimentos cardíacos, oxigênio no sangue, temperatura e taxa de respiração, que afirma ajudar em atividades físicas e até em como dormimos. Já o Oura Smart Ring oferece algo semelhante, porém “escondido” em um simples anel.

Alguns são mais radicais, como a pulseira Pavlok 3. Ela promete ajudar a desenvolver hábitos mais saudáveis, como dormir melhor e até parar de fumar. Quando o dispositivo detecta algo ruim (como fumar), ele emite uma vibração e, se necessário, dá um choque elétrico na pessoa, para associar desconforto ao mau hábito.

Mas dois outros dispositivos lembram mais “Black Mirror”: o Rewind Pendant e o Humane AI Pin. Ainda não são os implantes oculares da série, mas prometem gravar o que acontece a nossa volta e muito mais. Eles pretendem inaugurar a era da “computação invisível”, em que não mais dependeremos de telas, nem mesmo as de celulares ou de óculos de realidades virtual ou aumentada.

O Rewind Pendant é um pequeno pingente que grava tudo que o usuário fala ou ouve. A partir daí, é possível dar comandos simples como “resuma a reunião de ontem” ou “o que meu filho me pediu hoje de manhã”. Como o sistema identifica a voz de quem está falando, o fabricante afirma que só grava alguém se essa pessoa explicitamente autorizar isso por voz.

Já o Humane AI Pin é um discreto broche que funciona como um assistente virtual que conhece nossos hábitos, grava e até projeta imagens em nossa mão. Comunica-se com o usuário por voz e sua inteligência artificial pode até desaconselhar que se coma algo, porque aquilo contém algum ingrediente a que a pessoa seja intolerante.

 

“Babaca digital”

Impossível não se lembrar do Google Glass, óculos inteligentes que a empresa lançou em 2013. Ele rodava diferentes aplicativos e as informações eram projetadas em sua lente, que se tornava uma tela para o usuário.

Apesar de cobiçado, acabou retirado do mercado por questões de privacidade. Ele tirava fotos e filmava sem que os outros soubessem. Além disso, fazia reconhecimento facial de interlocutores, que poderia ser usado para coletar informações adicionais. As pessoas que faziam maus usos do produto passaram a ser chamadas de “glassholes”, um trocadilho que junta “Glass” a “asshole” (algo como “babaca” em inglês).

Isso nos remete novamente a “Black Mirror”. Nenhum desses produtos foi criado para maus usos, mas as pessoas podem fazer o que bem entenderem com eles. E depois que são lançados, fica difícil “colocar o gênio de volta na lâmpada”.

Estamos apenas arranhando as possibilidades oferecidas pela inteligência artificial, que ainda revolucionará vidas e negócios. Tanto poder exigiria grandes responsabilidades, mas não podemos esperar isso das pessoas, e os fabricantes tampouco parecem muito preocupados.

Como exemplo, na semana passada, vimos o caso de alunos do 7º ao 9º ano do Colégio Santo Agostinho, um dos mais tradicionais do Rio de Janeiro, usando a inteligência artificial para criar imagens de suas colegas sem roupa. Desenvolvedores desses sistemas proíbem que sejam usados para esse fim, mas é inocência achar que isso será atendido. Tanto que já foram criadas plataformas especificamente para isso.

Quem deve ser responsabilizado por esses “deep nudes”: os alunos, os pais, a escola, o fabricante? Não se pode mais acreditar em qualquer imagem, pois ela pode ter sido sintetizada! Isso potencializa outros problemas, como os golpes de “sextorsão”, em que pessoas são chantageadas para que suas fotos íntimas não sejam divulgadas. Com a “computação invisível”, isso pode se agravar ainda mais!

O sociólogo polonês Zygmunt Bauman (1925 – 2017) era mesmo o filósofo de nosso tempo, com obras como “Modernidade Líquida” (1999), “Amor Líquido” (2004) e “Vida Líquida” (2005). Não viveu para experimentar a IA ou esses dispositivos, mas seu pensamento antecipou como tudo se tornaria descartável e efêmero na vida, nos relacionamentos, na segurança pessoal e coletiva, no consumo e no próprio sentido da existência.

A inteligência artificial está aí e ela é incrível: não dá para deixar de usá-la! Mas precisamos encontrar mecanismos para não cairmos nas armadilhas que nós mesmos criaremos com seu uso indevido.

 

Pais devem acompanhar atividades online dos filhos, mas plataformas têm responsabilidade no problema - Foto: Rawpixel/Creative Commons

Aumento da pedofilia online exige atenção no uso de redes sociais por crianças e adolescentes

By | Tecnologia | No Comments

Duas pesquisas divulgadas na quarta passada (25) demonstram uma explosão nos casos de pedofilia na Internet brasileira, ao mesmo tempo em que se observa um crescimento do uso da rede por crianças ainda na primeira infância. O problema gravíssimo dispara vários questionamentos sobre responsabilidades pelo seu crescimento e buscas por caminhos para a diminuição.

A primeira delas, da Safernet, organização que é referência no combate a crimes digitais no país, aponta que novos casos de imagens de abuso e de exploração sexual infantil chegaram a 54.840 entre 1 de janeiro e 30 de setembro desse ano, frente a 29.809 no mesmo período do ano passado: um crescimento de 84%.

Já a TIC Kids Brasil, levantamento feito pelo Cetic.br (Centro Regional de Estudos para Desenvolvimento da Sociedade da informação), ligado ao Comitê Gestor da Internet no Brasil, indica que as crianças estão ficando online cada vez mais cedo e por mais dispositivos. Dos brasileiros com até 6 anos de idade, 24% já haviam acessado a Internet nesse ano. Em 2015, primeiro ano da pesquisa, eram 11%.

No dia anterior, 41 Estados e o Governo Federal americano iniciaram processos contra a Meta, dona do Facebook e do Instagram, alegando que essas plataformas prejudicam crianças com recursos “viciantes”. As ações representam o esforço mais significativo daquelas autoridades para controlar seus impactos na saúde mental de jovens.

A coincidência de datas evidencia o tamanho do desafio para proteger crianças e adolescentes no meio digital. Assim como acontece com adultos, ele é uma fonte de valor inestimável para realização de atividades e para entretenimento. Porém os jovens são muito mais suscetíveis a abusos e ao desenvolvimento de dependência que os mais velhos, especialmente quando não recebem as devidas orientações.


Veja esse artigo em vídeo:


Um destaque da Safernet preocupa particularmente: cresce a quantidade de crianças e de adolescentes que produzem e enviam fotos e vídeos com conteúdo sexual de si mesmos, em troca da promessa de dinheiro ou de presentes pelos predadores digitais.

Isso está em linha com dados da Polícia Federal sobre crimes cibernéticos vitimando crianças e adolescentes: foram 627 nesse ano, contra 369 no ano passado (aumento de 69,9%). Ao todo, 291 pessoas foram presas, 46% a mais que no ano anterior. Esses dados foram divulgados no dia 16 de outubro, no lançamento do programa “De Boa na Rede”, do Ministério da Justiça e Segurança Pública, idealizado para orientar na criação de um ambiente digital seguro para crianças e adolescentes.

A TIC Kids Brasil aponta também que 95% dos brasileiros entre 9 e 17 anos estão online. Nas classes A e B, são 98%, mas o grupo que mais cresce é o das classes D e E, que passou de 56% em 2015 para 89% nesse ano. O celular é usado por 97% deles, mas aumenta o uso da TV (70%) e do videogame (22%). O único meio em queda é o computador, que era usado por 64% em 2015 e agora não passa de 38%.

A plataforma em que os jovens têm mais contas é o YouTube (88%), seguido pelo WhatsApp (78%), Instagram (66%), TikTok (63%) e Facebook (41%, o único em franco declínio). Mas, pelo uso, o líder é o Instagram (36%), seguido por YouTube (29%), TikTok (27%) e Facebook (2%).

A informação mais preocupante indica que 17% dos brasileiros entre 11 e 17 anos se sentiram incomodados com conteúdo sexual online: 14% meninos e 21% meninas. Do total, 16% receberam diretamente ou viram conteúdo sexual, 9% receberam pedidos de fotos ou vídeos sem roupa e 5% foram solicitados a falar sobre sexo.

A expressão “pornografia infantil” vem sendo substituída por “imagens de abusos contra crianças e adolescentes”. Nudez ou sexo com alguém com menos de 18 anos, por definição, não é consensual. Logo, não se trata de pornografia, que pressupõe a participação voluntária de pessoas maiores de 18 anos. A Safernet adverte que quem consome imagens de violência sexual infantil é cúmplice desse abuso.

 

Responsabilidades de cada um

Se o surgimento da Internet comercial na década de 1990 ampliou esse problema, a popularização das redes sociais o levou a um patamar altíssimo, com os mais jovens fazendo uso intenso e muitas vezes nocivo do meio digital.

Isso ganhou mais visibilidade no segundo semestre de 2021, quando a ex-gerente de integridade cívica da Meta Frances Haugen veio a público com milhares de documentos indicando que a empresa sabe desses problemas e que faz menos que poderia para combatê-los. O escândalo ficou conhecido como “Facebook Papers”.

Os processos da semana passada resultam de investigações surgidas dele. Em comunicado, a Meta disse que está “decepcionada com o fato de que, em vez de trabalhar de forma produtiva com empresas de todo o setor para criar padrões claros e adequados à idade dos muitos aplicativos que os adolescentes usam, os procuradores-gerais escolheram esse caminho”.

As empresas donas das redes sociais de fato criam mecanismos para mitigar o problema, como a possibilidade de pais e mães acompanharem o que seus filhos fazem nessas plataformas, limitadores de tempo de uso e identificação de atividades que podem estar associados a comportamentos de risco. Isso é bem-vindo, mas está longe de ser suficiente, podendo esconder a real intenção dessas companhias de fazerem pouco ou nada que ameace seus lucros ou o “vício” em seus produtos.

Recursos para alterar a própria imagem, em busca de um ideal de beleza inatingível, não são combatidos, sendo até incentivados por essas plataformas. Esses filtros são apenas um exemplo dos ganchos para atrair os mais jovens, de uma maneira intensa. Esse assunto, debatido recentemente nesse espaço, é reconhecidamente um gerador de problemas de saúde mental, especialmente entre meninas.

Ao oferecer essas ferramentas de controle parental, as empresas aparentemente querem repassar a responsabilidade de se evitar os problemas de crianças e adolescentes nas redes a seus pais e mães, livrando-se de seu papel nesse processo. Mas tal responsabilidade continua existindo e é imensa!

Pais e mães devem, claro, acompanhar de perto o que seus filhos fazem online. Isso deve ser feito com um olhar de acolhimento e orientação, nunca de repressão ou crítica. E não há espaço para indiferença: os predadores digitais estão à solta!

Mas as plataformas digitais também são profundamente responsáveis. A sua combalida ideia de que apenas criam recursos e as pessoas fazem maus usos deles, desculpa padrão dessas empresas até para não serem reguladas pelas autoridades, aparece aqui com força e perversidade. Até quando elas continuarão com essa liberdade anárquica?

 

Thiago Araki, diretor-sênior de Tecnologia da Red Hat na América Latina, no palco do Summit Connect, no dia 18 – Foto: Red Hat

Negócios e empregos mudam exponencialmente com novas tecnologias e modelos

By | Tecnologia | No Comments

O ano de 2023 será lembrado como o momento em que a inteligência artificial ganhou as ruas. O lançamento do ChatGPT, no final de 2022, disparou uma corrida em que todos os negócios parecem ser obrigados a usar a IA, quase como se ela fosse um selo de qualidade, o que obviamente não passa de uma distorção do que ela representa. O grande desafio reside, portanto, em conhecer e se apropriar dessa tecnologia, para tirar proveito dela adequadamente.

As empresas têm um papel central em ajudar nessa tarefa, não apenas com o lançamento de produtos que tragam soluções consistentes com a IA, mas também na educação do mercado. Isso ficou claro durante o Red Hat Summit: Connect, principal evento de tecnologia open source da América Latina, que aconteceu em São Paulo no dia 18.

É curioso pensar que a inteligência artificial já está em nosso cotidiano há muitos anos, em incontáveis aplicações empresariais e até em nosso celular, ajudando-nos a fazer escolhas melhores. A diferença é que, até então, ela se escondia nas entranhas desses sistemas. Agora ganhou a luz do sol, exposta em conversas que temos com a máquina, que nos responde como se fosse outra pessoa.

Ainda há deslumbramento demais e conhecimento de menos sobre a inteligência artificial entre consumidores e empresas. O próprio lançamento de tantas plataformas de inteligência artificial generativa, na esteira do sucesso explosivo do ChatGPT, indica um certo descuido de alguns desenvolvedores de soluções, liberando um enorme poder para pessoas que não sabem como usá-lo corretamente.

Nesse sentido, a Red Hat, que é a maior empresa do mundo no fornecimento de soluções empresariais open source, entende que deve ir além do seu papel de desenvolver produtos que tiram proveito da IA: deve também educar seus usuários, seja pelas suas próprias iniciativas, seja pela colaboração com o mundo acadêmico. “As empresas não só podem como devem colaborar na formação de profissionais”, explica Alexandre Duarte, vice-presidente de Serviços para a América Latina na Red Hat. “Nós temos que juntar esforços do mundo corporativo com o mundo educacional, estando alinhados.”

A versão latino-americana do Summit, que também acontece em Buenos Aires (Argentina), Santiago (Chile), Tulum (México), Lima (Peru) e Montevidéu (Uruguai), traz para esses mercados produtos e conceitos que foram apresentados em maio no evento global da empresa, realizado em Boston (EUA). Entre eles, o Ansible Lightspeed e o OpenShift AI, que usam a inteligência artificial na automação de tarefas, como geração de códigos a partir de pedidos simples em português, liberando o tempo das equipes para funções mais nobres.

E assim como pude ver em Boston, aqui a empresa também deixa claro que a inteligência artificial não chega para substituir profissionais, e sim para melhorar suas rotinas. “Se você for um novato, poderá criar melhor, mais rápido; se for um especialista, poderá melhorar muito o que faz e usar seu domínio para refinar a entrega”, explicou-me Matt Hicks, CEO global da Red Hat, em uma conversa com jornalistas durante o Summit na cidade americana. “Nessa nova fase, temos que conhecer a pergunta para a qual queremos a resposta”, concluiu.

É auspicioso observar essa visão em uma das empresas de software mais respeitadas do mundo, em um momento em que muita gente teme pelo seu emprego pelo avanço da inteligência artificial. “Essas ondas tecnológicas não tiram o emprego das pessoas, os profissionais precisam se acomodar”, acalma Duarte. Mas ele faz uma ressalva: é preciso querer aprender! “Se você tem propensão a aprender coisas novas, eu não acredito que a inteligência artificial vai tirar seu emprego, e ainda vai gerar novas oportunidades de trabalho”, acrescenta.

 

O poder da “coopetição”

Em março deste ano, a Red Hat completou 30 anos. Ele cresceu a partir de sua distribuição do sistema operacional Linux, provavelmente o software open source mais famoso do mundo. Nessa modalidade, o produto e o código-fonte ficam disponíveis gratuitamente. A regra fundamental é que, se alguém fizer uma melhoria no sistema, ela deve ser compartilhada de volta com a comunidade.

Essa forma de pensar inspira seu próprio modelo de trabalho, que ficou conhecido como “open business”, uma abordagem empresarial em que equipes, a comunidade e até concorrentes são convidados a cooperar de maneira transparente. Ela valoriza a transparência e a responsabilização, distribuindo os benefícios para todos. “Há 30 anos a gente fala sobre essa abertura, essa transparência, essa possibilidade de diferentes perspectivas”, afirma Sandra Vaz, diretora-sênior de Alianças e Canais para a América Latina na Red Hat.

Surge então a chamada “coopetição”, um neologismo que une “cooperação” e “competição”. “Nada mais é que dois competidores cooperando e criando novas soluções para o bem de seus clientes”, explica Vaz. “Nós colaboramos, nossas equipes de desenvolvimento se conectam e criam o melhor dos mundos, simplificando soluções já existentes.”

A “coopetição” também é uma poderosa ferramenta para ampliar a base de clientes, pois um dos participantes pode trazer consumidores a que o outro lado não teria acesso. Sandra dá, como exemplo, um provedor de serviços na nuvem, como a AWS ou a Microsoft, que podem até ter produtos concorrentes aos da Red Hat, mas que se associam a ela justamente nessas soluções, se assim for o desejo do cliente.

A tecnologia avança a passos muito rápidos, assim como modelos de negócios inovadores. Qualquer que seja o mercado ou a função, está claro que profissionais precisam estar não apenas abertos à inovação, como também dispostos a aprender como tirar proveito dela de maneira eficiente e ética.

A inteligência artificial talvez não acabe com os empregos das pessoas que não a adotem, mas isso pode acabar acontecendo pelas mãos daquelas que passarem a usá-la.


Você pode assistir à íntegra em vídeo das minhas entrevistas com os executivos da Red Hat. Basta clicar no respectivo nome: Alexandre Duarte, Sandra VazMatt Hicks.

 

Graças à IA em novos celulares, qualquer um poderá alterar profundamente suas fotos - Foto: Akshay Gupta/Creative Commons

Celulares podem se tornar máquinas de distorcer a realidade

By | Tecnologia | No Comments

Quando a fotografia foi inventada, no século XIX, ela revolucionou o mundo por conseguir reproduzir facilmente a realidade. De lá para cá, ela só melhorou, culminando na fotografia digital, que transformou um hobby caro em uma diversão extremamente popular, consolidada com as câmeras cada vez mais poderosas nos celulares. Mas agora esses equipamentos podem ironicamente subverter a característica essencial da fotografia de retratar a realidade com precisão.

A culpa disso recai sobre a inteligência artificial. Ela já está presente há algum tempo nos softwares de captura e edição de imagens dos melhores celulares. Mas, até então, prestava-se a “melhorar” (note as aspas) as fotografias, usando técnicas para aumentar a sua fidelidade e refinar elementos como cores, brilho e contraste.

Isso começa a mudar agora, com o lançamento nos EUA, no dia 11, do Pixel 8 (sem previsão de chegada ao Brasil). O smartphone de US$ 700 do Google consegue efetivamente alterar a realidade fotografada. Isso quer dizer que, com ele, é possível, por exemplo, eliminar pessoas e objetos das fotos, alterar elementos das imagens ou modificar suas posições e até “melhorar” (de novo, com aspas) o rosto de pessoas combinando com a maneira que elas apareceram em outras fotos.

Como em todas as atuais plataformas baseadas na inteligência artificial generativa, alguns resultados dessas edições são decepcionantes e até grotescos. Outros, porém, ficam incrivelmente convincentes!

Já dizia São Tomé: “preciso ver para crer”. Parábolas à parte, é um fato que somos seres visuais: nosso cérebro tende a assumir como real o que está diante de nossos olhos. Por isso, vale perguntar até que ponto é positivo e até saudável dar a possibilidade de se distorcer a realidade de maneira tão simples.


Veja esse artigo em vídeo:


É curioso que a fotografia foi combatida por muitos quando surgiu, justamente pela sua capacidade de reproduzir, de maneira fácil, rápida e precisa, o mundo. Pintores diziam que o invento era algo grosseiro, que eliminava a subjetividade e a técnica dos artistas quando retratavam pessoas e paisagens. Grupos religiosos também a combatiam, por serem contrários à captura de imagens de “coisas feitas por Deus”.

Em 1826, o francês Joseph Nicéphore Niépce registrou seu quintal em uma placa de estanho revestida de betume, usando uma câmera escura por oito horas. Essa é considerada a primeira fotografia permanente. Três anos depois, ele fez um acordo com outro francês, Louis Jacques Mandé Daguerre, que aperfeiçoou o processo com o daguerreótipo, que precisava de “apenas” 30 segundos para fazer uma fotografia.

A patente do daguerreótipo foi vendida ao Estado francês em 1839, que a colocou em domínio público. Isso permitiu que a fotografia experimentasse grandes avanços ao redor do mundo. Provavelmente a empresa mais inovadora do setor foi criada pelo americano George Eastman em 1888: a Kodak. Entre suas contribuições, estão o rolo de filme (1889), a primeira câmera de bolso (1912) e o filme colorido moderno (1935).

O último grande invento da Kodak foi a fotografia digital, em 1975. Mas como os lucros da empresa dependiam da venda de filmes, seus executivos não deram importância a ela. Foi um erro fatal, pois a tecnologia se tornou incrivelmente popular e, quando a empresa decidiu olhar para ela, as japonesas já dominavam o mercado.

Em 1999, foi lançado o Kyocera VP-210, o primeiro celular com câmera capaz de tirar fotos, que tinham resolução de 0,11 megapixel (o iPhone 15 tira fotos de 48 megapixels). E isso nos traz de volta ao dilema atual.

 

Realidade alternativa

As fotografias nos celulares se tornaram tão realistas e detalhadas que o próprio negócio de câmeras fotográficas entrou em colapso. Elas continuam existindo, mas hoje praticamente só profissionais as utilizam, pois sabem como aproveitar todos os recursos daqueles equipamentos para fotografias realmente diferenciadas.

Os recursos de IA do Pixel 8 fazem parte de uma nova versão do Google Fotos, o aplicativo de edição e publicação de fotos da empresa, que é nativo nos smartphones Android, mas também pode ser baixado para iPhones. Isso significa que, em tese, outros aparelhos poderão ganhar esses recursos em breve, desde que, claro, tenham capacidade de processamento para isso.

A alteração de fotografias sempre existiu, mesmo antes dos softwares de edição de imagem. Entretanto fazer isso era difícil, exigindo equipamentos e programas caros e muita habilidade técnica. Além disso, as fotos editadas eram apresentadas como tal, sem a pretensão de levar quem as visse a acreditar que fossem reais (salvo exceções, claro)..

O que se propõe agora é que isso seja feito de maneira muito fácil, por qualquer pessoa, sem nenhum custo adicional e em equipamentos vendidos aos milhões. Isso levanta algumas questões éticas.

A primeira delas é que as pessoas podem passar a se tornar intolerantes com a própria realidade. O mundo deixaria de ser o que é, para ser o que gostariam. Isso é perigosíssimo como ferramenta para enganarem outros indivíduos e até a si mesmas.

A sociedade já experimenta, há anos, um crescimento de problemas de saúde mental, especialmente entre adolescentes, devido a fotos de colegas com corpos “perfeitos” (pela terceira vez, as aspas). Isso acontece graças a filtros com inteligência artificial em redes sociais, especialmente Instagram e TikTok, que fazem coisas como afinar o nariz, engrossar os lábios, diminuir os quadris e alterar a cor da pele. O que se observa mais recentemente são adolescentes insatisfeitos com seus corpos não pelo que veem em amigos, mas pelo que veem em suas próprias versões digitais.

Há um outro aspecto que precisa ser considerado nesses recursos de alteração de imagens, que são os processos de desinformação. Muito provavelmente veremos grupos que já se beneficiam das fake news usando intensamente essa facilidade para convencer seu público com mentiras cada vez mais críveis.

Hoje esses recursos ainda estão toscos demais para um convencimento completo. Mas é uma questão de pouco tempo até que eles se aproximem da perfeição.

Não tenham dúvidas: quando estiver disponível, as pessoas usarão intensamente essa tecnologia, estando imbuídas de boas intensões ou de outras não tão nobres assim. Quem será responsabilizado quando começarem a surgir problemas disso?

Assim como acontece com as redes sociais, as desenvolvedoras se furtam disso, dizendo que apenas oferecem um bom recurso, e as pessoas que fazem maus usos deles. Em tese, isso é verdade. Mas alegar inocência dessa forma chega a ser indecente! É como entregar uma arma carregada na mão de uma criança e torcer para que nada de ruim aconteça.

Chegamos ao mundo em que a ilusão se sobrepõe à realidade, mas não estamos prontos para lidar com isso.

 

Muitos motoristas não querem se contratados como CLT pela Uber - Foto: Paul Hanaoka/Creative Commons

Decisão contra a Uber escancara o envelhecimento das leis trabalhistas

By | Tecnologia | No Comments

No último dia 14, a Justiça Trabalhista de São Paulo determinou que a Uber contrate todos os motoristas ligados à plataforma pela CLT (Consolidação das Leis do Trabalho) e pague R$ 1 bilhão por danos morais coletivos. A decisão vale para todo o Brasil e a empresa tem seis meses após o fim de recursos para implantar as medidas.

A Uber já disse que não pretende cumprir a decisão! Em nota, a empresa afirma que não vai adotar nenhuma medida antes que todos os recursos estejam esgotados. A grande pergunta é: o que acontecerá se a decisão for mantida após isso?

Suprema ironia, associações de motoristas se manifestaram dizendo que eles não querem ser contratados pela CLT! Mas isso não quer dizer que estejam satisfeitos com as atuais condições de trabalho.

Qualquer que seja o resultado desses recursos, o caso serve para debatermos a aplicabilidade das leis trabalhistas brasileiras ao mundo atual. A Uber e diversas empresas que fazem parte de nossas vidas seguem os conceitos da economia compartilhada. Ela prevê o engajamento de vendedores e prestadores de serviço com seus clientes, viabilizado por plataformas digitais.

O problema é que esse modelo se choca com a CLT em muitos pontos. Em um momento em que o Governo Federal busca resgatar elementos como o imposto sindical, é de se questionar qual formato regerá as relações trabalhistas de milhões de brasileiros em um futuro próximo.


Veja esse artigo em vídeo:


A legislação brasileira é uma das que mais protege o trabalhador no mundo. Entre muitos itens de segurança social, benefícios como férias remuneradas de 30 dias (e ainda com um adicional de um terço) já a partir de um ano de admissão são luxos inimagináveis em outros países. Tudo isso tem um custo, pago pelos próprios profissionais e principalmente pelas empresas. Via de regra, para cada real pago em salário ao funcionário, a empresa gasta outro com os encargos trabalhistas.

“Essa é uma decisão feita para não ser cumprida”, afirma José Isaías Hoffmann, diretor de Controladoria da Corporate Consulting. “Operacionalmente, como a Uber vai admitir via CLT mais de um milhão de motoristas”, questiona. Ele acredita que, se ela for obrigada a fazer isso, acabará saindo do país, deixando um rastro de desemprego.

O peso dos encargos e de outras obrigações trabalhistas já provoca mudanças no perfil de contratações no Brasil há cerca de duas décadas. Cada vez mais, empresas procuram, sempre que possível, trocar o modelo da CLT por terceirizações de empresas com um único funcionário, os famosos “PJ”. Com isso, os empregadores se livram de encargos e burocracia, e têm o profissional à disposição.

Alguns trabalhadores também preferem esse formato, principalmente quando isso lhes proporciona flexibilidade, com destaque ao horário. É o caso dos profissionais por aplicativos, como motoristas e entregadores. “As pessoas querem uma vida flexível”, afirma a estrategista de carreira Ticyana Arnaud. “Se for para trabalhar CLT, então eles voltam a procurar emprego, vão ser motoristas numa empresa”, sugere.

O principal conflito entre as regras da CLT e as da economia compartilhada é que a primeira considera o profissional um empregado, enquanto a segunda o tem como um autônomo e às vezes nem isso: atua como um prestador informal, que pode trabalhar ao mesmo tempo para incontáveis contratantes. Essa flexibilidade tornou-se tão valorizada por trabalhadores de diferentes áreas (afinal, há uma enormidade de serviços na economia compartilhada), que muitos abrem mão da proteção e dos benefícios generosos da CLT por ela.

Apesar disso, é preciso ter cuidado, pois nem tudo que brilha é ouro!

 

Bondades podem esconder abusos

Não há dúvida que a economia compartilhada é um fenômeno consolidado e que traz muitos benefícios a prestadores e a clientes. A Uber é um exemplo tão didático quanto popular, por ter redefinido a mobilidade urbana e por ser usada por uma porcentagem considerável das populações das grandes cidades. Mas há muitos outros ótimos nomes, como Airbnb, Mercado Livre, iFood ou Rappi. Fica difícil pensar a vida moderna sem eles, e a pandemia deixou isso ainda mais evidente.

Ainda assim, não se pode deixar deslumbrar por suas inegáveis vantagens. O Laboratório de Pesquisa DigiLabour investiga continuamente o impacto das plataformas e de tecnologias disruptivas (como a inteligência artificial) no mundo do trabalho. Eles criticam, por exemplo, essas plataformas chamarem os motoristas de “parceiros” ou de “autônomos”, quando, na verdade, não têm autonomia nem para definir o valor das corridas ou a porcentagem que receberão por elas. Afirmam também que o “empreendedorismo de si mesmo” mascara uma relação de trabalho desigual, em que o profissional assume todos os riscos de um empreendedor, mas atua como um empregado, porém sem nenhum benefício ou proteção.

Já o Instituto Fairwork, ligado à Universidade de Oxford (Reino Unido), criou cinco princípios que seriam necessários para um trabalho decente: remuneração justa, condições justas de trabalho, contratos justos, gestão justa e representação dos funcionários na operação. Em uma pesquisa realizada por eles em 2021, as plataformas no Brasil ficaram entre as piores do mundo: em uma escala até 10 pontos nesses quesitos, iFood e 99 marcaram 2, Uber ficou em 1, enquanto Rappi, GetNinjas e UberEats não saíram do zero. Os resultados são semelhantes aos de outros países da América Latina, mas ficam atrás dos de operações na África, Ásia e Europa.

É importante lembrar que, quando a Uber começou a operar no Brasil, em 2016, dirigir para ela parecia um bom negócio: a empresa ficava com apenas 7% das corridas (hoje pode chegar a 50%) e oferecia muitos bônus aos motoristas. As corridas eram baratas e o serviço de alta qualidade.

Isso explica a “economia compartilhada que dá certo”: ela precisa ser boa para todos os envolvidos, ou seja, o cliente, o vendedor ou prestador, e a plataforma. Quando os motoristas da Uber passaram a receber muito pouco, tudo desmoronou!

“Precisa, de fato, de uma atualização na legislação para entender essa nova dinâmica de mundo”, afirma Hoffmann. “Ela requer que seja justo para quem faz o serviço, para quem recebe, para a economia, que ninguém seja prejudicado com isso”, conclui.

“É preciso tentar uma negociação para reduzir essas taxas e ser uma coisa que valha a pena para todos, e não só para um lado”, explica Arnaud. Para ela, “se a Uber for forçada a aderir à CLT, outras empresas também terão que fazer o mesmo”.

É um momento de mudança de paradigma na maneira como trabalhamos. Insistir na rigidez da CLT, criada em 1943, pode ir contra os interesses de muitos trabalhadores. Por outro lado, deixar tudo na mão das plataformas seria “pedir que a raposa tome conta do galinheiro”. É preciso buscar esse equilíbrio perdido, pois a economia compartilhada, sim, funciona. E nós, como clientes, precisamos pressionar para que essa solução seja encontrada.

 

Entregador dorme sobre seus jornais, em imagem tirada em 1935 – Foto: City of Toronto Archives/Creative Commons

Reação da mídia ao ChatGPT pode favorecer as fake news

By | Tecnologia | No Comments

Nas últimas semanas, diversas empresas de comunicação impediram que seus conteúdos continuassem sendo usados para alimentar o ChatGPT. Elas argumentam –com razão– que seus produtos têm valor e que não estão sendo remuneradas pela melhoria que proporcionam involuntariamente à plataforma geradora de textos por inteligência artificial da OpenAI.

Entre os que decidiram promover o bloqueio, estão os jornais americanos The New York Times e The Washington Post, o britânico The Guardian, a rede de TV CNN, as agências de notícias Reuters e Bloomberg, além de diversos veículos europeus. Até a gigante de e-commerce Amazon decidiu fechar a porta para esse robô.

Apesar de seus argumentos legítimos, essa decisão pode favorecer a desinformação em um futuro breve. Os sistemas de inteligência artificial generativa tornaram-se um enorme sucesso, e as pessoas devem usá-los cada vez mais. Em uma situação extrema em que todos os produtores de bons conteúdos os neguem a essas plataformas, elas poderiam ficar restritas a sites dedicados a fake news e outros tipos de conteúdo de baixa qualidade para “aprender o que dizer” aos seus usuários.

Nesse cenário, o público poderia passar a consumir e a replicar o lixo desinformativo, em uma escala ainda maior que a já vista nos últimos anos. Seria terrível para o jornalismo –que luta para combater isso– e para a sociedade como um todo.


Veja esse artigo em vídeo:


Eu já vi uma história parecida antes. Quando foi criado, em 2002, o Google Notícias gerou protestos entre veículos de comunicação do mundo todo, que acusavam a empresa de se apropriar de sua produção para criar um concorrente. O Google Notícias sempre se defendeu, dizendo que fazia um “uso justo” de pequenos trechos dos veículos e que sempre enviava os leitores que clicassem nos seus links para a fonte da notícia.

Diante das reclamações, o Google criou um recurso para que os veículos impedissem que seu conteúdo fosse usado no Notícias. O problema é que isso também tirava os veículos do buscador, o que não era nada interessante para eles. Eventualmente as partes chegaram a acordos que permitiram que esse conteúdo continuasse sendo usado, enquanto o Google criava mecanismos de apoio ao jornalismo no mundo. Movimentos semelhantes também aconteceram com as principais redes socais.

No caso atual, há algumas diferenças significativas. Pela natureza da inteligência artificial generativa, ela sempre cria textos inéditos, a cada pedido dos usuários. Não há remuneração, referência e sequer um link para as fontes que foram usadas para o sistema escrever aquilo. Consequentemente não há nenhum ganho para os autores.

“Certamente as inteligências artificiais não produziriam o conteúdo que elas são capazes sem serem alimentadas com o conteúdo criado por humanos, que não autorizaram isso e que não estão sendo remunerados por isso”, explica Marcelo Cárgano, advogado de Direito Digital e de Proteção de Dados do Abe Advogados. “A grande questão, no final, é essa!”

No dia 6, 26 organizações do mercado editorial, inclusive a brasileira ANJ (Associação Nacional de Jornais), publicaram o documento “Princípios Globais para a Inteligência Artificial”. Ele traz regras que consideram essenciais para a prática do jornalismo frente ao avanço da inteligência artificial, cobrando o desenvolvimento ético da tecnologia e o respeito às propriedades intelectuais dos veículos.

Outra fonte de informação ameaçada pela inteligência artificial é a enciclopédia digital Wikipedia. Pela natureza mais perene de seus milhões de verbetes, as pessoas poderiam fazer perguntas a plataformas de IA ao invés de consultar suas páginas, o que já vem preocupando seus editores. Suprema ironia, uma das maiores fontes para o ChatGPT é a própria Wikipedia.

 

Atualidade e ética

Além da questão da falta de remuneração pelo uso de conteúdos alheios, há ainda o temor de que as plataformas de inteligência artificial acabem substituindo a Wikipedia e o próprio jornalismo.

Esse questionamento surgiu, na quarta passada, em uma mesa de debates da qual participei na Semana da Imprensa, promovida pelo jornal Joca, na ESPM (Escola Superior de Propaganda e Marketing). O evento explica o jornalismo para crianças e adolescentes, o público do veículo.

Os participantes foram unânimes em negar essa possibilidade. O primeiro motivo é que esses sistemas, a despeito de seus melhores esforços, são imprecisos, cometendo muitos erros pela falta de uma verificação humana. Outro problema é que suas bases estão sempre desatualizadas (o ChatGPT só conhece fatos até setembro de 2021). Por fim, mas não menos importante, essas ferramentas não possuem qualquer iniciativa, ética ou transparência, essenciais a qualquer produto informativo.

“A função dos veículos de comunicação é particularmente importante para a democracia”, explica Cárgano, fazendo referência ao papel do jornalismo de promover debates críticos para a sociedade. “Mas eles também são empresas e têm que gerar lucro para sua própria viabilidade econômica”, acrescenta.

Toda essa confusão deriva do impacto que essa tecnologia já apresenta sobre pessoas e empresas. Ele é enorme, mas ainda pouco compreendido. Enquanto isso, todos buscam caminhos para aproveitar seus incríveis recursos, sem cair em possíveis armadilhas que podem surgir dela.

A decisão de impedir as plataformas de inteligência artificial de aprender com a sua produção pode ser ironicamente um “tiro no pé” do jornalismo. Se elas forem entregues a fontes de baixa qualidade, podem se tornar poderosas ferramentas de fake news, que fustigam os jornalistas e a própria imprensa como pilar que é de uma sociedade desenvolvida.

É preciso uma conscientização dos diferentes atores nesse processo. Do lado dos usuários, eles devem entender que a IA não é uma ferramenta que substitui o jornalismo ou mesmo um buscador, pois ela não garante a verdade no que produz. As empresas de inteligência artificial devem, por sua vez, melhorar ainda mais sua tecnologia, para corrigir as imperfeições existentes, e cuidar para não canibalizar suas próprias fontes, o que poderia, a médio prazo, inviabilizar seu próprio negócio.

As empresas de comunicação têm um papel fundamental na solução desse imbróglio. Obviamente elas precisam defender seus interesses comerciais, mas sem que isso crie riscos ainda inexistentes para o próprio negócio. Devem buscar uma compensação justa das plataformas de IA.

Vivemos em um mundo em que a verdade perde força diante de narrativas distorcidas por diferentes grupos de poder. Aqueles que a buscam deve se unir e somar as novas tecnologias às suas metodologias editoriais consagradas. Se forem bem-sucedidos nisso, todos ganharão!

 

Tom Cruise viveu pela segunda vez o intrépido piloto da Marinha dos EUA Pete Mitchell, em “Top Gun: Maverick” (2022) - Foto: divulgação

Inteligência artificial pode mandar “Top Gun” para o museu

By | Tecnologia | No Comments

Em 1986, plateias do mundo todo prenderam a respiração diante das acrobacias aéreas de Tom Cruise nas telas de cinema em “Top Gun”. Ele repetiu a dose em “Maverick”, a segunda maior bilheteria de 2022, rendendo US$ 1,4 bilhão, logo atrás de “Avatar 2”. Agora a inteligência artificial pode fazer essas peripécias virarem peças de museu, ao tornar pilotos de caça obsoletos e desnecessários.

Duas notícias recentes, uma do The New York Times e outra do The Washington Post, revelam planos dos militares de usar essa tecnologia em novas gerações de aviões e de drones. Ela seria capaz de tomar decisões mais rápidas e precisas que os pilotos, até os mais experientes.

A ideia é controversa. Muito se tem debatido sobre a substituição das mais diversas categorias profissionais por robôs, considerando o impacto social dessa mudança. Mas o que se propõe agora é uma máquina tomar decisões que efetivamente visam a morte de pessoas.

Diversos aspectos éticos são levantados nessa hora. Os próprios pilotos veem isso com ressalva, e não apenas porque podem perder seu emprego daqui um tempo. Afinal, uma máquina pode decidir sobre a vida ou a morte de um ser humano? E se isso realmente acontecer no controle de aviões de combate, quanto faltará para vermos robôs policiando nossas ruas e tomando as mesmas decisões letais por sua conta na vizinhança?


Veja esse artigo em vídeo:


Não estamos falando da atual geração de drones militares, que, apesar de úteis, são bem limitados. Um bom exemplo do que vem por aí é o veículo aéreo não tripulado experimental XQ-58A, conhecido como “Valkyrie”, da Força Aérea americana. Ele, se parece muito mais a um caça furtivo futurista, apesar de ser bem menor que os aviões de combate. É impulsionado por um motor de foguete e é capaz de voar de um lado ao outro da China, carregando munições poderosas.

Mas seu grande diferencial é o controle por inteligência artificial, podendo tomar decisões sozinho, apesar de os militares afirmarem que só executará ações letais se autorizado por um ser humano. Ele pode voar diferentes tipos de missões, inclusive apoiando pilotos em seus caças, aumentando o sucesso e preservando suas vidas.

Como sempre, uma guerra não se ganha apenas com os melhores soldados, mas também com a melhor tecnologia. Mas até agora a decisão de matar sempre recaiu sobre os primeiros. O que pode estar diante de nossos olhos é o surgimento de armas que tomem essa decisão seguindo seus critérios, um ponto sensível para os EUA, pelo seu histórico de ataques ilegais com drones convencionais que mataram civis.

Diante disso, o general Mark Milley, principal conselheiro militar do presidente americano, Joe Biden, afirmou que os EUA manterão “humanos à frente da tomada de decisões”. Ele recentemente conclamou forças armadas de outros países a adotar o mesmo padrão ético.

Nesse ponto, caímos em um outro aspecto crítico desse avanço. Países que adotem essas “boas práticas” poderiam ficar em desvantagem diante de outras potências militares e tecnológicas não tão “comprometidas”, com o maior temor recaindo sobre a China. Como a guerra é, por definição, algo “sujo”, seguir as regras poderia então criar uma desvantagem catastrófica.

Outra mudança trazida pela IA ao tabuleiro armamentista é a entrada de novas empresas fornecedoras de equipamentos. No caso da Força Aérea americana, dois nomes surgem quando pensamos na indústria de caças: a Lockheed Martin e a Boeing. Esses casamentos comerciais são tão antigos e poderosos que sua tecnologia jamais chega, por exemplo, a países menores ou –pior– a grupos guerrilheiros.

Com a pulverização de drones com IA relativamente baratos, muitas outras empresas passam a disputar esses bilionários orçamentos. O “Valkyrie”, produzido pela Kratos (fundada em 1994) custa cerca de US$ 7 milhões. Pode parecer muito, mas é bem menos que os US$ 80 milhões de um F-35 Lightning II, da Lockheed Martin. Outros modelos podem custar ainda menos, na casa de US$ 3 milhões.

O receio é que esses fabricantes passem depois a oferecer tecnologia militar de ponta a terroristas e ditadores. E aí o medo de maus usos pela China vira “café pequeno”.

 

Campo de testes

O poder da inteligência artificial contra exércitos poderosos está sendo colocado à prova na invasão da Ucrânia. Seu exército vem usando drones bem mais simples que os citados, mas que já contam com recursos de IA, para atacar tropas russas. Mesmo quando essas aeronaves perdem o contato com seus pilotos remotos, devido aos sistemas de interferência do inimigo, ainda completam sua missão por conta própria.

De fato, a Ucrânia vem se tornando um frutífero campo de testes desses armamentos, que vêm sendo produzidos aos milhares. Além de poderem refinar seus equipamentos em situações reais de combate, os fabricantes podem fazer testes que dificilmente podem acontecer em um país que não esteja em guerra.

Os militares sabem que a inteligência artificial toma decisões erradas. Basta ver as falhas –algumas fatais– de carros autônomos nos últimos anos. Mesmo a tecnologia militar sempre sendo muito mais refinada e cara que a civil, não há garantias quanto a sua precisão. E há outros aspectos a serem considerados.

O primeiro é que a IA pode ser excelente em decisões a partir de padrões conhecidos, mas pode se confundir bastante diante do desconhecido e do inesperado, algo que permeia qualquer campo de batalha. Além disso, máquinas não possuem uma bússola moral, que norteia algumas das melhores decisões de um soldado.

É inevitável pensar no filme RoboCop (1987), em que um policial dado como morto é praticamente transformado em um robô. Apesar de ser obrigado a seguir diretivas em seu sistema, o que o tornava realmente eficiente era a humanidade que sobreviveu em seu cérebro. Isso lhe permitia vencer robôs de combate mais poderosos.

Tudo isso me faz lembrar da Guerra do Golfo, que aconteceu entre 1990 e 1991, quando os americanos invadiram o Iraque. Os militares invasores exterminavam o inimigo de longe, quase sem entrar em combate. Na época, um especialista criticou “soldados que querem matar, mas não querem morrer”.

A inteligência artificial pode potencializar isso. É claro que ninguém quer morrer e todos querem vencer um conflito, de preferência logo. Mas quem ganha algo com isso, além da indústria armamentista? Se a Rússia tivesse essa tecnologia, talvez a Ucrânia tivesse deixado de existir em poucas semanas dessa nefasta invasão atual.

Esse é um dos casos em que a inteligência artificial nunca deveria ser usada. Mas seria uma ilusão pueril acreditar que isso não acontecerá. Talvez o futuro da guerra pertença mesmo às máquinas autônomas. Só espero que isso não aconteça também em policiais-robôs nas ruas de nossos bairros.

 

Diversidade e inclusão tornaram-se poderosas ferramentas de negócios e inovação - Foto: Christina Morillo/Creative Commons

Diversidade e inclusão tornam-se aliadas da inovação

By | Tecnologia | No Comments

Quando se pensa em inovação, normalmente o que vem à mente são investimentos em tecnologia, novos processos e talentos ligados às tendências do mercado. Mas algumas empresas estão percebendo que, além disso tudo, investir em diversidade e inclusão em seus quadros lhes permite inovar ainda mais e oferecer produtos mais alinhados com seus clientes.

Algumas das inovações mais importantes para a sociedade têm muito pouco ou nada de tecnologia envolvida. Basta fazer algo que traga benefícios reais para as pessoas, seja uma coisa que ainda não exista ou dando uma nova perspectiva para algo já disponível.

Mas fica difícil desenvolver essa perspectiva inovadora quando todos na equipe são mais ou menos iguais e pensam da mesma forma. Diante de um mundo crescentemente complexo, acelerado e imprevisível, com clientes cada vez mais exigentes e participativos, trazer para dentro de casa visões diversas da vida torna-se essencial.

Portanto, investir em diversidade e inclusão nos times não é algo apenas socialmente responsável: é um incrível diferencial de negócios de empresas inteligentes.


Veja esse artigo em vídeo:


“Vemos que grupos diversos tomam decisões melhores, que trazem aumento de lucros”, explica Shuchi Sharma, vice-presidente global de Diversidade, Equidade e Inclusão da Red Hat, líder mundial em software open source. “Certamente é uma vantagem competitiva porque, quando você tem perspectivas mais diversas para a forma como você toma decisões todos os dias, você vê resultados muito diferentes do que quando você tem apenas um grupo homogêneo fazendo as coisas da mesma maneira, pensando o mesmo caminho”.

Entretanto, ter diversidade nas equipes não é suficiente. Sharma explica que a empresa precisa desenvolver uma cultura de inclusão e de pertencimento, porque todos precisam se sentir psicologicamente seguros para expor sua criatividade e assumir os riscos necessários para impulsionar a inovação. A inclusão prevê que todos não só tenham voz, como que ela seja efetivamente ouvida.

Essas ações precisam ser concretas e os gestores devem estar preparados para elas. Isso significa, em primeiro lugar, que precisam genuinamente prestar atenção no que os funcionários lhes dizem, procurando entender suas perspectivas e suas experiências, que podem ser muito diferentes das deles. Devem também validá-las, para que a equipe perceba que elas são valiosas.

É um trabalho constante e permanente. Empresas que investem há mais tempo em diversidade e inclusão, como IBM, SAP e Coca-Cola, hoje colhem muitos frutos disso. A executiva explica que não se deve interromper as iniciativas se as metas forem atingidas, ou tudo que se construiu pode ser perdido, como em qualquer outra parte do negócio. “Se você atinge suas metas de vendas, você não para de vender”, exemplifica.

Não é algo trivial. É preciso mudar a cultura corporativa de uma mentalidade de comando e controle para um ambiente mais distribuído e matricial. Tanto que os líderes que se destacam hoje são mais orientados para mentoria da equipe, o que exige muito mais escuta e um comprometimento em servir o próprio time.

 

Atração e retenção de talentos

Esses esforços se pagam! O relatório “A inclusão não é apenas legal: é necessária”, publicado em fevereiro pelo Boston Consulting Group após ouvir mais de 27 mil profissionais de 16 países (incluindo o Brasil), indica que melhorar a experiência de inclusão no local de trabalho é uma das ferramentas mais efetivas que as empresas têm para atrair e reter talentos. Se bem-feita, a inclusão reduz pela metade os atritos.

Isso acontece porque os funcionários sentem que podem ser autênticos com o que são e com o que acreditam, sem medo de discriminação. Assim ficam mais felizes e motivados para dar o melhor de si, pois sentem que suas perspectivas são importantes. Eles têm quase 2,4 vezes menos probabilidade de pedir demissão.

É importante que esses benefícios sejam conhecidos. Poucas empresas ainda investem em iniciativas de diversidade e inclusão, pois é difícil de definir, medir e influenciar suas ações e resultados no ambiente de trabalho. Por isso, elas acabam sendo subvalorizadas.

O estudo sugere algumas medidas para melhorar a inclusão nas empresas, começando por haver diversidade no nível de liderança, que deve se demonstrar comprometida com o tema. As gerências devem criar equipes e ambientes seguros para minorias, com medidas rigorosas contra comportamentos discriminatórios e tendenciosos. Por fim, os resultados da companhia devem ser medidos com foco em diversidade e inclusão.

Equipes diversas também permitem que se inove em produtos para atender necessidades de grupos específicos, que acabam favorecendo a população como um todo. Um bom exemplo são as rampas em calçadas, nas esquinas. Criadas originalmente para cadeirantes, eles passaram a ser usadas também por ciclistas e por pessoas com carrinhos de bebês ou de compras, entre outros.

“Acreditamos que as melhores ideias podem vir de qualquer lugar, e essa é a essência do open source, bem como a essência da inclusão”, afirma Sharma, que construiu sua carreira na indústria de TI, um mercado fortemente dominado por homens brancos. Graças ao seu histórico de promoção de mulheres e minorias nos setores de tecnologia e saúde, foi nomeada uma das 50 Líderes do Futuro pelo jornal “Financial Times” em 2018.

“Mulheres podem melhorar os resultados em empresas de tecnologia pelas suas perspectivas diferentes, melhor tomada de decisão, mais empatia com seus clientes e compreensão de diferentes formas de fazer as coisas”, acrescenta. Ela destaca o caso de mães solteiras, muitas vezes estigmatizada pela sociedade, mas que são resistentes e persistentes, sempre têm um “plano B” e têm que resolver problemas de forma criativa. “São qualidades que queremos ter em todos os negócios: que ótimo lugar para encontrá-las”, provoca.

Já passou da hora de as empresas de todos os setores pararem de encarar a diversidade e a inclusão como palavras vazias apenas para serem bem vistas por uma sociedade que valoriza esse assunto cada vez mais. Elas são incríveis ferramentas de inovação e de negócios! Mas isso só acontecerá para aqueles que estejam dispostos a sair de sua zona de conforto e fazer os movimentos necessários.


Assista à íntegra da conversa com Shuchi Sharma, VP de Diversidade e Inclusão da Red Hat.

 

O consumidor não se contente mais com um bom produto, querendo agora uma ótima experiência - Foto: Drazen Zigic/Creative Commons

Quando todo produto precisa se tornar digital, as empresas precisam aprender a correr riscos

By | Tecnologia | No Comments

A inteligência artificial está em toda parte! A essa altura, não é novidade. Dois estudos divulgados na quarta (16) pela IBM reforçam isso e como um número crescente de executivos a consideram um diferencial de negócios, abandonando o aspecto de “curiosidade tecnológica”. Ainda assim, empresas enfrentam dificuldades para adotá-la, por falta de experiência ou de apetite por correr riscos.

Outra que também poderia estar mais bem posicionada em nossas vidas se houvesse mais investimento é o 5G, que acaba de completar um ano de operação no Brasil. Segundo números apresentados pela Ericsson na mesma quarta, o país já atingiu 11,4 milhões de usuários dessa geração da telefonia móvel em 329 municípios. Mas os principais benefícios que ela traz não aparecem, porque as operadoras concentram sua comunicação na oferta de maior velocidade, sem fazer as necessárias atualizações em suas redes e em seus modelos de negócios.

Esse cenário traz desafios inéditos aos gestores de companhias de todos setores e portes. O consumidor fica mais exigente pelas ofertas de uma alta concorrência, e agora busca experiências e personalização que transcendem as propostas originais dos produtos. Com isso, toda oferta precisa se tornar um produto digital.

A boa notícia é que a tecnologia está muito mais acessível, seja pela facilidade de uso, seja pelo preço. Mas para dar certo, os profissionais precisam de atitude para fazer os movimentos necessários.


Veja esse artigo em vídeo:


Segundo o estudo da IBM “Sete apostas”, a previsão de Marc Andreessen está se tornando realidade: em um artigo de 2011 no The Wall Street Journal, o pioneiro da Internet disse que “o software estava comendo o mundo”. E está mesmo: ele controla de celulares a carros, de aspiradores de pó a robôs industriais. E agora “a inteligência artificial está comendo o software”.

Com isso, os melhores executivos estão desenvolvendo uma mentalidade de engenharia de produto. Eles entendem que a adoção da tecnologia é fundamental para o sucesso, pois os clientes esperam uma ótima experiência digital qualquer que seja o produto ou serviço oferecido.

Curiosamente, nada disso é novo. Software embarcado em produtos e até a inteligência artificial fazem parte do cotidiano de pessoas e de empresas há anos. A diferença é que, desde o fim do ano passado, com o lançamento do ChatGPT, a IA deixou de ser algo obscuro e restrito a poucos profissionais de TI para ser democratizada para qualquer cidadão.

“O ChatGPT capturou o momento em que a experiência se conectou à tecnologia”, afirma Marco Kalil, líder da IBM Consulting no Brasil. Para ele, a digitalização de produtos e o uso da IA como ferramenta de negócios são um caminho sem volta. “As pessoas que souberem aplicar a inteligência artificial nos negócios, realmente priorizando a experiência, terão mais sucesso que os outros, sem dúvida alguma.”

Já no estudo “Tomada de decisão do CEO na era da IA”, também da IBM, 60% dos CEOs entrevistados no Brasil disseram que a computação em nuvem é fundamental para a conquista de resultados nos próximos três anos, enquanto 56% deles confiam na IA. Apesar disso, 41% sentem dificuldade de obter ideias a partir dos dados que têm, com 61% afirmando que a qualidade e a origem desses dados são a principal barreira para adoção da inteligência artificial.

 

Garantindo seu bônus

Incluir inovações em qualquer negócio implica algum nível de risco, pelo simples fato de se sair da zona de conforto. Por isso, muitos executivos, apesar de serem conscientes da necessidade de inovação, resistem a ela, para não ameaçar seus bônus de fim de ano.

Mas a inovação se tornou condição para se manter no mercado, e não apenas as já citadas. Outras apostas do estudo da IBM são a sustentabilidade e o metaverso.

Segundo a pesquisa, muitos executivos ainda veem sustentabilidade e lucros como incompatíveis, indicando uma visão míope de gestão. Já o metaverso deve ser encarado como uma ferramenta que amplie possibilidades do mundo físico, ao invés de substituí-lo. Em ambos os casos, criar experiências com benefícios tangíveis para clientes internos e externos diminui as barreiras para sua adoção.

De fato, não dá para dissociar inovação de experiência. No caso do 5G, a base de usuários brasileiros já poderia ser maior, mas isso não acontece porque o público não vê as incríveis possibilidades da tecnologia, achando que se trata apenas de uma Internet mais rápida. Se for só para isso, preferem esperar.

Sim, a velocidade é muito maior e a latência é muito menor que a do 4G. Isso é necessário para produtos como veículos autônomos, telemedicina, educação a distância e automação industrial disruptivas, cidades inteligentes e entretenimento revolucionário, especialmente em games e transmissões ao vivo interativas.

Mas tudo depende da criação de um ecossistema de provedores de serviços que, por sua vez, precisam que as operadoras de telefonia modernizem sua infraestrutura. Isso permitirá, por exemplo, o “fatiamento da rede”, que entrega conexões diferentes seguindo a necessidade do cliente, podendo até variar de acordo com o momento. Também é necessário que ofereçam APIs, mecanismos para que os desenvolvedores criem aplicações que tirem o máximo proveito dos recursos da rede. Os modelos de negócios também devem ser atualizados, para que o usuário deixe de ser cobrado por franquias e passe a ser cobrado pelos serviços que usa.

“As operadoras já entenderam que o caminho passa por oferecer serviços fornecidos por outras empresas”, explica Marcos Scheffer, vice-presidente de redes da Ericsson para América Latina. Mas, segundo ele, há um processo a ser cumprido e, no momento, as teles estão cuidando da ampliação da cobertura.

“Na hora que você conecta tecnologia com o interesse do usuário, é fantástico”, exclama Kalil. Para o executivo, está na hora de as empresas colocarem essas tecnologias como protagonistas, e não como meras ferramentas. “Nessa hora, o negócio vai mudar”, conclui.

Sei que tudo é investimento –às vezes, muito dinheiro. Além disso, o mercado brasileiro costuma ser impiedoso com aqueles que falham. Essa combinação é mortífera para a inovação, pois os gestores tendem a escolher o caminho seguro e menos inovador.

O problema é que, dessa forma, a empresa perde a chance de se descolar da concorrência e os clientes amargam produtos limitados e experiências ruins. Precisamos aprender a correr riscos com inteligência!


Vídeo relacionado – íntegra da entrevista com Marco Kalil, líder da IBM Consulting no Brasil:

 

 

Recurso de visualização acelerada de conteúdos nos dá mais tempo, mas pode nos deixar ansiosos - Foto: Akshay Gupta/Creative Commons

A tecnologia tenta nos acelerar, mas nossa natureza tem limite de velocidade

By | Tecnologia | No Comments

Atire a primeira pedra quem nunca clicou no botão “2X” para ouvir mais rapidamente uma mensagem de áudio do WhatsApp. Quando foi lançado, em maio de 2021, esse recurso foi festejado por aqueles que não aguentam ouvir falas que duram vários minutos. Mas longe de ser um fenômeno isolado, essa possibilidade de “acelerarmos nosso cotidiano” está cada vez mais presente em diversas plataformas digitais.

Reflexo do sucesso da possibilidade de “encurtarmos” todo tipo de conteúdo para termos mais tempo livre, isso dispara alguns questionamentos. O primeiro é descobrir se há algum efeito colateral nesse processo. Outro se trata de um dilema do tipo “ovo e galinha”: as plataformas digitais nos oferecem isso cada vez mais porque é algo que desejamos, ou nós queremos e usamos a funcionalidade porque está mais disponível?

Pesquisadores se debruçam sobre o tema para entender até seu impacto fisiológico em nossos cérebros. Mas não é necessário ser um neurocientista para perceber que essa ânsia pela aceleração transforma nosso cotidiano há muitos anos. Hoje fazemos muitas coisas de maneira diferente e mais rápida, como estudar, trabalhar, nos divertir e até nos relacionar com outras pessoas. E o que começou nas diferentes telas agora também transforma essas mesmas atividades quando feitas presencialmente.

Como era de se esperar, algumas coisas ficaram pelo caminho. Ganhamos na velocidade, mas podemos perder em entendimentos deficientes e no aumento de ansiedade. E disso surge a pergunta: será que vale a pena?


Veja esse artigo em vídeo:


O conceito foi brilhantemente explicado no filme “Click” (2006), estrelado por Adam Sandler. Na história, seu personagem ganha um controle remoto mágico capaz de manipular o mundo a sua volta. Dessa forma, ele podia, por exemplo, acelerar as partes de sua vida pelas quais tinha que passar, mas de que não gostava. O problema é que o aparelho aprendia essas preferências, começando a “pular” automaticamente todos esses momentos. Como resultado, o personagem de Sandler acabou perdendo informações importantes de sua vida.

Ainda não chegamos a esse ponto de acelerar os acontecimentos reais, mas o que já temos no mundo digital vem alterando nossa percepção. É comum dizermos que os dias parecem estar ficando mais curtos, mas não pensamos na quantidade de coisas diferentes que fazemos a cada 24 horas, muito mais que nossos pais. Há uma sensação de aumento de produtividade, mas até onde isso é real e saudável?

A tecnologia digital combina perfeitamente com o conceito de sucesso da vida contemporânea, fortemente ligada à produtividade. Não basta fazer mais: é preciso brilhar mais e isso precisa ser visto por todos. Trocamos os benefícios de contemplar a vida pela sensação de uma suposta vitória pela hiperpodutividade.

Quem se dispõe a deixar a correria do cotidiano de lado para se dedicar, por alguns minutos que seja, a calmamente apenas ouvir músicas de que se gosta? Esse exemplo é muito emblemático, porque o que se observa é exatamente o contrário: pessoas que aceleram as músicas, para que acabem mais rapidamente, não se importando com a óbvia mutilação da obra.

Isso vem provocando alterações em com as próprias músicas são compostas atualmente. Introduções melodiosas e solos instrumentais desaparecem para que o ouvinte chegue ao clímax rapidamente. A própria duração da faixa fica limitada a três minutos, para evitar que a pessoa passe para outra música antes de se chegar ao final. Se isso acontece, os algoritmos das plataformas de streaming podem entender que a música não é tão interessante, passando a tocá-la menos daí em diante.

 

Crescimento da ansiedade

A comunidade científica ainda não chegou a uma conclusão sobre todos os impactos da aceleração de nosso cotidiano. Muitos estudos se concentram em descobrir quanto isso afeta a nossa compreensão de conteúdos que consumimos.

Em 2021, uma equipe da UCLA (Universidade da Califórnia em Los Angeles, nos EUA), liderados por Dillon Murphy, publicou um estudo na revista “Applied Cognitive Psychology”. Eles observaram que as pessoas conseguiam compreender vídeos acelerados em até 2X. Acelerações maiores já prejudicavam o processo. Concluíram também que pessoas que usam esse recurso frequentemente têm mais chance de entender e reter as mensagens aceleradas, como se estivessem treinadas.

Mas uma eventual compreensão prejudicada não é a única coisa que deve nos preocupar. Especialistas apontam uma correlação entre uma vida acelerada e o crescimento explosivo de casos de ansiedade. E nós, brasileiros, não estamos nada bem nisso: segundo a OMS (Organização Mundial da Saúde), o Brasil possui a população com a maior prevalência de transtornos de ansiedade do mundo, com 9,3% dos brasileiros sofrendo de ansiedade patológica.

Tanta ansiedade transforma tudo que fazemos. Qualquer coisa que exija mais tempo, atenção ou reflexão pode disparar esses processos, assim as pessoas procuram evitar isso tudo. Mas gostemos ou não, eles continuam fazendo parte de nosso trabalho, nosso estudo e até de nossos relacionamentos. Nos escritórios, isso se sente em queda de produtividade e menos compromisso profissional.

Essa falta de envolvimento pode tornar tudo superficial. No caso de relacionamentos, o filósofo e sociólogo polonês Zygmunt Bauman já havia identificado isso em seu livro “Amor Líquido” (editora Zahar, 2004). Para ele, a redução nas suas qualidades é compensada por uma quantidade enorme de parceiros. Aceleram-se os inícios e os términos com o clique em um aplicativo. Troca-se, sem remorsos, aqueles que deixam de ser “interessantes” por outros “melhores”.

Como professor, sinto isso na alteração do formato de cursos de extensão universitária. As pessoas desejam, cada vez mais, cursos rápidos e focados em um tema específico, para aplicação imediata no cotidiano. Cursos que oferecem uma visão analítica e estratégica, responsáveis pela formação de profissionais capazes de solucionar grandes problemas, perdem espaço.

Dou aulas presenciais e a distância. Essas últimas, apesar de dadas sempre ao vivo, ficam gravadas e muitos alunos talvez as vejam aceleradamente. Mas seria uma pena: mesmo as pausas nas aulas são importantes para a construção de um raciocínio e para a fixação do conteúdo. Se forem eliminadas, o aprendizado fica comprometido.

Ninguém questiona como as plataformas digitais se tornaram inestimáveis ferramentas de produtividade. É praticamente impossível viver hoje sem o que elas nos oferecem. Mas como qualquer ferramenta, elas precisam ser usadas com inteligência. Longe de representar “esperteza”, o abuso da “aceleração da vida” demonstra um letramento digital pobre da população.

Como diz o ditado, “quem nunca comeu melado, quando come, se lambuza”. A natureza continua seguindo seu ritmo natural, desacelerado. Não somos máquinas! Ao tentar subverter isso, trocamos bem-estar por ansiedade, produtividade por acúmulo insustentável. Esse não é o caminho a ser seguido.

 

Metrô de São Paulo lotado após fracasso de “big techs” que revolucionariam a mobilidade urbana - Foto: Wilfredor / Creative Commons

Como as big techs querem substituir instituições da sociedade por tecnologia

By | Tecnologia | No Comments

Todos nós usamos produtos do Google, da Meta, da Apple e de outras “big techs”. De fato, eles facilitam enormemente a nossa vida e ainda são rotulados como “grátis”.

Sabemos que não há nada de graça nisso. A explicação tradicional é que pagamos por eles com nossos dados, que permitem que essas empresas ganhem dinheiro, por exemplo, nos entregando anúncios hiperpersonalizados. É o chamado “capitalismo de vigilância”.

Mas a ascensão da inteligência artificial e a guerra aberta que as “big techs” travam contra qualquer forma de limitação de suas atividades, como estamos vendo no Brasil no embate contra o “PL das Fake News”, revela que esse controle que elas têm sobre nós é muito mais complexo, a ponto de que muita gente as defende nesses casos. E a tentativa de regulação da inteligência artificial fará nosso fracasso em impor limites razoáveis às redes sociais parecer algo pífio.

O que essas empresas realmente desejam é uma liberdade não-regulada para, entre outras coisas, substituir instituições da sociedade em áreas como saúde, educação, transporte ou segurança por soluções tecnológicas que, segundo elas, superariam a “ineficiência” do que temos hoje. Ao ocupar um espaço tradicionalmente sob cuidados do Estado, alcançariam um poder inimaginável, muito maior que o atual.

Eles só não dizem que tudo nessa vida tem um custo. Esse não será pago com publicidade em nossos celulares. Então “como essa conta fecha”?


Veja esse artigo em vídeo:


O avanço da inteligência artificial é inevitável e muito bem-vindo: ela tem o potencial de oferecer à sociedade benefícios até então inimagináveis. Mas isso significará que entregaremos muitas de nossas escolhas às máquinas, que decidirão o que elas acreditam ser o melhor para cada um de nós.

Em uma sociedade já encharcada de algoritmos, eles passam a controlar muito de nossa vida, de maneiras que nem percebemos. Nós não temos a menor ideia de quais são suas regras que decidem cada vez mais por nós. Diante de tanto poder, a falta de transparência das “big techs” e de explicabilidade de seus produtos se torna inaceitável e perigoso para nossas vidas e para a democracia. É justamente isso que essas empresas lutam para manter, pois, se soubermos detalhadamente o funcionamento de seus algoritmos, elas perdem o poder que têm sobre os cidadãos.

Tudo isso vale para os algoritmos atuais, bem conhecidos e controlados pelas “big techs”. A inteligência artificial torna esse debate ainda mais importante, pois nem seus criadores entendem completamente as novas estratégias criadas pelas máquinas para solucionar problemas.

Se essas companhias lograrem criar a chamada “inteligência artificial geral”, aquela que não se limita mais a tarefas específicas e passa a se comportar de maneira semelhante à mente humana, tomando decisões sobre qualquer assunto, a situação pode ficar realmente dramática.

Imagine um sistema como esse que tenha assumido, com nosso consentimento, decisões críticas sobre a saúde pública. Em nome de deixar todo o sistema mais “eficiente”, ele pode passar a privilegiar cirurgias com mais chance de sucesso ou lucrativas, em detrimento das mais difíceis ou com menos ganhos. Mas todos merecem a chance de serem tratados, mesmo quem tem baixa possibilidade de sucesso. Essa é a visão humana de um médico, que uma máquina que acha que o fim justifica os meios pode ignorar.

Agora multiplique esses riscos acrescentando, na equação, segurança pública, educação e até economia de um país.

 

Nem sempre dá certo

O discurso do Vale do Silício enaltece o inegável poder transformador da tecnologia. É praticamente impossível viver hoje sem smartphones, buscadores ou redes sociais. Mas seus gurus adoram perpetuar as histórias de sucesso, enquanto ignoram os fracassos. E eles muitas vezes acontecem quando se tenta substituir uma instituição social por uma tecnologia.

Podemos pensar, como exemplo, no caso da Uber. Conceitualmente acho sua proposta muito interessante, mas ela parece “estar fazendo água”, particularmente no Brasil. Vocês devem se lembrar como a empresa chegou prometendo revolucionar a mobilidade urbana, como um substituto vantajoso ao transporte público, com suas corridas baratas e a possibilidade de se ganhar dinheiro dirigindo.

Foi um sucesso instantâneo: muita gente chegou a vender seu carro! Mas, para aquilo ser possível, a empresa queimava milhões de dólares em subsídios. Quando os investidores se cansaram de perder dinheiro e exigiram lucros, o modelo ruiu, com a consequente queda enorme na qualidade do serviço, que agora sentimos.

Porém o mais educativo desse exemplo é mostrar que nunca se propôs resolver o verdadeiro problema social, no caso as deficiências no transporte público. Substituía-se uma “gestão governamental ineficiente” por uma “solução tecnológica mágica”, cujo verdadeiro objetivo era sedimentar a dominância da empresa em seu setor. Quando a realidade bateu à porta, ficamos sem nada!

O grande desafio da nossa geração é tomar consciência de que somos cada vez mais dependentes da tecnologia e das empresas que as criam. Elas têm suas próprias agendas e narrativas de como estão melhorando e até “salvando” o mundo com seus produtos. Mas às vezes a sua necessidade de lucrar chega antes de salvarem qualquer coisa.

Não nos enganemos: como qualquer outra empresa, seu objetivo real é aumentar seus lucros, e, a princípio, não há nada de errado nisso. Mas esse objetivo não pode ser atingido às custas do desmantelamento das instituições da sociedade e dos mecanismos de proteção dos interesses da população.

Não estou propondo a interrupção do avanço tecnológico: ele é essencial para melhorarmos nossas vidas. Mas precisamos parar de acreditar candidamente que a tecnologia resolverá todos nossos problemas e melhorará magicamente a sociedade. Temos que ter consciência de como isso será feito e qual será o verdadeiro o custo social que pagaremos.

Tudo isso deve acontecer preservando os legítimos interesses das pessoas, o que muitas vezes conflitam com os dessas empresas. É por essas e outras que elas precisam ser reguladas. Elas não podem ser mais poderosas que os governos eleitos no mundo todo, nem mesmo substituir suas instituições.

 

Aplicativo do Farmácias App, que integra o estoque de mais de 3.000 farmácias de 900 cidades no país - Foto: Paulo Silvestre

Aplicativo cria marketplace de farmácias para ajudar pequenos a concorrer com grandes redes

By | Tecnologia | No Comments

Com a concentração do mercado de farmácias em poucas grandes redes nos últimos anos, que normalmente conseguem negociar condições comerciais mais vantajosas com fornecedores, a vida dos pequenos estabelecimentos do setor ficou mais difícil. Ainda assim, muitos deles resistem ao avanço dos gigantes, às vezes graças a um atendimento diferenciado.

No mundo digital, essa disputa se acirra, com os pequenos perdendo essa sua vantagem, o que pode se tornar dramático com o aumento do uso do e-commerce pela população. Por isso, um aplicativo criou um marketplace de pequenas e médias farmácias para ajudá-las a fazer frente ao poder das grandes.

“O Farmácias App ajuda a potencializar as farmácias sem concorrer com elas”, explica Rodrigo Carvalho, gerente-geral da plataforma. Isso quer dizer que apesar de ter como dono o grupo SantaCruz, maior distribuidor de medicamentos da América Latina, eles não vendem produtos, e sim buscam oferecer as melhores opções aos clientes finais, a partir do estoque de farmácias da região onde mora. “A ideia é ser uma referência em beleza e saúde, assim como o iFood é na alimentação”, acrescenta.

Isso cria uma vantagem competitiva que os pequenos dificilmente conseguiriam sozinhos, por falta de exposição e tecnologia. “Como são várias farmácias reunidas em um único aplicativo, e não só o estoque de uma grande rede, ele tem um sortimento muito maior, que pode até atender com mais velocidade que uma gigante”, explica Carvalho. Há também uma vantagem de se poder comparar preços e condições de muitos estabelecimentos diferentes, fugindo da opção única de uma rede.

Para isso, é fundamental que a plataforma esteja integrada, em tempo real, com as informações de estoque desses pequenos e médios estabelecimentos. Para aqueles que já possuem um sistema de controle mais robusto, os técnicos da Farmácias App simplesmente fazem uma integração direta entre as plataformas. Para aqueles com sistemas mais simples, a empresa instala um agente no servidor da farmácia para coletar e repassar imediatamente a informação à central. Já nos muito pequenos, que não possuem sistema algum desse tipo, cada mudança no estoque pode ser informada manualmente em um site de administração da parceria.

O modelo de negócios do Farmácias App é simples. Uma vez integrados na plataforma, os produtos do lojista passam a ser oferecidos aos clientes organizados por critérios como preço, distância e custo de entrega. Como em qualquer marketplace, uma mesma compra do cliente pode reunir itens de diferentes estabelecimentos, de maneira transparente. Quando qualquer venda é feita, a plataforma fica com 8,5% do valor de vendas. Não há nenhum outro custo para o lojista.

Toda a cobrança é feita pela plataforma, que depois repassa os valores para as farmácias. As entregas podem ser feitas pela plataforma ou ficar a cargo de cada lojista. Nesse caso, a equipe do Farmácias App monitora para verificar se o produto foi entregue dentro do prazo.

Hoje o serviço engloba farmácias de mais 900 cidades em 24 Estados e no Distrito Federal, a maioria delas concentradas na região Sudeste. “Nossa vontade é ter parcerias com todas as 80 mil farmácias do Brasil’, afirma Carvalho. No momento, a plataforma, que foi lançada em 2017, conta com mais de 3.000 estabelecimentos cadastrados. O crescimento de receitas do ano passado para esse ficou em torno de 270%.

Cena de “O Exterminador do Futuro” (1984), em que máquinas inteligentes querem exterminar a humanidade - Foto: reprodução

Qual será a próxima vítima da inteligência artificial?

By | Tecnologia | No Comments

No dia 13, o sindicato dos atores de Hollywood se juntou à greve do sindicato dos roteiristas dos EUA, que acontece desde maio. É a primeira vez em 63 anos que as duas organizações cruzam os braços ao mesmo tempo, o que já impacta a produção de filmes e séries. Entre reivindicações mais convencionais, como melhores condições de trabalho e salários, os dois grupos preocupam-se com o impacto que a inteligência artificial terá em suas profissões.

Já debati longamente, nesse mesmo espaço, sobre a substituição de profissionais por essa tecnologia. Mas esse caso é emblemático porque são as primeiras grandes entidades trabalhistas que colocam isso na pauta de reivindicações para seus patrões.

É curioso porque, no atual estágio de desenvolvimento da inteligência artificial, não se vislumbra que ela substitua consistentemente atores ou roteiristas em grandes produções, como filmes ou séries. Isso não quer dizer que, com o avanço galopante de sua evolução, não possa acontecer em algum momento. Portanto, a reivindicação dos sindicatos visa uma proteção futura, contra um concorrente digital implacável que ainda está por vir.

O que me preocupa, no presente, são empresas de todos os setores que possam estar se preparando para usar a IA, do jeito que está, para substituir trabalhadores de “níveis mais baixos da cadeia alimentar”, mesmo quando isso resulte em produtos ou atendimentos piores para os consumidores. Aqueles dispostos a cortar custos de forma dramática, irresponsável e impensada representam um perigo muito maior que a tecnologia em si.

Como dizem por aí, “isso é tão Black Mirror!”


Veja esse artigo em vídeo:


Não me interpretem mal! Sou um entusiasta da inteligência artificial bem usada, e entendo que esse movimento não tem volta. E nem deveria ter: quando aplicada de forma consciente e responsável, a IA traz inegáveis benefícios a empresas e a indivíduos. Nós mesmos já somos muito beneficiados em nosso cotidiano, em incontáveis aplicativos em nosso celular, que só existem graças a ela.

Mas a inteligência artificial não é uma panaceia. E isso fica claro com o popularíssimo ChatGPT, lançado em novembro e que provocou uma explosão de discussões e de uso da IA, além de uma corrida para empresas demonstrarem que estão nesse barco. Depois do frisson criado pela sua capacidade de manter conversas consistentes sobre qualquer assunto, as pessoas começaram a perceber que muito do que ele fala são verdadeiras bobagens. A despeito dos melhores esforços de seus desenvolvedores, ainda é uma ferramenta sem compromisso com a verdade.

Mas isso não impede que pessoas e empresas usem a plataforma como um oráculo. Gestores vêm confiando em respostas da plataforma para oferecer serviços. Alguns chegam a alimentar o sistema com dados sigilosos de seus clientes, uma calamidade se considerarmos que a ferramenta não promete nenhuma segurança nisso.

Da mesma forma, algumas pessoas têm usado o ChatGPT para funções para as quais não foi desenvolvido, como “fazer terapia” com um sistema incapaz de desenvolver empatia ou que sequer sabe realmente o que está falando: todas essas plataformas simplesmente encadeiam palavras seguindo análises estatísticas a partir de uma gigantesca base de informações com a qual foram “treinadas”.

O problema não é, portanto, usar a tecnologia, e sim usar mal uma coisa boa! Se o objetivo for somente economizar custos, essa é uma “economia porca” que resulta em uma queda dramática na entrega ao público.

 

Exterminador do Futuro

No dia 18, James Cameron, diretor e roteirista de sucessos como “Avatar” (2009) e “Titanic” (1997), deu uma entrevista à rede de TV canadense CTV News, afirmando que a inteligência artificial não é capaz de produzir roteiros. “Não acredito que uma mente desencarnada, que apenas regurgita o que outras mentes vivas disseram sobre a vida que tiveram, sobre amor, sobre mentira, sobre medo, sobre mortalidade, tenha algo que vá comover o público”, disse.

Há um ponto essencial na fala de Cameron, que também foi diretor e roteirista de “O Exterminador do Futuro” (1984), em que máquinas inteligentes tentam eliminar a humanidade: precisamos entender que a inteligência artificial não é realmente criativa!

Ela apenas agrupa padrões e estilos para suas criações, mas não tem algo essencial a qualquer artista: a subjetividade. A nossa história de vida faz com que os padrões que aprendemos sejam inspiração para nossa criatividade, e não uma limitação. A máquina, por outro lado, fica restrita a eles, sendo incapaz de alterá-los.

Mas eu não me iludo: o que puder ser automatizado será. Funções cujos trabalhadores atuam de forma previsível, seguindo regras muito estritas, já estão sendo substituídas por robôs. Em situações como essas, a máquina desempenha as tarefas de maneira mais rápida, eficiente e barata. A qualidade das entregas ao cliente pode até melhorar!

Nos demais casos, a inteligência artificial não deveria ser usada como uma ferramenta para substituir profissionais, e sim para torná-los mais eficientes em suas atividades, oferecendo-lhes sugestões e informações que jamais conseguiriam ter sozinhos, pelas suas limitações humanas.

Em outra frente, o Google está testando, com alguns jornais, um sistema baseado em inteligência artificial capaz de escrever textos a partir de informações que lhe forem apresentadas. Em um comunicado, a empresa disse que “essa ferramenta não pretende e não pode substituir o papel essencial que os jornalistas têm em reportar, criar e verificar os fatos”, devendo ser usado como um apoio a esses profissionais, liberando seu tempo para tarefas mais nobres. Resta saber se, uma vez lançado, o produto não será usado por editores para enxugar mais as já minguadas redações, mesmo que isso resulte em publicações suscetíveis a erros e menos criativas.

Na mesma entrevista, Cameron explicou que, sobre os roteiros, “nunca é uma questão de quem os escreveu, mas de serem boas histórias”. Só faltou definir, de maneira inequívoca, o que é “boa”. Alguns filmes têm roteiros escritos por humanos que são muito ruins. Para escrever aquilo, talvez a inteligência artificial bastasse.

Isso vale para roteiristas, atores, jornalistas e qualquer profissional que se sinta ameaçado pela tecnologia. A melhor proteção que podem ter contra os robôs é fazer melhor que o que eles são capazes de entregar.

Nós, como clientes de todos esses serviços, também temos um papel importante: não podemos aceitar que produtos ruins nos sejam empurrados. Muitos gestores tentarão usar esses recursos assim! Com isso, perderemos nós e os profissionais, todos vítimas dessa “tecnoganância”. Isso não pode passar e muito menos se normalizar.