digital Paulo Silvestre

Lara (Ellen Parren) vive drama em “Eu Não Sou um Robô”, por não conseguir passar por um teste em seu computador - Foto: reprodução

Curta vencedor do Oscar alerta sobre nossa desumanização pela dependência tecnológica

By | Tecnologia | No Comments

No domingo de Carnaval, com os brasileiros comemorando o Oscar de Melhor Filme Internacional para “Ainda Estou Aqui” e lamentando que sua protagonista, Fernanda Torres, não levou o de Melhor Atriz, a vitória do holandês “Eu Não Sou um Robô” (“I’m Not a Robot”) no prêmio de Melhor Curta-Metragem, dirigido por Victoria Warmerdam, passou praticamente despercebido. Mas ele promove uma importantíssima reflexão sobre o nosso tempo: estamos nos tornando muito dependentes da tecnologia, e isso pode ameaçar nossa humanidade.

Há décadas, a ficção nos alerta sobre esse risco, mas nunca imaginaríamos que uma validação automática pudesse nos fazer questionar quem somos. É exatamente esse o dilema vivido por Lara (Ellen Parren), a produtora musical protagonista da obra, que mergulha em uma crise existencial após falhar repetidamente em testes CAPTCHA, aqueles desafios online usados para distinguir humanos de robôs, nos quais é preciso clicar, por exemplo, nas “imagens com hidrantes”.

A sociedade vem sendo profundamente influenciada pelas big techs para abraçar a tecnologia como algo quase mágico, sem medir as consequências. Poucas vozes questionam esse movimento. Quem ousa fazer isso recebe rótulos de antiquado ou resistente ao progresso, normalmente injustos.

Apesar de ser uma ficção, o curta toca em questões muito reais. Vivemos em uma era em que sistemas cada vez mais eficazes e surpreendentes nos ajudam muito, mas também trazem consequências nocivas que às vezes ignoramos. Se nada for feito para corrigir essa dependência excessiva, podemos ultrapassar um limiar perigoso, onde a tecnologia não mais nos serve, mas nos define.


Veja esse artigo em vídeo:


Warmerdam criou uma sátira angustiante sobre nossa relação com a tecnologia. A incapacidade de Lara passar nos testes a coloca em uma jornada surreal, levando-a a questionar crescentemente sua própria humanidade. Assim, a obra explora temas como identidade, autonomia e o impacto da tecnologia na percepção humana.

Parren equilibra perfeitamente o humor absurdo com uma crítica social afiada, tornando a personagem ainda mais marcante. Afinal, ela é realmente um robô que desconhece sua verdadeira natureza? Ou será que a tecnologia falha ao identificar o que é ser humano? Esses dilemas existenciais são os elementos mais potentes do curta, reforçando sua crítica à dependência da validação digital, tornando a proposta ainda mais cortante! O absurdo da situação nos faz rir, mas também nos obriga a refletir sobre nossos comportamentos frente à digitalização da vida.

Já terceirizamos nosso pensamento para buscadores, dependemos de GPS para nos locomover e deixamos algoritmos influenciarem nossas decisões diárias, ainda mais com o avanço da inteligência artificial. Quando não têm acesso a essas tecnologias, muitos se sentem perdidos, como se parte de sua identidade tivesse sido removida.

Em alguns casos, um erro técnico pode bloquear nosso acesso a serviços essenciais, tornando-nos praticamente “invisíveis” para a sociedade. Mas precisamos encarar nossa atitude frente a essa dependência tecnológica, que pode prejudicar habilidades cognitivas cruciais, como memória, raciocínio e criatividade. Resolver problemas por conta própria é fundamental para o desenvolvimento humano.

Não dá para dizer que “isso só acontece com os outros”. Quem nunca ficou ansioso por perder o acesso à Internet? A incapacidade de lembrar informações básicas sem consultar o celular, a preferência por interações digitais em detrimento das presenciais, ou a sensação de que nossas realizações só valem quando publicadas e validadas nas redes sociais são outros sinais de que “passamos do ponto”.

Se um sistema de reconhecimento facial falha em nos identificar, um algoritmo de busca não entende nossa pergunta ou quando um assistente virtual não compreende nosso sotaque, sentimos uma frustração que vai além do incômodo prático. É quase uma negação de nossa existência!

 

Recuperando o controle

Para evitar que percamos o controle do que somos, precisamos adotar estratégias conscientes. E isso passa por questionar recomendações das plataformas digitais, tomar decisões sem depender delas e exercitar a memória. Ou seja, lembrar a nós mesmos que podemos também viver sem as máquinas, como sempre fizemos!

O contato humano e o mundo físico precisam ser valorizados. Participar de encontros presenciais e realizar atividades ao ar livre são antídotos eficazes contra a digitalização excessiva da vida. Além disso, falar com pessoas em vez de chatbots preserva o elemento humano nas interações.

Devemos também variar as fontes de informação e usar a tecnologia com propósito claro, em vez de consumir passivamente o que as plataformas sugerem: isso nos ajuda a manter o senso crítico. E pausas regulares no uso desses serviços permitem reavaliar nossa relação com o mundo digital.

“Eu Não Sou um Robô” nos ensina que a tecnologia deve ser uma ferramenta para ampliar nossas capacidades, não um fator determinante da nossa identidade e muito menos da nossa humanidade. Se confiarmos demais nela a ponto de comprometer nossa autonomia, corremos o risco de nos tornarmos reféns daquilo que criamos.

A obra é uma metáfora poderosa sobre a burocracia digital, a vigilância algorítmica e a automação excessiva, que nos transformam em dados e perfis, em vez de seres humanos complexos e autônomos. A tecnologia pode e deve ser usada para facilitar a vida, mas precisamos garantir que ela continue sendo um meio, e não um fim.

Em tempos de IA galopante, a verdadeira inteligência está na capacidade de equilibrar o poder do mundo digital com a experiência humana. Essa é a lição mais valiosa desse pequeno grande filme.

No fim das contas, somos muito mais do que aquilo que um teste CAPTCHA pode definir.

 

Em conferência da Meta 2019, seu CEO, Mark Zuckerberg, anunciava que “o futuro é privado” - Foto: Anthony Quintano/Creative Commons

Decisões da Meta reabrem debates sobre uso da IA para identificação de pessoas

By | Tecnologia | No Comments

Quem garante que nós somos quem dizemos ser? Essa provocação faz sentido em um tempo em que a inteligência artificial ajuda a identificar pessoas (incluindo criminosos), mas ainda erra muito nessa tarefa, com resultados indesejáveis, como mandar inocentes para a cadeia. Decisões recentes da Meta esquentam esse debate sobre como equilibrar os benefícios e os riscos dessa tecnologia.

A empresa, que é dona do Facebook, do Instagram e do WhatsApp, anunciou recentemente duas medidas bem-vindas nesse campo. A primeira mapeará rostos de celebridades para evitar que suas imagens sejam usadas em vídeos falsos, em que normalmente aparecem vendendo produtos. Em outra iniciativa, a IA será usada para tentar identificar a idade de usuários, em um movimento para prevenir que crianças e adolescentes sejam expostos a conteúdos inadequados.

Os anúncios, especialmente o primeiro, desfazem uma reviravolta na postura da companhia nessa área: em 2021, o reconhecimento facial dos seus produtos, que já funcionava havia uma década, foi desativado diante da pressão da sociedade, problemas regulatórios e investigações em diferentes países. Agora, ele está de volta, como resposta à demanda pelo combate à usurpação de imagens alheias.

Essas ações da Meta são emblemáticas pela enorme importância de seus produtos na vida de bilhões de pessoas, mas estão longe de serem únicas nessa polêmica. O uso da IA na identificação é cada vez mais comum, e raramente o cidadão sabe desse monitoramento. A sociedade precisa estar consciente desse “Big Brother permanente” a que estamos submetidos, para decidir se seus ganhos superam os problemas.


Veja esse artigo em vídeo:


O reconhecimento de imagem da Meta era usado para automaticamente marcar pessoas nas fotos publicadas nas plataformas, criando vínculos entre as contas dos usuários. Além disso, as pessoas eram avisadas que estavam aparecendo em fotos alheias. Mas diante dos questionamentos sobre como essa tecnologia seria usada, a big tech eliminou o recurso e apagou os dados faciais de mais de 1 bilhão de pessoas.

Agora a empresa está reativando a tecnologia para evitar que as imagens de celebridades e outras pessoas públicas sejam usadas sem permissão em publicidades no Facebook e no Instagram. Se o sistema identificar isso, o anúncio será automaticamente tirado do ar. Já em testes com algumas celebridades, ele valerá para todas elas no ano que vem. Se alguma não quiser que o sistema reconheça sua imagem, deverá informar essa decisão na plataforma.

A Meta também usará o reconhecimento de imagem para restituir contas roubadas a seus verdadeiros donos. Nesse caso, a pessoa deverá gravar um vídeo de seu rosto, que será comparado com as fotos nos perfis do Facebook e do Instagram. A empresa afirma que, tanto nesse recurso quanto na verificação em publicidade, o reconhecimento facial não será usado para nenhuma outra finalidade, e os arquivos usados no processo serão excluídos ao seu final.

Também para o próximo ano, a Meta implantará o recurso “classificador de adultos”, que usará a IA para descobrir a idade real de um usuário. No caso de concluir que tem menos de 18 anos, a conta será automaticamente classificada como de adolescente, o que implica em várias restrições. Para isso, a tecnologia monitorará publicações e gostos do próprio usuário e de seus amigos. Ao se tentar alterar a idade, o sistema poderá exigir que o usuário grave um vídeo para estimá-la por características faciais.

Muitos adolescentes mentem a idade para ficarem livres desses limites. Com isso, ficam expostos a diferentes conteúdos nocivos, que podem causar problemas variados de saúde mental. Ao redor do mundo, há até mesmo diversos casos de suicídio de adolescentes atribuídos a influência do que viram no Facebook e no Instagram.

Ninguém discute as boas intenções dessas iniciativas. Mas há sempre o temor de que isso possa violar diferentes direitos individuais. E apesar de a Meta garantir que essas informações não serão usadas para outra finalidade, o histórico da companhia de lucrar muito com as informações de seus usuários representa uma sombra indelével. Além disso, a IA desses sistemas foi e continua sendo responsável direta por todo tipo de manipulação política e econômica, que levou à insana polarização da sociedade nos últimos anos.

 

Big Brother para todos

Apesar disso, restringir o acesso da Meta aos nossos dados é mais fácil que o visto em outras casos. Ela é uma empresa com produtos claramente identificados e, ainda que contra sua vontade e de maneiras pouco óbvias, o usuário pode impedir que a big tech use seus dados para algumas atividades, como o treinamento de sua IA. Mas não se pode esquecer que seu modelo de negócios é todo construído sobre usar nossas informações para nos entregar anúncios “mais relevantes”.

Quando andamos na rua, a situação fica muito mais grave. Em grandes cidades do mundo, somos continuamente monitorados por incontáveis câmeras públicas e privadas. Entre seus objetivos, estão nos identificar para segurança, interesses de diferentes organizações particulares e governamentais, identificação de padrões de comportamento e muito mais.

Novamente muitos desses serviços trazem benefícios aos indivíduos, mas também podem causar enormes transtornos quando erram. E erram muito! Além disso, as pessoas não são sequer informadas de que estão sendo monitoradas, não dando consentimento para tal, o que, de cara, violaria a Lei Geral de Proteção de Dados. Obviamente elas tampouco têm como impedir essa prática.

Um bom exemplo é o programa Smart Sampa, que espalhou dezenas de milhares de câmeras pela capital paulista. Sua proposta original previa “rastrear uma pessoa suspeita, monitorando todos os seus movimentos e atividades, por características como cor, face, roupas, forma do corpo, aspectos físicos etc.” Além de ser subjetiva, monitorar alguém pela sua cor é ilegal! A redação mudou, mas o objetivo não.

O reconhecimento facial falha em torno de 1% entre brancos e 30% entre negros, especialmente mulheres. Isso acontece porque há muito menos fotos de negros que de brancos no treinamento desses sistemas. Assim muitos inocentes, em várias cidades, já foram presos por serem confundidos com criminosos, e tiveram que provar o contrário, passando por riscos e violências enquanto isso.

Esses são apenas alguns exemplos de como a IA pode causar danos enormes, mesmo quando a intenção de seu uso seja positiva. Seus benefícios são claros, e seu uso é um caminho sem volta. Mas os problemas associados a ela ainda são grandes demais para serem ignorados, e, portanto, devem ser amplamente debatidos.

Não podemos aceitar que nos sejam impostos de maneiras obscuras.

 

Geoffrey Hinton, o “padrinho da IA”, que se demitiu do Google em maio para poder criticar livremente os rumos da IA - Foto: reprodução

Entusiastas da IA querem acelerar sem parar, mas isso pode fazê-la derrapar

By | Tecnologia | No Comments

Nesse ano, a inteligência artificial deixou de ser um interesse da elite tecnológica e conquistou o cidadão comum, virando tema até de conversas de bar. Muita gente agora a usa intensamente, criando tanto coisas incríveis, quanto enormes bobagens. Isso gerou uma excitação em torno da tecnologia, com grupos que propõem que seja desenvolvida sem nenhuma restrição ou controle, acelerando o máximo que se puder.

Isso pode parecer emocionante, mas esconde um tipo de deslumbramento quase religioso que de vez em quando brota no Vale do Silício, a meca das big techs, nos EUA. Um movimento especificamente vem fazendo bastante barulho com essa ideia. Batizado de “Aceleracionismo Efetivo” (ou “e/acc”, como se autodenominam), ele defende que a inteligência artificial e outras tecnologias emergentes possam avançar o mais rapidamente possível, sem restrições ou regulamentações.

Mas quem acelera demais em qualquer coisa pode acabar saindo da pista!

Eles desprezam pessoas que chamam de “decels” e “doomers”, aquelas preocupadas com riscos de segurança vindos de uma IA muito poderosa ou reguladores que querem desacelerar seu desenvolvimento. Entre eles, está Geoffrey Hinton, conhecido como o “padrinho da IA”, que no dia 1º de maio se demitiu do Google, para poder criticar livremente os caminhos que essa tecnologia está tomando e a disputa sem limites entre as big techs, o que poderia, segundo ele, criar “algo realmente perigoso”.

Como de costume, radicalismos de qualquer lado tendem a dar muito errado. A verdade costuma estar em algum ponto no meio de caminho, por isso todos precisam ser ouvidos. Então, no caso da IA, ela deve ser regulada ou seu desenvolvimento deve ser liberado de uma forma quase anárquica?


Veja esse artigo em vídeo:


O Aceleracionismo Efetivo surgiu nas redes sociais no ano passado, como uma resposta a outro movimento: o “Altruísmo Eficaz”, que se tornou uma força importante no mundo da IA. Esse último começou promovendo filantropia otimizada a partir de dados, mas nos últimos anos tem se preocupado com a segurança da sociedade, propondo a ideia de que uma IA poderosa demais poderia destruir a humanidade.

Já o aceleracionistas efetivos acham que o melhor é sair da frente e deixar a inteligência artificial crescer livre e descontroladamente, pois seus benefícios superariam muito seus eventuais riscos, por isso jamais deveria ser vista como uma ameaça. Para eles, as plataformas devem ser desenvolvidas com software open source, livre do controle das grandes empresas.

Em um manifesto publicado no ano passado, os aceleracionistas efetivos descreveram seus objetivos como uma forma de “inaugurar a próxima evolução da consciência, criando formas de vida impensáveis da próxima geração”. De certa forma, eles até aceitam a ideia de que uma “super IA” poderia ameaçar a raça humana, mas a defendem assim mesmo, pois seria “o próximo passo da evolução”.

Para muita gente, como Hinton, isso já é demais! Em entrevista ao New York Times na época em que deixou o Google, o pioneiro da IA disse que se arrependia de ter contribuído para seu avanço. “Quando você vê algo que é tecnicamente atraente, você vai em frente e faz”, justificando seu papel nessas pesquisas. Agora ele teria percebido que essa visão era muito inconsequente.

Portanto é um debate em torno da ética do desenvolvimento tecnológico e das suas consequências. Conversei na época sobre aquela entrevista de Hinton com Lucia Santaella, professora-titular da PUC-SP. E para ela, “a ética da inteligência artificial tem que funcionar mais ou menos como a da biologia, tem que ter uma trava! Se não, os filmes de ficção científica vão acabar se realizando.”

 

A dificuldade de se regular

Além da questão ética, outro ponto que contrapõe aceleracionistas efetivos e altruístas eficazes é a necessidade de se regular a inteligência artificial. Mas verdade seja dita, essa tecnologia está dando um banho nos legisladores. Isso porque ela evolui muito mais rapidamente do que eles são capazes de propor leis.

Podemos pegar, como exemplo, a União Europeia, que legisla de forma rápida e eficiente temas ligados à tecnologia. Em abril de 2021, ela apresentou um projeto de 125 páginas como “referência” na regulação da IA. Fruto de três anos de debates com especialistas de diferentes setores associados ao tema, Margrethe Vestager, chefe da política digital do bloco, disse que o documento estava “preparado para o futuro”.

Parecia ser isso mesmo, até que, em novembro do ano passado, a OpenAI lançou o ChatGPT e criou uma corrida frenética para se incluir a inteligência artificial generativa em todo tipo de sistema. E isso nem era citado na proposta europeia!

O processo de criação de uma nova lei de qualidade é naturalmente lento, pois exige muita pesquisa e debate. Mas se as coisas acontecerem como propõem os e/accs, os legisladores estarão sempre muito atrás dos desenvolvedores. Os primeiros não conseguem sequer entender a tempo o que os segundos estão criando e, justiça seja feita, mesmo esses não têm total certeza do que fazem.

Enquanto isso, Microsoft, Google, Meta, OpenAI e outras gigantes da tecnologia correm soltas para criar sistemas que lhes concederão muito poder e dinheiro. A verdade é que quem dominar a IA dominará o mundo nos próximos anos.

Os aceleracionistas efetivos afirmam que eles são o antídoto contra o pessimismo dos que querem regular a inteligência artificial, algo que diminuiria o ritmo da inovação, o que, para eles, seria o equivalente a um pecado. Mas quanto disso é real e quanto é apenas uma “atitude de manada” inconsequente?

Sou favorável que a IA se desenvolva ainda mais. Porém, se nenhum limite for imposto, ainda que de responsabilização quando algo der errado, as big techs farão o mesmo que fizeram com as redes sociais. E vejam onde isso nos levou!

Não podemos perder o foco em nossa humanidade, que nos permite distinguir verdade de mentira, certo de errado! Só assim continuaremos desenvolvendo novas e incríveis tecnologias, sem ameaçar a sociedade.

Afinal, a ética consciente é o que nos diferencia dos animais, e agora, pelo jeito, também das máquinas!


Antes de encerrar, gostaria de fazer uma nota pessoal. Ainda que discorde filosoficamente dos aceleracionistas efetivos, acho o debate válido, se feito de forma construtiva. Pessoas com pontos de vista diferentes encontram juntas boas soluções que talvez não conseguiriam sozinhas, justamente por terem visões parciais de um tema. Para isso, necessitamos de conhecimento e de vontade de fazer o bem. Esse é um dos motivos para eu iniciar em 2024 meu doutorado na PUC-SP, sob orientação de Lucia Santaella, para pesquisar o impacto da inteligência artificial na “guerra” pelo que as pessoas entendem como “verdade”, algo determinante em suas vidas.

 

Matt Hicks, CEO da Red Hat, durante a abertura do Red Hat Summit 2023: “esse é o momento da IA” - Foto: Paulo Silvestre

Inteligência artificial produz coisas incríveis, mas não podemos perder nosso protagonismo

By | Tecnologia | No Comments

Estive na semana passada em Boston (EUA), participando do Red Hat Summit, maior evento de software open source do mundo. Apesar desse modelo de desenvolvimento de programas aparecer a todo momento, a estrela da festa foi a inteligência artificial. E algo que me chamou a atenção foi a preocupação da Red Hat e de seus executivos em demonstrar como essa tecnologia, por mais poderosa que seja, não deve fazer nada sozinha, precisando ser “treinada” com bons dados, com o ser humano ocupando o centro do processo.

O próprio CEO, Matt Hicks, abriu a conferência dizendo que esse é o “momento da IA”. Muitos dos principais anúncios do evento, como o Ansible Lightspeed e o OpenShift AI, embutiam um incrível poder da inteligência artificial na automação de tarefas, como geração de código a partir de pedidos simples em português, liberando o tempo das equipes para funções mais nobres.

Isso não quer dizer, entretanto, que os profissionais possam simplesmente “terceirizar” o raciocínio e a sua criatividade para as máquinas. Pelo contrário, por mais fabulosas que sejam essas ferramentas, elas pouco ajudam se o usuário não conhecer pelo menos o essencial do que os sistemas produzem.

Tanto é verdade que assistimos a casos de pessoas e de empresas que enfrentam grandes contratempos por usar plataformas generalistas de inteligência artificial (como o ChatGPT) de maneira descuidada. Precisamos ter em mente que, por mais que ela chegue a parecer mágica, não é infalível!


Veja esse artigo em vídeo:


Foi o que aconteceu recentemente com o advogado americano Steven Schwartz, da firma Levidow, Levidow & Oberman, com mais de 30 anos de experiência: ele enfrentará agora medidas disciplinares por usar o ChatpGPT para pesquisas para o caso de um cliente que processava a Avianca. Tudo porque apresentou à corte um documento com supostos casos semelhantes envolvendo outras empresas aéreas.

O problema é que nenhum desses casos existia: todos foram inventados pelo ChatGPT. Schwartz ainda chegou a perguntar à plataforma se os casos eram reais, o que ela candidamente confirmou. É o que os especialistas chamam de “alucinação da inteligência artificial”: ela apresenta algo completamente errado como um fato, cheia de “convicção”, a ponto de conseguir argumentar sobre aquilo.

“Nessa nova fase, temos que conhecer a pergunta para qual queremos a resposta”, explicou-me Hicks, em uma conversa com jornalistas durante o Summit. “Se você for um novato, poderá criar melhor, mais rápido; se for um especialista, poderá melhorar muito o que faz e usar seu domínio para refinar a entrega”, concluiu.

Para Paulo Bonucci, vice-presidente e gerente-geral da Red Hat para a América Latina, “não adianta você chegar com inteligência artificial assustando a todos, dizendo que vai faltar emprego”. Para o executivo, a transformação que a inteligência artificial promoverá nas empresas passa por uma transformação cultural nos profissionais. “A atenção principal enquanto se desenvolvem os códigos e as tecnologias de inteligência artificial são as pessoas, são os talentos”, acrescenta.

Chega a ser reconfortante ver lideranças de uma empresa desse porte –a Red Hat é a maior empresa de soluções empresariais open source do mundo– demonstrando essa consciência. Pois não se enganem: a inteligência artificial representa uma mudança de patamar tecnológico com um impacto semelhante ao visto com a introdução dos smartphones ou da própria Internet comercial.

A diferença é que, no mundo exponencial em que vivemos, as transformações são maiores e os tempos são menores. E nem sempre as empresas e ainda mais as pessoas têm sido capazes de absorver esse impacto.

 

Corrida do ouro

Infelizmente o que se vê é uma corrida tecnológica, que pode estar atropelando muita gente por descuido e até falta de ética de alguns fabricantes. “Existem empresas grandes que fazem anúncios quando sua tecnologia não está madura”, afirma Victoria Martínez, gerente de negócios e data science da Red Hat para a América’ Latina. “Essa corrida tornou-se muito agressiva”.

É interessante pensarmos que as pesquisas em inteligência artificial existem há décadas, mas o assunto se tornou um tema corriqueiro até entre não-especialistas apenas após o ChatGPT ser lançado, em novembro. Não é à toa que se tornou a ferramenta (de qualquer tipo) de adoção mais rápida da história: todos querem usar o robô para passar para ele suas tarefas. E, graças a essa corrida, isso tem sido feito de maneira descuidada, pois alguns fabricantes parecem não se preocupar tanto com perigos que isso pode representar.

“Isso é uma coisa que a gente deveria estar discutindo mais”, sugere Eduardo Shimizu, diretor de ecossistemas da Red Hat Brasil. “Entendo que nós, não só como especialistas em segurança ou em tecnologia, mas como seres humanos, precisamos discutir esses temas éticos da forma de usar a tecnologia”, acrescenta.

Martínez lembra das preocupações que educadores vêm apresentando sobre o uso de plataformas de IA generativas, como o próprio ChatGPT por crianças. “Não podemos esquecer de aprender o processo”, alerta. Em uma situação limite, seria como entregar uma calculadora a uma criança que não sabe sequer conceitualmente as quatro operações básicas. Ela se desenvolveria como um adulto com seríssimos problemas cognitivos e de adaptação à realidade.

Por isso, a qualquer um que não saiba fazer uma divisão deveria ser proibido usar uma calculadora. Por outro lado, para quem domina suficientemente a matemática, a calculadora e mais ainda uma planilha eletrônica são ferramentas inestimáveis.

É assim que devemos encarar essa mudança de patamar tecnológico. Como escreveu Hicks em um artigo recente, “não sabemos o que o futuro reserva –nem mesmo o ChatGPT é precognitivo ainda. Isso não significa que não podemos antecipar quais desafios enfrentaremos nos próximos meses e anos.”

Quaisquer que sejam, quem deve estar no comando somos nós. Os robôs, por sua vez, serão ajudantes valiosíssimos nesse processo.


Você pode assistir à íntegra em vídeo das minhas entrevistas com os quatro executivos da Red Hat. Basta clicar no seu nome: Matt Hicks, Paulo Bonucci, Victoria Martínez e Eduardo Shimizu.

 

O Congresso Nacional, onde está sendo tramitado o projeto de lei 2.630, conhecido como “Lei das Fake News”

Ninguém vigia o vigilante na guerra pela “verdade”

By | Tecnologia | No Comments

Em um mundo em que a verdade é relativizada e distorcida escandalosamente, sucumbimos diante de mentiras bem contadas que moldam a sociedade pelos interesses de uns poucos. Com isso, até iniciativas bem intencionadas podem ser pervertidas. É o caso do projeto de lei 2.630, conhecido como “Lei das Fake News”, que já foi aprovado pelo Senado e pode ser votado na Câmara dos Deputados a qualquer momento.

Criado com o louvável objetivo de combater a desinformação no meio digital, o texto possui falhas críticas, como não definir, de maneira inequívoca, o que seria uma “notícia falsa” e inocentar previamente alguns dos maiores agentes da desinformação no país. Se aprovado dessa forma, corre o risco de se transformar em um mecanismo de controle e de censura.


Veja esse artigo em vídeo:


Definir o que é verdadeiro nem sempre é uma tarefa trivial. Em muitas ocasiões, depende da combinação de elementos a que nem todos têm acesso. Consequentemente, definir o que é falso padece do mesmo dilema. Ainda assim, seria de se esperar que um projeto de lei que se presta exatamente a isso se esforçasse mais que o visto no texto em tramitação.

O projeto ainda aborda dois outros conceitos fundamentais na guerra pela “verdade”. O primeiro é o de “conteúdo jornalístico”, também apresentado sem qualquer definição mais precisa, que supostamente indicaria algo produzido com rigor na apuração e promoção. O outro é a “liberdade de expressão”, direito constitucional preferido entre os disseminadores de “fake news”, que se valem dela para tentar justificar todo tipo de mentira ou crime, como se aquilo fosse apenas uma inocente opinião pessoal.

Para um projeto que se propõe a criar a chamada Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet, falhar em algo tão básico abre espaço para enormes preocupações. Com nossas vidas altamente interligadas e dependentes das mais diversas ferramentas digitais, uma legislação como essa tem o potencial não apenas de piorar os serviços online, como ainda de criar uma nefasta ferramenta de controle do cidadão, das plataformas digitais e da imprensa.

Quanto mais brechas uma lei deixa, mais as “autoridades” (ou seja, qualquer um investido de algum poder) se sentirão à vontade para interpretar suas regras para fazer valer seus interesses. O cidadão fica indefeso diante de ataques daqueles que o deveriam defender, um caso clássico de “quis custodiet ipsos custodes?” A frase em latim, atribuída a Juvenal, um poeta romano do início da era cristã, é normalmente traduzida como “quem vigia os vigilantes” e se refere à dificuldade de controle das ações de quem está no poder.

Essa é exatamente a situação que pode estar sendo construída aqui. O que nos leva a uma outra grande lacuna do projeto, que vem sendo bem mais discutida nos últimos dias: um verdadeiro salvo-conduto para que parlamentares disseminem “fake news”.

 

Imunidade parlamentar

O PL 2.630 é de autoria do senador Alessandro Vieira (Cidadania/SE). Seu texto-base foi aprovado pelo Senado em junho de 2020. O deputado Orlando Silva (PCdoB/SP) é o relator da nova redação do texto, que pode ser votado em breve na Câmara dos Deputados.

Nessa nova versão, um singelo trecho incluído vem causando grande tumulto. Trata-se do parágrafo 5º do inciso VII do artigo 22, que diz: “A imunidade parlamentar material estende-se às plataformas mantidas pelos provedores de aplicação de redes sociais.”

Em outras palavras, qualquer “fake news”, por mais grotesca que seja, estará protegida, se for distribuída por um senador, deputado federal ou estadual ou vereador. O problema é que esses servidores públicos estão entre os mais conhecidos agentes da desinformação do país, nas esferas federal, estadual e municipal.

Na prática, cria-se um escudo que impediria as redes sociais de eliminar (ou pelo menos limitar) conteúdos notoriamente nocivos, como aqueles que incitam o ódio ou combatem vacinas, temas infelizmente comuns nos perfis de muitos parlamentares.

As plataformas digitais vêm refinando esse mecanismo de gestão de conteúdo com a Justiça há anos. Se ainda não é perfeito, já apresenta alguns resultados bem interessantes.

Orlando Silva afirma que esse parágrafo é inofensivo, pois a imunidade parlamentar está prevista na Constituição, e isso seria suficiente para proteger as ideias dos parlamentares, mesmo as mais bizarras e condenáveis. Mas não é bem assim!

A imunidade protegeria falas e opiniões, mas a Constituição não podia prever, em 1988, um mecanismo digital que amplificasse (inclusive mediante pagamento) manifestações de quem quer que fosse. Ademais, ao tornar explícita essa prerrogativa para qualquer parlamentar distribuir “fake news”, o projeto joga luz sobre o tema, praticamente inviabilizando os controles construídos pelas plataformas com a Justiça. Dessa forma, sempre que for necessário remover um desses conteúdos, a Corte Constitucional do país –ou seja, o Supremo Tribunal Federal– precisará ser acionado, o que é inviável dado o volume de porcaria dessa natureza que já transita nas redes.

A manchete do Estadão desse domingo trouxe uma reportagem sobre como, apesar de alguns avanços bem-vindos no combate à desinformação, o acordo firmado em fevereiro entre o TSE (Tribunal Superior Eleitoral) e as plataformas digitais ainda deixa muitas brechas. Isso quer dizer que políticos e seus apoiadores conseguirão transformar as redes sociais em um verdadeiro inferno desinformacional nesse ano de eleições.

Nós, os eleitores, somos os principais prejudicados com isso. Diante de uma enxurrada de mentiras incrivelmente bem contadas e de um verdadeiro banho de sangue entre candidatos, ficará muito difícil separar a verdade da mentira, para que possamos fazer uma escolha consciente dos melhores para governar o país pelos próximos quatro anos.

As plataformas digitais entenderam que são essenciais em qualquer processo eleitoral no mundo. Abandonaram o discurso de que eram meros veículos das opiniões de seus usuários, e entenderam que seus algoritmos podem convencer qualquer um sobre qualquer coisa. Dessa forma, precisam estreitar ainda mais os laços com a Justiça.

O projeto de lei 2.630 pode ser um grande aliado nessa tarefa fundamental para a manutenção da democracia. Mas isso jamais acontecerá enquanto criar uma categoria de cidadãos capazes de mentir deliberada e livremente. Da mesma forma, precisa definir, sem sombra de dúvidas, o que é conteúdo jornalístico, até mesmo para que jornalismo verdadeiro não seja rotulado como “fake news”, com o único objetivo de ser retirado do ar a mando de “autoridades”. Além disso, a liberdade de expressão precisa ser claramente separada de mentiras, crimes e desinformação. E isso tem que valer para todos!

Para um projeto que visa criar uma lei com a palavra “transparência” em seu nome, esses pontos obscuros precisam ser eliminados!

 

Códigos QR da ConstruCode espalhados pelos canteiros de obras permitem às equipes ter acesso a plantas sempre atualizadas

Digitalização moderniza o conservadorismo da construção civil

By | Tecnologia | No Comments

A transformação digital vem dando passos importantes em um dos setores mais conservadores na adoção de tecnologia: o da construção civil. Ideias simples e bem executadas podem trazer ganhos expressivos em obras, com a redução de custos e tempo de conclusão. Além disso, a comunicação entre as diversas áreas fica mais fluida, evitando retrabalho.

As construtechs –como são chamadas as startups desse segmento– puxam as novidades. Uma delas é a Agilean, criada em 2013 em Fortaleza. A empresa desenvolveu uma plataforma que automatiza toda a gestão de obras, baseada na metodologia lean. Por esse trabalho, acaba de ser uma das 87 escolhidas para programa de aceleração das empresas Scale-Up, da Endeavor.

Essa metodologia propõe melhorar os resultados de negócios, otimizando processos e evitando desperdícios. No caso da plataforma da Agilean, a digitalização de todos os processos relacionados às obras e coletas nos canteiros facilitadas pelo uso de aplicativos diminuem o tempo de tomadas de decisões, pois as informações ficam disponíveis em tempo real a todos que precisam delas.

André Quinderé, CEO da empresa, explica que a ideia da plataforma veio da observação de relatórios de obras que estavam corretos, mas, quando ficavam disponíveis, já estavam desatualizados. “Tinha a impressão de que o gestor tomava decisão olhando no retrovisor”, afirma. Como resultado, os responsáveis fazem muitas escolhas erradas. Segundo ele, 10% dos custos da construção civil se devem a retrabalho.

O desalinhamento entre as obras e os escritórios de projeto e informações desatualizadas entre os dois lados podem causar inúmeros problemas e desperdícios. Essa é uma dor histórica do setor que outra construtech, a ConstruCode, tenta resolver. “O desempenho produtivo grita por digitalização de canteiros, é lá que temos os maiores lucros ou prejuízos”, afirma Diego Mendes, engenheiro civil e CEO da ConstruCode.

Com uma solução engenhosa, baseada em códigos QR espalhados por todos os locais dos canteiros de obras, ela garante que a equipe tenha sempre uma planta atualizada para guiar os trabalhos. Um leigo pode achar que existe uma única planta, mas são feitas constantes atualizações. Isso exige incontáveis reimpressões, além do risco de a equipe estar construindo com uma planta desatualizada.

Isso é possível porque qualquer pessoa da obra pode usar um celular ou tablet para escanear os códigos espalhados por toda obra para baixar instantaneamente os diferentes tipos de documentos com a garantia de que são atualizados. Com isso, segundo Mendes, a redução de gasto com projetos impressos chega a superar 90%. Pelos seus cálculos, uma única obra pode gerar mais de 120 mil impressos. “Até quando a maior das indústrias, com 13% do PIB global, continuará construindo igual”, questiona.

A solução da ConstruCode também traz um outro ganho que não costuma ser visto nos poucos softwares do setor: a inclusão digital de mestre de obra e suas equipes. “Lembro de ter escutado de muitos gestores de grandes empresas que as equipes de obra dele não eram capazes de usar um aplicativo para ler projetos no celular ou tablet”, conta Mendes.

Essa afirmação lhe parecia estranha em um país com dois celulares por habitante. Como entendeu que o sucesso do projeto dependia de sua utilização por todos, o executivo ouviu as demandas desse grupo, para criar uma interface adequada a sua visão da obra, as condições em que ela acontece e aos equipamentos disponíveis.

 

Pessoas no centro

Quinderé reforça isso, explicando que a transformação digital envolve pessoas, processos e tecnologia. Nenhum deles pode ser preterido. Para ele, a construção civil é um setor muito tradicional, com um produto com uma vida útil longa. Por isso, as empresas têm muito medo de a inovação gerar problemas novos.

Mas não dá mais para continuar assim. “Temos uma nova conjuntura do nosso mercado, uma pressão de custos, de melhorar a produtividade, um momento de alta inflação do nosso setor”, justifica. “As empresas, para manter sua margem, precisam fazer diferente: a inovação deixou de ser acessório e passou a ser essencial.”

A resistência à inovação em setores muito consolidados sempre existiu. Quanto mais tradicional o segmento, menos tolerante a falhas. Mas, para o guru da administração americano Tom Peters, “o fracasso é ingrediente do sucesso”. Segundo ele, à medida que um ambiente se torna mais competitivo, a inovação fica mais necessária. Fazer as coisas de maneira diferente, traz, entretanto, riscos. Dessa forma, aqueles que não querem correr riscos não tentam algo novo, mas a única maneira de se manter competitivo hoje é justamente tentando. É por isso que as empresas precisam de ferramentas e metodologias que lhes permitam inovar com riscos menores.

Nesse sentido, Mendes sugere focar esforços nos problemas que realmente podem ser dominados, “não mais fazendo ajustes pontuais em tarefas repetitivas, mas eliminando-as definitivamente, através de processos e tecnologias que incluem os canteiros de obras em uma rota de produtividade alavancada.” Para Quinderé, as construtoras chegaram em um momento em que não podem repassar mais preços ao mercado. “Para manter a minha margem, eu tenho que ser mais eficiente, e um caminho é digitalizado a gestão”, explica.

Os números das duas empresas indicam que, apesar do conservadorismo, esse mercado começa a inovar. A Agilean, por exemplo, já digitalizou mais de 6 milhões de metros quadrados em obras de todo o país. Já a ConstruCode está presente em mais de 1.400 obras no país.

Para Mendes, a conta é simples. “A transformação digital é uma realidade superacessível, e, dado ao seu alto retorno, caro mesmo é permanecer repetindo processos manuais.”

 

Reflexão: como era difícil fazer jornalismo! E hoje?

By | Jornalismo, Tecnologia | No Comments

Recebi esse vídeo da amiga Solange Villela. É, no mínimo, muito curioso! Mostra como o Estadão era produzido em 1935, um processo industrial intrincadamente fascinante, de um mundo que não existe mais. Vale a pena assistir!

O Estadão era o maior jornal do país, com a tecnologia mais moderna. O papel era o jeito mais eficiente de distribuir muita informação, uma verdade que perdurou até a virada do século.

O jornalismo digital surgiu em 1994 (eu estava lá, “cortando o cybermato”). De repetente, tudo podia ser feito melhor, mais barato e mais rápido. E a coisa explodiu com a popularização dos smartphones: além de ficar muito mais fácil qualquer um consumir conteúdo, também ficou para produzir.

Em 2011, quanto era gerente de produtos digitais do mesmo Estadão, calculei, de todos os gastos do jornal, quanto se referia à produção de notícia. Resultado: apenas 21%! Os outros 79% se referiam à gráfica, à infraestrutura predial e ao transporte.

Hoje o impresso ainda existe, muito mais barato e automatizado. Mas continua caro e ineficiente. O único problema do digital é que, por ser muito simples e muito barato, qualquer um pode publicar uma grande barbaridade e uma multidão acreditar. As “fake news” estão asfixiando o bom jornalismo. E, com ele, a democracia.

 

Videodebate: aparecer bem nas redes sociais pode MATAR?

By | Tecnologia | No Comments

Uma influenciadora brasileira de 26 anos pensou em suicídio, porque não estava aguentando a pressão de ter que publicar o tempo todo. Ok, esse é um caso extremo. Mas é para pensar: muita gente quer construir a sua reputação aqui, o que é ótimo. Só que não sabe como dosar o esforço, e acaba pirando, atrapalhando (muito) a sua vida. E isso é muito grave!

Então como construir a sua autoridade nas redes sem prejudicar suas tarefas? Qual o limite?

“Keep calm and keep publishing” 😉 Existem técnicas para isso! Veja no meu vídeo abaixo como chegar ao topo e se manter lá, construindo sua reputação sem truques baratos.

Participação especial de Athena, a gata, no final 😉

 


Links de conteúdos mencionados no vídeo: