Category Archives: Tecnologia

Ilustração: Creative Commons

Esse será de novo o ano da inteligência artificial, mas de uma forma diferente

By | Tecnologia | No Comments

Quando 2022 começou, o mundo da tecnologia só falava de metaverso, grande promessa incensada por Mark Zuckerberg, que até trocou o nome de sua empresa de Facebook para Meta. Mas, passados 12 meses, nada verdadeiramente útil aconteceu em torno dele. Já 2023 começou com a inteligência artificial ocupando os grandes debates tecnológicos, e, ao final do ano, ela superou todas as expectativas. Agora, que estamos começando 2024, ressurge a pergunta: esse será o ano do que, no cenário tecnológico?

Conversei com diferentes especialistas e executivos e a resposta passa novamente pela inteligência artificial. Mas nada será como era antes! O que aconteceu em 2023 e deixou o mundo de queixo caído ficará para trás como iniciativas embrionárias, quase protótipos. Os entrevistados foram unânimes em afirmar que o ano que passou foi de aprendizado e que agora, em 2024, o mundo deve começar a ver a inteligência artificial movendo produtos realmente profissionais.

Outras mudanças em curso se consolidarão a reboque disso. O mercado de trabalho continuará sendo impactado, com oportunidades para profissionais mais atualizados e ameaças para quem permanece em tarefas repetitivas. Além disso, a liderança de TI ocupará cada vez mais o espaço de decisão de negócios, e questões éticas do uso da tecnologia ganharão destaque no cotidiano empresarial.

Esse será o ano em que a inteligência artificial se tornará verdadeiramente produtiva!


Veja esse artigo em vídeo:


“Quando eu olho 2024, continua sendo um ano de inteligência artificial, mas será um ano de muito mais inteligência de transformar o caso de uso em realidade”, afirma Thiago Viola, diretor de Inteligência Artificial e Dados da IBM Brasil. “As empresas vão começar a amadurecer, para garantir que as soluções funcionarão, que não vão ‘alucinar’, que não vão dar nenhum problema.”

“Em 2023, a gente teve alguns ‘brinquedinhos’, não eram ainda algo que se pudesse chamar de uma aplicação corporativa”, explica Cassio Dreyfuss, vice-presidente de análise e pesquisa do Gartner Brasil. “Em 2024, isso vai decolar e você tem que estar preparado para isso!”

Essa também é a percepção de Marcelo Ciasca, CEO da Stefanini. Para ele, “apesar de em 2023 a inteligência artificial ter sido a pauta principal em termos de tecnologia, ninguém sabia exatamente ainda como aplicá-la efetivamente.”

“’Automação’ é uma palavra importante para o ano”, sugere Gilson Magalhães, presidente da Red Hat Brasil. Apesar do deslumbramento que a IA provocou em 2023, as empresas passam a entender que ela é uma ferramenta para processos mais robustos e poderosos. “A automação vai entrar mais nas casas, melhorar nossa percepção de temas pessoais, mas a gente vai ver também automação industrial, no campo, fabril, a automação entrando como uma grande meta”, acrescenta.

A OpenAI, criadora do afamado ChatGPT, deu um passo importante nessa direção no final de 2023, ao liberar a possibilidade de seus usuários pagantes criarem os seus próprios assistentes virtuais, especializados em um tema e alimentados com dados próprios. Esse é o prelúdio de inteligências artificiais capazes de realizar tarefas mais amplas a partir de comandos complexos, conectando-se a diferentes serviços e até tomando decisões em nome do usuário.

A primeira vez que vi isso foi ainda em novembro de 2019, em uma demonstração da Microsoft, Adobe, Accenture e Avanade. Em uma época que o ChatGPT parecia uma miragem, um sistema controlado por voz em frases muito simples comprava passagens aéreas, reservava hotéis e até pedia comida para o usuário. Mas o que mais me chamou a atenção foi que ele tomava decisões comerciais com base no que sabia do usuário, sem o consultar, como por exemplo, escolher em qual hotel faria a reserva e até pedir um sanduíche sem queijo, pois a pessoa era intolerante à lactose.

Perguntei na época qual a garantia que eu, como usuário, teria que essas decisões seriam as melhores para mim, e não para as empresas envolvidas. E isso toca em um ponto que deve nortear os sistemas com IA nos próximos anos: a ética! Questionei também quando poderíamos ter algo como aquilo disponível.

A resposta: por volta de 2024!

 

Máquinas éticas

“Haverá um encapsulado de gestão e governança muito mais forte do que vimos em 2023”, afirma Viola. Segundo o executivo, “será um ano que vai ter que realizar se preocupando com fatores éticos, de governança, de proteção da IA como um todo”.

Esse debate ganhou força em 2023 e deve se cristalizar em 2024. Não se quer uma tecnologia incrível que, para ser assim, passe por cima da privacidade ou ameace direitos e até o bem-estar das pessoas. A regulamentação da IA é um grande desafio, pois ela não deve coibir seu desenvolvimento, mas precisa encontrar maneiras de responsabilizar empresas e usuários por maus usos e descuidos na sua criação.

Esse cenário abre ótimas oportunidades a empresas e profissionais. “TI se transformou no grande divisor de águas de diferenciação das empresas”, explica Magalhães. “Se você tem uma boa TI, você se diferencia”, conclui.

Em uma vida cada vez mais digitalizada e dependente da IA para decisões pessoais e empresariais, essas equipes ficam ainda mais importantes. “A TI muda de papel: ao invés de receber requisitos para gerar soluções, vai fornecer, de uma maneira consultiva, recursos nas áreas de clientes”, explica Dreyfuss. Ciasca corrobora essa ideia: “isso não vai eliminar o emprego das pessoas, mas vai redirecionar muitos para que as pessoas tenham a capacidade de fazer isso de forma adequada.”

Não há dúvida de que será um ano estimulante e de desenvolvimentos exponenciais. Precisamos apenas nos manter atentos porque todas essas novidades galopantes, que tanto nos impressionam, acabam sendo difíceis de assimilar pela nossa humanidade (o que não deixa de ser emblemático). Não podemos achar que o fim justifica os meios e partir em uma corrida irresponsável, mas tampouco podemos ficar travados por temores de máquinas que nos dominem (ou coisas piores).

Cada vez mais, a inteligência artificial será nossa parceira pessoal e de negócios, e isso ficará mais consolidado e profissional em 2024. É hora de nos apropriarmos de todo esse poder, para nos beneficiarmos adequadamente do que bate a nossa porta!

 

O CEO da OpenAI, Sam Altman, que ganhou a briga contra o antigo conselho da empresa - Foto: Steve Jennings/Creative Commons

Esse foi o ano da inteligência artificial, sem dúvida

By | Tecnologia | No Comments

Todo ano uma tecnologia desponta como inovadora, capturando mentes e manchetes. Ao final de 2023, poucas pessoas destacariam outra coisa que não fosse a inteligência artificial. Ela deixou de existir apenas em debates acadêmicos e de especialistas para ocupar rodas de conversas de leigos em mesas de bar. Mas o que fez uma tecnologia septuagenária e que já integrava nosso cotidiano (ainda que a maioria não soubesse disso) ganhar tamanha importância?

A resposta passa pelo lançamento de um produto: o ChatGPT. Apesar de ter sido liberado em 30 de novembro de 2022, nesse ano se tornou o produto de mais rápida adoção da história (e não me restrinjo a produtos digitais), com 100 milhões de usuários em apenas quatro meses! Mas a despeito de suas qualidades, sua grande contribuição foi demonstrar ao cidadão comum o poder da IA. E isso detonou uma corrida frenética para inclusão dessa tecnologia em todo tipo de produtos.

O ChatGPT faz parte de uma categoria da inteligência artificial chamada “generativa”. Isso significa que ele é capaz de gerar conteúdos inéditos (no seu caso, textos) a partir do que sabe. Parece mágica para muita gente, mas uma outra característica sua talvez seja ainda mais emblemática: o domínio da linguagem humana, e não termos truncados ou computacionais. E uma linguagem complexa, estruturada e consciente nos diferenciava dos outros animais e das máquinas.

Agora não mais das máquinas! Ao dominar a linguagem humana, a IA praticamente “hackeou” o nosso “sistema operacional”. E essa é a verdadeira explicação para 2023 ter sido o ano da inteligência artificial.


Veja esse artigo em vídeo:


Como é preciso quebrar alguns ovos para fazer uma omelete, toda essa transformação trouxe algumas preocupações. Uma das primeiras veio da educação, com professores temendo que perderiam a capacidade de avaliar seus alunos, que passariam a usar o ChatGPT para fazer seus trabalhos. Alguns professores chegaram até a temer que fossem substituídos de vez por máquinas inteligentes. Felizmente nada disso aconteceu, mas o debate serviu para educadores perceberem que precisavam reciclar a maneira como ensinavam e avaliavam seus alunos.

O medo de ser substituído pela máquina também atingiu funções que antes se sentiam imunes a isso, por serem trabalhos criativos. E esse é um temor legítimo, pois muita gente já está perdendo mesmo o emprego para a IA. Mas há “esperança”!

A inteligência artificial realmente cria coisas incríveis depois de processar quantidades obscenas de informação, encontrando soluções que nem o mais experiente profissional conseguiria. Mas ela também erra, e erra muito! São as chamadas “alucinações”, termo que entrou em nosso cotidiano em 2023 com essa acepção.

Trata-se de informações incorretas (às vezes muito erradas) que as plataformas inventam e incluem em suas produções, para tentar atender aos pedidos dos usuários. Por conta delas, muita gente se deu mal em 2023, até perdendo o emprego, por apresentar trabalhos com esses erros grosseiros. Portanto, bons profissionais ainda são necessários, para verificar se a IA não está “mentindo” desbragadamente.

As big techs abraçaram a IA! Depois que o ChatGPT foi chamado inicialmente de “assassino de Google” (outra bobagem que não se concretizou), o próprio Google correu para lançar em fevereiro o seu produto, o Bard, tentando deixar para trás a sensação de que tinha perdido a corrida de algo que já pesquisava havia muitos anos. No segundo semestre, a Meta incorporou seu Llama 2 a suas plataformas.

Mas quem acabou aparecendo com força mesmo foi a Microsoft, que teria investido algo como US$ 12 bilhões na OpenAI, criadora do ChatGPT. Com isso, essa tecnologia foi incorporada em muitos de seus produtos, como o Bing e o Word.

A inteligência artificial parece estar em toda parte. Mas isso é só o começo!

 

“Com grandes poderes, vêm grandes responsabilidades”

A IA realmente deslumbrou todos. Não é exagero afirmar que, mesmo em seu estágio atual, para muitos ainda embrionário, ela já está transformando o mundo. Mas para muita gente, ela está indo rápido demais.

Hoje há um embate entre dois movimentos. De um lado, temos o “Altruísmo Eficaz”, que defende que o desenvolvimento da IA seja bem regulado, para evitar que ela se torne muito poderosa e destrua a humanidade. Do outro, há o “Aceleracionismo Eficaz”, que defende justamente o contrário: que seu desenvolvimento aconteça totalmente livre, sem regras. Para esses, os benefícios da IA superam eventuais riscos que traga, por isso deve acontecer o mais rapidamente possível.

Esse embate provocou um abalo sísmico no dia 17 de novembro, quando o conselho da OpenAI sumariamente demitiu Sam Altman, fundador e CEO da empresa. Os conselheiros alegaram que Altman não era mais “confiável”. Isso porque a OpenAI nasceu como uma organização sem fins lucrativos, para criar uma IA “que beneficiasse a humanidade”. Com o tempo, Altman percebeu que, se não criasse produtos comerciais para captar novos investimentos, a empresa não evoluiria. Foi quando se juntou à Microsoft!

O que se viu nos cinco dias seguintes foi uma reviravolta cinematográfica, com Altman recebendo apoio massivo dos funcionários da empresa e dos investidores, especialmente da Microsoft. Nesse curtíssimo tempo, reassumiu o cargo e o antigo conselho renunciou. No novo, a Microsoft ganhou um assento.

Por tudo isso, o ano que começou com uma mistura de deslumbramento e temor em torno da inteligência artificial termina com um debate fortíssimo em vários países, inclusive no Brasil, se essa tecnologia deve ser regulamentada. A preocupação é que, se empresas de redes sociais, que não respondem pelos problemas que causam, racharam sociedades ao meio, a IA poderia criar danos potencialmente muito maiores, se usada para o mal e sem nenhuma responsabilização dos usuários e das plataformas.

Com tudo isso, esse definitivamente não foi um ano típico na tecnologia! As mudanças promovidas pela inteligência artificial foram tantas e tão intensas que é como se todo esse debate estivesse acontecendo há muitos anos. Mas não: ele aconteceu todo em 2023. Portanto, não há como negar à inteligência artificial o título de tecnologia mais impactante do ano, para não dizer da década! Precisamos nos apropriar adequadamente dela!

 

Geoffrey Hinton, o “padrinho da IA”, que se demitiu do Google em maio para poder criticar livremente os rumos da IA - Foto: reprodução

Entusiastas da IA querem acelerar sem parar, mas isso pode fazê-la derrapar

By | Tecnologia | No Comments

Nesse ano, a inteligência artificial deixou de ser um interesse da elite tecnológica e conquistou o cidadão comum, virando tema até de conversas de bar. Muita gente agora a usa intensamente, criando tanto coisas incríveis, quanto enormes bobagens. Isso gerou uma excitação em torno da tecnologia, com grupos que propõem que seja desenvolvida sem nenhuma restrição ou controle, acelerando o máximo que se puder.

Isso pode parecer emocionante, mas esconde um tipo de deslumbramento quase religioso que de vez em quando brota no Vale do Silício, a meca das big techs, nos EUA. Um movimento especificamente vem fazendo bastante barulho com essa ideia. Batizado de “Aceleracionismo Efetivo” (ou “e/acc”, como se autodenominam), ele defende que a inteligência artificial e outras tecnologias emergentes possam avançar o mais rapidamente possível, sem restrições ou regulamentações.

Mas quem acelera demais em qualquer coisa pode acabar saindo da pista!

Eles desprezam pessoas que chamam de “decels” e “doomers”, aquelas preocupadas com riscos de segurança vindos de uma IA muito poderosa ou reguladores que querem desacelerar seu desenvolvimento. Entre eles, está Geoffrey Hinton, conhecido como o “padrinho da IA”, que no dia 1º de maio se demitiu do Google, para poder criticar livremente os caminhos que essa tecnologia está tomando e a disputa sem limites entre as big techs, o que poderia, segundo ele, criar “algo realmente perigoso”.

Como de costume, radicalismos de qualquer lado tendem a dar muito errado. A verdade costuma estar em algum ponto no meio de caminho, por isso todos precisam ser ouvidos. Então, no caso da IA, ela deve ser regulada ou seu desenvolvimento deve ser liberado de uma forma quase anárquica?


Veja esse artigo em vídeo:


O Aceleracionismo Efetivo surgiu nas redes sociais no ano passado, como uma resposta a outro movimento: o “Altruísmo Eficaz”, que se tornou uma força importante no mundo da IA. Esse último começou promovendo filantropia otimizada a partir de dados, mas nos últimos anos tem se preocupado com a segurança da sociedade, propondo a ideia de que uma IA poderosa demais poderia destruir a humanidade.

Já o aceleracionistas efetivos acham que o melhor é sair da frente e deixar a inteligência artificial crescer livre e descontroladamente, pois seus benefícios superariam muito seus eventuais riscos, por isso jamais deveria ser vista como uma ameaça. Para eles, as plataformas devem ser desenvolvidas com software open source, livre do controle das grandes empresas.

Em um manifesto publicado no ano passado, os aceleracionistas efetivos descreveram seus objetivos como uma forma de “inaugurar a próxima evolução da consciência, criando formas de vida impensáveis da próxima geração”. De certa forma, eles até aceitam a ideia de que uma “super IA” poderia ameaçar a raça humana, mas a defendem assim mesmo, pois seria “o próximo passo da evolução”.

Para muita gente, como Hinton, isso já é demais! Em entrevista ao New York Times na época em que deixou o Google, o pioneiro da IA disse que se arrependia de ter contribuído para seu avanço. “Quando você vê algo que é tecnicamente atraente, você vai em frente e faz”, justificando seu papel nessas pesquisas. Agora ele teria percebido que essa visão era muito inconsequente.

Portanto é um debate em torno da ética do desenvolvimento tecnológico e das suas consequências. Conversei na época sobre aquela entrevista de Hinton com Lucia Santaella, professora-titular da PUC-SP. E para ela, “a ética da inteligência artificial tem que funcionar mais ou menos como a da biologia, tem que ter uma trava! Se não, os filmes de ficção científica vão acabar se realizando.”

 

A dificuldade de se regular

Além da questão ética, outro ponto que contrapõe aceleracionistas efetivos e altruístas eficazes é a necessidade de se regular a inteligência artificial. Mas verdade seja dita, essa tecnologia está dando um banho nos legisladores. Isso porque ela evolui muito mais rapidamente do que eles são capazes de propor leis.

Podemos pegar, como exemplo, a União Europeia, que legisla de forma rápida e eficiente temas ligados à tecnologia. Em abril de 2021, ela apresentou um projeto de 125 páginas como “referência” na regulação da IA. Fruto de três anos de debates com especialistas de diferentes setores associados ao tema, Margrethe Vestager, chefe da política digital do bloco, disse que o documento estava “preparado para o futuro”.

Parecia ser isso mesmo, até que, em novembro do ano passado, a OpenAI lançou o ChatGPT e criou uma corrida frenética para se incluir a inteligência artificial generativa em todo tipo de sistema. E isso nem era citado na proposta europeia!

O processo de criação de uma nova lei de qualidade é naturalmente lento, pois exige muita pesquisa e debate. Mas se as coisas acontecerem como propõem os e/accs, os legisladores estarão sempre muito atrás dos desenvolvedores. Os primeiros não conseguem sequer entender a tempo o que os segundos estão criando e, justiça seja feita, mesmo esses não têm total certeza do que fazem.

Enquanto isso, Microsoft, Google, Meta, OpenAI e outras gigantes da tecnologia correm soltas para criar sistemas que lhes concederão muito poder e dinheiro. A verdade é que quem dominar a IA dominará o mundo nos próximos anos.

Os aceleracionistas efetivos afirmam que eles são o antídoto contra o pessimismo dos que querem regular a inteligência artificial, algo que diminuiria o ritmo da inovação, o que, para eles, seria o equivalente a um pecado. Mas quanto disso é real e quanto é apenas uma “atitude de manada” inconsequente?

Sou favorável que a IA se desenvolva ainda mais. Porém, se nenhum limite for imposto, ainda que de responsabilização quando algo der errado, as big techs farão o mesmo que fizeram com as redes sociais. E vejam onde isso nos levou!

Não podemos perder o foco em nossa humanidade, que nos permite distinguir verdade de mentira, certo de errado! Só assim continuaremos desenvolvendo novas e incríveis tecnologias, sem ameaçar a sociedade.

Afinal, a ética consciente é o que nos diferencia dos animais, e agora, pelo jeito, também das máquinas!


Antes de encerrar, gostaria de fazer uma nota pessoal. Ainda que discorde filosoficamente dos aceleracionistas efetivos, acho o debate válido, se feito de forma construtiva. Pessoas com pontos de vista diferentes encontram juntas boas soluções que talvez não conseguiriam sozinhas, justamente por terem visões parciais de um tema. Para isso, necessitamos de conhecimento e de vontade de fazer o bem. Esse é um dos motivos para eu iniciar em 2024 meu doutorado na PUC-SP, sob orientação de Lucia Santaella, para pesquisar o impacto da inteligência artificial na “guerra” pelo que as pessoas entendem como “verdade”, algo determinante em suas vidas.

 

Detalhe de uma linha de produção de aves da Sadia - Foto: reprodução

Matemática e IA ajudam a garantir a entrega dos presentes antes do Natal e o peru na ceia

By | Tecnologia | No Comments

O fim do ano está chegando e, em um mundo em que o e-commerce ganha cada vez mais espaço, surge a pergunta: as compras online que eu fizer hoje chegarão antes do Natal? A maioria das pessoas não tem a menor ideia do que o clique no botão “comprar” movimenta, não apenas na entrega, mas também na produção daquele item.

Quem responde esse questionamento é a cadeia de suprimentos (ou “supply chain”), que possui metodologias bem conhecidas, mas que precisa lidar continuamente com imprevisibilidades que teimam em desafiar planejamentos e modelos. Em um cenário em que a quantidade de informação não para de crescer e os clientes ficam cada vez mais exigentes, modelos matemáticos e a inteligência artificial se apresentam como aliados poderosos. Elas dinamizam esses processos, melhorando a experiência do cliente final e, do lado das empresas, diminuindo custos e aumentando receitas.

Segundo o estudo “Own Your Transformation”, feito pelo IBM Institute for Business Value em cooperação com o instituto Oxford Economics, 53% dos executivos brasileiros do setor investem em novas tecnologias para fazer frente a interrupções na cadeia de suprimentos. O levantamento, que entrevistou 1.500 Chief Supply Chain Officers (CSCO) de todo o mundo, indicou ainda que 60% dos brasileiros já usavam abordagens preditivas como forma de gerenciar riscos.

“A gente faz um modelo que, em curto prazo, conta com fatos concretos, mas depois começa a aventar hipóteses, começa a trabalhar com modelos estocásticos”, explica Marcelo Elias, sócio e conselheiro da Linear, empresa brasileira que usa a matemática para a otimização de processos de supply chain. Modelos estocásticos incorporam elementos de aleatoriedade ou incerteza, com variáveis que podem mudar de maneira probabilística ao longo do tempo. Eles são uma ferramenta poderosa para entender e prever resultados de sistemas complexos.

A companhia tem 26 anos e ajuda nas decisões de executivos de clientes tão distintos quanto Ambev e Natura, mas construiu sua fama trabalhando em cadeias do setor de produção de alimentos, “as mais complexas que existem”, segundo Elias.

É o caso, por exemplo, de um país que importe frangos de um determinado frigorífico, com características específicas, como peso. Se por um fator fora de controle, como o surgimento de uma barreira sanitária, interrompe essas compras, a empresa precisa decidir o que fazer com as aves, que já estão prontas para o abate. “Os animais estão ali, não dá para ‘estocar’, porque perderão sua ‘configuração’, ganhando mais peso”, explica Fabio Sas, sócio e diretor comercial e marketing da Linear.

Em um caso como esse, em que literalmente centenas de milhares de frangos correm o risco de serem perdidos, os modelos matemáticos sugerem outros mercados para onde esse excedente pode ser direcionado. Ainda que o preço caia, será a menor perda possível e em um mercado que não “contaminará” os preços de praças mais importantes.

Segundo dados do IBGE, algo como 30% dos alimentos produzidos no Brasil acabam sendo descartados, totalizando cerca de 46 milhões de toneladas anuais de desperdício, um prejuízo estimado de R$ 61,3 bilhões. Isso nos deixa como o 10º país que mais joga fora comida no mundo, segundo a Organização das Nações Unidas (ONU).

O desperdício ocorre em diversas etapas da cadeia, como mau planejamento na produção, deficiências de infraestrutura de transporte, até o consumo inadequado. Isso representa não só uma enorme redução nos lucros de produtores e varejistas, como um custo social inaceitável em um país que luta contra a fome em uma parcela significativa de sua população.

Parte da solução desse problema passa por tentar antecipar com boa acuracidade quanto o mercado precisará de cada produto, para que seja produzido na quantidade e no tempo certo. E no caso de evento inesperados, como picos de consumo, sistemas assim podem ajustar previsões e programações de produção em tempo real.

Os modelos da Linear trabalham nisso. Se for produzido mais que o necessário ou um produto chegar antes da hora nas lojas, isso gera custos com estoque e até perdas por se estragar. Se produzir menos, perdem-se vendas e o cliente fica frustrado por não encontrar o que queria.

 

Nada isolado, tudo integrado

A maioria dos modelos matemáticos ainda cuida da cadeia localmente: trabalham para maximizar os resultados de uma fábrica específica, por exemplo. Mas em um mundo globalizado e acelerado, a soma dos “ótimos locais” não representa necessariamente o “ótimo global”.

“Os clientes estão acostumados a olhar individualmente cada planta e ver se ela está dando lucro, mas isso não existe”, explica Walker Batista, sócio e diretor de modelagem e inovação da Linear. Ele explica que uma fábrica pode até operar com prejuízo, se contribuir positivamente com o todo, por exemplo concentrando os produtos mais baratos. “A formulação de cada planta não é tomada localmente, e sim de forma global, mas isso não dá para fazer sem a matemática”, conclui.

De certa forma, os desafios do supply chain hoje são os mesmos de antes. O que mudou muito é a escala e a velocidade.

Até alguns anos atrás, a cadeira funcionava movida por eventos específicos. Havia tempo para coletar e processar informações, para se tomar as decisões. No atual mundo interligado, em que um produto não estar disponível se torna um “pecado”, e entregas começam a ser feitas até na mesma hora em que o pedido for feito, essa “zona de conforto” desapareceu.

O planejamento da cadeia deixa de funcionar por eventos e passa a acontecer de maneira fluida, dia a dia, às vezes de hora em hora! É um cenário em que a matemática e a inteligência artificial podem oferecer uma enorme vantagem competitiva, analisando uma quantidade obscena de dados das mais diferentes fontes, identificando padrões, alimentando os modelos e gerando ideias para os gestores.

Em alguns casos, chega-se a uma fronteira, que é o limite computacional disponível para processar tudo isso. A computação quântica desponta como uma promessa de resposta, mas, segundo Batista, seus altos custos ainda não conseguem se justificar nesses processos.

Portanto, quando comprar seu próximo presente de Natal e descobrir que ele chegará a tempo de ser colocado embaixo da árvore, ou trazer um belo peru para a ceia, lembre-se que nada é por acaso: muita tecnologia foi usada para isso acontecer.

 

Taylor Swift e suas cópias, que podem ser geradas por IA para convencer as pessoas - Foto: Paulo Silvestre com Creative Commons

Pessoas se tornam vítimas de bandidos por acreditarem no que desejam

By | Tecnologia | No Comments

Usar famosos para vender qualquer coisa sempre foi um recurso poderoso do marketing. Mas agora as imagens e as vozes dessas pessoas estão sendo usadas sem sua permissão ou seu conhecimento para promover produtos que eles jamais endossariam e sem que ganhem nada com isso.

Esse conteúdo falso é criado por inteligência artificial e está cada vez mais convincente. Além de anunciar todo tipo de quinquilharia, esses “deep fakes”, como é conhecida essa técnica, podem ser usados para convencer as massas muito além da venda de produtos, envolvendo aspectos políticos e até para se destruir reputações.

O processo todo fica ainda mais eficiente porque as pessoas acreditam mais naquilo que desejam, seja em uma “pílula milagrosa de emagrecimento” ou nas ideias insanas de seu “político de estimação”. Portanto, os bandidos usam os algoritmos das redes sociais para direcionar o conteúdo falso para quem gostaria que aquilo fosse verdade.

Há um outro aspecto mais sério: cresce também o uso de deep fakes de pessoas anônimas para a aplicação de golpes em amigos e familiares. Afinal, é mais fácil acreditar em alguém conhecido. Esse recurso também é usado por desafetos, por exemplo criando e distribuindo imagens pornográficas falsas de suas vítimas.


Veja esse artigo em vídeo:


As redes sociais, que são os maiores vetores da desinformação, agora se deparam sob pressão com o desafio de identificar esse conteúdo falso criado por IA para prejudicar outras pessoas. Mas seus termos de uso e até alguns de seus recursos tornam essa tarefa mais complexa que as dificuldades inerentes da tecnologia.

Por exemplo, redes como TikTok e Instagram oferecem filtros com inteligência artificial para que seus usuários alterem (e supostamente “melhorem”) suas próprias imagens, uma distorção da realidade que especialistas afirmam criar problemas de autoestima, principalmente entre adolescentes. Além disso, muitas dessas plataformas permitem deep fakes em algumas situações, como paródias. Isso pode tornar esse controle ainda mais difícil, pois uma mentira, uma desinformação, um discurso de ódio pode se esconder subliminarmente nos limites do aceitável.

O deep fake surgiu em 2017, mas seu uso explodiu nesse ano graças ao barateamento das ferramentas e à melhora de seus resultados. Além disso, algumas dessas plataformas passaram a convincentemente simular a voz e o jeito de falar de celebridades. Também aprendem o estilo de qualquer pessoa, para “colocar na sua boca” qualquer coisa. Basta treiná-las com alguns minutos de áudio do indivíduo. O “pacote da enganação” se completa com ferramentas que geram imagens e vídeos falsos. Na prática, é possível simular qualquer pessoa falando e fazendo de tudo!

A complexidade do problema cresce ao transcender as simulações grosseiras e óbvias. Mesmo a pessoa mais ingênua pode não acreditar ao ver um vídeo de uma celebridade de grande reputação destilando insanidades. Por isso, o problema maior não reside em um “fake” dizendo um absurdo, mas ao falar algo que o “original” poderia ter dito, mas não disse. E nessa zona cinzenta atuam os criminosos.

Um exemplo pôde ser visto na terça passada (5), quando o apresentador esportivo Galvão Bueno, 73, precisou usar suas redes sociais para denunciar um vídeo com uma voz que parecia ser a sua insultando Ednaldo Rodrigues, presidente da Confederação Brasileira de Futebol (CBF). “Fizeram uma montagem com coisas que eu nunca disse e eu nunca diria”, disse Galvão em sua defesa.

Ele não disse mesmo aquilo, mas poucos estranhariam se tivesse dito! Duas semanas antes, após a derrota da seleção brasileira para a argentina nas eliminatórias da Copa do Mundo, o apresentador fez duras críticas ao mesmo presidente. Vale dizer que há uma guerra pela liderança da CBF, e Rodrigues acabou sendo destituído do cargo no dia 7, pela Justiça do Rio.

 

Ressuscitando os mortos

O deep fake de famosos já gerou um enorme debate no Brasil nesse ano. No dia 3 de julho, um comercial sobre os 70 anos da Volkswagen no país provocou polêmica ao colocar a cantora Elis Regina (morta em 1982) cantando ao lado da filha Maria Rita. Elis aparece no filme dirigindo um antigo modelo de Kombi, enquanto a filha aparece ao volante de uma ID.Buzz, furgão elétrico recém-lançado, chamado de “Nova Kombi”.

Muita gente questionou o uso da imagem de Elis. Mas vale dizer que, nesse caso, os produtores tiveram a autorização da família para o uso de sua imagem. Além disso, ninguém jamais propôs enganar o público para que achasse que Elis estivesse viva.

Outro exemplo aconteceu na recente eleição presidencial argentina. Durante a campanha, surgiram imagens e vídeos dos dois candidatos que foram ao segundo turno fazendo coisas condenáveis. Em um deles, o candidato derrotado, Sergio Massa, aparece cheirando cocaína. Por mais que tenha sido desmentido, ele “viralizou” nas redes e pode ter influenciado o voto de muita gente. Tanto que, no Brasil, o Tribunal Superior Eleitoral (TSE) já se prepara para combater a prática nas eleições municipais de 2024.

Na época do comercial da Volkswagen, conversei sobre o tema com Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propaganda e Marketing). Para ele, “ficará mais difícil, a olho nu, detectar o que é verdadeiro”, restando aos peritos identificar as falsificações. “O desafio, daqui para frente, é que será mais comum ver esse tipo de debate na Justiça”, acrescentou.

Essa é uma preocupação mundial. As fake news mais eficientes não escancaram uma informação falsa “completa”. Ao invés disso, o conceito que pretendem impor é apresentado aos poucos, em pequenos elementos aparentemente desconexos, mas criteriosamente entregues, para que a pessoa conclua “sozinha” o que os criminosos querem. Quando isso acontece, fica difícil convencê-la do contrário.

Não há clareza sobre como resolver esse problema. Os especialistas sugerem que exista algum tipo de regulamentação, mas ela precisa equilibrar a liberdade para se inovar e a garantia dos interesses da sociedade. Sem isso, podemos ver uma enorme ampliação da tragédia das fake news, construída por redes sociais que continuam não sendo responsabilizadas por disseminá-las.

Como determina a Constituição, todos podem dizer o que quiserem, mas respondem por isso. O desafio agora é que não se sabe mais se a pessoa disse o que parece ter dito de maneira cristalina diante de nossos olhos e ouvidos.

 

O CEO da OpenAI, Sam Altman, que ganhou a briga contra o antigo conselho da empresa - Foto: Steve Jennings/Creative Commons

Como a confusão na OpenAI determinará nossas vidas

By | Tecnologia | No Comments

Nessa quarta (30), o lançamento do ChatGPT completa seu primeiro aniversário. É bem pouco tempo para um produto que mudou a maneira como fazemos muitas coisas em nossas vidas. Isso se deu não por seus próprios recursos, limitados a escrever textos (ainda que de maneira surpreendente), mas por ter iniciado a corrida da inteligência artificial generativa, que invadiu todo tipo de ferramenta de produtividade.

Por uma infame coincidência, a OpenAI, criadora do sistema, quase deixou de existir na semana passada. Na sexta anterior (17), Sam Altman, fundador e CEO da empresa, foi sumariamente demitido, pegando o mundo da tecnologia –e aparentemente ele mesmo– de surpresa. A OpenAI só não desapareceu por uma cinematográfica sequência de eventos, que puseram Altman de volta na sua cadeira em apenas cinco dias.

Isso já tornaria essa história incrível, mas pouco se sabe e menos ainda se fala dos elementos mais suculentos em seus bastidores. Afinal, o que faria o conselho de administração da OpenAI mandar embora a estrela mais brilhante do Vale do Silício no momento, em plena ascensão?

A resposta é profundamente mais complexa que uma simples “quebra de confiança”, apresentada na justificativa. O real motivo são visões conflitantes sobre como o desenvolvimento da inteligência artificial deve continuar acontecendo. De um lado, temos uma maneira mais lenta e cuidadosa, até para se evitar que ela “saia do controle” e ameace a humanidade. Do outro, há os que defendam que isso aconteça de forma acelerada, criando freneticamente novos e fabulosos produtos com ela.


Veja esse artigo em vídeo:


Sam Altman faz parte do segundo grupo. Os agora ex-membros do conselho de administração da OpenAI fazem parte do outro.

No fim de semana seguinte a sua demissão, Altman tentou sem sucesso reassumir o cargo. Então a Microsoft, que é a principal investidora da OpenAI, anunciou na segunda (20) a sua contratação para liderar um novo centro de pesquisa de inteligência artificial. Disse ainda que aceitaria qualquer profissional da OpenAI que quisesse acompanhar Altman.

No dia seguinte, em um movimento ousado, cerca de 700 trabalhadores da startup publicaram uma carta aberta exigindo a readmissão de Altman e a renúncia dos membros do conselho. Caso contrário, todos se demitiriam, o que na prática acabaria com a empresa. Na quarta, Altman estava de volta e os conselheiros se demitiram.

A Microsoft não tinha nenhum interesse no fim da OpenAI, portanto contratar Altman foi uma jogada de mestre, por forçar a reação das suas equipes. Depois de investir US$ 13 bilhões na startup, seus produtos estão sendo gradualmente integrados aos da gigante, como o pacote 365 (antigo Office) e o buscador Bing. Além disso, a OpenAI está pelo menos seis meses à frente da concorrência, como Google e Meta, o que é um tempo enorme nas pesquisas de IA, e isso não pode ser jogado no lixo.

A confusão na OpenAI não se trata, portanto, se Altman estava fazendo um bom trabalho. Segundo o New York Times, ele e os antigos conselheiros já vinham brigando há mais de um ano, pois o executivo queria acelerar a expansão dos negócios, enquanto eles queriam desacelerar, para fazer isso com segurança.

Vale dizer que a OpenAI foi fundada em 2015 como uma organização sem fins lucrativos, para construir uma superinteligência artificial segura, ética e benéfica à humanidade. Mas a absurda capacidade de processamento que a inteligência artificial exige levou à criação de um braço comercial do negócio, em 2018.

 

A “mãe de todas as IAs”

Altman sempre disse que buscava o desenvolvimento de uma inteligência artificial geral (IAG), um sistema capaz de realizar qualquer tarefa por iniciativa própria, até mesmo se modificar para se aprimorar. Isso é muito diferente das IAs existentes, que realizam apenas um tipo tarefa e dependem de serem acionadas por um usuário.

Alguns pesquisadores afirmam que a IAG, que superaria largamente a capacidade cognitiva humana, jamais existirá. Outros dizem que já estamos próximos dela.

Na semana passada, a OpenAI deu mais um passo nessa busca, com o anúncio da Q* (lê-se “Q-Star”, ou “Q-Estrela”, em tradução livre), uma IA ainda mais poderosa que as atuais. Esse sistema pode ter contribuído para a demissão de Altman.

Nada disso é um “papo de nerd”. Se chegaremos a ter uma inteligência artificial geral ou até com que agressividade a IA transformará todo tipo de ferramentas já impacta decisivamente como vivemos. E isso vem acontecendo de maneira tão rápida, que mesmo os pesquisadores estão inseguros sobre benefícios e riscos que isso envolve.

Há ainda preocupações geopolíticas: se as grandes empresas ocidentais não fizerem isso, regimes autoritários e fundamentalistas podem chegar lá, com consequências imprevisíveis para a ordem mundial. Mas também não podemos ver candidamente o Vale do Silício como um campeão da liberdade e da ética. Eles querem dinheiro, e casos como o da OpenAI e de muitas redes sociais ilustram isso.

Mesmo uma “IA legítima” pode ser usada de forma antiética e abusiva. Acabamos de ver isso na eleição presidencial argentina, com os candidatos usando essas plataformas para se comunicar melhor com seus eleitores, mas também para criar imagens depreciativas dos concorrentes. O mesmo deve acontecer aqui nas eleições municipais de 2024. Tanto que o Tribunal Superior Eleitoral (TSE) já busca como coibir a bagunça. A inteligência artificial deve, portanto, nos preocupar desde um improvável extermínio da humanidade até problemas pelo seu uso incorreto em nosso cotidiano.

Os robôs têm “leis” para que não se voltem contra nós, propostas pelo escritor Isaac Asimov, em 1942. São elas: “um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal”, “um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que entrem em conflito com a Primeira Lei” e “um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.” Mais tarde, ele acrescentou a “Lei Zero”: “um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.”

Elas parecem suficientes, mas são apenas uma ideia, enquanto a IA é uma realidade. E mesmo que sejam implantadas no âmago de uma inteligência artificial geral, que garantia temos de que ela não encontre maneiras de alterar seu código para desobedecê-las se assim achar necessário?

Por tudo isso, as decisões do novo conselho da Open AI nos próximos meses, que a devem tornar mais capitalista, afetarão não apenas a empresa, mas o futuro de todos nós. Com tanto dinheiro envolvido, era pouco provável que um grupo de acadêmicos conseguisse desacelerar o desenvolvimento da IA por questões éticas.

No final das contas, estamos fazendo uma aposta entre produtividade e segurança. Uma goleada da primeira começa a se formar. O problema é que aparentemente não temos capacidade de antecipar com certeza o que acontecerá. Temos que estar monitorando a cada momento essa evolução e ter uma tomada física para simplesmente puxar e desligar a coisa toda, se assim for necessário.

 

Cena de “Black Mirror”, em que se vê o implante ocular digital que aparece em vários episódios, com usos diversos - Foto: Reprodução

IA traz as coisas mais legais e mais sinistras de “Black Mirror” para o nosso cotidiano

By | Tecnologia | No Comments

Você gostaria de ter a sua disposição algumas das tecnologias de “Black Mirror”, que praticamente dão “superpoderes” a seus usuários, mesmo que isso possa lhes trazer algum risco? Se a reposta for positiva, prepare-se, pois a inteligência artificial pode fazer algo parecido àquilo se tornar realidade em breve, com tudo de bom e de ruim que oferece.

A série britânica, disponível na Netflix, ficou famosa por mostrar uma realidade alternativa ou um futuro próximo com dispositivos tecnológicos incríveis, capazes de alterar profundamente a vida das pessoas. Mas, via de regra, algo dá errado na história, não pela tecnologia em si, mas pela desvirtuação de seu uso por alguns indivíduos.

Os roteiros promovem reflexões importantes sobre as pessoas estarem preparadas para lidar com tanto poder. Com as novidades tecnológicas já lançadas ou prometidas para os próximos meses, os mesmos dilemas éticos começam a invadir nosso cotidiano, especialmente se (ou quando) as coisas saírem dos trilhos. Diante de problemas inusitados (para dizer o mínimo), quem deve ser responsabilizado: os clientes, por usos inadequados dos produtos, ou seus fabricantes, que não criaram mecanismos de segurança para conter isso?


Veja esse artigo em vídeo:


Provavelmente o dispositivo mais icônico de “Black Mirror”, que aparece em vários episódios, com diferentes aplicações, é uma espécie de implante ocular capaz de captar tudo que a pessoa vê em sua vida, que fica armazenado em um chip implantado atrás da orelha. Essa memória eterna e detalhada pode ser recuperada a qualquer momento, sendo projetada diretamente no próprio olho ou em uma tela.

Não é difícil imaginar como isso pode ser problemático, especialmente quando outras pessoas têm acesso a memórias alheias. Algumas coisas deveriam ser simplesmente esquecidas ou jamais compartilhadas!

A privacidade se torna um bem cada vez mais valioso em um mundo em que nossas informações pessoais viram dinheiro na mão de empresas que as transformam em dados comercializáveis. Um bom exemplo são equipamentos que vestimos (os chamados “wearables”) que captam informações sobre nossa saúde, muitas delas compartilhadas com os fabricantes. Mas para que esse envio é necessário?

Os relógios inteligentes (os “smart watches”) são o exemplo mais popular desses equipamentos. Mas uma nova geração de dispositivos melhorados pela inteligência artificial aprendem como nosso corpo funciona e nos oferecem informações personalizadas para uma vida melhor.

É o caso do Whoop 4.0, uma pulseira com diversos sensores biométricos, como batimentos cardíacos, oxigênio no sangue, temperatura e taxa de respiração, que afirma ajudar em atividades físicas e até em como dormimos. Já o Oura Smart Ring oferece algo semelhante, porém “escondido” em um simples anel.

Alguns são mais radicais, como a pulseira Pavlok 3. Ela promete ajudar a desenvolver hábitos mais saudáveis, como dormir melhor e até parar de fumar. Quando o dispositivo detecta algo ruim (como fumar), ele emite uma vibração e, se necessário, dá um choque elétrico na pessoa, para associar desconforto ao mau hábito.

Mas dois outros dispositivos lembram mais “Black Mirror”: o Rewind Pendant e o Humane AI Pin. Ainda não são os implantes oculares da série, mas prometem gravar o que acontece a nossa volta e muito mais. Eles pretendem inaugurar a era da “computação invisível”, em que não mais dependeremos de telas, nem mesmo as de celulares ou de óculos de realidades virtual ou aumentada.

O Rewind Pendant é um pequeno pingente que grava tudo que o usuário fala ou ouve. A partir daí, é possível dar comandos simples como “resuma a reunião de ontem” ou “o que meu filho me pediu hoje de manhã”. Como o sistema identifica a voz de quem está falando, o fabricante afirma que só grava alguém se essa pessoa explicitamente autorizar isso por voz.

Já o Humane AI Pin é um discreto broche que funciona como um assistente virtual que conhece nossos hábitos, grava e até projeta imagens em nossa mão. Comunica-se com o usuário por voz e sua inteligência artificial pode até desaconselhar que se coma algo, porque aquilo contém algum ingrediente a que a pessoa seja intolerante.

 

“Babaca digital”

Impossível não se lembrar do Google Glass, óculos inteligentes que a empresa lançou em 2013. Ele rodava diferentes aplicativos e as informações eram projetadas em sua lente, que se tornava uma tela para o usuário.

Apesar de cobiçado, acabou retirado do mercado por questões de privacidade. Ele tirava fotos e filmava sem que os outros soubessem. Além disso, fazia reconhecimento facial de interlocutores, que poderia ser usado para coletar informações adicionais. As pessoas que faziam maus usos do produto passaram a ser chamadas de “glassholes”, um trocadilho que junta “Glass” a “asshole” (algo como “babaca” em inglês).

Isso nos remete novamente a “Black Mirror”. Nenhum desses produtos foi criado para maus usos, mas as pessoas podem fazer o que bem entenderem com eles. E depois que são lançados, fica difícil “colocar o gênio de volta na lâmpada”.

Estamos apenas arranhando as possibilidades oferecidas pela inteligência artificial, que ainda revolucionará vidas e negócios. Tanto poder exigiria grandes responsabilidades, mas não podemos esperar isso das pessoas, e os fabricantes tampouco parecem muito preocupados.

Como exemplo, na semana passada, vimos o caso de alunos do 7º ao 9º ano do Colégio Santo Agostinho, um dos mais tradicionais do Rio de Janeiro, usando a inteligência artificial para criar imagens de suas colegas sem roupa. Desenvolvedores desses sistemas proíbem que sejam usados para esse fim, mas é inocência achar que isso será atendido. Tanto que já foram criadas plataformas especificamente para isso.

Quem deve ser responsabilizado por esses “deep nudes”: os alunos, os pais, a escola, o fabricante? Não se pode mais acreditar em qualquer imagem, pois ela pode ter sido sintetizada! Isso potencializa outros problemas, como os golpes de “sextorsão”, em que pessoas são chantageadas para que suas fotos íntimas não sejam divulgadas. Com a “computação invisível”, isso pode se agravar ainda mais!

O sociólogo polonês Zygmunt Bauman (1925 – 2017) era mesmo o filósofo de nosso tempo, com obras como “Modernidade Líquida” (1999), “Amor Líquido” (2004) e “Vida Líquida” (2005). Não viveu para experimentar a IA ou esses dispositivos, mas seu pensamento antecipou como tudo se tornaria descartável e efêmero na vida, nos relacionamentos, na segurança pessoal e coletiva, no consumo e no próprio sentido da existência.

A inteligência artificial está aí e ela é incrível: não dá para deixar de usá-la! Mas precisamos encontrar mecanismos para não cairmos nas armadilhas que nós mesmos criaremos com seu uso indevido.

 

Pais devem acompanhar atividades online dos filhos, mas plataformas têm responsabilidade no problema - Foto: Rawpixel/Creative Commons

Aumento da pedofilia online exige atenção no uso de redes sociais por crianças e adolescentes

By | Tecnologia | No Comments

Duas pesquisas divulgadas na quarta passada (25) demonstram uma explosão nos casos de pedofilia na Internet brasileira, ao mesmo tempo em que se observa um crescimento do uso da rede por crianças ainda na primeira infância. O problema gravíssimo dispara vários questionamentos sobre responsabilidades pelo seu crescimento e buscas por caminhos para a diminuição.

A primeira delas, da Safernet, organização que é referência no combate a crimes digitais no país, aponta que novos casos de imagens de abuso e de exploração sexual infantil chegaram a 54.840 entre 1 de janeiro e 30 de setembro desse ano, frente a 29.809 no mesmo período do ano passado: um crescimento de 84%.

Já a TIC Kids Brasil, levantamento feito pelo Cetic.br (Centro Regional de Estudos para Desenvolvimento da Sociedade da informação), ligado ao Comitê Gestor da Internet no Brasil, indica que as crianças estão ficando online cada vez mais cedo e por mais dispositivos. Dos brasileiros com até 6 anos de idade, 24% já haviam acessado a Internet nesse ano. Em 2015, primeiro ano da pesquisa, eram 11%.

No dia anterior, 41 Estados e o Governo Federal americano iniciaram processos contra a Meta, dona do Facebook e do Instagram, alegando que essas plataformas prejudicam crianças com recursos “viciantes”. As ações representam o esforço mais significativo daquelas autoridades para controlar seus impactos na saúde mental de jovens.

A coincidência de datas evidencia o tamanho do desafio para proteger crianças e adolescentes no meio digital. Assim como acontece com adultos, ele é uma fonte de valor inestimável para realização de atividades e para entretenimento. Porém os jovens são muito mais suscetíveis a abusos e ao desenvolvimento de dependência que os mais velhos, especialmente quando não recebem as devidas orientações.


Veja esse artigo em vídeo:


Um destaque da Safernet preocupa particularmente: cresce a quantidade de crianças e de adolescentes que produzem e enviam fotos e vídeos com conteúdo sexual de si mesmos, em troca da promessa de dinheiro ou de presentes pelos predadores digitais.

Isso está em linha com dados da Polícia Federal sobre crimes cibernéticos vitimando crianças e adolescentes: foram 627 nesse ano, contra 369 no ano passado (aumento de 69,9%). Ao todo, 291 pessoas foram presas, 46% a mais que no ano anterior. Esses dados foram divulgados no dia 16 de outubro, no lançamento do programa “De Boa na Rede”, do Ministério da Justiça e Segurança Pública, idealizado para orientar na criação de um ambiente digital seguro para crianças e adolescentes.

A TIC Kids Brasil aponta também que 95% dos brasileiros entre 9 e 17 anos estão online. Nas classes A e B, são 98%, mas o grupo que mais cresce é o das classes D e E, que passou de 56% em 2015 para 89% nesse ano. O celular é usado por 97% deles, mas aumenta o uso da TV (70%) e do videogame (22%). O único meio em queda é o computador, que era usado por 64% em 2015 e agora não passa de 38%.

A plataforma em que os jovens têm mais contas é o YouTube (88%), seguido pelo WhatsApp (78%), Instagram (66%), TikTok (63%) e Facebook (41%, o único em franco declínio). Mas, pelo uso, o líder é o Instagram (36%), seguido por YouTube (29%), TikTok (27%) e Facebook (2%).

A informação mais preocupante indica que 17% dos brasileiros entre 11 e 17 anos se sentiram incomodados com conteúdo sexual online: 14% meninos e 21% meninas. Do total, 16% receberam diretamente ou viram conteúdo sexual, 9% receberam pedidos de fotos ou vídeos sem roupa e 5% foram solicitados a falar sobre sexo.

A expressão “pornografia infantil” vem sendo substituída por “imagens de abusos contra crianças e adolescentes”. Nudez ou sexo com alguém com menos de 18 anos, por definição, não é consensual. Logo, não se trata de pornografia, que pressupõe a participação voluntária de pessoas maiores de 18 anos. A Safernet adverte que quem consome imagens de violência sexual infantil é cúmplice desse abuso.

 

Responsabilidades de cada um

Se o surgimento da Internet comercial na década de 1990 ampliou esse problema, a popularização das redes sociais o levou a um patamar altíssimo, com os mais jovens fazendo uso intenso e muitas vezes nocivo do meio digital.

Isso ganhou mais visibilidade no segundo semestre de 2021, quando a ex-gerente de integridade cívica da Meta Frances Haugen veio a público com milhares de documentos indicando que a empresa sabe desses problemas e que faz menos que poderia para combatê-los. O escândalo ficou conhecido como “Facebook Papers”.

Os processos da semana passada resultam de investigações surgidas dele. Em comunicado, a Meta disse que está “decepcionada com o fato de que, em vez de trabalhar de forma produtiva com empresas de todo o setor para criar padrões claros e adequados à idade dos muitos aplicativos que os adolescentes usam, os procuradores-gerais escolheram esse caminho”.

As empresas donas das redes sociais de fato criam mecanismos para mitigar o problema, como a possibilidade de pais e mães acompanharem o que seus filhos fazem nessas plataformas, limitadores de tempo de uso e identificação de atividades que podem estar associados a comportamentos de risco. Isso é bem-vindo, mas está longe de ser suficiente, podendo esconder a real intenção dessas companhias de fazerem pouco ou nada que ameace seus lucros ou o “vício” em seus produtos.

Recursos para alterar a própria imagem, em busca de um ideal de beleza inatingível, não são combatidos, sendo até incentivados por essas plataformas. Esses filtros são apenas um exemplo dos ganchos para atrair os mais jovens, de uma maneira intensa. Esse assunto, debatido recentemente nesse espaço, é reconhecidamente um gerador de problemas de saúde mental, especialmente entre meninas.

Ao oferecer essas ferramentas de controle parental, as empresas aparentemente querem repassar a responsabilidade de se evitar os problemas de crianças e adolescentes nas redes a seus pais e mães, livrando-se de seu papel nesse processo. Mas tal responsabilidade continua existindo e é imensa!

Pais e mães devem, claro, acompanhar de perto o que seus filhos fazem online. Isso deve ser feito com um olhar de acolhimento e orientação, nunca de repressão ou crítica. E não há espaço para indiferença: os predadores digitais estão à solta!

Mas as plataformas digitais também são profundamente responsáveis. A sua combalida ideia de que apenas criam recursos e as pessoas fazem maus usos deles, desculpa padrão dessas empresas até para não serem reguladas pelas autoridades, aparece aqui com força e perversidade. Até quando elas continuarão com essa liberdade anárquica?

 

Thiago Araki, diretor-sênior de Tecnologia da Red Hat na América Latina, no palco do Summit Connect, no dia 18 – Foto: Red Hat

Negócios e empregos mudam exponencialmente com novas tecnologias e modelos

By | Tecnologia | No Comments

O ano de 2023 será lembrado como o momento em que a inteligência artificial ganhou as ruas. O lançamento do ChatGPT, no final de 2022, disparou uma corrida em que todos os negócios parecem ser obrigados a usar a IA, quase como se ela fosse um selo de qualidade, o que obviamente não passa de uma distorção do que ela representa. O grande desafio reside, portanto, em conhecer e se apropriar dessa tecnologia, para tirar proveito dela adequadamente.

As empresas têm um papel central em ajudar nessa tarefa, não apenas com o lançamento de produtos que tragam soluções consistentes com a IA, mas também na educação do mercado. Isso ficou claro durante o Red Hat Summit: Connect, principal evento de tecnologia open source da América Latina, que aconteceu em São Paulo no dia 18.

É curioso pensar que a inteligência artificial já está em nosso cotidiano há muitos anos, em incontáveis aplicações empresariais e até em nosso celular, ajudando-nos a fazer escolhas melhores. A diferença é que, até então, ela se escondia nas entranhas desses sistemas. Agora ganhou a luz do sol, exposta em conversas que temos com a máquina, que nos responde como se fosse outra pessoa.

Ainda há deslumbramento demais e conhecimento de menos sobre a inteligência artificial entre consumidores e empresas. O próprio lançamento de tantas plataformas de inteligência artificial generativa, na esteira do sucesso explosivo do ChatGPT, indica um certo descuido de alguns desenvolvedores de soluções, liberando um enorme poder para pessoas que não sabem como usá-lo corretamente.

Nesse sentido, a Red Hat, que é a maior empresa do mundo no fornecimento de soluções empresariais open source, entende que deve ir além do seu papel de desenvolver produtos que tiram proveito da IA: deve também educar seus usuários, seja pelas suas próprias iniciativas, seja pela colaboração com o mundo acadêmico. “As empresas não só podem como devem colaborar na formação de profissionais”, explica Alexandre Duarte, vice-presidente de Serviços para a América Latina na Red Hat. “Nós temos que juntar esforços do mundo corporativo com o mundo educacional, estando alinhados.”

A versão latino-americana do Summit, que também acontece em Buenos Aires (Argentina), Santiago (Chile), Tulum (México), Lima (Peru) e Montevidéu (Uruguai), traz para esses mercados produtos e conceitos que foram apresentados em maio no evento global da empresa, realizado em Boston (EUA). Entre eles, o Ansible Lightspeed e o OpenShift AI, que usam a inteligência artificial na automação de tarefas, como geração de códigos a partir de pedidos simples em português, liberando o tempo das equipes para funções mais nobres.

E assim como pude ver em Boston, aqui a empresa também deixa claro que a inteligência artificial não chega para substituir profissionais, e sim para melhorar suas rotinas. “Se você for um novato, poderá criar melhor, mais rápido; se for um especialista, poderá melhorar muito o que faz e usar seu domínio para refinar a entrega”, explicou-me Matt Hicks, CEO global da Red Hat, em uma conversa com jornalistas durante o Summit na cidade americana. “Nessa nova fase, temos que conhecer a pergunta para a qual queremos a resposta”, concluiu.

É auspicioso observar essa visão em uma das empresas de software mais respeitadas do mundo, em um momento em que muita gente teme pelo seu emprego pelo avanço da inteligência artificial. “Essas ondas tecnológicas não tiram o emprego das pessoas, os profissionais precisam se acomodar”, acalma Duarte. Mas ele faz uma ressalva: é preciso querer aprender! “Se você tem propensão a aprender coisas novas, eu não acredito que a inteligência artificial vai tirar seu emprego, e ainda vai gerar novas oportunidades de trabalho”, acrescenta.

 

O poder da “coopetição”

Em março deste ano, a Red Hat completou 30 anos. Ele cresceu a partir de sua distribuição do sistema operacional Linux, provavelmente o software open source mais famoso do mundo. Nessa modalidade, o produto e o código-fonte ficam disponíveis gratuitamente. A regra fundamental é que, se alguém fizer uma melhoria no sistema, ela deve ser compartilhada de volta com a comunidade.

Essa forma de pensar inspira seu próprio modelo de trabalho, que ficou conhecido como “open business”, uma abordagem empresarial em que equipes, a comunidade e até concorrentes são convidados a cooperar de maneira transparente. Ela valoriza a transparência e a responsabilização, distribuindo os benefícios para todos. “Há 30 anos a gente fala sobre essa abertura, essa transparência, essa possibilidade de diferentes perspectivas”, afirma Sandra Vaz, diretora-sênior de Alianças e Canais para a América Latina na Red Hat.

Surge então a chamada “coopetição”, um neologismo que une “cooperação” e “competição”. “Nada mais é que dois competidores cooperando e criando novas soluções para o bem de seus clientes”, explica Vaz. “Nós colaboramos, nossas equipes de desenvolvimento se conectam e criam o melhor dos mundos, simplificando soluções já existentes.”

A “coopetição” também é uma poderosa ferramenta para ampliar a base de clientes, pois um dos participantes pode trazer consumidores a que o outro lado não teria acesso. Sandra dá, como exemplo, um provedor de serviços na nuvem, como a AWS ou a Microsoft, que podem até ter produtos concorrentes aos da Red Hat, mas que se associam a ela justamente nessas soluções, se assim for o desejo do cliente.

A tecnologia avança a passos muito rápidos, assim como modelos de negócios inovadores. Qualquer que seja o mercado ou a função, está claro que profissionais precisam estar não apenas abertos à inovação, como também dispostos a aprender como tirar proveito dela de maneira eficiente e ética.

A inteligência artificial talvez não acabe com os empregos das pessoas que não a adotem, mas isso pode acabar acontecendo pelas mãos daquelas que passarem a usá-la.


Você pode assistir à íntegra em vídeo das minhas entrevistas com os executivos da Red Hat. Basta clicar no respectivo nome: Alexandre Duarte, Sandra VazMatt Hicks.

 

Graças à IA em novos celulares, qualquer um poderá alterar profundamente suas fotos - Foto: Akshay Gupta/Creative Commons

Celulares podem se tornar máquinas de distorcer a realidade

By | Tecnologia | No Comments

Quando a fotografia foi inventada, no século XIX, ela revolucionou o mundo por conseguir reproduzir facilmente a realidade. De lá para cá, ela só melhorou, culminando na fotografia digital, que transformou um hobby caro em uma diversão extremamente popular, consolidada com as câmeras cada vez mais poderosas nos celulares. Mas agora esses equipamentos podem ironicamente subverter a característica essencial da fotografia de retratar a realidade com precisão.

A culpa disso recai sobre a inteligência artificial. Ela já está presente há algum tempo nos softwares de captura e edição de imagens dos melhores celulares. Mas, até então, prestava-se a “melhorar” (note as aspas) as fotografias, usando técnicas para aumentar a sua fidelidade e refinar elementos como cores, brilho e contraste.

Isso começa a mudar agora, com o lançamento nos EUA, no dia 11, do Pixel 8 (sem previsão de chegada ao Brasil). O smartphone de US$ 700 do Google consegue efetivamente alterar a realidade fotografada. Isso quer dizer que, com ele, é possível, por exemplo, eliminar pessoas e objetos das fotos, alterar elementos das imagens ou modificar suas posições e até “melhorar” (de novo, com aspas) o rosto de pessoas combinando com a maneira que elas apareceram em outras fotos.

Como em todas as atuais plataformas baseadas na inteligência artificial generativa, alguns resultados dessas edições são decepcionantes e até grotescos. Outros, porém, ficam incrivelmente convincentes!

Já dizia São Tomé: “preciso ver para crer”. Parábolas à parte, é um fato que somos seres visuais: nosso cérebro tende a assumir como real o que está diante de nossos olhos. Por isso, vale perguntar até que ponto é positivo e até saudável dar a possibilidade de se distorcer a realidade de maneira tão simples.


Veja esse artigo em vídeo:


É curioso que a fotografia foi combatida por muitos quando surgiu, justamente pela sua capacidade de reproduzir, de maneira fácil, rápida e precisa, o mundo. Pintores diziam que o invento era algo grosseiro, que eliminava a subjetividade e a técnica dos artistas quando retratavam pessoas e paisagens. Grupos religiosos também a combatiam, por serem contrários à captura de imagens de “coisas feitas por Deus”.

Em 1826, o francês Joseph Nicéphore Niépce registrou seu quintal em uma placa de estanho revestida de betume, usando uma câmera escura por oito horas. Essa é considerada a primeira fotografia permanente. Três anos depois, ele fez um acordo com outro francês, Louis Jacques Mandé Daguerre, que aperfeiçoou o processo com o daguerreótipo, que precisava de “apenas” 30 segundos para fazer uma fotografia.

A patente do daguerreótipo foi vendida ao Estado francês em 1839, que a colocou em domínio público. Isso permitiu que a fotografia experimentasse grandes avanços ao redor do mundo. Provavelmente a empresa mais inovadora do setor foi criada pelo americano George Eastman em 1888: a Kodak. Entre suas contribuições, estão o rolo de filme (1889), a primeira câmera de bolso (1912) e o filme colorido moderno (1935).

O último grande invento da Kodak foi a fotografia digital, em 1975. Mas como os lucros da empresa dependiam da venda de filmes, seus executivos não deram importância a ela. Foi um erro fatal, pois a tecnologia se tornou incrivelmente popular e, quando a empresa decidiu olhar para ela, as japonesas já dominavam o mercado.

Em 1999, foi lançado o Kyocera VP-210, o primeiro celular com câmera capaz de tirar fotos, que tinham resolução de 0,11 megapixel (o iPhone 15 tira fotos de 48 megapixels). E isso nos traz de volta ao dilema atual.

 

Realidade alternativa

As fotografias nos celulares se tornaram tão realistas e detalhadas que o próprio negócio de câmeras fotográficas entrou em colapso. Elas continuam existindo, mas hoje praticamente só profissionais as utilizam, pois sabem como aproveitar todos os recursos daqueles equipamentos para fotografias realmente diferenciadas.

Os recursos de IA do Pixel 8 fazem parte de uma nova versão do Google Fotos, o aplicativo de edição e publicação de fotos da empresa, que é nativo nos smartphones Android, mas também pode ser baixado para iPhones. Isso significa que, em tese, outros aparelhos poderão ganhar esses recursos em breve, desde que, claro, tenham capacidade de processamento para isso.

A alteração de fotografias sempre existiu, mesmo antes dos softwares de edição de imagem. Entretanto fazer isso era difícil, exigindo equipamentos e programas caros e muita habilidade técnica. Além disso, as fotos editadas eram apresentadas como tal, sem a pretensão de levar quem as visse a acreditar que fossem reais (salvo exceções, claro)..

O que se propõe agora é que isso seja feito de maneira muito fácil, por qualquer pessoa, sem nenhum custo adicional e em equipamentos vendidos aos milhões. Isso levanta algumas questões éticas.

A primeira delas é que as pessoas podem passar a se tornar intolerantes com a própria realidade. O mundo deixaria de ser o que é, para ser o que gostariam. Isso é perigosíssimo como ferramenta para enganarem outros indivíduos e até a si mesmas.

A sociedade já experimenta, há anos, um crescimento de problemas de saúde mental, especialmente entre adolescentes, devido a fotos de colegas com corpos “perfeitos” (pela terceira vez, as aspas). Isso acontece graças a filtros com inteligência artificial em redes sociais, especialmente Instagram e TikTok, que fazem coisas como afinar o nariz, engrossar os lábios, diminuir os quadris e alterar a cor da pele. O que se observa mais recentemente são adolescentes insatisfeitos com seus corpos não pelo que veem em amigos, mas pelo que veem em suas próprias versões digitais.

Há um outro aspecto que precisa ser considerado nesses recursos de alteração de imagens, que são os processos de desinformação. Muito provavelmente veremos grupos que já se beneficiam das fake news usando intensamente essa facilidade para convencer seu público com mentiras cada vez mais críveis.

Hoje esses recursos ainda estão toscos demais para um convencimento completo. Mas é uma questão de pouco tempo até que eles se aproximem da perfeição.

Não tenham dúvidas: quando estiver disponível, as pessoas usarão intensamente essa tecnologia, estando imbuídas de boas intensões ou de outras não tão nobres assim. Quem será responsabilizado quando começarem a surgir problemas disso?

Assim como acontece com as redes sociais, as desenvolvedoras se furtam disso, dizendo que apenas oferecem um bom recurso, e as pessoas que fazem maus usos deles. Em tese, isso é verdade. Mas alegar inocência dessa forma chega a ser indecente! É como entregar uma arma carregada na mão de uma criança e torcer para que nada de ruim aconteça.

Chegamos ao mundo em que a ilusão se sobrepõe à realidade, mas não estamos prontos para lidar com isso.

 

Muitos motoristas não querem se contratados como CLT pela Uber - Foto: Paul Hanaoka/Creative Commons

Decisão contra a Uber escancara o envelhecimento das leis trabalhistas

By | Tecnologia | No Comments

No último dia 14, a Justiça Trabalhista de São Paulo determinou que a Uber contrate todos os motoristas ligados à plataforma pela CLT (Consolidação das Leis do Trabalho) e pague R$ 1 bilhão por danos morais coletivos. A decisão vale para todo o Brasil e a empresa tem seis meses após o fim de recursos para implantar as medidas.

A Uber já disse que não pretende cumprir a decisão! Em nota, a empresa afirma que não vai adotar nenhuma medida antes que todos os recursos estejam esgotados. A grande pergunta é: o que acontecerá se a decisão for mantida após isso?

Suprema ironia, associações de motoristas se manifestaram dizendo que eles não querem ser contratados pela CLT! Mas isso não quer dizer que estejam satisfeitos com as atuais condições de trabalho.

Qualquer que seja o resultado desses recursos, o caso serve para debatermos a aplicabilidade das leis trabalhistas brasileiras ao mundo atual. A Uber e diversas empresas que fazem parte de nossas vidas seguem os conceitos da economia compartilhada. Ela prevê o engajamento de vendedores e prestadores de serviço com seus clientes, viabilizado por plataformas digitais.

O problema é que esse modelo se choca com a CLT em muitos pontos. Em um momento em que o Governo Federal busca resgatar elementos como o imposto sindical, é de se questionar qual formato regerá as relações trabalhistas de milhões de brasileiros em um futuro próximo.


Veja esse artigo em vídeo:


A legislação brasileira é uma das que mais protege o trabalhador no mundo. Entre muitos itens de segurança social, benefícios como férias remuneradas de 30 dias (e ainda com um adicional de um terço) já a partir de um ano de admissão são luxos inimagináveis em outros países. Tudo isso tem um custo, pago pelos próprios profissionais e principalmente pelas empresas. Via de regra, para cada real pago em salário ao funcionário, a empresa gasta outro com os encargos trabalhistas.

“Essa é uma decisão feita para não ser cumprida”, afirma José Isaías Hoffmann, diretor de Controladoria da Corporate Consulting. “Operacionalmente, como a Uber vai admitir via CLT mais de um milhão de motoristas”, questiona. Ele acredita que, se ela for obrigada a fazer isso, acabará saindo do país, deixando um rastro de desemprego.

O peso dos encargos e de outras obrigações trabalhistas já provoca mudanças no perfil de contratações no Brasil há cerca de duas décadas. Cada vez mais, empresas procuram, sempre que possível, trocar o modelo da CLT por terceirizações de empresas com um único funcionário, os famosos “PJ”. Com isso, os empregadores se livram de encargos e burocracia, e têm o profissional à disposição.

Alguns trabalhadores também preferem esse formato, principalmente quando isso lhes proporciona flexibilidade, com destaque ao horário. É o caso dos profissionais por aplicativos, como motoristas e entregadores. “As pessoas querem uma vida flexível”, afirma a estrategista de carreira Ticyana Arnaud. “Se for para trabalhar CLT, então eles voltam a procurar emprego, vão ser motoristas numa empresa”, sugere.

O principal conflito entre as regras da CLT e as da economia compartilhada é que a primeira considera o profissional um empregado, enquanto a segunda o tem como um autônomo e às vezes nem isso: atua como um prestador informal, que pode trabalhar ao mesmo tempo para incontáveis contratantes. Essa flexibilidade tornou-se tão valorizada por trabalhadores de diferentes áreas (afinal, há uma enormidade de serviços na economia compartilhada), que muitos abrem mão da proteção e dos benefícios generosos da CLT por ela.

Apesar disso, é preciso ter cuidado, pois nem tudo que brilha é ouro!

 

Bondades podem esconder abusos

Não há dúvida que a economia compartilhada é um fenômeno consolidado e que traz muitos benefícios a prestadores e a clientes. A Uber é um exemplo tão didático quanto popular, por ter redefinido a mobilidade urbana e por ser usada por uma porcentagem considerável das populações das grandes cidades. Mas há muitos outros ótimos nomes, como Airbnb, Mercado Livre, iFood ou Rappi. Fica difícil pensar a vida moderna sem eles, e a pandemia deixou isso ainda mais evidente.

Ainda assim, não se pode deixar deslumbrar por suas inegáveis vantagens. O Laboratório de Pesquisa DigiLabour investiga continuamente o impacto das plataformas e de tecnologias disruptivas (como a inteligência artificial) no mundo do trabalho. Eles criticam, por exemplo, essas plataformas chamarem os motoristas de “parceiros” ou de “autônomos”, quando, na verdade, não têm autonomia nem para definir o valor das corridas ou a porcentagem que receberão por elas. Afirmam também que o “empreendedorismo de si mesmo” mascara uma relação de trabalho desigual, em que o profissional assume todos os riscos de um empreendedor, mas atua como um empregado, porém sem nenhum benefício ou proteção.

Já o Instituto Fairwork, ligado à Universidade de Oxford (Reino Unido), criou cinco princípios que seriam necessários para um trabalho decente: remuneração justa, condições justas de trabalho, contratos justos, gestão justa e representação dos funcionários na operação. Em uma pesquisa realizada por eles em 2021, as plataformas no Brasil ficaram entre as piores do mundo: em uma escala até 10 pontos nesses quesitos, iFood e 99 marcaram 2, Uber ficou em 1, enquanto Rappi, GetNinjas e UberEats não saíram do zero. Os resultados são semelhantes aos de outros países da América Latina, mas ficam atrás dos de operações na África, Ásia e Europa.

É importante lembrar que, quando a Uber começou a operar no Brasil, em 2016, dirigir para ela parecia um bom negócio: a empresa ficava com apenas 7% das corridas (hoje pode chegar a 50%) e oferecia muitos bônus aos motoristas. As corridas eram baratas e o serviço de alta qualidade.

Isso explica a “economia compartilhada que dá certo”: ela precisa ser boa para todos os envolvidos, ou seja, o cliente, o vendedor ou prestador, e a plataforma. Quando os motoristas da Uber passaram a receber muito pouco, tudo desmoronou!

“Precisa, de fato, de uma atualização na legislação para entender essa nova dinâmica de mundo”, afirma Hoffmann. “Ela requer que seja justo para quem faz o serviço, para quem recebe, para a economia, que ninguém seja prejudicado com isso”, conclui.

“É preciso tentar uma negociação para reduzir essas taxas e ser uma coisa que valha a pena para todos, e não só para um lado”, explica Arnaud. Para ela, “se a Uber for forçada a aderir à CLT, outras empresas também terão que fazer o mesmo”.

É um momento de mudança de paradigma na maneira como trabalhamos. Insistir na rigidez da CLT, criada em 1943, pode ir contra os interesses de muitos trabalhadores. Por outro lado, deixar tudo na mão das plataformas seria “pedir que a raposa tome conta do galinheiro”. É preciso buscar esse equilíbrio perdido, pois a economia compartilhada, sim, funciona. E nós, como clientes, precisamos pressionar para que essa solução seja encontrada.

 

Entregador dorme sobre seus jornais, em imagem tirada em 1935 – Foto: City of Toronto Archives/Creative Commons

Reação da mídia ao ChatGPT pode favorecer as fake news

By | Tecnologia | No Comments

Nas últimas semanas, diversas empresas de comunicação impediram que seus conteúdos continuassem sendo usados para alimentar o ChatGPT. Elas argumentam –com razão– que seus produtos têm valor e que não estão sendo remuneradas pela melhoria que proporcionam involuntariamente à plataforma geradora de textos por inteligência artificial da OpenAI.

Entre os que decidiram promover o bloqueio, estão os jornais americanos The New York Times e The Washington Post, o britânico The Guardian, a rede de TV CNN, as agências de notícias Reuters e Bloomberg, além de diversos veículos europeus. Até a gigante de e-commerce Amazon decidiu fechar a porta para esse robô.

Apesar de seus argumentos legítimos, essa decisão pode favorecer a desinformação em um futuro breve. Os sistemas de inteligência artificial generativa tornaram-se um enorme sucesso, e as pessoas devem usá-los cada vez mais. Em uma situação extrema em que todos os produtores de bons conteúdos os neguem a essas plataformas, elas poderiam ficar restritas a sites dedicados a fake news e outros tipos de conteúdo de baixa qualidade para “aprender o que dizer” aos seus usuários.

Nesse cenário, o público poderia passar a consumir e a replicar o lixo desinformativo, em uma escala ainda maior que a já vista nos últimos anos. Seria terrível para o jornalismo –que luta para combater isso– e para a sociedade como um todo.


Veja esse artigo em vídeo:


Eu já vi uma história parecida antes. Quando foi criado, em 2002, o Google Notícias gerou protestos entre veículos de comunicação do mundo todo, que acusavam a empresa de se apropriar de sua produção para criar um concorrente. O Google Notícias sempre se defendeu, dizendo que fazia um “uso justo” de pequenos trechos dos veículos e que sempre enviava os leitores que clicassem nos seus links para a fonte da notícia.

Diante das reclamações, o Google criou um recurso para que os veículos impedissem que seu conteúdo fosse usado no Notícias. O problema é que isso também tirava os veículos do buscador, o que não era nada interessante para eles. Eventualmente as partes chegaram a acordos que permitiram que esse conteúdo continuasse sendo usado, enquanto o Google criava mecanismos de apoio ao jornalismo no mundo. Movimentos semelhantes também aconteceram com as principais redes socais.

No caso atual, há algumas diferenças significativas. Pela natureza da inteligência artificial generativa, ela sempre cria textos inéditos, a cada pedido dos usuários. Não há remuneração, referência e sequer um link para as fontes que foram usadas para o sistema escrever aquilo. Consequentemente não há nenhum ganho para os autores.

“Certamente as inteligências artificiais não produziriam o conteúdo que elas são capazes sem serem alimentadas com o conteúdo criado por humanos, que não autorizaram isso e que não estão sendo remunerados por isso”, explica Marcelo Cárgano, advogado de Direito Digital e de Proteção de Dados do Abe Advogados. “A grande questão, no final, é essa!”

No dia 6, 26 organizações do mercado editorial, inclusive a brasileira ANJ (Associação Nacional de Jornais), publicaram o documento “Princípios Globais para a Inteligência Artificial”. Ele traz regras que consideram essenciais para a prática do jornalismo frente ao avanço da inteligência artificial, cobrando o desenvolvimento ético da tecnologia e o respeito às propriedades intelectuais dos veículos.

Outra fonte de informação ameaçada pela inteligência artificial é a enciclopédia digital Wikipedia. Pela natureza mais perene de seus milhões de verbetes, as pessoas poderiam fazer perguntas a plataformas de IA ao invés de consultar suas páginas, o que já vem preocupando seus editores. Suprema ironia, uma das maiores fontes para o ChatGPT é a própria Wikipedia.

 

Atualidade e ética

Além da questão da falta de remuneração pelo uso de conteúdos alheios, há ainda o temor de que as plataformas de inteligência artificial acabem substituindo a Wikipedia e o próprio jornalismo.

Esse questionamento surgiu, na quarta passada, em uma mesa de debates da qual participei na Semana da Imprensa, promovida pelo jornal Joca, na ESPM (Escola Superior de Propaganda e Marketing). O evento explica o jornalismo para crianças e adolescentes, o público do veículo.

Os participantes foram unânimes em negar essa possibilidade. O primeiro motivo é que esses sistemas, a despeito de seus melhores esforços, são imprecisos, cometendo muitos erros pela falta de uma verificação humana. Outro problema é que suas bases estão sempre desatualizadas (o ChatGPT só conhece fatos até setembro de 2021). Por fim, mas não menos importante, essas ferramentas não possuem qualquer iniciativa, ética ou transparência, essenciais a qualquer produto informativo.

“A função dos veículos de comunicação é particularmente importante para a democracia”, explica Cárgano, fazendo referência ao papel do jornalismo de promover debates críticos para a sociedade. “Mas eles também são empresas e têm que gerar lucro para sua própria viabilidade econômica”, acrescenta.

Toda essa confusão deriva do impacto que essa tecnologia já apresenta sobre pessoas e empresas. Ele é enorme, mas ainda pouco compreendido. Enquanto isso, todos buscam caminhos para aproveitar seus incríveis recursos, sem cair em possíveis armadilhas que podem surgir dela.

A decisão de impedir as plataformas de inteligência artificial de aprender com a sua produção pode ser ironicamente um “tiro no pé” do jornalismo. Se elas forem entregues a fontes de baixa qualidade, podem se tornar poderosas ferramentas de fake news, que fustigam os jornalistas e a própria imprensa como pilar que é de uma sociedade desenvolvida.

É preciso uma conscientização dos diferentes atores nesse processo. Do lado dos usuários, eles devem entender que a IA não é uma ferramenta que substitui o jornalismo ou mesmo um buscador, pois ela não garante a verdade no que produz. As empresas de inteligência artificial devem, por sua vez, melhorar ainda mais sua tecnologia, para corrigir as imperfeições existentes, e cuidar para não canibalizar suas próprias fontes, o que poderia, a médio prazo, inviabilizar seu próprio negócio.

As empresas de comunicação têm um papel fundamental na solução desse imbróglio. Obviamente elas precisam defender seus interesses comerciais, mas sem que isso crie riscos ainda inexistentes para o próprio negócio. Devem buscar uma compensação justa das plataformas de IA.

Vivemos em um mundo em que a verdade perde força diante de narrativas distorcidas por diferentes grupos de poder. Aqueles que a buscam deve se unir e somar as novas tecnologias às suas metodologias editoriais consagradas. Se forem bem-sucedidos nisso, todos ganharão!

 

Tom Cruise viveu pela segunda vez o intrépido piloto da Marinha dos EUA Pete Mitchell, em “Top Gun: Maverick” (2022) - Foto: divulgação

Inteligência artificial pode mandar “Top Gun” para o museu

By | Tecnologia | No Comments

Em 1986, plateias do mundo todo prenderam a respiração diante das acrobacias aéreas de Tom Cruise nas telas de cinema em “Top Gun”. Ele repetiu a dose em “Maverick”, a segunda maior bilheteria de 2022, rendendo US$ 1,4 bilhão, logo atrás de “Avatar 2”. Agora a inteligência artificial pode fazer essas peripécias virarem peças de museu, ao tornar pilotos de caça obsoletos e desnecessários.

Duas notícias recentes, uma do The New York Times e outra do The Washington Post, revelam planos dos militares de usar essa tecnologia em novas gerações de aviões e de drones. Ela seria capaz de tomar decisões mais rápidas e precisas que os pilotos, até os mais experientes.

A ideia é controversa. Muito se tem debatido sobre a substituição das mais diversas categorias profissionais por robôs, considerando o impacto social dessa mudança. Mas o que se propõe agora é uma máquina tomar decisões que efetivamente visam a morte de pessoas.

Diversos aspectos éticos são levantados nessa hora. Os próprios pilotos veem isso com ressalva, e não apenas porque podem perder seu emprego daqui um tempo. Afinal, uma máquina pode decidir sobre a vida ou a morte de um ser humano? E se isso realmente acontecer no controle de aviões de combate, quanto faltará para vermos robôs policiando nossas ruas e tomando as mesmas decisões letais por sua conta na vizinhança?


Veja esse artigo em vídeo:


Não estamos falando da atual geração de drones militares, que, apesar de úteis, são bem limitados. Um bom exemplo do que vem por aí é o veículo aéreo não tripulado experimental XQ-58A, conhecido como “Valkyrie”, da Força Aérea americana. Ele, se parece muito mais a um caça furtivo futurista, apesar de ser bem menor que os aviões de combate. É impulsionado por um motor de foguete e é capaz de voar de um lado ao outro da China, carregando munições poderosas.

Mas seu grande diferencial é o controle por inteligência artificial, podendo tomar decisões sozinho, apesar de os militares afirmarem que só executará ações letais se autorizado por um ser humano. Ele pode voar diferentes tipos de missões, inclusive apoiando pilotos em seus caças, aumentando o sucesso e preservando suas vidas.

Como sempre, uma guerra não se ganha apenas com os melhores soldados, mas também com a melhor tecnologia. Mas até agora a decisão de matar sempre recaiu sobre os primeiros. O que pode estar diante de nossos olhos é o surgimento de armas que tomem essa decisão seguindo seus critérios, um ponto sensível para os EUA, pelo seu histórico de ataques ilegais com drones convencionais que mataram civis.

Diante disso, o general Mark Milley, principal conselheiro militar do presidente americano, Joe Biden, afirmou que os EUA manterão “humanos à frente da tomada de decisões”. Ele recentemente conclamou forças armadas de outros países a adotar o mesmo padrão ético.

Nesse ponto, caímos em um outro aspecto crítico desse avanço. Países que adotem essas “boas práticas” poderiam ficar em desvantagem diante de outras potências militares e tecnológicas não tão “comprometidas”, com o maior temor recaindo sobre a China. Como a guerra é, por definição, algo “sujo”, seguir as regras poderia então criar uma desvantagem catastrófica.

Outra mudança trazida pela IA ao tabuleiro armamentista é a entrada de novas empresas fornecedoras de equipamentos. No caso da Força Aérea americana, dois nomes surgem quando pensamos na indústria de caças: a Lockheed Martin e a Boeing. Esses casamentos comerciais são tão antigos e poderosos que sua tecnologia jamais chega, por exemplo, a países menores ou –pior– a grupos guerrilheiros.

Com a pulverização de drones com IA relativamente baratos, muitas outras empresas passam a disputar esses bilionários orçamentos. O “Valkyrie”, produzido pela Kratos (fundada em 1994) custa cerca de US$ 7 milhões. Pode parecer muito, mas é bem menos que os US$ 80 milhões de um F-35 Lightning II, da Lockheed Martin. Outros modelos podem custar ainda menos, na casa de US$ 3 milhões.

O receio é que esses fabricantes passem depois a oferecer tecnologia militar de ponta a terroristas e ditadores. E aí o medo de maus usos pela China vira “café pequeno”.

 

Campo de testes

O poder da inteligência artificial contra exércitos poderosos está sendo colocado à prova na invasão da Ucrânia. Seu exército vem usando drones bem mais simples que os citados, mas que já contam com recursos de IA, para atacar tropas russas. Mesmo quando essas aeronaves perdem o contato com seus pilotos remotos, devido aos sistemas de interferência do inimigo, ainda completam sua missão por conta própria.

De fato, a Ucrânia vem se tornando um frutífero campo de testes desses armamentos, que vêm sendo produzidos aos milhares. Além de poderem refinar seus equipamentos em situações reais de combate, os fabricantes podem fazer testes que dificilmente podem acontecer em um país que não esteja em guerra.

Os militares sabem que a inteligência artificial toma decisões erradas. Basta ver as falhas –algumas fatais– de carros autônomos nos últimos anos. Mesmo a tecnologia militar sempre sendo muito mais refinada e cara que a civil, não há garantias quanto a sua precisão. E há outros aspectos a serem considerados.

O primeiro é que a IA pode ser excelente em decisões a partir de padrões conhecidos, mas pode se confundir bastante diante do desconhecido e do inesperado, algo que permeia qualquer campo de batalha. Além disso, máquinas não possuem uma bússola moral, que norteia algumas das melhores decisões de um soldado.

É inevitável pensar no filme RoboCop (1987), em que um policial dado como morto é praticamente transformado em um robô. Apesar de ser obrigado a seguir diretivas em seu sistema, o que o tornava realmente eficiente era a humanidade que sobreviveu em seu cérebro. Isso lhe permitia vencer robôs de combate mais poderosos.

Tudo isso me faz lembrar da Guerra do Golfo, que aconteceu entre 1990 e 1991, quando os americanos invadiram o Iraque. Os militares invasores exterminavam o inimigo de longe, quase sem entrar em combate. Na época, um especialista criticou “soldados que querem matar, mas não querem morrer”.

A inteligência artificial pode potencializar isso. É claro que ninguém quer morrer e todos querem vencer um conflito, de preferência logo. Mas quem ganha algo com isso, além da indústria armamentista? Se a Rússia tivesse essa tecnologia, talvez a Ucrânia tivesse deixado de existir em poucas semanas dessa nefasta invasão atual.

Esse é um dos casos em que a inteligência artificial nunca deveria ser usada. Mas seria uma ilusão pueril acreditar que isso não acontecerá. Talvez o futuro da guerra pertença mesmo às máquinas autônomas. Só espero que isso não aconteça também em policiais-robôs nas ruas de nossos bairros.

 

Diversidade e inclusão tornaram-se poderosas ferramentas de negócios e inovação - Foto: Christina Morillo/Creative Commons

Diversidade e inclusão tornam-se aliadas da inovação

By | Tecnologia | No Comments

Quando se pensa em inovação, normalmente o que vem à mente são investimentos em tecnologia, novos processos e talentos ligados às tendências do mercado. Mas algumas empresas estão percebendo que, além disso tudo, investir em diversidade e inclusão em seus quadros lhes permite inovar ainda mais e oferecer produtos mais alinhados com seus clientes.

Algumas das inovações mais importantes para a sociedade têm muito pouco ou nada de tecnologia envolvida. Basta fazer algo que traga benefícios reais para as pessoas, seja uma coisa que ainda não exista ou dando uma nova perspectiva para algo já disponível.

Mas fica difícil desenvolver essa perspectiva inovadora quando todos na equipe são mais ou menos iguais e pensam da mesma forma. Diante de um mundo crescentemente complexo, acelerado e imprevisível, com clientes cada vez mais exigentes e participativos, trazer para dentro de casa visões diversas da vida torna-se essencial.

Portanto, investir em diversidade e inclusão nos times não é algo apenas socialmente responsável: é um incrível diferencial de negócios de empresas inteligentes.


Veja esse artigo em vídeo:


“Vemos que grupos diversos tomam decisões melhores, que trazem aumento de lucros”, explica Shuchi Sharma, vice-presidente global de Diversidade, Equidade e Inclusão da Red Hat, líder mundial em software open source. “Certamente é uma vantagem competitiva porque, quando você tem perspectivas mais diversas para a forma como você toma decisões todos os dias, você vê resultados muito diferentes do que quando você tem apenas um grupo homogêneo fazendo as coisas da mesma maneira, pensando o mesmo caminho”.

Entretanto, ter diversidade nas equipes não é suficiente. Sharma explica que a empresa precisa desenvolver uma cultura de inclusão e de pertencimento, porque todos precisam se sentir psicologicamente seguros para expor sua criatividade e assumir os riscos necessários para impulsionar a inovação. A inclusão prevê que todos não só tenham voz, como que ela seja efetivamente ouvida.

Essas ações precisam ser concretas e os gestores devem estar preparados para elas. Isso significa, em primeiro lugar, que precisam genuinamente prestar atenção no que os funcionários lhes dizem, procurando entender suas perspectivas e suas experiências, que podem ser muito diferentes das deles. Devem também validá-las, para que a equipe perceba que elas são valiosas.

É um trabalho constante e permanente. Empresas que investem há mais tempo em diversidade e inclusão, como IBM, SAP e Coca-Cola, hoje colhem muitos frutos disso. A executiva explica que não se deve interromper as iniciativas se as metas forem atingidas, ou tudo que se construiu pode ser perdido, como em qualquer outra parte do negócio. “Se você atinge suas metas de vendas, você não para de vender”, exemplifica.

Não é algo trivial. É preciso mudar a cultura corporativa de uma mentalidade de comando e controle para um ambiente mais distribuído e matricial. Tanto que os líderes que se destacam hoje são mais orientados para mentoria da equipe, o que exige muito mais escuta e um comprometimento em servir o próprio time.

 

Atração e retenção de talentos

Esses esforços se pagam! O relatório “A inclusão não é apenas legal: é necessária”, publicado em fevereiro pelo Boston Consulting Group após ouvir mais de 27 mil profissionais de 16 países (incluindo o Brasil), indica que melhorar a experiência de inclusão no local de trabalho é uma das ferramentas mais efetivas que as empresas têm para atrair e reter talentos. Se bem-feita, a inclusão reduz pela metade os atritos.

Isso acontece porque os funcionários sentem que podem ser autênticos com o que são e com o que acreditam, sem medo de discriminação. Assim ficam mais felizes e motivados para dar o melhor de si, pois sentem que suas perspectivas são importantes. Eles têm quase 2,4 vezes menos probabilidade de pedir demissão.

É importante que esses benefícios sejam conhecidos. Poucas empresas ainda investem em iniciativas de diversidade e inclusão, pois é difícil de definir, medir e influenciar suas ações e resultados no ambiente de trabalho. Por isso, elas acabam sendo subvalorizadas.

O estudo sugere algumas medidas para melhorar a inclusão nas empresas, começando por haver diversidade no nível de liderança, que deve se demonstrar comprometida com o tema. As gerências devem criar equipes e ambientes seguros para minorias, com medidas rigorosas contra comportamentos discriminatórios e tendenciosos. Por fim, os resultados da companhia devem ser medidos com foco em diversidade e inclusão.

Equipes diversas também permitem que se inove em produtos para atender necessidades de grupos específicos, que acabam favorecendo a população como um todo. Um bom exemplo são as rampas em calçadas, nas esquinas. Criadas originalmente para cadeirantes, eles passaram a ser usadas também por ciclistas e por pessoas com carrinhos de bebês ou de compras, entre outros.

“Acreditamos que as melhores ideias podem vir de qualquer lugar, e essa é a essência do open source, bem como a essência da inclusão”, afirma Sharma, que construiu sua carreira na indústria de TI, um mercado fortemente dominado por homens brancos. Graças ao seu histórico de promoção de mulheres e minorias nos setores de tecnologia e saúde, foi nomeada uma das 50 Líderes do Futuro pelo jornal “Financial Times” em 2018.

“Mulheres podem melhorar os resultados em empresas de tecnologia pelas suas perspectivas diferentes, melhor tomada de decisão, mais empatia com seus clientes e compreensão de diferentes formas de fazer as coisas”, acrescenta. Ela destaca o caso de mães solteiras, muitas vezes estigmatizada pela sociedade, mas que são resistentes e persistentes, sempre têm um “plano B” e têm que resolver problemas de forma criativa. “São qualidades que queremos ter em todos os negócios: que ótimo lugar para encontrá-las”, provoca.

Já passou da hora de as empresas de todos os setores pararem de encarar a diversidade e a inclusão como palavras vazias apenas para serem bem vistas por uma sociedade que valoriza esse assunto cada vez mais. Elas são incríveis ferramentas de inovação e de negócios! Mas isso só acontecerá para aqueles que estejam dispostos a sair de sua zona de conforto e fazer os movimentos necessários.


Assista à íntegra da conversa com Shuchi Sharma, VP de Diversidade e Inclusão da Red Hat.

 

O consumidor não se contente mais com um bom produto, querendo agora uma ótima experiência - Foto: Drazen Zigic/Creative Commons

Quando todo produto precisa se tornar digital, as empresas precisam aprender a correr riscos

By | Tecnologia | No Comments

A inteligência artificial está em toda parte! A essa altura, não é novidade. Dois estudos divulgados na quarta (16) pela IBM reforçam isso e como um número crescente de executivos a consideram um diferencial de negócios, abandonando o aspecto de “curiosidade tecnológica”. Ainda assim, empresas enfrentam dificuldades para adotá-la, por falta de experiência ou de apetite por correr riscos.

Outra que também poderia estar mais bem posicionada em nossas vidas se houvesse mais investimento é o 5G, que acaba de completar um ano de operação no Brasil. Segundo números apresentados pela Ericsson na mesma quarta, o país já atingiu 11,4 milhões de usuários dessa geração da telefonia móvel em 329 municípios. Mas os principais benefícios que ela traz não aparecem, porque as operadoras concentram sua comunicação na oferta de maior velocidade, sem fazer as necessárias atualizações em suas redes e em seus modelos de negócios.

Esse cenário traz desafios inéditos aos gestores de companhias de todos setores e portes. O consumidor fica mais exigente pelas ofertas de uma alta concorrência, e agora busca experiências e personalização que transcendem as propostas originais dos produtos. Com isso, toda oferta precisa se tornar um produto digital.

A boa notícia é que a tecnologia está muito mais acessível, seja pela facilidade de uso, seja pelo preço. Mas para dar certo, os profissionais precisam de atitude para fazer os movimentos necessários.


Veja esse artigo em vídeo:


Segundo o estudo da IBM “Sete apostas”, a previsão de Marc Andreessen está se tornando realidade: em um artigo de 2011 no The Wall Street Journal, o pioneiro da Internet disse que “o software estava comendo o mundo”. E está mesmo: ele controla de celulares a carros, de aspiradores de pó a robôs industriais. E agora “a inteligência artificial está comendo o software”.

Com isso, os melhores executivos estão desenvolvendo uma mentalidade de engenharia de produto. Eles entendem que a adoção da tecnologia é fundamental para o sucesso, pois os clientes esperam uma ótima experiência digital qualquer que seja o produto ou serviço oferecido.

Curiosamente, nada disso é novo. Software embarcado em produtos e até a inteligência artificial fazem parte do cotidiano de pessoas e de empresas há anos. A diferença é que, desde o fim do ano passado, com o lançamento do ChatGPT, a IA deixou de ser algo obscuro e restrito a poucos profissionais de TI para ser democratizada para qualquer cidadão.

“O ChatGPT capturou o momento em que a experiência se conectou à tecnologia”, afirma Marco Kalil, líder da IBM Consulting no Brasil. Para ele, a digitalização de produtos e o uso da IA como ferramenta de negócios são um caminho sem volta. “As pessoas que souberem aplicar a inteligência artificial nos negócios, realmente priorizando a experiência, terão mais sucesso que os outros, sem dúvida alguma.”

Já no estudo “Tomada de decisão do CEO na era da IA”, também da IBM, 60% dos CEOs entrevistados no Brasil disseram que a computação em nuvem é fundamental para a conquista de resultados nos próximos três anos, enquanto 56% deles confiam na IA. Apesar disso, 41% sentem dificuldade de obter ideias a partir dos dados que têm, com 61% afirmando que a qualidade e a origem desses dados são a principal barreira para adoção da inteligência artificial.

 

Garantindo seu bônus

Incluir inovações em qualquer negócio implica algum nível de risco, pelo simples fato de se sair da zona de conforto. Por isso, muitos executivos, apesar de serem conscientes da necessidade de inovação, resistem a ela, para não ameaçar seus bônus de fim de ano.

Mas a inovação se tornou condição para se manter no mercado, e não apenas as já citadas. Outras apostas do estudo da IBM são a sustentabilidade e o metaverso.

Segundo a pesquisa, muitos executivos ainda veem sustentabilidade e lucros como incompatíveis, indicando uma visão míope de gestão. Já o metaverso deve ser encarado como uma ferramenta que amplie possibilidades do mundo físico, ao invés de substituí-lo. Em ambos os casos, criar experiências com benefícios tangíveis para clientes internos e externos diminui as barreiras para sua adoção.

De fato, não dá para dissociar inovação de experiência. No caso do 5G, a base de usuários brasileiros já poderia ser maior, mas isso não acontece porque o público não vê as incríveis possibilidades da tecnologia, achando que se trata apenas de uma Internet mais rápida. Se for só para isso, preferem esperar.

Sim, a velocidade é muito maior e a latência é muito menor que a do 4G. Isso é necessário para produtos como veículos autônomos, telemedicina, educação a distância e automação industrial disruptivas, cidades inteligentes e entretenimento revolucionário, especialmente em games e transmissões ao vivo interativas.

Mas tudo depende da criação de um ecossistema de provedores de serviços que, por sua vez, precisam que as operadoras de telefonia modernizem sua infraestrutura. Isso permitirá, por exemplo, o “fatiamento da rede”, que entrega conexões diferentes seguindo a necessidade do cliente, podendo até variar de acordo com o momento. Também é necessário que ofereçam APIs, mecanismos para que os desenvolvedores criem aplicações que tirem o máximo proveito dos recursos da rede. Os modelos de negócios também devem ser atualizados, para que o usuário deixe de ser cobrado por franquias e passe a ser cobrado pelos serviços que usa.

“As operadoras já entenderam que o caminho passa por oferecer serviços fornecidos por outras empresas”, explica Marcos Scheffer, vice-presidente de redes da Ericsson para América Latina. Mas, segundo ele, há um processo a ser cumprido e, no momento, as teles estão cuidando da ampliação da cobertura.

“Na hora que você conecta tecnologia com o interesse do usuário, é fantástico”, exclama Kalil. Para o executivo, está na hora de as empresas colocarem essas tecnologias como protagonistas, e não como meras ferramentas. “Nessa hora, o negócio vai mudar”, conclui.

Sei que tudo é investimento –às vezes, muito dinheiro. Além disso, o mercado brasileiro costuma ser impiedoso com aqueles que falham. Essa combinação é mortífera para a inovação, pois os gestores tendem a escolher o caminho seguro e menos inovador.

O problema é que, dessa forma, a empresa perde a chance de se descolar da concorrência e os clientes amargam produtos limitados e experiências ruins. Precisamos aprender a correr riscos com inteligência!


Vídeo relacionado – íntegra da entrevista com Marco Kalil, líder da IBM Consulting no Brasil: