Category Archives: Tecnologia

Criada por IA, Ren Xiaorong é a âncora do telejornal “Diário do Povo”, controlado pelo governo chinês - Foto: reprodução

IA agora produz e publica notícias, aumentando os riscos de desinformação

By | Jornalismo, Tecnologia | No Comments

O que você sentiria se o presidente da República telefonasse a você para lhe convencer de algo? Ou se alguém bem próximo, como um sobrinho ou até um filho, enviasse um áudio pedindo dinheiro? Muita gente desconfiaria que se trata de um golpe. Mas o rápido avanço da inteligência artificial está tornando esse tipo de engodo cada vez mais crível, fazendo vítimas em todos os estratos sociais.

Portanto, cuidado ao gritar que jamais cairá em algo assim. Por muito menos, todo mundo já acreditou em alguma fake news!

A ameaça cresce quando se observa que o uso da IA vai muito além da produção de textos, áudios e vídeos bem-feitos. Os robôs agora constroem sequências de notícias falsas sobre temas que lhes forem solicitados. Além disso, eles as distribuem de maneiras cada vez mais criativas, até como se fossem jornalistas humanos.

Não por acaso, em janeiro, o Fórum Econômico Mundial apontou a desinformação potencializada pela inteligência artificial como o maior risco que a humanidade enfrentará nos próximos anos.

As big techs, responsáveis pela criação dessas plataformas, estão se mexendo. No mesmo Fórum, Nick Clegg, presidente de assuntos globais da Meta (dona do Facebook, Instagram e WhatsApp), anunciou que a empresa está trabalhando com os principais nomes do setor para criar mecanismos que identifiquem claramente que um conteúdo foi sintetizado por IA. O executivo classificou a iniciativa como “a tarefa mais urgente” da indústria tecnológica atualmente.

Já passamos há anos do ponto em que as versões ficaram mais “importantes” para o público que os fatos, e falhamos miseravelmente no combate a isso, com consequências desastrosas. Nesse ano, com mais de 2 bilhões de pessoas votando em 58 países, o desafio de todos passa a ser não apenas resgatar o valor da verdade, como também serem capazes de identificá-la.


Veja esse artigo em vídeo:


Isso já acontece, inclusive onde estão as sedes das big techs: os EUA. O país começou 2024 com a polarização nas alturas pela eleição presidencial em novembro, que deve colocar novamente o atual presidente, Joe Biden, frente a seu antecessor, Donald Trump. O primeiro já vem sendo vítima de vídeos falsos desde o ano passado.

Recentemente, eleitores do Estado de New Hampshire receberam telefonemas com a voz de Biden enganando-os para não votarem na eleição primária local. Isso fez com que o governo proibisse o uso de IA para simular vozes em ligações automáticas no país.

Legislações costumam chegar atrasadas e muitas vezes são ineficientes, diante da velocidade da inovação. O debate sobre regulamentar redes sociais e agora a inteligência artificial vem deixando claro que se focar nas tecnologias é infrutífero, devendo se concentrar na responsabilização dos desenvolvedores e dos usuários que usam esses recursos indevidamente.

O grande problema é que, com ou sem regras claras, os vilões –sejam empresas ou usuários– continuam fazendo o que bem entendem para garantir seus lucros ou outros objetivos. A IA deve facilitar esse processo ainda mais, e eles sabem disso.

A imprensa historicamente desempenha o papel de proteger a sociedade desse tipo de abuso, mas ela própria vem sendo impactada pela inteligência artificial, seja em seus próprios processos, seja na concorrência de “pseudojornalistas digitais” que tentam enganar o público.

O Reuters Institute divulgou em janeiro um detalhado estudo sobre as perspectivas para esse ano sobre jornalismo, mídia e tecnologia. O documento reconhece esses desafios, destacando que a maioria do conteúdo na Internet será produzido por IA já em 2026. Segundo os pesquisadores, isso exige que jornalistas e empresas noticiosas repensem seu papel e propósito urgentemente.

 

“Jornalistas sintéticos”

Essas empresas já observam queda na sua audiência vinda de redes sociais, que passaram a privilegiar criadores no estilo TikTok ao invés de jornalismo, pois isso lhes favorece. O desafio do jornalismo aumenta com o crescimento das “Experiências Generativas de Busca”, um recurso de buscadores como Google e Bing, em que a IA generativa redige parágrafos que explicam brevemente o que o usuário procura. Com isso, ele não precisa mais visitar as páginas de onde as informações foram tiradas.

Em outras palavras, os veículos de comunicação alimentam essas plataformas e não ganham nem mesmo a visita do usuário em troca. É quase como se cada um de nós agora tivesse um “jornalista sintético” a nossa disposição para nos explicar qualquer assunto.

Parece ótimo, mas isso embute um risco enorme: esses parágrafos podem misturar alegremente informações jornalísticas de qualidade com fake news bizarras. Portanto, podem se converter em poderosas ferramentas de desinformação, além de achatar a audiência dos veículos de comunicação.

Pesquisadores acreditam que, nesse ano, plataformas de inteligência artificial também passem a produzir grandes volumes de desinformação, não mais dependendo de comando individuais, mas seguindo diretrizes mais amplas. Como a publicação é automática, isso pode inundar as redes sociais com informações falsas, que soterrariam o conteúdo jornalístico diante dos algoritmos. Além disso, países como China e até Venezuela já usam avatares ultrarrealistas que se passam por jornalistas humanos e despudoradamente leem notícias que lhes forem ordenadas.

O relatório do Reuters Institute indica que as empresas de comunicação pretendem reforçar o contato direto com seu público, em detrimento das plataformas digitais. Mas isso pode afastá-las ainda mais de sua audiência mais jovem e menos instruída, que se sente satisfeita com as notícias geradas por IA.

A inteligência artificial é uma ferramenta fabulosa e estamos em um caminho sem volta para sua adoção em todos os setores da economia, inclusive na comunicação. Apesar de todos esses desafios, ela também oferece muitos ganhos ao jornalismo, se bem usada.

O risco a que todos nós –e não apenas jornalistas– temos que estar atentos é a possibilidade de decisões básicas da sociedade civil, como em quem votar, sejam sequestradas por robôs sem ética. As empresas de comunicação não podem repetir com a IA o erro que cometeram ao desprezar o poder das redes sociais, quando ainda estavam começando. Precisam compreender e se apropriar dessa tecnologia, e ajudar toda a sociedade a fazer o mesmo.

Caso contrário, seremos cada vez mais cidadãos teleguiados.

 

Na Conferência de Desenvolvedores de 2019, Mark Zuckerberg anunciava que “o futuro é privado” - Foto: Anthony Quintano/Creative Commons

Tudo que você postar pode ser usado contra você e a favor da IA

By | Tecnologia | No Comments

Não é novidade que tudo que publicamos nas redes sociais é usado para criarem perfis detalhados sobre nós para que seus anunciantes nos vendam todo tipo de quinquilharia. Também é conhecido que nossas informações são usadas para “aprimorar” essas plataformas. E que muitas delas fazem menos do que poderiam e deveriam para nos proteger contra desinformação e diferentes tipos de assédio, que podem prejudicar nossa saúde mental. Mas o que é novidade é que agora essas companhias também usam nossas informações pessoais para treinar seus nascentes serviços de inteligência artificial, abrindo uma nova potencial violação de privacidade.

Essas empresas transitam nas ambiguidades de seus termos de serviço e posicionamentos públicos. Por exemplo, no dia 31, os CEOs das redes sociais mais usadas por crianças e adolescentes foram interpelados no Comitê Judiciário do Senado americano, sobre suas ações para proteger os jovens. O mais questionado foi Mark Zuckerberg, CEO da Meta (dona do Facebook, Instagram e WhatsApp). Diante da pressão dos senadores, ele se levantou e se desculpou ao público nas galerias.

Ali estavam pais e mães de crianças que morreram por problemas derivados de abusos nas redes sociais. Menos de uma semana depois, o mesmo Zuckerberg disse, durante uma transmissão sobre os resultados financeiros anuais da Meta, que sua empresa está usando todas as publicações de seus usuários (inclusive de crianças) para treinar suas plataformas de IA.

O mercado adorou: suas ações dispararam 21% com o anúncio dos resultados! E essa infinidade de dados pessoais é mesmo uma mina de ouro! Mas e se eu, que sou o proprietário das minhas ideias (por mais que sejam públicas), quiser que a Meta não as use para treinar sua IA, poderei continuar usando seus produtos?

É inevitável pensar que, pelo jeito, não temos mais privacidade e até mesmo propriedade sobre nossas informações pessoais. E as empresas podem se apropriar delas para criar produtos e faturar bilhões de dólares.


Veja esse artigo em vídeo:


No momento mais dramático da audiência no dia 31, Zuckerberg se levantou e, de costas para os senadores e olhando para as pessoas presentes, muitas carregando fotos de seus filhos mortos, disse: “Sinto muito por tudo que passaram. Ninguém deveria passar pelas coisas que suas famílias sofreram.”

Mas também se defendeu, afirmando que investiu mais de US$ 20 bilhões e contratou “milhares de funcionários” para essa proteção. Ponderou ainda que a empresa precisa equilibrar o cuidado e “as boas experiências entre amigos, entes queridos, celebridades e interesses”. Em outras palavras, a proteção não pode “piorar” o produto, o que seria ruim para os negócios.

Seis dias depois, disse aos investidores: “No Facebook e no Instagram, existem centenas de bilhões de imagens compartilhadas publicamente e dezenas de bilhões de vídeos públicos, que estimamos ser maiores do que os dados do Common Crawl, e as pessoas também compartilham um grande número de postagens de texto públicas em comentários em nossos serviços.”

O Common Crawl é um gigantesco conjunto de dados resultante do contínuo rastreamento do que é público na Internet, podendo ser usado por quem quiser e para qualquer finalidade. Ele serve de base para o treinamento de várias plataformas de IA.

“Considerando os Termos de Uso e as regras da plataforma, seria possível a Meta usar nossos dados para treinar sua IA, embora seja bastante discutível”, explica Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). “É discutível porque muitas das informações nas redes sociais podem ser consideradas dados pessoais e, neste caso, eventualmente legislações específicas acabam incidindo, como a Lei Geral de Proteção de Dados (LGPD)”.

Nos Termos de Serviço do Facebook, a única referência à IA é: “usamos e desenvolvemos tecnologias avançadas (como inteligência artificial, sistemas de aprendizado de máquina e realidade aumentada) para que as pessoas possam usar nossos produtos com segurança, independentemente de capacidade física ou localização geográfica.”

O mesmo documento diz: “realizamos pesquisa para desenvolver, testar e melhorar nossos produtos. Isso inclui a análise dos dados que temos sobre os nossos usuários e o entendimento de como as pessoas usam nossos produtos.” Esse trecho poderia garantir o uso das nossas publicações para o desenvolvimento da IA da Meta.

Por outro lado, os Termos dizem que a remuneração da Meta se dá apenas por anúncios entregues a seus usuários pela análise de suas informações. Oras, a inteligência artificial não é anúncio, mas ela renderá bilhões de dólares à empresa. Assim o uso de nossos dados para treinar a IA geraria um conflito entre as cláusulas.

 

O rei está nu e perdeu a majestade

Sempre tivemos nossos dados coletados e manipulados. O nosso “sócio” mais tradicional é o governo, que sabe coisas inimagináveis sobre o cidadão! Basta ver o Imposto de Renda pré-preenchido! E isso é só a pontinha desse enorme iceberg.

Não vou defender qualquer governo, pois muitas dessas apropriações são no mínimo questionáveis. Mas há uma diferença essencial de qualquer big tech: ele foi eleito para melhorar a vida do cidadão. As empresas, por sua vez, visam apenas seu lucro.

Crespo explica que a principal violação nesse movimento da Meta é que ela usa dados pessoais de seus usuários para uma finalidade que não é aquela pela qual criaram suas contas e fazem suas publicações, e que eles nem sabem. Vale lembrar que, no fim de dezembro, o The New York Times processou a Microsoft e a OpenAI por se apropriarem de seus conteúdos para treinar seu ChatGPT, e um de seus argumentos foi essas empresas usarem esse conteúdo sem pagar por esse objetivo específico.

Esse mesmo raciocínio poderia se aplicar às postagens dos 3 bilhões de usuários do Facebook e dos 2 bilhões do Instagram. Além disso, a baixa qualidade de muitas publicações nessas plataformas pode incluir vieses e informações no mínimo questionáveis no treinamento dessa IA.

“Esse é o grande dilema da atualidade”, afirma Crespo. Empresas podem criar regras para quem quiser usar seus produtos, mas, depois de usar algo como o Google por duas décadas, alguém o abandonaria porque seus dados seriam usados para uma nova e questionável finalidade (entre tantas outras)? “A grande questão é se essas regras são moralmente aceitas e transparentes, ou se, de alguma forma, constituem abuso de direito”, explica Crespo.

No final, caímos novamente no infindável debate sobre a regulamentação das ações e responsabilidades dessas empresas. Essa novidade trazida por Zuckerberg é apenas o mais recente exemplo de que, se deixarmos para que elas se autorregulem, nós, seus usuários, continuaremos sendo os grandes prejudicados.

 

A cantora Taylor Swift, vítima de “deep nudes” que inundaram as redes sociais na semana passada – Foto: Paolo V/Creative Commons

Imagens geradas por IA podem agravar problemas de saúde mental

By | Tecnologia | No Comments

Na semana passada, as redes sociais foram inundadas com fotos de Taylor Swift nua. Não se tratava de algum vazamento de fotos íntimas da cantora, mas de imagens falsas criadas por inteligência artificial, uma técnica conhecida por “deep nude”. Apesar da compreensível revolta dos fãs pelo uso criminoso da sua imagem, o episódio não deve ter causado grandes transtornos para ela, que tem uma equipe multidisciplinar para ajudá-la a lidar com os problemas típicos da sua superexposição.

Infelizmente quase ninguém tem essa rede de proteção. Por isso, a explosão de imagens sintetizadas digitalmente vem provocando muitos danos à saúde mental de crianças, jovens e adultos, que não sabem como lidar com fotos e vídeos falsos de si mesmos ou de ideais inatingíveis de beleza ou sucesso.

Isso não é novo: surgiu na televisão, antes das mídias digitais. Mas elas potencializaram esse problema, que agora se agrava fortemente com recursos de inteligência artificial generativa usados inadequadamente.

Junte ao pacote a dificuldade que muitos têm de lidar com os efeitos nocivos da exposição que as redes sociais podem lhes conferir, ainda que de maneira fugaz. Não é algo pequeno, não é “frescura” ou uma bobagem. Família, amigos e as autoridades precisam aprender a lidar com esses quadros, oferecendo o apoio necessário para que o pior não aconteça.


Veja esse artigo em vídeo:


O youtuber PC Siqueira não teve esse apoio. Neste sábado (27), fez um mês que ele se suicidou em seu apartamento, na zona sul de São Paulo. Um dos primeiros influenciadores do país, quando o termo ainda nem era usado com essa acepção, ele surgiu no YouTube em 2010 e chegou a apresentar um programa na MTV Brasil.

PC Siqueira nunca escondeu que sofria de ansiedade e de depressão. Seu quadro se deteriorou à medida que sua audiência diminuiu com os anos. A situação piorou muito em junho de 2020, quando ele foi acusado de pedofilia. Sempre disse que estava sendo vítima de uma “armação” e, de fato, em fevereiro de 2021, a Polícia Civil concluiu que não havia qualquer indício de que ele tivesse cometido o crime. Ainda assim, nunca conseguiu se recuperar, chegando a essa ação extrema no fim de 2023.

Se PC Siqueira foi vítima de aspectos sórdidos da autoexposição, crescem os casos em que as vítimas são envolvidas de maneira totalmente involuntária. Foi o que aconteceu com um grupo de alunas do Ensino Fundamental II do colégio Santo Agostinho, um dos mais tradicionais do Rio de Janeiro, em outubro passado. Alguns de seus colegas usaram plataformas de criação de “deep nudes” para gerar imagens delas nuas, e as espalharam pelas redes sociais.

Para uma adolescente, isso é devastador! Subitamente elas se tornam o “assunto” da escola inteira, de amigos, de parentes e até nas redes sociais. As fotos passam a ser vistas como se elas as tivessem tirado de fato. Como enfrentar tanta pressão, ainda mais não tendo feito absolutamente nada de errado?

Outro fenômeno que não para de crescer com a IA são as “influenciadoras virtuais”. São imagens de mulheres “perfeitas” que atuam como influenciadoras digitais. Mas tanta beldade não existe: elas são sintetizadas por comandos que podem reforçar estereótipos e falta de diversidade. E isso cria padrões de beleza distorcidos e ainda mais inatingíveis, piorando as já conhecidas pressões por conformidade e empecilhos para aceitar o próprio corpo que afetam muitas mulheres, especialmente adolescentes.

O problema fica mais grave quando se observa que, por trás dessas criações, estão homens, o que reforça a visão masculina de como uma mulher deve ser. Tanto que muitas delas também possuem perfis em sites de imagens pornográficas, em que outros homens pagam para ver as avatares nuas, obviamente também sintetizadas.

 

Capturados pelos seguidores

Todas essas práticas podem impactar seriamente o equilíbrio emocional das pessoas. Apesar de já convivermos há duas décadas com as redes sociais, a verdade é que ainda não sabemos lidar adequadamente com a influência de seus algoritmos e a visibilidade que eventualmente recebemos graças a elas. A ascensão violenta da inteligência artificial generativa apenas está acelerando esses efeitos.

O artista americano Andy Warhol disse em 1968 que “no futuro, todos serão mundialmente famosos por 15 minutos”. Naturalmente ele não antecipava o fenômeno das redes sociais, mas foram elas que viabilizaram sua profecia. Porém, com raríssimas exceções, elas só oferecem mesmo “15 minutos de fama”: da mesma forma que podem alçar um anônimo ao estrelato instantâneo, podem devolvê-lo ao ostracismo com a mesma velocidade. E muita gente não suporta voltar ao lugar de onde veio.

Muitos querem ser famosos e as redes sociais parecem ser o caminho mais fácil para isso. Almejam dinheiro e outros benefícios da exposição, mas poucos estão realmente preparados para lidar com isso. Assim, enquanto poucos são capazes de “capturar sua audiência”, muitos são capturados por ela.

Em algum momento, todos nós ajustamos nossa personalidade para satisfazer expectativas alheias. Isso acontece com muita força na adolescência, no grupo de amigos. Mas com as redes sociais, agora potencializadas pela IA, muita gente se transforma em uma persona que não é, e eventualmente até em algo que lhe cause sofrimento, apenas para agradar seu público online: pessoas que nem conhecem e que, em muitos casos, têm um prazer mórbido de dar suas “curtidas” pelo nosso pior, desvalorizando o que temos de bom a oferecer em um mundo-cão.

Atire a primeira pedra quem nunca produziu uma foto pensando nas “curtidas” que ela geraria! O grande problema disso, para muitas pessoas, é que elas acabam se tornando reféns dessa persona. Para não perderem sua audiência, esquecem do que são e passam a viver uma caricatura de si mesmos, sem escapatória.

Como jornalista, aprendi desde cedo a não cair nessa arapuca. Claro que estou atento aos interesses de meu público, mas, para não entrar nesse “poço narcisista”, nunca esqueço quem sou ou sobre o que falo. Mas admito que essa é uma tarefa muito difícil em um mundo digital que vive de aparências distorcidas pela inteligência artificial.

Todos nós temos a obrigação de resistir aos padrões e pensamentos-únicos que nos são impostos pelas redes sociais e pela inteligência artificial. Isso vai desde não se encantar por influenciadoras virtuais até resistir ao apelo fácil do “copia-e-cola” dos textos desalmados do ChatGPT em nossos posts e trabalhos.

Talvez, se fizermos isso, tenhamos menos gente “gostando” de nós. Em compensação, além de paz de espírito e de uma saúde mental muito mais equilibrada, teremos as pessoas que gostam de nós pelo que genuinamente somos. Isso é essencial, até mesmo para fecharmos negócios sustentáveis e transparentes com o nosso público, e termos mais que os 15 minutos de fama de Andy Warhol.

 

Sam Altman, CEO da OpenAI, fala sobre inteligência artificial no Fórum Econômico Mundial desse ano, em Davos - Foto: reprodução

Enquanto a IA melhora a produtividade de alguns, torna outros “inempregáveis”

By | Tecnologia | No Comments

No dia 14, o Fundo Monetário Internacional (FMI) divulgou um estudo que indica que cerca de 40% dos trabalhos do mundo serão impactados pela inteligência artificial. Isso não se dará de maneira homogênea: enquanto ela trará grande produtividade a alguns, pode eliminar postos de trabalho e até deixar muitas pessoas “inempregáveis”, ou seja, sem capacidade de assumir qualquer ocupação com o que sabem fazer.

Por que uma mesma tecnologia provoca consequências tão opostas no mercado de trabalho de um mesmo país, ao mesmo tempo? A resposta passa pelas capacidades dos profissionais de se adaptar para tirar proveito do que ela oferece.

Enquanto isso, o Brasil comemora mais uma queda na taxa de desemprego, que terminou novembro em 7,5%, a menor desde fevereiro de 2015. Ainda assim, o país continua tendo 8,2 milhões de desempregados. Apesar de muito bem-vinda essa retração, é preciso estar atento à qualidade desses empregos. Afinal, com o avanço da IA, muitos deles podem desaparecer em breve por falta de capacitação. A sociedade brasileira precisa se mobilizar para que isso não aconteça com força.

A IA escancara, portanto, algo que já se observa há anos: o futuro do trabalho passa pelo futuro da educação. Os robôs estão se tornando auxiliares valiosos, mas as pessoas precisam de uma melhor formação para não serem substituídas por eles.


Veja esse artigo em vídeo:


Segundo o estudo do FMI, nos países mais ricos, a IA afetará 60% dos postos de trabalho: metade será beneficiada, enquanto a outra pode experimentar desemprego, queda de salários e até extinção de profissões inteiras. Já nos emergentes, o impacto deve atingir 40% dos trabalhadores, mas apenas 26% devem ser beneficiados.

Segundo os autores, essa diferença entre países se dá pela falta de infraestrutura e de mão de obra qualificada para aproveitar bem a IA nos emergentes. Por isso, com o tempo, a inteligência artificial pode aumentar a desigualdade entre nações, e o mesmo se pode esperar entre ricos e pobres de um mesmo país.

A IA vem despertando tanto deslumbramento quanto medo. Não devemos sentir nenhum deles: precisamos entendê-la para nos apropriarmos do que els oferece de bom e nos esquivarmos de eventuais armadilhas, inclusive no mundo do trabalho.

Novas tecnologias extinguem profissões e criam oportunidades desde o início da Revolução Industrial, no século XVIII. A sociedade se ajusta e faz as mudanças para o novo. A diferença é que agora a adaptação precisa ser muito mais rápida, exigindo habilidades básicas que muitos não têm e que não conseguem adquirir a tempo. Por isso, pessoas no seu auge profissional estão vendo sua empregabilidade derreter, de uma maneira que elas não conseguem controlar, algo desesperador a qualquer um.

Ao contrário do que se via há alguns anos, quando apenas as pessoas menos qualificadas eram impactadas pela automação, a inteligência artificial também atinge carreiras mais nobres e criativas. Portanto, apesar de uma boa educação continuar sendo absolutamente fundamental, é preciso saber o que e como estudar.

Um estudo do Instituto Brasileiro de Economia da Fundação Getúlio Vargas (Ibre-FGV) divulgado em setembro demonstrou que os brasileiros que estudaram mais foram os que perderam mais renda na última década, com um aumento abrupto na informalidade. Isso obviamente não está associado à explosão da IA, que ainda é muito recente, mas demonstra que ninguém mais está “seguro”.

Na semana passada, o LinkedIn divulgou quais são as profissões em alta em vários países. No Brasil, várias estão intimamente ligadas ao mundo digital e à própria IA, como analista de privacidade, de cibersegurança e de dados. Outro estudo, da Universidade da Pensilvânia (EUA) e da OpenAI, concluiu que 80% dos trabalhadores americanos podem ter pelo menos 10% de suas tarefas afetadas pela IA.

Isso fica dramático no Brasil, com sua educação tecnológica ruim e um acesso limitado ao mundo digital. Segundo a mais recente pesquisa TIC Domicílios, feita pelo Comitê Gestor da Internet no Brasil, 20% dos domicílios (15 milhões) e 14% dos brasileiros com 10 anos ou mais (27 milhões) nem têm acesso à Internet.

 

Futuros do trabalho e da educação juntos

Muitas das “profissões do futuro” paradoxalmente existem desde a Antiguidade, como professores e médicos. Elas assim se classificam porque continuarão existindo e sendo muito importantes para a sociedade. Mas mesmo elas já sofrem e continuarão sofrendo grande mudanças pela digitalização. Querer continuar as exercendo como se fazia há alguns anos é um convite para ser colocado para fora do mercado. Por outro lado, profissionais que se atualizem com as novas tecnologias, como a inteligência artificial, se tornarão ainda mais relevantes.

O avanço galopante da IA atropela uma sociedade que não consegue medir as transformações que ela trará em pouco tempo. Em dezembro, o fundador da Microsoft Bill Gates disse que o avanço dessa tecnologia em breve permitirá semanas de trabalho de três dias, com as pessoas ganhando o mesmo. Tecnicamente pode ser verdade, mas, para que isso aconteça, os gestores teriam que fazer esse movimento magnânimo, ao invés de simplesmente demitir metade de sua força de trabalho para aumentar muito seus lucros. Não se trata, portanto, só de uma mudança tecnológica.

No Fórum Econômico Mundial em Davos (Suíça) do ano passado, os líderes mundiais estavam deslumbrados com as oportunidades da IA. Na edição desse ano, que terminou na sexta, a euforia foi substituída por uma busca de como usá-la de forma responsável e segura, e qual o papel de cada um nisso.

Toda tecnologia deve ser usada para o bem de todos, e não apenas para o benefício de alguns. Um dos temores sobre a IA, que indubitavelmente fará a humanidade dar vários saltos, é que ela também seja usada para o mal. O mundo do trabalho é apenas um dos elementos mais críticos disso na vida das pessoas.

Governos, empresas e demais atores da sociedade civil devem fazer os ajustes necessários antes que essa bomba exploda, pois seu efeito pode ser devastador. Aqueles que estão na parte beneficiada pela IA não podem se acomodar e fingir que esse problema não lhes pertence, pois acabarão impactados de uma ou outra forma.

Precisamos de uma revolução educacional que ensine as pessoas a usarem melhor as tecnologias, não como meros apertadores de botões ou criadores de comando para o ChatGPT. Elas precisam entender o porquê de tudo isso para fazer escolhas conscientes, sem se tornar consumidores com senso crítico achatado pela máquina. De uma maneira um tanto paradoxal, isso acontecerá apenas com uma educação que também fortaleça seus aspectos humanos.

E precisamos disso já, pois a inteligência artificial não esperará pela lerdeza natural.

 

Uma inteligência artificial treinada com informações ruins não deve ser usada para confundir eleitores – Ilustração: Paulo Silvestre

A democracia precisa que o jornalismo e a inteligência artificial se entendam

By | Jornalismo, Tecnologia | No Comments

A recente briga do New York Times contra a Microsoft e a OpenAI (criadora do ChatGPT) pode ajudar a definir como nos informaremos no futuro e impactar consideravelmente a saúde da democracia no mundo todo. Tudo porque o processo aberto pelo jornal no dia 27 de dezembro contra as duas empresas de tecnologia pode balizar a qualidade do que a inteligência artificial oferecerá a todos nós.

O jornal afirma que seu conteúdo vem sendo usado para treinar as plataformas de IA, sem que seja remunerado ou sequer tenha autorizado esse uso, o que é verdade. Enquanto isso, essas plataformas rendem bilhões de dólares a seus donos.

Desde que o ChatGPT foi lançado no final de 2022, as pessoas vêm usando a IA para trabalhar, estudar e se divertir, acreditando candidamente em suas entregas. Sua precisão e seus recursos para evitar que produza e dissemine fake news dependem profundamente da qualidade do conteúdo usado em seu treinamento. O New York Times e outros grandes veículos jornalísticos são, portanto, algumas das melhores fontes para garantir uma entrega mais confiável aos usuários.

O problema é tão grave que, no dia 10, o Fórum Econômico Mundial indicou, em seu relatório Riscos Globais 2024, que informações falsas ou distorcidas produzidas por inteligência artificial já representam o “maior risco global no curto prazo”.

Nesse ano, dois bilhões de pessoas participarão de eleições no mundo, inclusive no Brasil, e a IA já vem sendo usada para aumentar a desinformação nas campanhas. Por aqui, o Tribunal Superior Eleitoral (TSE) busca maneiras de regular seu uso no pleito municipal de outubro, uma tarefa muito complexa. Por isso, é fundamental que os bons produtores de conteúdo e as big techs encontrem formas de melhorar essas plataformas respeitando os direitos e remunerando adequadamente os autores.


Veja esse artigo em vídeo:


Em um cenário extremo hipotético em que todos os produtores de bons conteúdos impeçam que os desenvolvedores os acessem, a IA ficaria à mercê de fontes pouco confiáveis (para dizer o mínimo). Isso aumentaria brutalmente a chance de ela ser manipulada, ajudando a transformar os usuários em autômatos da desinformação. E isso seria trágico também para o bom jornalismo, que luta fortemente contra isso.

Criou-se então um dilema: as plataformas precisam de bom conteúdo, mas não estão muito dispostas a pagar por ele, enquanto os veículos jornalísticos têm que garantir seus direitos, mas deveriam ajudar a melhorar as entregas da inteligência artificial.

“Quando eu compro uma assinatura do New York Times, eu não estou autorizado a pegar todo o conteúdo e desenvolver um produto meu em cima dele”, explica Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). “Só que é mais ou menos isso que a OpenAI faz quando pega esses dados”.

Para que os sistemas de inteligência artificial funcionem bem, eles precisam ser treinados com uma quantidade monstruosa de informações diversas, para que aprendam o que dizer e respeitem a diversidade de ideias. Em tese, todas as suas produções são inéditas, por isso os desenvolvedores se valem do conceito jurídico americano do “uso justo” (“fair use”), que protege as big techs há pelo menos duas décadas, quando, por exemplo, rastreiam a Internet inteira para fazer um buscador funcionar.

Por essa regra, os produtos digitais exibiriam apenas pequenos trechos desses conteúdos, insuficientes para configurar uma concorrência. Mas em seu processo, o New York Times afirma que as plataformas de IA exibiriam literalmente grandes nacos de sua produção, inclusive de material exclusivo a seus assinantes. A OpenAI nega.

É um desafio para a Justiça dos EUA, pois as leis do país proíbem a cópia de conteúdo, mas permitem que se criem produtos combinando elementos de diferentes fontes, sem criar concorrência direta. As plataformas de IA fazem as duas coisas.

 

Ameaça à democracia

Nesse pântano jurídico, grupos políticos já vêm se esbaldando nos recursos da inteligência artificial para convencer –ou mais especificamente confundir– os eleitores.

O TSE tenta encontrar formas de pelo menos dificultar que isso aconteça nas eleições brasileiras. No dia 4, publicou dez minutas de resoluções para esse fim. Esses textos estarão em consulta pública até o dia 19 deste mês. Entre 23 e 25 de janeiro, ocorrerão audiências abertas na Corte para o aperfeiçoamento das normas.

Infelizmente, criar ótimas regras é relativamente fácil. Verificar seu cumprimento, por outro lado, é bem difícil, especialmente nas campanhas não-oficiais, realizadas por eleitores diretamente instruídos pelos candidatos ou espontaneamente. Com isso, o gigantesco problema de disseminação de fake news e discursos de ódio em redes sociais (que fazem muito menos do que deveriam para combater isso) agora deve ser potencializado pelo uso da inteligência artificial igualmente não-regulada.

A solução exige, portanto, a participação da Justiça, dos veículos de comunicação e das big techs das redes sociais e de inteligência artificial. Felizmente há também movimentos positivos de consenso.

Segundo o mesmo New York Times, a Apple, que está atrasada no campo da IA, estaria tentando costurar acordos financeiros para justamente usar os conteúdos de grandes empresas de comunicação para o treinamento da sua plataforma em desenvolvimento. A notícia só não é totalmente positiva porque ela estaria interessada em consumir esse conteúdo, mas não em responder por qualquer problema derivado dele, o que está deixando os editores desses veículos desconfortáveis. E eles andam bem desconfiados por seus acordos prévios com o Vale do Silício, que, ao longo dos anos, favoreceram as big techs, enquanto viam seus negócios minguarem.

Tudo isso envolve interesses de bilhões de dólares e moldará a sociedade decisivamente nos próximos anos. É preciso um desenvolvimento responsável e transparente da tecnologia e uma enorme quantidade de boas informações. “Pode ser que a gente tenha modelos de inteligência artificial que sejam focados na maldade”, sugere Crespo. “É que ninguém parou para fazer isso ainda ou talvez ninguém tenha tanto dinheiro para isso.”

Alguns acreditam que a solução seria educar a população para não acreditar tão facilmente no que veem nas redes sociais e agora na inteligência artificial. No mundo ideal, isso resolveria o problema. Mas isso simplesmente não vai acontecer e as pessoas continuarão sendo manipuladas, agora possivelmente ainda mais.

Os já citados atores precisam dar as mãos para evitar o pior. Os veículos de comunicação devem alimentar a IA, mas de maneira justa, sem que isso ameace sua sobrevivência. As big techs precisam se abrir a esses acordos financeiros e se esforçar muito mais na transparência de seus sistemas e no respeito aos usuários e à própria democracia. E a Justiça precisa encontrar meios de regular tudo isso, sem ameaçar o avanço tecnológico.

Em um mundo tão digitalizado, a democracia depende do sucesso dessa união.

 

Para Salvador Dalí, “você tem que criar a confusão sistematicamente; isso liberta a criatividade” - Foto: Allan Warren/Creative Commons

Não “terceirize” sua criatividade para as máquinas!

By | Tecnologia | No Comments

Quando o ChatGPT foi lançado, em 30 de novembro de 2022, muita gente disse que, com ele, as pessoas começariam a ficar “intelectualmente preguiçosas”, pois entregariam à inteligência artificial até tarefas que poderiam fazer sem dificuldade. De lá para cá, observamos mesmo muitos casos assim, inclusive com resultados desastrosos. Mas o que também tenho observado é algo mais grave, ainda que mais sutil: indivíduos “terceirizando” a sua criatividade para as máquinas.

Quando fazemos um desenho, tiramos uma foto, compomos uma música ou escrevemos um texto, que pode ser um singelo post para redes sociais, exercitamos habilidades e ativamos conexões neurológicas essenciais para o nosso desenvolvimento. Ao entregar essas atividades à máquina, essas pessoas não percebem o risco que correm por realizarem menos essas ações.

Há um outro aspecto que não pode ser ignorado: a nossa criatividade nos define como seres humanos e como indivíduos. Por isso, adolescentes exercitam intensamente sua criatividade para encontrar seu lugar no mundo e definir seus grupos sociais.

A inteligência artificial generativa é uma ferramenta fabulosa que está apenas dando seus passos iniciais. Por mais que melhore no futuro breve (e melhorará exponencialmente), suas produções resultam do que essas plataformas aprendem de uma base gigantesca que representa a média do que a humanidade sabe.

Ao entregarmos aos robôs não apenas nossas tarefas, mas também nossa criatividade, ameaçamos nossa identidade e a nossa humanidade. Esse é um ótimo exemplo de como usar muito mal uma boa tecnologia. E infelizmente as pessoas não estão percebendo isso.


Veja esse artigo em vídeo:


Assim como nossa carga genética, algo que nos diferencia dos outros indivíduos são nossas ideias. Apesar de fazermos isso naturalmente, ter uma ideia original é um processo complexo, que combina tudo que aprendemos em nossa vida com os estímulos que estivermos recebendo no momento. Além disso, ela é moldada por nossos valores, que são alinhados com os grupos sociais a que pertencemos. E nossa subjetividade ainda refina tudo isso.

Mesmo a mais fabulosa inteligência artificial possui apenas a primeira dessas etapas para suas produções, que é o que aprendeu de sua enorme base de informações coletadas das mais diferentes fontes. É por isso que a qualidade do que produz depende implicitamente da qualidade dessas fontes.

Alguns argumentam que a inteligência artificial também pode desenvolver valores a partir de sua programação, dos dados que consome e da própria interação com os usuários. De fato, um dos maiores problemas dessa tecnologia são os vieses que acaba desenvolvendo, o que piora suas entregas.

Com valores, a máquina se aproxima mais do processo criativo humano. Mas a inteligência artificial ainda não pode ser chamada de criativa, justamente pela etapa final, conduzida pela nossa subjetividade. Os padrões que aprendemos em nossa história de vida única nos permitem ir além de simples deduções lógicas no processo criativo. Para as máquinas, por outro lado, esses mesmos padrões tornam-se limitadores.

Gosto de pensar que o processo criativo é algo que nos conecta com algo sublime, alguns diriam com algo divino. Quando escrevo, por exemplo, um artigo como esse, combino grande quantidade de informações que coletei para essa tarefa com o que aprendi ao longo da minha vida. Mas a fagulha criativa que faz com que isso não seja uma composição burocrática e chata (assim espero) só acontece ao me abrir intensamente para minha sensibilidade.

Jamais entregaria isso a uma máquina, pois isso me define e me dá grande prazer!

 

Nós nos tornaremos máquinas?

Em seu livro “Tecnologia Versus Humanidade” (The Futures Agency, 2017), Gerd Leonhard questiona, anos antes do ChatGPT vir ao sol, como devemos abraçar a tecnologia sem nos tornarmos parte dela. Para o futurólogo alemão, precisamos definir quais valores morais devemos defender, antes que o ser humano altere o seu próprio significado pela interação com as máquinas.

Essas não são palavras vazias. Basta olhar nosso passado recente para ver como a nossa interação incrivelmente intensa com a tecnologia digital nos transformou nos últimos anos, a começar pela polarização irracional que fraturou a sociedade.

O mais terrível disso tudo é que as ideias que nos levaram a isso não são nossas, e sim de grupos que se beneficiam desse caos. Eles souberam manipular os algoritmos das redes sociais para disseminar suas visões, não de maneira óbvia e explícita, mas distribuindo elementos aparentemente não-relacionados (mas cuidadosamente escolhidos) para que as pessoas concluíssem coisas que interessavam a esses poderosos. E uma vez que essa conclusão acontece, fica muito difícil retirar essa ideia da cabeça do indivíduo, pois ele pensa que ela é genuinamente dele.

Se as redes sociais se prestam até hoje a distorcer o processo de nascimento de ideias, a inteligência artificial pode agravar esse quadro na etapa seguinte, que é a nutrição dessas mesmas ideias. Como uma plantinha, elas precisam ser regadas para que cresçam com força.

Em um artigo publicado na semana passada, a professora da PUC-SP Lucia Santaella, autoridade global em semiótica, argumenta que o nosso uso da inteligência artificial generativa criou um novo tipo de leitor, que ela batizou de “leitor iterativo”. Afinal, não lemos apenas palavras: lemos imagens, gráficos, cores, símbolos e a própria natureza.

Com a IA generativa, entramos em um processo cognitivo inédito pelas conversas com essas plataformas. Segundo Santaella, o processo iterativo avança por refinamentos sucessivos, e os chatbots respondem tanto pelo que sabem, quanto pelos estímulos que recebem. Dessa forma, quanto mais iterativo for o usuário sobre o que deseja, melhores serão as respostas.

Isso reforça a minha proposta original de que não podemos “terceirizar” nossa criatividade para a inteligência artificial. Até mesmo a qualidade do que ela nos entrega depende do nível de como nos relacionamos com ela.

Temos que nos apropriar das incríveis possibilidades da inteligência artificial, uma ferramenta que provavelmente potencializará pessoas e empresas que se destacarão nos próximos anos. Mas não podemos abandonar nossa criatividade nesse processo. Pelo contrário: aqueles que mais se beneficiarão das máquinas são justamente os que maximizarem a sua humanidade.

 

Ilustração: Creative Commons

Esse será de novo o ano da inteligência artificial, mas de uma forma diferente

By | Tecnologia | No Comments

Quando 2022 começou, o mundo da tecnologia só falava de metaverso, grande promessa incensada por Mark Zuckerberg, que até trocou o nome de sua empresa de Facebook para Meta. Mas, passados 12 meses, nada verdadeiramente útil aconteceu em torno dele. Já 2023 começou com a inteligência artificial ocupando os grandes debates tecnológicos, e, ao final do ano, ela superou todas as expectativas. Agora, que estamos começando 2024, ressurge a pergunta: esse será o ano do que, no cenário tecnológico?

Conversei com diferentes especialistas e executivos e a resposta passa novamente pela inteligência artificial. Mas nada será como era antes! O que aconteceu em 2023 e deixou o mundo de queixo caído ficará para trás como iniciativas embrionárias, quase protótipos. Os entrevistados foram unânimes em afirmar que o ano que passou foi de aprendizado e que agora, em 2024, o mundo deve começar a ver a inteligência artificial movendo produtos realmente profissionais.

Outras mudanças em curso se consolidarão a reboque disso. O mercado de trabalho continuará sendo impactado, com oportunidades para profissionais mais atualizados e ameaças para quem permanece em tarefas repetitivas. Além disso, a liderança de TI ocupará cada vez mais o espaço de decisão de negócios, e questões éticas do uso da tecnologia ganharão destaque no cotidiano empresarial.

Esse será o ano em que a inteligência artificial se tornará verdadeiramente produtiva!


Veja esse artigo em vídeo:


“Quando eu olho 2024, continua sendo um ano de inteligência artificial, mas será um ano de muito mais inteligência de transformar o caso de uso em realidade”, afirma Thiago Viola, diretor de Inteligência Artificial e Dados da IBM Brasil. “As empresas vão começar a amadurecer, para garantir que as soluções funcionarão, que não vão ‘alucinar’, que não vão dar nenhum problema.”

“Em 2023, a gente teve alguns ‘brinquedinhos’, não eram ainda algo que se pudesse chamar de uma aplicação corporativa”, explica Cassio Dreyfuss, vice-presidente de análise e pesquisa do Gartner Brasil. “Em 2024, isso vai decolar e você tem que estar preparado para isso!”

Essa também é a percepção de Marcelo Ciasca, CEO da Stefanini. Para ele, “apesar de em 2023 a inteligência artificial ter sido a pauta principal em termos de tecnologia, ninguém sabia exatamente ainda como aplicá-la efetivamente.”

“’Automação’ é uma palavra importante para o ano”, sugere Gilson Magalhães, presidente da Red Hat Brasil. Apesar do deslumbramento que a IA provocou em 2023, as empresas passam a entender que ela é uma ferramenta para processos mais robustos e poderosos. “A automação vai entrar mais nas casas, melhorar nossa percepção de temas pessoais, mas a gente vai ver também automação industrial, no campo, fabril, a automação entrando como uma grande meta”, acrescenta.

A OpenAI, criadora do afamado ChatGPT, deu um passo importante nessa direção no final de 2023, ao liberar a possibilidade de seus usuários pagantes criarem os seus próprios assistentes virtuais, especializados em um tema e alimentados com dados próprios. Esse é o prelúdio de inteligências artificiais capazes de realizar tarefas mais amplas a partir de comandos complexos, conectando-se a diferentes serviços e até tomando decisões em nome do usuário.

A primeira vez que vi isso foi ainda em novembro de 2019, em uma demonstração da Microsoft, Adobe, Accenture e Avanade. Em uma época que o ChatGPT parecia uma miragem, um sistema controlado por voz em frases muito simples comprava passagens aéreas, reservava hotéis e até pedia comida para o usuário. Mas o que mais me chamou a atenção foi que ele tomava decisões comerciais com base no que sabia do usuário, sem o consultar, como por exemplo, escolher em qual hotel faria a reserva e até pedir um sanduíche sem queijo, pois a pessoa era intolerante à lactose.

Perguntei na época qual a garantia que eu, como usuário, teria que essas decisões seriam as melhores para mim, e não para as empresas envolvidas. E isso toca em um ponto que deve nortear os sistemas com IA nos próximos anos: a ética! Questionei também quando poderíamos ter algo como aquilo disponível.

A resposta: por volta de 2024!

 

Máquinas éticas

“Haverá um encapsulado de gestão e governança muito mais forte do que vimos em 2023”, afirma Viola. Segundo o executivo, “será um ano que vai ter que realizar se preocupando com fatores éticos, de governança, de proteção da IA como um todo”.

Esse debate ganhou força em 2023 e deve se cristalizar em 2024. Não se quer uma tecnologia incrível que, para ser assim, passe por cima da privacidade ou ameace direitos e até o bem-estar das pessoas. A regulamentação da IA é um grande desafio, pois ela não deve coibir seu desenvolvimento, mas precisa encontrar maneiras de responsabilizar empresas e usuários por maus usos e descuidos na sua criação.

Esse cenário abre ótimas oportunidades a empresas e profissionais. “TI se transformou no grande divisor de águas de diferenciação das empresas”, explica Magalhães. “Se você tem uma boa TI, você se diferencia”, conclui.

Em uma vida cada vez mais digitalizada e dependente da IA para decisões pessoais e empresariais, essas equipes ficam ainda mais importantes. “A TI muda de papel: ao invés de receber requisitos para gerar soluções, vai fornecer, de uma maneira consultiva, recursos nas áreas de clientes”, explica Dreyfuss. Ciasca corrobora essa ideia: “isso não vai eliminar o emprego das pessoas, mas vai redirecionar muitos para que as pessoas tenham a capacidade de fazer isso de forma adequada.”

Não há dúvida de que será um ano estimulante e de desenvolvimentos exponenciais. Precisamos apenas nos manter atentos porque todas essas novidades galopantes, que tanto nos impressionam, acabam sendo difíceis de assimilar pela nossa humanidade (o que não deixa de ser emblemático). Não podemos achar que o fim justifica os meios e partir em uma corrida irresponsável, mas tampouco podemos ficar travados por temores de máquinas que nos dominem (ou coisas piores).

Cada vez mais, a inteligência artificial será nossa parceira pessoal e de negócios, e isso ficará mais consolidado e profissional em 2024. É hora de nos apropriarmos de todo esse poder, para nos beneficiarmos adequadamente do que bate a nossa porta!

 

O CEO da OpenAI, Sam Altman, que ganhou a briga contra o antigo conselho da empresa - Foto: Steve Jennings/Creative Commons

Esse foi o ano da inteligência artificial, sem dúvida

By | Tecnologia | No Comments

Todo ano uma tecnologia desponta como inovadora, capturando mentes e manchetes. Ao final de 2023, poucas pessoas destacariam outra coisa que não fosse a inteligência artificial. Ela deixou de existir apenas em debates acadêmicos e de especialistas para ocupar rodas de conversas de leigos em mesas de bar. Mas o que fez uma tecnologia septuagenária e que já integrava nosso cotidiano (ainda que a maioria não soubesse disso) ganhar tamanha importância?

A resposta passa pelo lançamento de um produto: o ChatGPT. Apesar de ter sido liberado em 30 de novembro de 2022, nesse ano se tornou o produto de mais rápida adoção da história (e não me restrinjo a produtos digitais), com 100 milhões de usuários em apenas quatro meses! Mas a despeito de suas qualidades, sua grande contribuição foi demonstrar ao cidadão comum o poder da IA. E isso detonou uma corrida frenética para inclusão dessa tecnologia em todo tipo de produtos.

O ChatGPT faz parte de uma categoria da inteligência artificial chamada “generativa”. Isso significa que ele é capaz de gerar conteúdos inéditos (no seu caso, textos) a partir do que sabe. Parece mágica para muita gente, mas uma outra característica sua talvez seja ainda mais emblemática: o domínio da linguagem humana, e não termos truncados ou computacionais. E uma linguagem complexa, estruturada e consciente nos diferenciava dos outros animais e das máquinas.

Agora não mais das máquinas! Ao dominar a linguagem humana, a IA praticamente “hackeou” o nosso “sistema operacional”. E essa é a verdadeira explicação para 2023 ter sido o ano da inteligência artificial.


Veja esse artigo em vídeo:


Como é preciso quebrar alguns ovos para fazer uma omelete, toda essa transformação trouxe algumas preocupações. Uma das primeiras veio da educação, com professores temendo que perderiam a capacidade de avaliar seus alunos, que passariam a usar o ChatGPT para fazer seus trabalhos. Alguns professores chegaram até a temer que fossem substituídos de vez por máquinas inteligentes. Felizmente nada disso aconteceu, mas o debate serviu para educadores perceberem que precisavam reciclar a maneira como ensinavam e avaliavam seus alunos.

O medo de ser substituído pela máquina também atingiu funções que antes se sentiam imunes a isso, por serem trabalhos criativos. E esse é um temor legítimo, pois muita gente já está perdendo mesmo o emprego para a IA. Mas há “esperança”!

A inteligência artificial realmente cria coisas incríveis depois de processar quantidades obscenas de informação, encontrando soluções que nem o mais experiente profissional conseguiria. Mas ela também erra, e erra muito! São as chamadas “alucinações”, termo que entrou em nosso cotidiano em 2023 com essa acepção.

Trata-se de informações incorretas (às vezes muito erradas) que as plataformas inventam e incluem em suas produções, para tentar atender aos pedidos dos usuários. Por conta delas, muita gente se deu mal em 2023, até perdendo o emprego, por apresentar trabalhos com esses erros grosseiros. Portanto, bons profissionais ainda são necessários, para verificar se a IA não está “mentindo” desbragadamente.

As big techs abraçaram a IA! Depois que o ChatGPT foi chamado inicialmente de “assassino de Google” (outra bobagem que não se concretizou), o próprio Google correu para lançar em fevereiro o seu produto, o Bard, tentando deixar para trás a sensação de que tinha perdido a corrida de algo que já pesquisava havia muitos anos. No segundo semestre, a Meta incorporou seu Llama 2 a suas plataformas.

Mas quem acabou aparecendo com força mesmo foi a Microsoft, que teria investido algo como US$ 12 bilhões na OpenAI, criadora do ChatGPT. Com isso, essa tecnologia foi incorporada em muitos de seus produtos, como o Bing e o Word.

A inteligência artificial parece estar em toda parte. Mas isso é só o começo!

 

“Com grandes poderes, vêm grandes responsabilidades”

A IA realmente deslumbrou todos. Não é exagero afirmar que, mesmo em seu estágio atual, para muitos ainda embrionário, ela já está transformando o mundo. Mas para muita gente, ela está indo rápido demais.

Hoje há um embate entre dois movimentos. De um lado, temos o “Altruísmo Eficaz”, que defende que o desenvolvimento da IA seja bem regulado, para evitar que ela se torne muito poderosa e destrua a humanidade. Do outro, há o “Aceleracionismo Eficaz”, que defende justamente o contrário: que seu desenvolvimento aconteça totalmente livre, sem regras. Para esses, os benefícios da IA superam eventuais riscos que traga, por isso deve acontecer o mais rapidamente possível.

Esse embate provocou um abalo sísmico no dia 17 de novembro, quando o conselho da OpenAI sumariamente demitiu Sam Altman, fundador e CEO da empresa. Os conselheiros alegaram que Altman não era mais “confiável”. Isso porque a OpenAI nasceu como uma organização sem fins lucrativos, para criar uma IA “que beneficiasse a humanidade”. Com o tempo, Altman percebeu que, se não criasse produtos comerciais para captar novos investimentos, a empresa não evoluiria. Foi quando se juntou à Microsoft!

O que se viu nos cinco dias seguintes foi uma reviravolta cinematográfica, com Altman recebendo apoio massivo dos funcionários da empresa e dos investidores, especialmente da Microsoft. Nesse curtíssimo tempo, reassumiu o cargo e o antigo conselho renunciou. No novo, a Microsoft ganhou um assento.

Por tudo isso, o ano que começou com uma mistura de deslumbramento e temor em torno da inteligência artificial termina com um debate fortíssimo em vários países, inclusive no Brasil, se essa tecnologia deve ser regulamentada. A preocupação é que, se empresas de redes sociais, que não respondem pelos problemas que causam, racharam sociedades ao meio, a IA poderia criar danos potencialmente muito maiores, se usada para o mal e sem nenhuma responsabilização dos usuários e das plataformas.

Com tudo isso, esse definitivamente não foi um ano típico na tecnologia! As mudanças promovidas pela inteligência artificial foram tantas e tão intensas que é como se todo esse debate estivesse acontecendo há muitos anos. Mas não: ele aconteceu todo em 2023. Portanto, não há como negar à inteligência artificial o título de tecnologia mais impactante do ano, para não dizer da década! Precisamos nos apropriar adequadamente dela!

 

Geoffrey Hinton, o “padrinho da IA”, que se demitiu do Google em maio para poder criticar livremente os rumos da IA - Foto: reprodução

Entusiastas da IA querem acelerar sem parar, mas isso pode fazê-la derrapar

By | Tecnologia | No Comments

Nesse ano, a inteligência artificial deixou de ser um interesse da elite tecnológica e conquistou o cidadão comum, virando tema até de conversas de bar. Muita gente agora a usa intensamente, criando tanto coisas incríveis, quanto enormes bobagens. Isso gerou uma excitação em torno da tecnologia, com grupos que propõem que seja desenvolvida sem nenhuma restrição ou controle, acelerando o máximo que se puder.

Isso pode parecer emocionante, mas esconde um tipo de deslumbramento quase religioso que de vez em quando brota no Vale do Silício, a meca das big techs, nos EUA. Um movimento especificamente vem fazendo bastante barulho com essa ideia. Batizado de “Aceleracionismo Efetivo” (ou “e/acc”, como se autodenominam), ele defende que a inteligência artificial e outras tecnologias emergentes possam avançar o mais rapidamente possível, sem restrições ou regulamentações.

Mas quem acelera demais em qualquer coisa pode acabar saindo da pista!

Eles desprezam pessoas que chamam de “decels” e “doomers”, aquelas preocupadas com riscos de segurança vindos de uma IA muito poderosa ou reguladores que querem desacelerar seu desenvolvimento. Entre eles, está Geoffrey Hinton, conhecido como o “padrinho da IA”, que no dia 1º de maio se demitiu do Google, para poder criticar livremente os caminhos que essa tecnologia está tomando e a disputa sem limites entre as big techs, o que poderia, segundo ele, criar “algo realmente perigoso”.

Como de costume, radicalismos de qualquer lado tendem a dar muito errado. A verdade costuma estar em algum ponto no meio de caminho, por isso todos precisam ser ouvidos. Então, no caso da IA, ela deve ser regulada ou seu desenvolvimento deve ser liberado de uma forma quase anárquica?


Veja esse artigo em vídeo:


O Aceleracionismo Efetivo surgiu nas redes sociais no ano passado, como uma resposta a outro movimento: o “Altruísmo Eficaz”, que se tornou uma força importante no mundo da IA. Esse último começou promovendo filantropia otimizada a partir de dados, mas nos últimos anos tem se preocupado com a segurança da sociedade, propondo a ideia de que uma IA poderosa demais poderia destruir a humanidade.

Já o aceleracionistas efetivos acham que o melhor é sair da frente e deixar a inteligência artificial crescer livre e descontroladamente, pois seus benefícios superariam muito seus eventuais riscos, por isso jamais deveria ser vista como uma ameaça. Para eles, as plataformas devem ser desenvolvidas com software open source, livre do controle das grandes empresas.

Em um manifesto publicado no ano passado, os aceleracionistas efetivos descreveram seus objetivos como uma forma de “inaugurar a próxima evolução da consciência, criando formas de vida impensáveis da próxima geração”. De certa forma, eles até aceitam a ideia de que uma “super IA” poderia ameaçar a raça humana, mas a defendem assim mesmo, pois seria “o próximo passo da evolução”.

Para muita gente, como Hinton, isso já é demais! Em entrevista ao New York Times na época em que deixou o Google, o pioneiro da IA disse que se arrependia de ter contribuído para seu avanço. “Quando você vê algo que é tecnicamente atraente, você vai em frente e faz”, justificando seu papel nessas pesquisas. Agora ele teria percebido que essa visão era muito inconsequente.

Portanto é um debate em torno da ética do desenvolvimento tecnológico e das suas consequências. Conversei na época sobre aquela entrevista de Hinton com Lucia Santaella, professora-titular da PUC-SP. E para ela, “a ética da inteligência artificial tem que funcionar mais ou menos como a da biologia, tem que ter uma trava! Se não, os filmes de ficção científica vão acabar se realizando.”

 

A dificuldade de se regular

Além da questão ética, outro ponto que contrapõe aceleracionistas efetivos e altruístas eficazes é a necessidade de se regular a inteligência artificial. Mas verdade seja dita, essa tecnologia está dando um banho nos legisladores. Isso porque ela evolui muito mais rapidamente do que eles são capazes de propor leis.

Podemos pegar, como exemplo, a União Europeia, que legisla de forma rápida e eficiente temas ligados à tecnologia. Em abril de 2021, ela apresentou um projeto de 125 páginas como “referência” na regulação da IA. Fruto de três anos de debates com especialistas de diferentes setores associados ao tema, Margrethe Vestager, chefe da política digital do bloco, disse que o documento estava “preparado para o futuro”.

Parecia ser isso mesmo, até que, em novembro do ano passado, a OpenAI lançou o ChatGPT e criou uma corrida frenética para se incluir a inteligência artificial generativa em todo tipo de sistema. E isso nem era citado na proposta europeia!

O processo de criação de uma nova lei de qualidade é naturalmente lento, pois exige muita pesquisa e debate. Mas se as coisas acontecerem como propõem os e/accs, os legisladores estarão sempre muito atrás dos desenvolvedores. Os primeiros não conseguem sequer entender a tempo o que os segundos estão criando e, justiça seja feita, mesmo esses não têm total certeza do que fazem.

Enquanto isso, Microsoft, Google, Meta, OpenAI e outras gigantes da tecnologia correm soltas para criar sistemas que lhes concederão muito poder e dinheiro. A verdade é que quem dominar a IA dominará o mundo nos próximos anos.

Os aceleracionistas efetivos afirmam que eles são o antídoto contra o pessimismo dos que querem regular a inteligência artificial, algo que diminuiria o ritmo da inovação, o que, para eles, seria o equivalente a um pecado. Mas quanto disso é real e quanto é apenas uma “atitude de manada” inconsequente?

Sou favorável que a IA se desenvolva ainda mais. Porém, se nenhum limite for imposto, ainda que de responsabilização quando algo der errado, as big techs farão o mesmo que fizeram com as redes sociais. E vejam onde isso nos levou!

Não podemos perder o foco em nossa humanidade, que nos permite distinguir verdade de mentira, certo de errado! Só assim continuaremos desenvolvendo novas e incríveis tecnologias, sem ameaçar a sociedade.

Afinal, a ética consciente é o que nos diferencia dos animais, e agora, pelo jeito, também das máquinas!


Antes de encerrar, gostaria de fazer uma nota pessoal. Ainda que discorde filosoficamente dos aceleracionistas efetivos, acho o debate válido, se feito de forma construtiva. Pessoas com pontos de vista diferentes encontram juntas boas soluções que talvez não conseguiriam sozinhas, justamente por terem visões parciais de um tema. Para isso, necessitamos de conhecimento e de vontade de fazer o bem. Esse é um dos motivos para eu iniciar em 2024 meu doutorado na PUC-SP, sob orientação de Lucia Santaella, para pesquisar o impacto da inteligência artificial na “guerra” pelo que as pessoas entendem como “verdade”, algo determinante em suas vidas.

 

Detalhe de uma linha de produção de aves da Sadia - Foto: reprodução

Matemática e IA ajudam a garantir a entrega dos presentes antes do Natal e o peru na ceia

By | Tecnologia | No Comments

O fim do ano está chegando e, em um mundo em que o e-commerce ganha cada vez mais espaço, surge a pergunta: as compras online que eu fizer hoje chegarão antes do Natal? A maioria das pessoas não tem a menor ideia do que o clique no botão “comprar” movimenta, não apenas na entrega, mas também na produção daquele item.

Quem responde esse questionamento é a cadeia de suprimentos (ou “supply chain”), que possui metodologias bem conhecidas, mas que precisa lidar continuamente com imprevisibilidades que teimam em desafiar planejamentos e modelos. Em um cenário em que a quantidade de informação não para de crescer e os clientes ficam cada vez mais exigentes, modelos matemáticos e a inteligência artificial se apresentam como aliados poderosos. Elas dinamizam esses processos, melhorando a experiência do cliente final e, do lado das empresas, diminuindo custos e aumentando receitas.

Segundo o estudo “Own Your Transformation”, feito pelo IBM Institute for Business Value em cooperação com o instituto Oxford Economics, 53% dos executivos brasileiros do setor investem em novas tecnologias para fazer frente a interrupções na cadeia de suprimentos. O levantamento, que entrevistou 1.500 Chief Supply Chain Officers (CSCO) de todo o mundo, indicou ainda que 60% dos brasileiros já usavam abordagens preditivas como forma de gerenciar riscos.

“A gente faz um modelo que, em curto prazo, conta com fatos concretos, mas depois começa a aventar hipóteses, começa a trabalhar com modelos estocásticos”, explica Marcelo Elias, sócio e conselheiro da Linear, empresa brasileira que usa a matemática para a otimização de processos de supply chain. Modelos estocásticos incorporam elementos de aleatoriedade ou incerteza, com variáveis que podem mudar de maneira probabilística ao longo do tempo. Eles são uma ferramenta poderosa para entender e prever resultados de sistemas complexos.

A companhia tem 26 anos e ajuda nas decisões de executivos de clientes tão distintos quanto Ambev e Natura, mas construiu sua fama trabalhando em cadeias do setor de produção de alimentos, “as mais complexas que existem”, segundo Elias.

É o caso, por exemplo, de um país que importe frangos de um determinado frigorífico, com características específicas, como peso. Se por um fator fora de controle, como o surgimento de uma barreira sanitária, interrompe essas compras, a empresa precisa decidir o que fazer com as aves, que já estão prontas para o abate. “Os animais estão ali, não dá para ‘estocar’, porque perderão sua ‘configuração’, ganhando mais peso”, explica Fabio Sas, sócio e diretor comercial e marketing da Linear.

Em um caso como esse, em que literalmente centenas de milhares de frangos correm o risco de serem perdidos, os modelos matemáticos sugerem outros mercados para onde esse excedente pode ser direcionado. Ainda que o preço caia, será a menor perda possível e em um mercado que não “contaminará” os preços de praças mais importantes.

Segundo dados do IBGE, algo como 30% dos alimentos produzidos no Brasil acabam sendo descartados, totalizando cerca de 46 milhões de toneladas anuais de desperdício, um prejuízo estimado de R$ 61,3 bilhões. Isso nos deixa como o 10º país que mais joga fora comida no mundo, segundo a Organização das Nações Unidas (ONU).

O desperdício ocorre em diversas etapas da cadeia, como mau planejamento na produção, deficiências de infraestrutura de transporte, até o consumo inadequado. Isso representa não só uma enorme redução nos lucros de produtores e varejistas, como um custo social inaceitável em um país que luta contra a fome em uma parcela significativa de sua população.

Parte da solução desse problema passa por tentar antecipar com boa acuracidade quanto o mercado precisará de cada produto, para que seja produzido na quantidade e no tempo certo. E no caso de evento inesperados, como picos de consumo, sistemas assim podem ajustar previsões e programações de produção em tempo real.

Os modelos da Linear trabalham nisso. Se for produzido mais que o necessário ou um produto chegar antes da hora nas lojas, isso gera custos com estoque e até perdas por se estragar. Se produzir menos, perdem-se vendas e o cliente fica frustrado por não encontrar o que queria.

 

Nada isolado, tudo integrado

A maioria dos modelos matemáticos ainda cuida da cadeia localmente: trabalham para maximizar os resultados de uma fábrica específica, por exemplo. Mas em um mundo globalizado e acelerado, a soma dos “ótimos locais” não representa necessariamente o “ótimo global”.

“Os clientes estão acostumados a olhar individualmente cada planta e ver se ela está dando lucro, mas isso não existe”, explica Walker Batista, sócio e diretor de modelagem e inovação da Linear. Ele explica que uma fábrica pode até operar com prejuízo, se contribuir positivamente com o todo, por exemplo concentrando os produtos mais baratos. “A formulação de cada planta não é tomada localmente, e sim de forma global, mas isso não dá para fazer sem a matemática”, conclui.

De certa forma, os desafios do supply chain hoje são os mesmos de antes. O que mudou muito é a escala e a velocidade.

Até alguns anos atrás, a cadeira funcionava movida por eventos específicos. Havia tempo para coletar e processar informações, para se tomar as decisões. No atual mundo interligado, em que um produto não estar disponível se torna um “pecado”, e entregas começam a ser feitas até na mesma hora em que o pedido for feito, essa “zona de conforto” desapareceu.

O planejamento da cadeia deixa de funcionar por eventos e passa a acontecer de maneira fluida, dia a dia, às vezes de hora em hora! É um cenário em que a matemática e a inteligência artificial podem oferecer uma enorme vantagem competitiva, analisando uma quantidade obscena de dados das mais diferentes fontes, identificando padrões, alimentando os modelos e gerando ideias para os gestores.

Em alguns casos, chega-se a uma fronteira, que é o limite computacional disponível para processar tudo isso. A computação quântica desponta como uma promessa de resposta, mas, segundo Batista, seus altos custos ainda não conseguem se justificar nesses processos.

Portanto, quando comprar seu próximo presente de Natal e descobrir que ele chegará a tempo de ser colocado embaixo da árvore, ou trazer um belo peru para a ceia, lembre-se que nada é por acaso: muita tecnologia foi usada para isso acontecer.

 

Taylor Swift e suas cópias, que podem ser geradas por IA para convencer as pessoas - Foto: Paulo Silvestre com Creative Commons

Pessoas se tornam vítimas de bandidos por acreditarem no que desejam

By | Tecnologia | No Comments

Usar famosos para vender qualquer coisa sempre foi um recurso poderoso do marketing. Mas agora as imagens e as vozes dessas pessoas estão sendo usadas sem sua permissão ou seu conhecimento para promover produtos que eles jamais endossariam e sem que ganhem nada com isso.

Esse conteúdo falso é criado por inteligência artificial e está cada vez mais convincente. Além de anunciar todo tipo de quinquilharia, esses “deep fakes”, como é conhecida essa técnica, podem ser usados para convencer as massas muito além da venda de produtos, envolvendo aspectos políticos e até para se destruir reputações.

O processo todo fica ainda mais eficiente porque as pessoas acreditam mais naquilo que desejam, seja em uma “pílula milagrosa de emagrecimento” ou nas ideias insanas de seu “político de estimação”. Portanto, os bandidos usam os algoritmos das redes sociais para direcionar o conteúdo falso para quem gostaria que aquilo fosse verdade.

Há um outro aspecto mais sério: cresce também o uso de deep fakes de pessoas anônimas para a aplicação de golpes em amigos e familiares. Afinal, é mais fácil acreditar em alguém conhecido. Esse recurso também é usado por desafetos, por exemplo criando e distribuindo imagens pornográficas falsas de suas vítimas.


Veja esse artigo em vídeo:


As redes sociais, que são os maiores vetores da desinformação, agora se deparam sob pressão com o desafio de identificar esse conteúdo falso criado por IA para prejudicar outras pessoas. Mas seus termos de uso e até alguns de seus recursos tornam essa tarefa mais complexa que as dificuldades inerentes da tecnologia.

Por exemplo, redes como TikTok e Instagram oferecem filtros com inteligência artificial para que seus usuários alterem (e supostamente “melhorem”) suas próprias imagens, uma distorção da realidade que especialistas afirmam criar problemas de autoestima, principalmente entre adolescentes. Além disso, muitas dessas plataformas permitem deep fakes em algumas situações, como paródias. Isso pode tornar esse controle ainda mais difícil, pois uma mentira, uma desinformação, um discurso de ódio pode se esconder subliminarmente nos limites do aceitável.

O deep fake surgiu em 2017, mas seu uso explodiu nesse ano graças ao barateamento das ferramentas e à melhora de seus resultados. Além disso, algumas dessas plataformas passaram a convincentemente simular a voz e o jeito de falar de celebridades. Também aprendem o estilo de qualquer pessoa, para “colocar na sua boca” qualquer coisa. Basta treiná-las com alguns minutos de áudio do indivíduo. O “pacote da enganação” se completa com ferramentas que geram imagens e vídeos falsos. Na prática, é possível simular qualquer pessoa falando e fazendo de tudo!

A complexidade do problema cresce ao transcender as simulações grosseiras e óbvias. Mesmo a pessoa mais ingênua pode não acreditar ao ver um vídeo de uma celebridade de grande reputação destilando insanidades. Por isso, o problema maior não reside em um “fake” dizendo um absurdo, mas ao falar algo que o “original” poderia ter dito, mas não disse. E nessa zona cinzenta atuam os criminosos.

Um exemplo pôde ser visto na terça passada (5), quando o apresentador esportivo Galvão Bueno, 73, precisou usar suas redes sociais para denunciar um vídeo com uma voz que parecia ser a sua insultando Ednaldo Rodrigues, presidente da Confederação Brasileira de Futebol (CBF). “Fizeram uma montagem com coisas que eu nunca disse e eu nunca diria”, disse Galvão em sua defesa.

Ele não disse mesmo aquilo, mas poucos estranhariam se tivesse dito! Duas semanas antes, após a derrota da seleção brasileira para a argentina nas eliminatórias da Copa do Mundo, o apresentador fez duras críticas ao mesmo presidente. Vale dizer que há uma guerra pela liderança da CBF, e Rodrigues acabou sendo destituído do cargo no dia 7, pela Justiça do Rio.

 

Ressuscitando os mortos

O deep fake de famosos já gerou um enorme debate no Brasil nesse ano. No dia 3 de julho, um comercial sobre os 70 anos da Volkswagen no país provocou polêmica ao colocar a cantora Elis Regina (morta em 1982) cantando ao lado da filha Maria Rita. Elis aparece no filme dirigindo um antigo modelo de Kombi, enquanto a filha aparece ao volante de uma ID.Buzz, furgão elétrico recém-lançado, chamado de “Nova Kombi”.

Muita gente questionou o uso da imagem de Elis. Mas vale dizer que, nesse caso, os produtores tiveram a autorização da família para o uso de sua imagem. Além disso, ninguém jamais propôs enganar o público para que achasse que Elis estivesse viva.

Outro exemplo aconteceu na recente eleição presidencial argentina. Durante a campanha, surgiram imagens e vídeos dos dois candidatos que foram ao segundo turno fazendo coisas condenáveis. Em um deles, o candidato derrotado, Sergio Massa, aparece cheirando cocaína. Por mais que tenha sido desmentido, ele “viralizou” nas redes e pode ter influenciado o voto de muita gente. Tanto que, no Brasil, o Tribunal Superior Eleitoral (TSE) já se prepara para combater a prática nas eleições municipais de 2024.

Na época do comercial da Volkswagen, conversei sobre o tema com Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propaganda e Marketing). Para ele, “ficará mais difícil, a olho nu, detectar o que é verdadeiro”, restando aos peritos identificar as falsificações. “O desafio, daqui para frente, é que será mais comum ver esse tipo de debate na Justiça”, acrescentou.

Essa é uma preocupação mundial. As fake news mais eficientes não escancaram uma informação falsa “completa”. Ao invés disso, o conceito que pretendem impor é apresentado aos poucos, em pequenos elementos aparentemente desconexos, mas criteriosamente entregues, para que a pessoa conclua “sozinha” o que os criminosos querem. Quando isso acontece, fica difícil convencê-la do contrário.

Não há clareza sobre como resolver esse problema. Os especialistas sugerem que exista algum tipo de regulamentação, mas ela precisa equilibrar a liberdade para se inovar e a garantia dos interesses da sociedade. Sem isso, podemos ver uma enorme ampliação da tragédia das fake news, construída por redes sociais que continuam não sendo responsabilizadas por disseminá-las.

Como determina a Constituição, todos podem dizer o que quiserem, mas respondem por isso. O desafio agora é que não se sabe mais se a pessoa disse o que parece ter dito de maneira cristalina diante de nossos olhos e ouvidos.

 

O CEO da OpenAI, Sam Altman, que ganhou a briga contra o antigo conselho da empresa - Foto: Steve Jennings/Creative Commons

Como a confusão na OpenAI determinará nossas vidas

By | Tecnologia | No Comments

Nessa quarta (30), o lançamento do ChatGPT completa seu primeiro aniversário. É bem pouco tempo para um produto que mudou a maneira como fazemos muitas coisas em nossas vidas. Isso se deu não por seus próprios recursos, limitados a escrever textos (ainda que de maneira surpreendente), mas por ter iniciado a corrida da inteligência artificial generativa, que invadiu todo tipo de ferramenta de produtividade.

Por uma infame coincidência, a OpenAI, criadora do sistema, quase deixou de existir na semana passada. Na sexta anterior (17), Sam Altman, fundador e CEO da empresa, foi sumariamente demitido, pegando o mundo da tecnologia –e aparentemente ele mesmo– de surpresa. A OpenAI só não desapareceu por uma cinematográfica sequência de eventos, que puseram Altman de volta na sua cadeira em apenas cinco dias.

Isso já tornaria essa história incrível, mas pouco se sabe e menos ainda se fala dos elementos mais suculentos em seus bastidores. Afinal, o que faria o conselho de administração da OpenAI mandar embora a estrela mais brilhante do Vale do Silício no momento, em plena ascensão?

A resposta é profundamente mais complexa que uma simples “quebra de confiança”, apresentada na justificativa. O real motivo são visões conflitantes sobre como o desenvolvimento da inteligência artificial deve continuar acontecendo. De um lado, temos uma maneira mais lenta e cuidadosa, até para se evitar que ela “saia do controle” e ameace a humanidade. Do outro, há os que defendam que isso aconteça de forma acelerada, criando freneticamente novos e fabulosos produtos com ela.


Veja esse artigo em vídeo:


Sam Altman faz parte do segundo grupo. Os agora ex-membros do conselho de administração da OpenAI fazem parte do outro.

No fim de semana seguinte a sua demissão, Altman tentou sem sucesso reassumir o cargo. Então a Microsoft, que é a principal investidora da OpenAI, anunciou na segunda (20) a sua contratação para liderar um novo centro de pesquisa de inteligência artificial. Disse ainda que aceitaria qualquer profissional da OpenAI que quisesse acompanhar Altman.

No dia seguinte, em um movimento ousado, cerca de 700 trabalhadores da startup publicaram uma carta aberta exigindo a readmissão de Altman e a renúncia dos membros do conselho. Caso contrário, todos se demitiriam, o que na prática acabaria com a empresa. Na quarta, Altman estava de volta e os conselheiros se demitiram.

A Microsoft não tinha nenhum interesse no fim da OpenAI, portanto contratar Altman foi uma jogada de mestre, por forçar a reação das suas equipes. Depois de investir US$ 13 bilhões na startup, seus produtos estão sendo gradualmente integrados aos da gigante, como o pacote 365 (antigo Office) e o buscador Bing. Além disso, a OpenAI está pelo menos seis meses à frente da concorrência, como Google e Meta, o que é um tempo enorme nas pesquisas de IA, e isso não pode ser jogado no lixo.

A confusão na OpenAI não se trata, portanto, se Altman estava fazendo um bom trabalho. Segundo o New York Times, ele e os antigos conselheiros já vinham brigando há mais de um ano, pois o executivo queria acelerar a expansão dos negócios, enquanto eles queriam desacelerar, para fazer isso com segurança.

Vale dizer que a OpenAI foi fundada em 2015 como uma organização sem fins lucrativos, para construir uma superinteligência artificial segura, ética e benéfica à humanidade. Mas a absurda capacidade de processamento que a inteligência artificial exige levou à criação de um braço comercial do negócio, em 2018.

 

A “mãe de todas as IAs”

Altman sempre disse que buscava o desenvolvimento de uma inteligência artificial geral (IAG), um sistema capaz de realizar qualquer tarefa por iniciativa própria, até mesmo se modificar para se aprimorar. Isso é muito diferente das IAs existentes, que realizam apenas um tipo tarefa e dependem de serem acionadas por um usuário.

Alguns pesquisadores afirmam que a IAG, que superaria largamente a capacidade cognitiva humana, jamais existirá. Outros dizem que já estamos próximos dela.

Na semana passada, a OpenAI deu mais um passo nessa busca, com o anúncio da Q* (lê-se “Q-Star”, ou “Q-Estrela”, em tradução livre), uma IA ainda mais poderosa que as atuais. Esse sistema pode ter contribuído para a demissão de Altman.

Nada disso é um “papo de nerd”. Se chegaremos a ter uma inteligência artificial geral ou até com que agressividade a IA transformará todo tipo de ferramentas já impacta decisivamente como vivemos. E isso vem acontecendo de maneira tão rápida, que mesmo os pesquisadores estão inseguros sobre benefícios e riscos que isso envolve.

Há ainda preocupações geopolíticas: se as grandes empresas ocidentais não fizerem isso, regimes autoritários e fundamentalistas podem chegar lá, com consequências imprevisíveis para a ordem mundial. Mas também não podemos ver candidamente o Vale do Silício como um campeão da liberdade e da ética. Eles querem dinheiro, e casos como o da OpenAI e de muitas redes sociais ilustram isso.

Mesmo uma “IA legítima” pode ser usada de forma antiética e abusiva. Acabamos de ver isso na eleição presidencial argentina, com os candidatos usando essas plataformas para se comunicar melhor com seus eleitores, mas também para criar imagens depreciativas dos concorrentes. O mesmo deve acontecer aqui nas eleições municipais de 2024. Tanto que o Tribunal Superior Eleitoral (TSE) já busca como coibir a bagunça. A inteligência artificial deve, portanto, nos preocupar desde um improvável extermínio da humanidade até problemas pelo seu uso incorreto em nosso cotidiano.

Os robôs têm “leis” para que não se voltem contra nós, propostas pelo escritor Isaac Asimov, em 1942. São elas: “um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal”, “um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que entrem em conflito com a Primeira Lei” e “um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.” Mais tarde, ele acrescentou a “Lei Zero”: “um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.”

Elas parecem suficientes, mas são apenas uma ideia, enquanto a IA é uma realidade. E mesmo que sejam implantadas no âmago de uma inteligência artificial geral, que garantia temos de que ela não encontre maneiras de alterar seu código para desobedecê-las se assim achar necessário?

Por tudo isso, as decisões do novo conselho da Open AI nos próximos meses, que a devem tornar mais capitalista, afetarão não apenas a empresa, mas o futuro de todos nós. Com tanto dinheiro envolvido, era pouco provável que um grupo de acadêmicos conseguisse desacelerar o desenvolvimento da IA por questões éticas.

No final das contas, estamos fazendo uma aposta entre produtividade e segurança. Uma goleada da primeira começa a se formar. O problema é que aparentemente não temos capacidade de antecipar com certeza o que acontecerá. Temos que estar monitorando a cada momento essa evolução e ter uma tomada física para simplesmente puxar e desligar a coisa toda, se assim for necessário.

 

Cena de “Black Mirror”, em que se vê o implante ocular digital que aparece em vários episódios, com usos diversos - Foto: Reprodução

IA traz as coisas mais legais e mais sinistras de “Black Mirror” para o nosso cotidiano

By | Tecnologia | No Comments

Você gostaria de ter a sua disposição algumas das tecnologias de “Black Mirror”, que praticamente dão “superpoderes” a seus usuários, mesmo que isso possa lhes trazer algum risco? Se a reposta for positiva, prepare-se, pois a inteligência artificial pode fazer algo parecido àquilo se tornar realidade em breve, com tudo de bom e de ruim que oferece.

A série britânica, disponível na Netflix, ficou famosa por mostrar uma realidade alternativa ou um futuro próximo com dispositivos tecnológicos incríveis, capazes de alterar profundamente a vida das pessoas. Mas, via de regra, algo dá errado na história, não pela tecnologia em si, mas pela desvirtuação de seu uso por alguns indivíduos.

Os roteiros promovem reflexões importantes sobre as pessoas estarem preparadas para lidar com tanto poder. Com as novidades tecnológicas já lançadas ou prometidas para os próximos meses, os mesmos dilemas éticos começam a invadir nosso cotidiano, especialmente se (ou quando) as coisas saírem dos trilhos. Diante de problemas inusitados (para dizer o mínimo), quem deve ser responsabilizado: os clientes, por usos inadequados dos produtos, ou seus fabricantes, que não criaram mecanismos de segurança para conter isso?


Veja esse artigo em vídeo:


Provavelmente o dispositivo mais icônico de “Black Mirror”, que aparece em vários episódios, com diferentes aplicações, é uma espécie de implante ocular capaz de captar tudo que a pessoa vê em sua vida, que fica armazenado em um chip implantado atrás da orelha. Essa memória eterna e detalhada pode ser recuperada a qualquer momento, sendo projetada diretamente no próprio olho ou em uma tela.

Não é difícil imaginar como isso pode ser problemático, especialmente quando outras pessoas têm acesso a memórias alheias. Algumas coisas deveriam ser simplesmente esquecidas ou jamais compartilhadas!

A privacidade se torna um bem cada vez mais valioso em um mundo em que nossas informações pessoais viram dinheiro na mão de empresas que as transformam em dados comercializáveis. Um bom exemplo são equipamentos que vestimos (os chamados “wearables”) que captam informações sobre nossa saúde, muitas delas compartilhadas com os fabricantes. Mas para que esse envio é necessário?

Os relógios inteligentes (os “smart watches”) são o exemplo mais popular desses equipamentos. Mas uma nova geração de dispositivos melhorados pela inteligência artificial aprendem como nosso corpo funciona e nos oferecem informações personalizadas para uma vida melhor.

É o caso do Whoop 4.0, uma pulseira com diversos sensores biométricos, como batimentos cardíacos, oxigênio no sangue, temperatura e taxa de respiração, que afirma ajudar em atividades físicas e até em como dormimos. Já o Oura Smart Ring oferece algo semelhante, porém “escondido” em um simples anel.

Alguns são mais radicais, como a pulseira Pavlok 3. Ela promete ajudar a desenvolver hábitos mais saudáveis, como dormir melhor e até parar de fumar. Quando o dispositivo detecta algo ruim (como fumar), ele emite uma vibração e, se necessário, dá um choque elétrico na pessoa, para associar desconforto ao mau hábito.

Mas dois outros dispositivos lembram mais “Black Mirror”: o Rewind Pendant e o Humane AI Pin. Ainda não são os implantes oculares da série, mas prometem gravar o que acontece a nossa volta e muito mais. Eles pretendem inaugurar a era da “computação invisível”, em que não mais dependeremos de telas, nem mesmo as de celulares ou de óculos de realidades virtual ou aumentada.

O Rewind Pendant é um pequeno pingente que grava tudo que o usuário fala ou ouve. A partir daí, é possível dar comandos simples como “resuma a reunião de ontem” ou “o que meu filho me pediu hoje de manhã”. Como o sistema identifica a voz de quem está falando, o fabricante afirma que só grava alguém se essa pessoa explicitamente autorizar isso por voz.

Já o Humane AI Pin é um discreto broche que funciona como um assistente virtual que conhece nossos hábitos, grava e até projeta imagens em nossa mão. Comunica-se com o usuário por voz e sua inteligência artificial pode até desaconselhar que se coma algo, porque aquilo contém algum ingrediente a que a pessoa seja intolerante.

 

“Babaca digital”

Impossível não se lembrar do Google Glass, óculos inteligentes que a empresa lançou em 2013. Ele rodava diferentes aplicativos e as informações eram projetadas em sua lente, que se tornava uma tela para o usuário.

Apesar de cobiçado, acabou retirado do mercado por questões de privacidade. Ele tirava fotos e filmava sem que os outros soubessem. Além disso, fazia reconhecimento facial de interlocutores, que poderia ser usado para coletar informações adicionais. As pessoas que faziam maus usos do produto passaram a ser chamadas de “glassholes”, um trocadilho que junta “Glass” a “asshole” (algo como “babaca” em inglês).

Isso nos remete novamente a “Black Mirror”. Nenhum desses produtos foi criado para maus usos, mas as pessoas podem fazer o que bem entenderem com eles. E depois que são lançados, fica difícil “colocar o gênio de volta na lâmpada”.

Estamos apenas arranhando as possibilidades oferecidas pela inteligência artificial, que ainda revolucionará vidas e negócios. Tanto poder exigiria grandes responsabilidades, mas não podemos esperar isso das pessoas, e os fabricantes tampouco parecem muito preocupados.

Como exemplo, na semana passada, vimos o caso de alunos do 7º ao 9º ano do Colégio Santo Agostinho, um dos mais tradicionais do Rio de Janeiro, usando a inteligência artificial para criar imagens de suas colegas sem roupa. Desenvolvedores desses sistemas proíbem que sejam usados para esse fim, mas é inocência achar que isso será atendido. Tanto que já foram criadas plataformas especificamente para isso.

Quem deve ser responsabilizado por esses “deep nudes”: os alunos, os pais, a escola, o fabricante? Não se pode mais acreditar em qualquer imagem, pois ela pode ter sido sintetizada! Isso potencializa outros problemas, como os golpes de “sextorsão”, em que pessoas são chantageadas para que suas fotos íntimas não sejam divulgadas. Com a “computação invisível”, isso pode se agravar ainda mais!

O sociólogo polonês Zygmunt Bauman (1925 – 2017) era mesmo o filósofo de nosso tempo, com obras como “Modernidade Líquida” (1999), “Amor Líquido” (2004) e “Vida Líquida” (2005). Não viveu para experimentar a IA ou esses dispositivos, mas seu pensamento antecipou como tudo se tornaria descartável e efêmero na vida, nos relacionamentos, na segurança pessoal e coletiva, no consumo e no próprio sentido da existência.

A inteligência artificial está aí e ela é incrível: não dá para deixar de usá-la! Mas precisamos encontrar mecanismos para não cairmos nas armadilhas que nós mesmos criaremos com seu uso indevido.

 

Pais devem acompanhar atividades online dos filhos, mas plataformas têm responsabilidade no problema - Foto: Rawpixel/Creative Commons

Aumento da pedofilia online exige atenção no uso de redes sociais por crianças e adolescentes

By | Tecnologia | No Comments

Duas pesquisas divulgadas na quarta passada (25) demonstram uma explosão nos casos de pedofilia na Internet brasileira, ao mesmo tempo em que se observa um crescimento do uso da rede por crianças ainda na primeira infância. O problema gravíssimo dispara vários questionamentos sobre responsabilidades pelo seu crescimento e buscas por caminhos para a diminuição.

A primeira delas, da Safernet, organização que é referência no combate a crimes digitais no país, aponta que novos casos de imagens de abuso e de exploração sexual infantil chegaram a 54.840 entre 1 de janeiro e 30 de setembro desse ano, frente a 29.809 no mesmo período do ano passado: um crescimento de 84%.

Já a TIC Kids Brasil, levantamento feito pelo Cetic.br (Centro Regional de Estudos para Desenvolvimento da Sociedade da informação), ligado ao Comitê Gestor da Internet no Brasil, indica que as crianças estão ficando online cada vez mais cedo e por mais dispositivos. Dos brasileiros com até 6 anos de idade, 24% já haviam acessado a Internet nesse ano. Em 2015, primeiro ano da pesquisa, eram 11%.

No dia anterior, 41 Estados e o Governo Federal americano iniciaram processos contra a Meta, dona do Facebook e do Instagram, alegando que essas plataformas prejudicam crianças com recursos “viciantes”. As ações representam o esforço mais significativo daquelas autoridades para controlar seus impactos na saúde mental de jovens.

A coincidência de datas evidencia o tamanho do desafio para proteger crianças e adolescentes no meio digital. Assim como acontece com adultos, ele é uma fonte de valor inestimável para realização de atividades e para entretenimento. Porém os jovens são muito mais suscetíveis a abusos e ao desenvolvimento de dependência que os mais velhos, especialmente quando não recebem as devidas orientações.


Veja esse artigo em vídeo:


Um destaque da Safernet preocupa particularmente: cresce a quantidade de crianças e de adolescentes que produzem e enviam fotos e vídeos com conteúdo sexual de si mesmos, em troca da promessa de dinheiro ou de presentes pelos predadores digitais.

Isso está em linha com dados da Polícia Federal sobre crimes cibernéticos vitimando crianças e adolescentes: foram 627 nesse ano, contra 369 no ano passado (aumento de 69,9%). Ao todo, 291 pessoas foram presas, 46% a mais que no ano anterior. Esses dados foram divulgados no dia 16 de outubro, no lançamento do programa “De Boa na Rede”, do Ministério da Justiça e Segurança Pública, idealizado para orientar na criação de um ambiente digital seguro para crianças e adolescentes.

A TIC Kids Brasil aponta também que 95% dos brasileiros entre 9 e 17 anos estão online. Nas classes A e B, são 98%, mas o grupo que mais cresce é o das classes D e E, que passou de 56% em 2015 para 89% nesse ano. O celular é usado por 97% deles, mas aumenta o uso da TV (70%) e do videogame (22%). O único meio em queda é o computador, que era usado por 64% em 2015 e agora não passa de 38%.

A plataforma em que os jovens têm mais contas é o YouTube (88%), seguido pelo WhatsApp (78%), Instagram (66%), TikTok (63%) e Facebook (41%, o único em franco declínio). Mas, pelo uso, o líder é o Instagram (36%), seguido por YouTube (29%), TikTok (27%) e Facebook (2%).

A informação mais preocupante indica que 17% dos brasileiros entre 11 e 17 anos se sentiram incomodados com conteúdo sexual online: 14% meninos e 21% meninas. Do total, 16% receberam diretamente ou viram conteúdo sexual, 9% receberam pedidos de fotos ou vídeos sem roupa e 5% foram solicitados a falar sobre sexo.

A expressão “pornografia infantil” vem sendo substituída por “imagens de abusos contra crianças e adolescentes”. Nudez ou sexo com alguém com menos de 18 anos, por definição, não é consensual. Logo, não se trata de pornografia, que pressupõe a participação voluntária de pessoas maiores de 18 anos. A Safernet adverte que quem consome imagens de violência sexual infantil é cúmplice desse abuso.

 

Responsabilidades de cada um

Se o surgimento da Internet comercial na década de 1990 ampliou esse problema, a popularização das redes sociais o levou a um patamar altíssimo, com os mais jovens fazendo uso intenso e muitas vezes nocivo do meio digital.

Isso ganhou mais visibilidade no segundo semestre de 2021, quando a ex-gerente de integridade cívica da Meta Frances Haugen veio a público com milhares de documentos indicando que a empresa sabe desses problemas e que faz menos que poderia para combatê-los. O escândalo ficou conhecido como “Facebook Papers”.

Os processos da semana passada resultam de investigações surgidas dele. Em comunicado, a Meta disse que está “decepcionada com o fato de que, em vez de trabalhar de forma produtiva com empresas de todo o setor para criar padrões claros e adequados à idade dos muitos aplicativos que os adolescentes usam, os procuradores-gerais escolheram esse caminho”.

As empresas donas das redes sociais de fato criam mecanismos para mitigar o problema, como a possibilidade de pais e mães acompanharem o que seus filhos fazem nessas plataformas, limitadores de tempo de uso e identificação de atividades que podem estar associados a comportamentos de risco. Isso é bem-vindo, mas está longe de ser suficiente, podendo esconder a real intenção dessas companhias de fazerem pouco ou nada que ameace seus lucros ou o “vício” em seus produtos.

Recursos para alterar a própria imagem, em busca de um ideal de beleza inatingível, não são combatidos, sendo até incentivados por essas plataformas. Esses filtros são apenas um exemplo dos ganchos para atrair os mais jovens, de uma maneira intensa. Esse assunto, debatido recentemente nesse espaço, é reconhecidamente um gerador de problemas de saúde mental, especialmente entre meninas.

Ao oferecer essas ferramentas de controle parental, as empresas aparentemente querem repassar a responsabilidade de se evitar os problemas de crianças e adolescentes nas redes a seus pais e mães, livrando-se de seu papel nesse processo. Mas tal responsabilidade continua existindo e é imensa!

Pais e mães devem, claro, acompanhar de perto o que seus filhos fazem online. Isso deve ser feito com um olhar de acolhimento e orientação, nunca de repressão ou crítica. E não há espaço para indiferença: os predadores digitais estão à solta!

Mas as plataformas digitais também são profundamente responsáveis. A sua combalida ideia de que apenas criam recursos e as pessoas fazem maus usos deles, desculpa padrão dessas empresas até para não serem reguladas pelas autoridades, aparece aqui com força e perversidade. Até quando elas continuarão com essa liberdade anárquica?

 

Thiago Araki, diretor-sênior de Tecnologia da Red Hat na América Latina, no palco do Summit Connect, no dia 18 – Foto: Red Hat

Negócios e empregos mudam exponencialmente com novas tecnologias e modelos

By | Tecnologia | No Comments

O ano de 2023 será lembrado como o momento em que a inteligência artificial ganhou as ruas. O lançamento do ChatGPT, no final de 2022, disparou uma corrida em que todos os negócios parecem ser obrigados a usar a IA, quase como se ela fosse um selo de qualidade, o que obviamente não passa de uma distorção do que ela representa. O grande desafio reside, portanto, em conhecer e se apropriar dessa tecnologia, para tirar proveito dela adequadamente.

As empresas têm um papel central em ajudar nessa tarefa, não apenas com o lançamento de produtos que tragam soluções consistentes com a IA, mas também na educação do mercado. Isso ficou claro durante o Red Hat Summit: Connect, principal evento de tecnologia open source da América Latina, que aconteceu em São Paulo no dia 18.

É curioso pensar que a inteligência artificial já está em nosso cotidiano há muitos anos, em incontáveis aplicações empresariais e até em nosso celular, ajudando-nos a fazer escolhas melhores. A diferença é que, até então, ela se escondia nas entranhas desses sistemas. Agora ganhou a luz do sol, exposta em conversas que temos com a máquina, que nos responde como se fosse outra pessoa.

Ainda há deslumbramento demais e conhecimento de menos sobre a inteligência artificial entre consumidores e empresas. O próprio lançamento de tantas plataformas de inteligência artificial generativa, na esteira do sucesso explosivo do ChatGPT, indica um certo descuido de alguns desenvolvedores de soluções, liberando um enorme poder para pessoas que não sabem como usá-lo corretamente.

Nesse sentido, a Red Hat, que é a maior empresa do mundo no fornecimento de soluções empresariais open source, entende que deve ir além do seu papel de desenvolver produtos que tiram proveito da IA: deve também educar seus usuários, seja pelas suas próprias iniciativas, seja pela colaboração com o mundo acadêmico. “As empresas não só podem como devem colaborar na formação de profissionais”, explica Alexandre Duarte, vice-presidente de Serviços para a América Latina na Red Hat. “Nós temos que juntar esforços do mundo corporativo com o mundo educacional, estando alinhados.”

A versão latino-americana do Summit, que também acontece em Buenos Aires (Argentina), Santiago (Chile), Tulum (México), Lima (Peru) e Montevidéu (Uruguai), traz para esses mercados produtos e conceitos que foram apresentados em maio no evento global da empresa, realizado em Boston (EUA). Entre eles, o Ansible Lightspeed e o OpenShift AI, que usam a inteligência artificial na automação de tarefas, como geração de códigos a partir de pedidos simples em português, liberando o tempo das equipes para funções mais nobres.

E assim como pude ver em Boston, aqui a empresa também deixa claro que a inteligência artificial não chega para substituir profissionais, e sim para melhorar suas rotinas. “Se você for um novato, poderá criar melhor, mais rápido; se for um especialista, poderá melhorar muito o que faz e usar seu domínio para refinar a entrega”, explicou-me Matt Hicks, CEO global da Red Hat, em uma conversa com jornalistas durante o Summit na cidade americana. “Nessa nova fase, temos que conhecer a pergunta para a qual queremos a resposta”, concluiu.

É auspicioso observar essa visão em uma das empresas de software mais respeitadas do mundo, em um momento em que muita gente teme pelo seu emprego pelo avanço da inteligência artificial. “Essas ondas tecnológicas não tiram o emprego das pessoas, os profissionais precisam se acomodar”, acalma Duarte. Mas ele faz uma ressalva: é preciso querer aprender! “Se você tem propensão a aprender coisas novas, eu não acredito que a inteligência artificial vai tirar seu emprego, e ainda vai gerar novas oportunidades de trabalho”, acrescenta.

 

O poder da “coopetição”

Em março deste ano, a Red Hat completou 30 anos. Ele cresceu a partir de sua distribuição do sistema operacional Linux, provavelmente o software open source mais famoso do mundo. Nessa modalidade, o produto e o código-fonte ficam disponíveis gratuitamente. A regra fundamental é que, se alguém fizer uma melhoria no sistema, ela deve ser compartilhada de volta com a comunidade.

Essa forma de pensar inspira seu próprio modelo de trabalho, que ficou conhecido como “open business”, uma abordagem empresarial em que equipes, a comunidade e até concorrentes são convidados a cooperar de maneira transparente. Ela valoriza a transparência e a responsabilização, distribuindo os benefícios para todos. “Há 30 anos a gente fala sobre essa abertura, essa transparência, essa possibilidade de diferentes perspectivas”, afirma Sandra Vaz, diretora-sênior de Alianças e Canais para a América Latina na Red Hat.

Surge então a chamada “coopetição”, um neologismo que une “cooperação” e “competição”. “Nada mais é que dois competidores cooperando e criando novas soluções para o bem de seus clientes”, explica Vaz. “Nós colaboramos, nossas equipes de desenvolvimento se conectam e criam o melhor dos mundos, simplificando soluções já existentes.”

A “coopetição” também é uma poderosa ferramenta para ampliar a base de clientes, pois um dos participantes pode trazer consumidores a que o outro lado não teria acesso. Sandra dá, como exemplo, um provedor de serviços na nuvem, como a AWS ou a Microsoft, que podem até ter produtos concorrentes aos da Red Hat, mas que se associam a ela justamente nessas soluções, se assim for o desejo do cliente.

A tecnologia avança a passos muito rápidos, assim como modelos de negócios inovadores. Qualquer que seja o mercado ou a função, está claro que profissionais precisam estar não apenas abertos à inovação, como também dispostos a aprender como tirar proveito dela de maneira eficiente e ética.

A inteligência artificial talvez não acabe com os empregos das pessoas que não a adotem, mas isso pode acabar acontecendo pelas mãos daquelas que passarem a usá-la.


Você pode assistir à íntegra em vídeo das minhas entrevistas com os executivos da Red Hat. Basta clicar no respectivo nome: Alexandre Duarte, Sandra VazMatt Hicks.