inteligência artificial

Sam Altman, CEO da OpenAI, fala sobre inteligência artificial no Fórum Econômico Mundial desse ano, em Davos - Foto: reprodução

Enquanto a IA melhora a produtividade de alguns, torna outros “inempregáveis”

By | Tecnologia | No Comments

No dia 14, o Fundo Monetário Internacional (FMI) divulgou um estudo que indica que cerca de 40% dos trabalhos do mundo serão impactados pela inteligência artificial. Isso não se dará de maneira homogênea: enquanto ela trará grande produtividade a alguns, pode eliminar postos de trabalho e até deixar muitas pessoas “inempregáveis”, ou seja, sem capacidade de assumir qualquer ocupação com o que sabem fazer.

Por que uma mesma tecnologia provoca consequências tão opostas no mercado de trabalho de um mesmo país, ao mesmo tempo? A resposta passa pelas capacidades dos profissionais de se adaptar para tirar proveito do que ela oferece.

Enquanto isso, o Brasil comemora mais uma queda na taxa de desemprego, que terminou novembro em 7,5%, a menor desde fevereiro de 2015. Ainda assim, o país continua tendo 8,2 milhões de desempregados. Apesar de muito bem-vinda essa retração, é preciso estar atento à qualidade desses empregos. Afinal, com o avanço da IA, muitos deles podem desaparecer em breve por falta de capacitação. A sociedade brasileira precisa se mobilizar para que isso não aconteça com força.

A IA escancara, portanto, algo que já se observa há anos: o futuro do trabalho passa pelo futuro da educação. Os robôs estão se tornando auxiliares valiosos, mas as pessoas precisam de uma melhor formação para não serem substituídas por eles.


Veja esse artigo em vídeo:


Segundo o estudo do FMI, nos países mais ricos, a IA afetará 60% dos postos de trabalho: metade será beneficiada, enquanto a outra pode experimentar desemprego, queda de salários e até extinção de profissões inteiras. Já nos emergentes, o impacto deve atingir 40% dos trabalhadores, mas apenas 26% devem ser beneficiados.

Segundo os autores, essa diferença entre países se dá pela falta de infraestrutura e de mão de obra qualificada para aproveitar bem a IA nos emergentes. Por isso, com o tempo, a inteligência artificial pode aumentar a desigualdade entre nações, e o mesmo se pode esperar entre ricos e pobres de um mesmo país.

A IA vem despertando tanto deslumbramento quanto medo. Não devemos sentir nenhum deles: precisamos entendê-la para nos apropriarmos do que els oferece de bom e nos esquivarmos de eventuais armadilhas, inclusive no mundo do trabalho.

Novas tecnologias extinguem profissões e criam oportunidades desde o início da Revolução Industrial, no século XVIII. A sociedade se ajusta e faz as mudanças para o novo. A diferença é que agora a adaptação precisa ser muito mais rápida, exigindo habilidades básicas que muitos não têm e que não conseguem adquirir a tempo. Por isso, pessoas no seu auge profissional estão vendo sua empregabilidade derreter, de uma maneira que elas não conseguem controlar, algo desesperador a qualquer um.

Ao contrário do que se via há alguns anos, quando apenas as pessoas menos qualificadas eram impactadas pela automação, a inteligência artificial também atinge carreiras mais nobres e criativas. Portanto, apesar de uma boa educação continuar sendo absolutamente fundamental, é preciso saber o que e como estudar.

Um estudo do Instituto Brasileiro de Economia da Fundação Getúlio Vargas (Ibre-FGV) divulgado em setembro demonstrou que os brasileiros que estudaram mais foram os que perderam mais renda na última década, com um aumento abrupto na informalidade. Isso obviamente não está associado à explosão da IA, que ainda é muito recente, mas demonstra que ninguém mais está “seguro”.

Na semana passada, o LinkedIn divulgou quais são as profissões em alta em vários países. No Brasil, várias estão intimamente ligadas ao mundo digital e à própria IA, como analista de privacidade, de cibersegurança e de dados. Outro estudo, da Universidade da Pensilvânia (EUA) e da OpenAI, concluiu que 80% dos trabalhadores americanos podem ter pelo menos 10% de suas tarefas afetadas pela IA.

Isso fica dramático no Brasil, com sua educação tecnológica ruim e um acesso limitado ao mundo digital. Segundo a mais recente pesquisa TIC Domicílios, feita pelo Comitê Gestor da Internet no Brasil, 20% dos domicílios (15 milhões) e 14% dos brasileiros com 10 anos ou mais (27 milhões) nem têm acesso à Internet.

 

Futuros do trabalho e da educação juntos

Muitas das “profissões do futuro” paradoxalmente existem desde a Antiguidade, como professores e médicos. Elas assim se classificam porque continuarão existindo e sendo muito importantes para a sociedade. Mas mesmo elas já sofrem e continuarão sofrendo grande mudanças pela digitalização. Querer continuar as exercendo como se fazia há alguns anos é um convite para ser colocado para fora do mercado. Por outro lado, profissionais que se atualizem com as novas tecnologias, como a inteligência artificial, se tornarão ainda mais relevantes.

O avanço galopante da IA atropela uma sociedade que não consegue medir as transformações que ela trará em pouco tempo. Em dezembro, o fundador da Microsoft Bill Gates disse que o avanço dessa tecnologia em breve permitirá semanas de trabalho de três dias, com as pessoas ganhando o mesmo. Tecnicamente pode ser verdade, mas, para que isso aconteça, os gestores teriam que fazer esse movimento magnânimo, ao invés de simplesmente demitir metade de sua força de trabalho para aumentar muito seus lucros. Não se trata, portanto, só de uma mudança tecnológica.

No Fórum Econômico Mundial em Davos (Suíça) do ano passado, os líderes mundiais estavam deslumbrados com as oportunidades da IA. Na edição desse ano, que terminou na sexta, a euforia foi substituída por uma busca de como usá-la de forma responsável e segura, e qual o papel de cada um nisso.

Toda tecnologia deve ser usada para o bem de todos, e não apenas para o benefício de alguns. Um dos temores sobre a IA, que indubitavelmente fará a humanidade dar vários saltos, é que ela também seja usada para o mal. O mundo do trabalho é apenas um dos elementos mais críticos disso na vida das pessoas.

Governos, empresas e demais atores da sociedade civil devem fazer os ajustes necessários antes que essa bomba exploda, pois seu efeito pode ser devastador. Aqueles que estão na parte beneficiada pela IA não podem se acomodar e fingir que esse problema não lhes pertence, pois acabarão impactados de uma ou outra forma.

Precisamos de uma revolução educacional que ensine as pessoas a usarem melhor as tecnologias, não como meros apertadores de botões ou criadores de comando para o ChatGPT. Elas precisam entender o porquê de tudo isso para fazer escolhas conscientes, sem se tornar consumidores com senso crítico achatado pela máquina. De uma maneira um tanto paradoxal, isso acontecerá apenas com uma educação que também fortaleça seus aspectos humanos.

E precisamos disso já, pois a inteligência artificial não esperará pela lerdeza natural.

 

Uma inteligência artificial treinada com informações ruins não deve ser usada para confundir eleitores – Ilustração: Paulo Silvestre

A democracia precisa que o jornalismo e a inteligência artificial se entendam

By | Jornalismo, Tecnologia | No Comments

A recente briga do New York Times contra a Microsoft e a OpenAI (criadora do ChatGPT) pode ajudar a definir como nos informaremos no futuro e impactar consideravelmente a saúde da democracia no mundo todo. Tudo porque o processo aberto pelo jornal no dia 27 de dezembro contra as duas empresas de tecnologia pode balizar a qualidade do que a inteligência artificial oferecerá a todos nós.

O jornal afirma que seu conteúdo vem sendo usado para treinar as plataformas de IA, sem que seja remunerado ou sequer tenha autorizado esse uso, o que é verdade. Enquanto isso, essas plataformas rendem bilhões de dólares a seus donos.

Desde que o ChatGPT foi lançado no final de 2022, as pessoas vêm usando a IA para trabalhar, estudar e se divertir, acreditando candidamente em suas entregas. Sua precisão e seus recursos para evitar que produza e dissemine fake news dependem profundamente da qualidade do conteúdo usado em seu treinamento. O New York Times e outros grandes veículos jornalísticos são, portanto, algumas das melhores fontes para garantir uma entrega mais confiável aos usuários.

O problema é tão grave que, no dia 10, o Fórum Econômico Mundial indicou, em seu relatório Riscos Globais 2024, que informações falsas ou distorcidas produzidas por inteligência artificial já representam o “maior risco global no curto prazo”.

Nesse ano, dois bilhões de pessoas participarão de eleições no mundo, inclusive no Brasil, e a IA já vem sendo usada para aumentar a desinformação nas campanhas. Por aqui, o Tribunal Superior Eleitoral (TSE) busca maneiras de regular seu uso no pleito municipal de outubro, uma tarefa muito complexa. Por isso, é fundamental que os bons produtores de conteúdo e as big techs encontrem formas de melhorar essas plataformas respeitando os direitos e remunerando adequadamente os autores.


Veja esse artigo em vídeo:


Em um cenário extremo hipotético em que todos os produtores de bons conteúdos impeçam que os desenvolvedores os acessem, a IA ficaria à mercê de fontes pouco confiáveis (para dizer o mínimo). Isso aumentaria brutalmente a chance de ela ser manipulada, ajudando a transformar os usuários em autômatos da desinformação. E isso seria trágico também para o bom jornalismo, que luta fortemente contra isso.

Criou-se então um dilema: as plataformas precisam de bom conteúdo, mas não estão muito dispostas a pagar por ele, enquanto os veículos jornalísticos têm que garantir seus direitos, mas deveriam ajudar a melhorar as entregas da inteligência artificial.

“Quando eu compro uma assinatura do New York Times, eu não estou autorizado a pegar todo o conteúdo e desenvolver um produto meu em cima dele”, explica Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). “Só que é mais ou menos isso que a OpenAI faz quando pega esses dados”.

Para que os sistemas de inteligência artificial funcionem bem, eles precisam ser treinados com uma quantidade monstruosa de informações diversas, para que aprendam o que dizer e respeitem a diversidade de ideias. Em tese, todas as suas produções são inéditas, por isso os desenvolvedores se valem do conceito jurídico americano do “uso justo” (“fair use”), que protege as big techs há pelo menos duas décadas, quando, por exemplo, rastreiam a Internet inteira para fazer um buscador funcionar.

Por essa regra, os produtos digitais exibiriam apenas pequenos trechos desses conteúdos, insuficientes para configurar uma concorrência. Mas em seu processo, o New York Times afirma que as plataformas de IA exibiriam literalmente grandes nacos de sua produção, inclusive de material exclusivo a seus assinantes. A OpenAI nega.

É um desafio para a Justiça dos EUA, pois as leis do país proíbem a cópia de conteúdo, mas permitem que se criem produtos combinando elementos de diferentes fontes, sem criar concorrência direta. As plataformas de IA fazem as duas coisas.

 

Ameaça à democracia

Nesse pântano jurídico, grupos políticos já vêm se esbaldando nos recursos da inteligência artificial para convencer –ou mais especificamente confundir– os eleitores.

O TSE tenta encontrar formas de pelo menos dificultar que isso aconteça nas eleições brasileiras. No dia 4, publicou dez minutas de resoluções para esse fim. Esses textos estarão em consulta pública até o dia 19 deste mês. Entre 23 e 25 de janeiro, ocorrerão audiências abertas na Corte para o aperfeiçoamento das normas.

Infelizmente, criar ótimas regras é relativamente fácil. Verificar seu cumprimento, por outro lado, é bem difícil, especialmente nas campanhas não-oficiais, realizadas por eleitores diretamente instruídos pelos candidatos ou espontaneamente. Com isso, o gigantesco problema de disseminação de fake news e discursos de ódio em redes sociais (que fazem muito menos do que deveriam para combater isso) agora deve ser potencializado pelo uso da inteligência artificial igualmente não-regulada.

A solução exige, portanto, a participação da Justiça, dos veículos de comunicação e das big techs das redes sociais e de inteligência artificial. Felizmente há também movimentos positivos de consenso.

Segundo o mesmo New York Times, a Apple, que está atrasada no campo da IA, estaria tentando costurar acordos financeiros para justamente usar os conteúdos de grandes empresas de comunicação para o treinamento da sua plataforma em desenvolvimento. A notícia só não é totalmente positiva porque ela estaria interessada em consumir esse conteúdo, mas não em responder por qualquer problema derivado dele, o que está deixando os editores desses veículos desconfortáveis. E eles andam bem desconfiados por seus acordos prévios com o Vale do Silício, que, ao longo dos anos, favoreceram as big techs, enquanto viam seus negócios minguarem.

Tudo isso envolve interesses de bilhões de dólares e moldará a sociedade decisivamente nos próximos anos. É preciso um desenvolvimento responsável e transparente da tecnologia e uma enorme quantidade de boas informações. “Pode ser que a gente tenha modelos de inteligência artificial que sejam focados na maldade”, sugere Crespo. “É que ninguém parou para fazer isso ainda ou talvez ninguém tenha tanto dinheiro para isso.”

Alguns acreditam que a solução seria educar a população para não acreditar tão facilmente no que veem nas redes sociais e agora na inteligência artificial. No mundo ideal, isso resolveria o problema. Mas isso simplesmente não vai acontecer e as pessoas continuarão sendo manipuladas, agora possivelmente ainda mais.

Os já citados atores precisam dar as mãos para evitar o pior. Os veículos de comunicação devem alimentar a IA, mas de maneira justa, sem que isso ameace sua sobrevivência. As big techs precisam se abrir a esses acordos financeiros e se esforçar muito mais na transparência de seus sistemas e no respeito aos usuários e à própria democracia. E a Justiça precisa encontrar meios de regular tudo isso, sem ameaçar o avanço tecnológico.

Em um mundo tão digitalizado, a democracia depende do sucesso dessa união.

 

Para Salvador Dalí, “você tem que criar a confusão sistematicamente; isso liberta a criatividade” - Foto: Allan Warren/Creative Commons

Não “terceirize” sua criatividade para as máquinas!

By | Tecnologia | No Comments

Quando o ChatGPT foi lançado, em 30 de novembro de 2022, muita gente disse que, com ele, as pessoas começariam a ficar “intelectualmente preguiçosas”, pois entregariam à inteligência artificial até tarefas que poderiam fazer sem dificuldade. De lá para cá, observamos mesmo muitos casos assim, inclusive com resultados desastrosos. Mas o que também tenho observado é algo mais grave, ainda que mais sutil: indivíduos “terceirizando” a sua criatividade para as máquinas.

Quando fazemos um desenho, tiramos uma foto, compomos uma música ou escrevemos um texto, que pode ser um singelo post para redes sociais, exercitamos habilidades e ativamos conexões neurológicas essenciais para o nosso desenvolvimento. Ao entregar essas atividades à máquina, essas pessoas não percebem o risco que correm por realizarem menos essas ações.

Há um outro aspecto que não pode ser ignorado: a nossa criatividade nos define como seres humanos e como indivíduos. Por isso, adolescentes exercitam intensamente sua criatividade para encontrar seu lugar no mundo e definir seus grupos sociais.

A inteligência artificial generativa é uma ferramenta fabulosa que está apenas dando seus passos iniciais. Por mais que melhore no futuro breve (e melhorará exponencialmente), suas produções resultam do que essas plataformas aprendem de uma base gigantesca que representa a média do que a humanidade sabe.

Ao entregarmos aos robôs não apenas nossas tarefas, mas também nossa criatividade, ameaçamos nossa identidade e a nossa humanidade. Esse é um ótimo exemplo de como usar muito mal uma boa tecnologia. E infelizmente as pessoas não estão percebendo isso.


Veja esse artigo em vídeo:


Assim como nossa carga genética, algo que nos diferencia dos outros indivíduos são nossas ideias. Apesar de fazermos isso naturalmente, ter uma ideia original é um processo complexo, que combina tudo que aprendemos em nossa vida com os estímulos que estivermos recebendo no momento. Além disso, ela é moldada por nossos valores, que são alinhados com os grupos sociais a que pertencemos. E nossa subjetividade ainda refina tudo isso.

Mesmo a mais fabulosa inteligência artificial possui apenas a primeira dessas etapas para suas produções, que é o que aprendeu de sua enorme base de informações coletadas das mais diferentes fontes. É por isso que a qualidade do que produz depende implicitamente da qualidade dessas fontes.

Alguns argumentam que a inteligência artificial também pode desenvolver valores a partir de sua programação, dos dados que consome e da própria interação com os usuários. De fato, um dos maiores problemas dessa tecnologia são os vieses que acaba desenvolvendo, o que piora suas entregas.

Com valores, a máquina se aproxima mais do processo criativo humano. Mas a inteligência artificial ainda não pode ser chamada de criativa, justamente pela etapa final, conduzida pela nossa subjetividade. Os padrões que aprendemos em nossa história de vida única nos permitem ir além de simples deduções lógicas no processo criativo. Para as máquinas, por outro lado, esses mesmos padrões tornam-se limitadores.

Gosto de pensar que o processo criativo é algo que nos conecta com algo sublime, alguns diriam com algo divino. Quando escrevo, por exemplo, um artigo como esse, combino grande quantidade de informações que coletei para essa tarefa com o que aprendi ao longo da minha vida. Mas a fagulha criativa que faz com que isso não seja uma composição burocrática e chata (assim espero) só acontece ao me abrir intensamente para minha sensibilidade.

Jamais entregaria isso a uma máquina, pois isso me define e me dá grande prazer!

 

Nós nos tornaremos máquinas?

Em seu livro “Tecnologia Versus Humanidade” (The Futures Agency, 2017), Gerd Leonhard questiona, anos antes do ChatGPT vir ao sol, como devemos abraçar a tecnologia sem nos tornarmos parte dela. Para o futurólogo alemão, precisamos definir quais valores morais devemos defender, antes que o ser humano altere o seu próprio significado pela interação com as máquinas.

Essas não são palavras vazias. Basta olhar nosso passado recente para ver como a nossa interação incrivelmente intensa com a tecnologia digital nos transformou nos últimos anos, a começar pela polarização irracional que fraturou a sociedade.

O mais terrível disso tudo é que as ideias que nos levaram a isso não são nossas, e sim de grupos que se beneficiam desse caos. Eles souberam manipular os algoritmos das redes sociais para disseminar suas visões, não de maneira óbvia e explícita, mas distribuindo elementos aparentemente não-relacionados (mas cuidadosamente escolhidos) para que as pessoas concluíssem coisas que interessavam a esses poderosos. E uma vez que essa conclusão acontece, fica muito difícil retirar essa ideia da cabeça do indivíduo, pois ele pensa que ela é genuinamente dele.

Se as redes sociais se prestam até hoje a distorcer o processo de nascimento de ideias, a inteligência artificial pode agravar esse quadro na etapa seguinte, que é a nutrição dessas mesmas ideias. Como uma plantinha, elas precisam ser regadas para que cresçam com força.

Em um artigo publicado na semana passada, a professora da PUC-SP Lucia Santaella, autoridade global em semiótica, argumenta que o nosso uso da inteligência artificial generativa criou um novo tipo de leitor, que ela batizou de “leitor iterativo”. Afinal, não lemos apenas palavras: lemos imagens, gráficos, cores, símbolos e a própria natureza.

Com a IA generativa, entramos em um processo cognitivo inédito pelas conversas com essas plataformas. Segundo Santaella, o processo iterativo avança por refinamentos sucessivos, e os chatbots respondem tanto pelo que sabem, quanto pelos estímulos que recebem. Dessa forma, quanto mais iterativo for o usuário sobre o que deseja, melhores serão as respostas.

Isso reforça a minha proposta original de que não podemos “terceirizar” nossa criatividade para a inteligência artificial. Até mesmo a qualidade do que ela nos entrega depende do nível de como nos relacionamos com ela.

Temos que nos apropriar das incríveis possibilidades da inteligência artificial, uma ferramenta que provavelmente potencializará pessoas e empresas que se destacarão nos próximos anos. Mas não podemos abandonar nossa criatividade nesse processo. Pelo contrário: aqueles que mais se beneficiarão das máquinas são justamente os que maximizarem a sua humanidade.

 

Ilustração: Creative Commons

Esse será de novo o ano da inteligência artificial, mas de uma forma diferente

By | Tecnologia | No Comments

Quando 2022 começou, o mundo da tecnologia só falava de metaverso, grande promessa incensada por Mark Zuckerberg, que até trocou o nome de sua empresa de Facebook para Meta. Mas, passados 12 meses, nada verdadeiramente útil aconteceu em torno dele. Já 2023 começou com a inteligência artificial ocupando os grandes debates tecnológicos, e, ao final do ano, ela superou todas as expectativas. Agora, que estamos começando 2024, ressurge a pergunta: esse será o ano do que, no cenário tecnológico?

Conversei com diferentes especialistas e executivos e a resposta passa novamente pela inteligência artificial. Mas nada será como era antes! O que aconteceu em 2023 e deixou o mundo de queixo caído ficará para trás como iniciativas embrionárias, quase protótipos. Os entrevistados foram unânimes em afirmar que o ano que passou foi de aprendizado e que agora, em 2024, o mundo deve começar a ver a inteligência artificial movendo produtos realmente profissionais.

Outras mudanças em curso se consolidarão a reboque disso. O mercado de trabalho continuará sendo impactado, com oportunidades para profissionais mais atualizados e ameaças para quem permanece em tarefas repetitivas. Além disso, a liderança de TI ocupará cada vez mais o espaço de decisão de negócios, e questões éticas do uso da tecnologia ganharão destaque no cotidiano empresarial.

Esse será o ano em que a inteligência artificial se tornará verdadeiramente produtiva!


Veja esse artigo em vídeo:


“Quando eu olho 2024, continua sendo um ano de inteligência artificial, mas será um ano de muito mais inteligência de transformar o caso de uso em realidade”, afirma Thiago Viola, diretor de Inteligência Artificial e Dados da IBM Brasil. “As empresas vão começar a amadurecer, para garantir que as soluções funcionarão, que não vão ‘alucinar’, que não vão dar nenhum problema.”

“Em 2023, a gente teve alguns ‘brinquedinhos’, não eram ainda algo que se pudesse chamar de uma aplicação corporativa”, explica Cassio Dreyfuss, vice-presidente de análise e pesquisa do Gartner Brasil. “Em 2024, isso vai decolar e você tem que estar preparado para isso!”

Essa também é a percepção de Marcelo Ciasca, CEO da Stefanini. Para ele, “apesar de em 2023 a inteligência artificial ter sido a pauta principal em termos de tecnologia, ninguém sabia exatamente ainda como aplicá-la efetivamente.”

“’Automação’ é uma palavra importante para o ano”, sugere Gilson Magalhães, presidente da Red Hat Brasil. Apesar do deslumbramento que a IA provocou em 2023, as empresas passam a entender que ela é uma ferramenta para processos mais robustos e poderosos. “A automação vai entrar mais nas casas, melhorar nossa percepção de temas pessoais, mas a gente vai ver também automação industrial, no campo, fabril, a automação entrando como uma grande meta”, acrescenta.

A OpenAI, criadora do afamado ChatGPT, deu um passo importante nessa direção no final de 2023, ao liberar a possibilidade de seus usuários pagantes criarem os seus próprios assistentes virtuais, especializados em um tema e alimentados com dados próprios. Esse é o prelúdio de inteligências artificiais capazes de realizar tarefas mais amplas a partir de comandos complexos, conectando-se a diferentes serviços e até tomando decisões em nome do usuário.

A primeira vez que vi isso foi ainda em novembro de 2019, em uma demonstração da Microsoft, Adobe, Accenture e Avanade. Em uma época que o ChatGPT parecia uma miragem, um sistema controlado por voz em frases muito simples comprava passagens aéreas, reservava hotéis e até pedia comida para o usuário. Mas o que mais me chamou a atenção foi que ele tomava decisões comerciais com base no que sabia do usuário, sem o consultar, como por exemplo, escolher em qual hotel faria a reserva e até pedir um sanduíche sem queijo, pois a pessoa era intolerante à lactose.

Perguntei na época qual a garantia que eu, como usuário, teria que essas decisões seriam as melhores para mim, e não para as empresas envolvidas. E isso toca em um ponto que deve nortear os sistemas com IA nos próximos anos: a ética! Questionei também quando poderíamos ter algo como aquilo disponível.

A resposta: por volta de 2024!

 

Máquinas éticas

“Haverá um encapsulado de gestão e governança muito mais forte do que vimos em 2023”, afirma Viola. Segundo o executivo, “será um ano que vai ter que realizar se preocupando com fatores éticos, de governança, de proteção da IA como um todo”.

Esse debate ganhou força em 2023 e deve se cristalizar em 2024. Não se quer uma tecnologia incrível que, para ser assim, passe por cima da privacidade ou ameace direitos e até o bem-estar das pessoas. A regulamentação da IA é um grande desafio, pois ela não deve coibir seu desenvolvimento, mas precisa encontrar maneiras de responsabilizar empresas e usuários por maus usos e descuidos na sua criação.

Esse cenário abre ótimas oportunidades a empresas e profissionais. “TI se transformou no grande divisor de águas de diferenciação das empresas”, explica Magalhães. “Se você tem uma boa TI, você se diferencia”, conclui.

Em uma vida cada vez mais digitalizada e dependente da IA para decisões pessoais e empresariais, essas equipes ficam ainda mais importantes. “A TI muda de papel: ao invés de receber requisitos para gerar soluções, vai fornecer, de uma maneira consultiva, recursos nas áreas de clientes”, explica Dreyfuss. Ciasca corrobora essa ideia: “isso não vai eliminar o emprego das pessoas, mas vai redirecionar muitos para que as pessoas tenham a capacidade de fazer isso de forma adequada.”

Não há dúvida de que será um ano estimulante e de desenvolvimentos exponenciais. Precisamos apenas nos manter atentos porque todas essas novidades galopantes, que tanto nos impressionam, acabam sendo difíceis de assimilar pela nossa humanidade (o que não deixa de ser emblemático). Não podemos achar que o fim justifica os meios e partir em uma corrida irresponsável, mas tampouco podemos ficar travados por temores de máquinas que nos dominem (ou coisas piores).

Cada vez mais, a inteligência artificial será nossa parceira pessoal e de negócios, e isso ficará mais consolidado e profissional em 2024. É hora de nos apropriarmos de todo esse poder, para nos beneficiarmos adequadamente do que bate a nossa porta!

 

O CEO da OpenAI, Sam Altman, que ganhou a briga contra o antigo conselho da empresa - Foto: Steve Jennings/Creative Commons

Esse foi o ano da inteligência artificial, sem dúvida

By | Tecnologia | No Comments

Todo ano uma tecnologia desponta como inovadora, capturando mentes e manchetes. Ao final de 2023, poucas pessoas destacariam outra coisa que não fosse a inteligência artificial. Ela deixou de existir apenas em debates acadêmicos e de especialistas para ocupar rodas de conversas de leigos em mesas de bar. Mas o que fez uma tecnologia septuagenária e que já integrava nosso cotidiano (ainda que a maioria não soubesse disso) ganhar tamanha importância?

A resposta passa pelo lançamento de um produto: o ChatGPT. Apesar de ter sido liberado em 30 de novembro de 2022, nesse ano se tornou o produto de mais rápida adoção da história (e não me restrinjo a produtos digitais), com 100 milhões de usuários em apenas quatro meses! Mas a despeito de suas qualidades, sua grande contribuição foi demonstrar ao cidadão comum o poder da IA. E isso detonou uma corrida frenética para inclusão dessa tecnologia em todo tipo de produtos.

O ChatGPT faz parte de uma categoria da inteligência artificial chamada “generativa”. Isso significa que ele é capaz de gerar conteúdos inéditos (no seu caso, textos) a partir do que sabe. Parece mágica para muita gente, mas uma outra característica sua talvez seja ainda mais emblemática: o domínio da linguagem humana, e não termos truncados ou computacionais. E uma linguagem complexa, estruturada e consciente nos diferenciava dos outros animais e das máquinas.

Agora não mais das máquinas! Ao dominar a linguagem humana, a IA praticamente “hackeou” o nosso “sistema operacional”. E essa é a verdadeira explicação para 2023 ter sido o ano da inteligência artificial.


Veja esse artigo em vídeo:


Como é preciso quebrar alguns ovos para fazer uma omelete, toda essa transformação trouxe algumas preocupações. Uma das primeiras veio da educação, com professores temendo que perderiam a capacidade de avaliar seus alunos, que passariam a usar o ChatGPT para fazer seus trabalhos. Alguns professores chegaram até a temer que fossem substituídos de vez por máquinas inteligentes. Felizmente nada disso aconteceu, mas o debate serviu para educadores perceberem que precisavam reciclar a maneira como ensinavam e avaliavam seus alunos.

O medo de ser substituído pela máquina também atingiu funções que antes se sentiam imunes a isso, por serem trabalhos criativos. E esse é um temor legítimo, pois muita gente já está perdendo mesmo o emprego para a IA. Mas há “esperança”!

A inteligência artificial realmente cria coisas incríveis depois de processar quantidades obscenas de informação, encontrando soluções que nem o mais experiente profissional conseguiria. Mas ela também erra, e erra muito! São as chamadas “alucinações”, termo que entrou em nosso cotidiano em 2023 com essa acepção.

Trata-se de informações incorretas (às vezes muito erradas) que as plataformas inventam e incluem em suas produções, para tentar atender aos pedidos dos usuários. Por conta delas, muita gente se deu mal em 2023, até perdendo o emprego, por apresentar trabalhos com esses erros grosseiros. Portanto, bons profissionais ainda são necessários, para verificar se a IA não está “mentindo” desbragadamente.

As big techs abraçaram a IA! Depois que o ChatGPT foi chamado inicialmente de “assassino de Google” (outra bobagem que não se concretizou), o próprio Google correu para lançar em fevereiro o seu produto, o Bard, tentando deixar para trás a sensação de que tinha perdido a corrida de algo que já pesquisava havia muitos anos. No segundo semestre, a Meta incorporou seu Llama 2 a suas plataformas.

Mas quem acabou aparecendo com força mesmo foi a Microsoft, que teria investido algo como US$ 12 bilhões na OpenAI, criadora do ChatGPT. Com isso, essa tecnologia foi incorporada em muitos de seus produtos, como o Bing e o Word.

A inteligência artificial parece estar em toda parte. Mas isso é só o começo!

 

“Com grandes poderes, vêm grandes responsabilidades”

A IA realmente deslumbrou todos. Não é exagero afirmar que, mesmo em seu estágio atual, para muitos ainda embrionário, ela já está transformando o mundo. Mas para muita gente, ela está indo rápido demais.

Hoje há um embate entre dois movimentos. De um lado, temos o “Altruísmo Eficaz”, que defende que o desenvolvimento da IA seja bem regulado, para evitar que ela se torne muito poderosa e destrua a humanidade. Do outro, há o “Aceleracionismo Eficaz”, que defende justamente o contrário: que seu desenvolvimento aconteça totalmente livre, sem regras. Para esses, os benefícios da IA superam eventuais riscos que traga, por isso deve acontecer o mais rapidamente possível.

Esse embate provocou um abalo sísmico no dia 17 de novembro, quando o conselho da OpenAI sumariamente demitiu Sam Altman, fundador e CEO da empresa. Os conselheiros alegaram que Altman não era mais “confiável”. Isso porque a OpenAI nasceu como uma organização sem fins lucrativos, para criar uma IA “que beneficiasse a humanidade”. Com o tempo, Altman percebeu que, se não criasse produtos comerciais para captar novos investimentos, a empresa não evoluiria. Foi quando se juntou à Microsoft!

O que se viu nos cinco dias seguintes foi uma reviravolta cinematográfica, com Altman recebendo apoio massivo dos funcionários da empresa e dos investidores, especialmente da Microsoft. Nesse curtíssimo tempo, reassumiu o cargo e o antigo conselho renunciou. No novo, a Microsoft ganhou um assento.

Por tudo isso, o ano que começou com uma mistura de deslumbramento e temor em torno da inteligência artificial termina com um debate fortíssimo em vários países, inclusive no Brasil, se essa tecnologia deve ser regulamentada. A preocupação é que, se empresas de redes sociais, que não respondem pelos problemas que causam, racharam sociedades ao meio, a IA poderia criar danos potencialmente muito maiores, se usada para o mal e sem nenhuma responsabilização dos usuários e das plataformas.

Com tudo isso, esse definitivamente não foi um ano típico na tecnologia! As mudanças promovidas pela inteligência artificial foram tantas e tão intensas que é como se todo esse debate estivesse acontecendo há muitos anos. Mas não: ele aconteceu todo em 2023. Portanto, não há como negar à inteligência artificial o título de tecnologia mais impactante do ano, para não dizer da década! Precisamos nos apropriar adequadamente dela!

 

Geoffrey Hinton, o “padrinho da IA”, que se demitiu do Google em maio para poder criticar livremente os rumos da IA - Foto: reprodução

Entusiastas da IA querem acelerar sem parar, mas isso pode fazê-la derrapar

By | Tecnologia | No Comments

Nesse ano, a inteligência artificial deixou de ser um interesse da elite tecnológica e conquistou o cidadão comum, virando tema até de conversas de bar. Muita gente agora a usa intensamente, criando tanto coisas incríveis, quanto enormes bobagens. Isso gerou uma excitação em torno da tecnologia, com grupos que propõem que seja desenvolvida sem nenhuma restrição ou controle, acelerando o máximo que se puder.

Isso pode parecer emocionante, mas esconde um tipo de deslumbramento quase religioso que de vez em quando brota no Vale do Silício, a meca das big techs, nos EUA. Um movimento especificamente vem fazendo bastante barulho com essa ideia. Batizado de “Aceleracionismo Efetivo” (ou “e/acc”, como se autodenominam), ele defende que a inteligência artificial e outras tecnologias emergentes possam avançar o mais rapidamente possível, sem restrições ou regulamentações.

Mas quem acelera demais em qualquer coisa pode acabar saindo da pista!

Eles desprezam pessoas que chamam de “decels” e “doomers”, aquelas preocupadas com riscos de segurança vindos de uma IA muito poderosa ou reguladores que querem desacelerar seu desenvolvimento. Entre eles, está Geoffrey Hinton, conhecido como o “padrinho da IA”, que no dia 1º de maio se demitiu do Google, para poder criticar livremente os caminhos que essa tecnologia está tomando e a disputa sem limites entre as big techs, o que poderia, segundo ele, criar “algo realmente perigoso”.

Como de costume, radicalismos de qualquer lado tendem a dar muito errado. A verdade costuma estar em algum ponto no meio de caminho, por isso todos precisam ser ouvidos. Então, no caso da IA, ela deve ser regulada ou seu desenvolvimento deve ser liberado de uma forma quase anárquica?


Veja esse artigo em vídeo:


O Aceleracionismo Efetivo surgiu nas redes sociais no ano passado, como uma resposta a outro movimento: o “Altruísmo Eficaz”, que se tornou uma força importante no mundo da IA. Esse último começou promovendo filantropia otimizada a partir de dados, mas nos últimos anos tem se preocupado com a segurança da sociedade, propondo a ideia de que uma IA poderosa demais poderia destruir a humanidade.

Já o aceleracionistas efetivos acham que o melhor é sair da frente e deixar a inteligência artificial crescer livre e descontroladamente, pois seus benefícios superariam muito seus eventuais riscos, por isso jamais deveria ser vista como uma ameaça. Para eles, as plataformas devem ser desenvolvidas com software open source, livre do controle das grandes empresas.

Em um manifesto publicado no ano passado, os aceleracionistas efetivos descreveram seus objetivos como uma forma de “inaugurar a próxima evolução da consciência, criando formas de vida impensáveis da próxima geração”. De certa forma, eles até aceitam a ideia de que uma “super IA” poderia ameaçar a raça humana, mas a defendem assim mesmo, pois seria “o próximo passo da evolução”.

Para muita gente, como Hinton, isso já é demais! Em entrevista ao New York Times na época em que deixou o Google, o pioneiro da IA disse que se arrependia de ter contribuído para seu avanço. “Quando você vê algo que é tecnicamente atraente, você vai em frente e faz”, justificando seu papel nessas pesquisas. Agora ele teria percebido que essa visão era muito inconsequente.

Portanto é um debate em torno da ética do desenvolvimento tecnológico e das suas consequências. Conversei na época sobre aquela entrevista de Hinton com Lucia Santaella, professora-titular da PUC-SP. E para ela, “a ética da inteligência artificial tem que funcionar mais ou menos como a da biologia, tem que ter uma trava! Se não, os filmes de ficção científica vão acabar se realizando.”

 

A dificuldade de se regular

Além da questão ética, outro ponto que contrapõe aceleracionistas efetivos e altruístas eficazes é a necessidade de se regular a inteligência artificial. Mas verdade seja dita, essa tecnologia está dando um banho nos legisladores. Isso porque ela evolui muito mais rapidamente do que eles são capazes de propor leis.

Podemos pegar, como exemplo, a União Europeia, que legisla de forma rápida e eficiente temas ligados à tecnologia. Em abril de 2021, ela apresentou um projeto de 125 páginas como “referência” na regulação da IA. Fruto de três anos de debates com especialistas de diferentes setores associados ao tema, Margrethe Vestager, chefe da política digital do bloco, disse que o documento estava “preparado para o futuro”.

Parecia ser isso mesmo, até que, em novembro do ano passado, a OpenAI lançou o ChatGPT e criou uma corrida frenética para se incluir a inteligência artificial generativa em todo tipo de sistema. E isso nem era citado na proposta europeia!

O processo de criação de uma nova lei de qualidade é naturalmente lento, pois exige muita pesquisa e debate. Mas se as coisas acontecerem como propõem os e/accs, os legisladores estarão sempre muito atrás dos desenvolvedores. Os primeiros não conseguem sequer entender a tempo o que os segundos estão criando e, justiça seja feita, mesmo esses não têm total certeza do que fazem.

Enquanto isso, Microsoft, Google, Meta, OpenAI e outras gigantes da tecnologia correm soltas para criar sistemas que lhes concederão muito poder e dinheiro. A verdade é que quem dominar a IA dominará o mundo nos próximos anos.

Os aceleracionistas efetivos afirmam que eles são o antídoto contra o pessimismo dos que querem regular a inteligência artificial, algo que diminuiria o ritmo da inovação, o que, para eles, seria o equivalente a um pecado. Mas quanto disso é real e quanto é apenas uma “atitude de manada” inconsequente?

Sou favorável que a IA se desenvolva ainda mais. Porém, se nenhum limite for imposto, ainda que de responsabilização quando algo der errado, as big techs farão o mesmo que fizeram com as redes sociais. E vejam onde isso nos levou!

Não podemos perder o foco em nossa humanidade, que nos permite distinguir verdade de mentira, certo de errado! Só assim continuaremos desenvolvendo novas e incríveis tecnologias, sem ameaçar a sociedade.

Afinal, a ética consciente é o que nos diferencia dos animais, e agora, pelo jeito, também das máquinas!


Antes de encerrar, gostaria de fazer uma nota pessoal. Ainda que discorde filosoficamente dos aceleracionistas efetivos, acho o debate válido, se feito de forma construtiva. Pessoas com pontos de vista diferentes encontram juntas boas soluções que talvez não conseguiriam sozinhas, justamente por terem visões parciais de um tema. Para isso, necessitamos de conhecimento e de vontade de fazer o bem. Esse é um dos motivos para eu iniciar em 2024 meu doutorado na PUC-SP, sob orientação de Lucia Santaella, para pesquisar o impacto da inteligência artificial na “guerra” pelo que as pessoas entendem como “verdade”, algo determinante em suas vidas.

 

Detalhe de uma linha de produção de aves da Sadia - Foto: reprodução

Matemática e IA ajudam a garantir a entrega dos presentes antes do Natal e o peru na ceia

By | Tecnologia | No Comments

O fim do ano está chegando e, em um mundo em que o e-commerce ganha cada vez mais espaço, surge a pergunta: as compras online que eu fizer hoje chegarão antes do Natal? A maioria das pessoas não tem a menor ideia do que o clique no botão “comprar” movimenta, não apenas na entrega, mas também na produção daquele item.

Quem responde esse questionamento é a cadeia de suprimentos (ou “supply chain”), que possui metodologias bem conhecidas, mas que precisa lidar continuamente com imprevisibilidades que teimam em desafiar planejamentos e modelos. Em um cenário em que a quantidade de informação não para de crescer e os clientes ficam cada vez mais exigentes, modelos matemáticos e a inteligência artificial se apresentam como aliados poderosos. Elas dinamizam esses processos, melhorando a experiência do cliente final e, do lado das empresas, diminuindo custos e aumentando receitas.

Segundo o estudo “Own Your Transformation”, feito pelo IBM Institute for Business Value em cooperação com o instituto Oxford Economics, 53% dos executivos brasileiros do setor investem em novas tecnologias para fazer frente a interrupções na cadeia de suprimentos. O levantamento, que entrevistou 1.500 Chief Supply Chain Officers (CSCO) de todo o mundo, indicou ainda que 60% dos brasileiros já usavam abordagens preditivas como forma de gerenciar riscos.

“A gente faz um modelo que, em curto prazo, conta com fatos concretos, mas depois começa a aventar hipóteses, começa a trabalhar com modelos estocásticos”, explica Marcelo Elias, sócio e conselheiro da Linear, empresa brasileira que usa a matemática para a otimização de processos de supply chain. Modelos estocásticos incorporam elementos de aleatoriedade ou incerteza, com variáveis que podem mudar de maneira probabilística ao longo do tempo. Eles são uma ferramenta poderosa para entender e prever resultados de sistemas complexos.

A companhia tem 26 anos e ajuda nas decisões de executivos de clientes tão distintos quanto Ambev e Natura, mas construiu sua fama trabalhando em cadeias do setor de produção de alimentos, “as mais complexas que existem”, segundo Elias.

É o caso, por exemplo, de um país que importe frangos de um determinado frigorífico, com características específicas, como peso. Se por um fator fora de controle, como o surgimento de uma barreira sanitária, interrompe essas compras, a empresa precisa decidir o que fazer com as aves, que já estão prontas para o abate. “Os animais estão ali, não dá para ‘estocar’, porque perderão sua ‘configuração’, ganhando mais peso”, explica Fabio Sas, sócio e diretor comercial e marketing da Linear.

Em um caso como esse, em que literalmente centenas de milhares de frangos correm o risco de serem perdidos, os modelos matemáticos sugerem outros mercados para onde esse excedente pode ser direcionado. Ainda que o preço caia, será a menor perda possível e em um mercado que não “contaminará” os preços de praças mais importantes.

Segundo dados do IBGE, algo como 30% dos alimentos produzidos no Brasil acabam sendo descartados, totalizando cerca de 46 milhões de toneladas anuais de desperdício, um prejuízo estimado de R$ 61,3 bilhões. Isso nos deixa como o 10º país que mais joga fora comida no mundo, segundo a Organização das Nações Unidas (ONU).

O desperdício ocorre em diversas etapas da cadeia, como mau planejamento na produção, deficiências de infraestrutura de transporte, até o consumo inadequado. Isso representa não só uma enorme redução nos lucros de produtores e varejistas, como um custo social inaceitável em um país que luta contra a fome em uma parcela significativa de sua população.

Parte da solução desse problema passa por tentar antecipar com boa acuracidade quanto o mercado precisará de cada produto, para que seja produzido na quantidade e no tempo certo. E no caso de evento inesperados, como picos de consumo, sistemas assim podem ajustar previsões e programações de produção em tempo real.

Os modelos da Linear trabalham nisso. Se for produzido mais que o necessário ou um produto chegar antes da hora nas lojas, isso gera custos com estoque e até perdas por se estragar. Se produzir menos, perdem-se vendas e o cliente fica frustrado por não encontrar o que queria.

 

Nada isolado, tudo integrado

A maioria dos modelos matemáticos ainda cuida da cadeia localmente: trabalham para maximizar os resultados de uma fábrica específica, por exemplo. Mas em um mundo globalizado e acelerado, a soma dos “ótimos locais” não representa necessariamente o “ótimo global”.

“Os clientes estão acostumados a olhar individualmente cada planta e ver se ela está dando lucro, mas isso não existe”, explica Walker Batista, sócio e diretor de modelagem e inovação da Linear. Ele explica que uma fábrica pode até operar com prejuízo, se contribuir positivamente com o todo, por exemplo concentrando os produtos mais baratos. “A formulação de cada planta não é tomada localmente, e sim de forma global, mas isso não dá para fazer sem a matemática”, conclui.

De certa forma, os desafios do supply chain hoje são os mesmos de antes. O que mudou muito é a escala e a velocidade.

Até alguns anos atrás, a cadeira funcionava movida por eventos específicos. Havia tempo para coletar e processar informações, para se tomar as decisões. No atual mundo interligado, em que um produto não estar disponível se torna um “pecado”, e entregas começam a ser feitas até na mesma hora em que o pedido for feito, essa “zona de conforto” desapareceu.

O planejamento da cadeia deixa de funcionar por eventos e passa a acontecer de maneira fluida, dia a dia, às vezes de hora em hora! É um cenário em que a matemática e a inteligência artificial podem oferecer uma enorme vantagem competitiva, analisando uma quantidade obscena de dados das mais diferentes fontes, identificando padrões, alimentando os modelos e gerando ideias para os gestores.

Em alguns casos, chega-se a uma fronteira, que é o limite computacional disponível para processar tudo isso. A computação quântica desponta como uma promessa de resposta, mas, segundo Batista, seus altos custos ainda não conseguem se justificar nesses processos.

Portanto, quando comprar seu próximo presente de Natal e descobrir que ele chegará a tempo de ser colocado embaixo da árvore, ou trazer um belo peru para a ceia, lembre-se que nada é por acaso: muita tecnologia foi usada para isso acontecer.

 

Taylor Swift e suas cópias, que podem ser geradas por IA para convencer as pessoas - Foto: Paulo Silvestre com Creative Commons

Pessoas se tornam vítimas de bandidos por acreditarem no que desejam

By | Tecnologia | No Comments

Usar famosos para vender qualquer coisa sempre foi um recurso poderoso do marketing. Mas agora as imagens e as vozes dessas pessoas estão sendo usadas sem sua permissão ou seu conhecimento para promover produtos que eles jamais endossariam e sem que ganhem nada com isso.

Esse conteúdo falso é criado por inteligência artificial e está cada vez mais convincente. Além de anunciar todo tipo de quinquilharia, esses “deep fakes”, como é conhecida essa técnica, podem ser usados para convencer as massas muito além da venda de produtos, envolvendo aspectos políticos e até para se destruir reputações.

O processo todo fica ainda mais eficiente porque as pessoas acreditam mais naquilo que desejam, seja em uma “pílula milagrosa de emagrecimento” ou nas ideias insanas de seu “político de estimação”. Portanto, os bandidos usam os algoritmos das redes sociais para direcionar o conteúdo falso para quem gostaria que aquilo fosse verdade.

Há um outro aspecto mais sério: cresce também o uso de deep fakes de pessoas anônimas para a aplicação de golpes em amigos e familiares. Afinal, é mais fácil acreditar em alguém conhecido. Esse recurso também é usado por desafetos, por exemplo criando e distribuindo imagens pornográficas falsas de suas vítimas.


Veja esse artigo em vídeo:


As redes sociais, que são os maiores vetores da desinformação, agora se deparam sob pressão com o desafio de identificar esse conteúdo falso criado por IA para prejudicar outras pessoas. Mas seus termos de uso e até alguns de seus recursos tornam essa tarefa mais complexa que as dificuldades inerentes da tecnologia.

Por exemplo, redes como TikTok e Instagram oferecem filtros com inteligência artificial para que seus usuários alterem (e supostamente “melhorem”) suas próprias imagens, uma distorção da realidade que especialistas afirmam criar problemas de autoestima, principalmente entre adolescentes. Além disso, muitas dessas plataformas permitem deep fakes em algumas situações, como paródias. Isso pode tornar esse controle ainda mais difícil, pois uma mentira, uma desinformação, um discurso de ódio pode se esconder subliminarmente nos limites do aceitável.

O deep fake surgiu em 2017, mas seu uso explodiu nesse ano graças ao barateamento das ferramentas e à melhora de seus resultados. Além disso, algumas dessas plataformas passaram a convincentemente simular a voz e o jeito de falar de celebridades. Também aprendem o estilo de qualquer pessoa, para “colocar na sua boca” qualquer coisa. Basta treiná-las com alguns minutos de áudio do indivíduo. O “pacote da enganação” se completa com ferramentas que geram imagens e vídeos falsos. Na prática, é possível simular qualquer pessoa falando e fazendo de tudo!

A complexidade do problema cresce ao transcender as simulações grosseiras e óbvias. Mesmo a pessoa mais ingênua pode não acreditar ao ver um vídeo de uma celebridade de grande reputação destilando insanidades. Por isso, o problema maior não reside em um “fake” dizendo um absurdo, mas ao falar algo que o “original” poderia ter dito, mas não disse. E nessa zona cinzenta atuam os criminosos.

Um exemplo pôde ser visto na terça passada (5), quando o apresentador esportivo Galvão Bueno, 73, precisou usar suas redes sociais para denunciar um vídeo com uma voz que parecia ser a sua insultando Ednaldo Rodrigues, presidente da Confederação Brasileira de Futebol (CBF). “Fizeram uma montagem com coisas que eu nunca disse e eu nunca diria”, disse Galvão em sua defesa.

Ele não disse mesmo aquilo, mas poucos estranhariam se tivesse dito! Duas semanas antes, após a derrota da seleção brasileira para a argentina nas eliminatórias da Copa do Mundo, o apresentador fez duras críticas ao mesmo presidente. Vale dizer que há uma guerra pela liderança da CBF, e Rodrigues acabou sendo destituído do cargo no dia 7, pela Justiça do Rio.

 

Ressuscitando os mortos

O deep fake de famosos já gerou um enorme debate no Brasil nesse ano. No dia 3 de julho, um comercial sobre os 70 anos da Volkswagen no país provocou polêmica ao colocar a cantora Elis Regina (morta em 1982) cantando ao lado da filha Maria Rita. Elis aparece no filme dirigindo um antigo modelo de Kombi, enquanto a filha aparece ao volante de uma ID.Buzz, furgão elétrico recém-lançado, chamado de “Nova Kombi”.

Muita gente questionou o uso da imagem de Elis. Mas vale dizer que, nesse caso, os produtores tiveram a autorização da família para o uso de sua imagem. Além disso, ninguém jamais propôs enganar o público para que achasse que Elis estivesse viva.

Outro exemplo aconteceu na recente eleição presidencial argentina. Durante a campanha, surgiram imagens e vídeos dos dois candidatos que foram ao segundo turno fazendo coisas condenáveis. Em um deles, o candidato derrotado, Sergio Massa, aparece cheirando cocaína. Por mais que tenha sido desmentido, ele “viralizou” nas redes e pode ter influenciado o voto de muita gente. Tanto que, no Brasil, o Tribunal Superior Eleitoral (TSE) já se prepara para combater a prática nas eleições municipais de 2024.

Na época do comercial da Volkswagen, conversei sobre o tema com Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propaganda e Marketing). Para ele, “ficará mais difícil, a olho nu, detectar o que é verdadeiro”, restando aos peritos identificar as falsificações. “O desafio, daqui para frente, é que será mais comum ver esse tipo de debate na Justiça”, acrescentou.

Essa é uma preocupação mundial. As fake news mais eficientes não escancaram uma informação falsa “completa”. Ao invés disso, o conceito que pretendem impor é apresentado aos poucos, em pequenos elementos aparentemente desconexos, mas criteriosamente entregues, para que a pessoa conclua “sozinha” o que os criminosos querem. Quando isso acontece, fica difícil convencê-la do contrário.

Não há clareza sobre como resolver esse problema. Os especialistas sugerem que exista algum tipo de regulamentação, mas ela precisa equilibrar a liberdade para se inovar e a garantia dos interesses da sociedade. Sem isso, podemos ver uma enorme ampliação da tragédia das fake news, construída por redes sociais que continuam não sendo responsabilizadas por disseminá-las.

Como determina a Constituição, todos podem dizer o que quiserem, mas respondem por isso. O desafio agora é que não se sabe mais se a pessoa disse o que parece ter dito de maneira cristalina diante de nossos olhos e ouvidos.

 

O CEO da OpenAI, Sam Altman, que ganhou a briga contra o antigo conselho da empresa - Foto: Steve Jennings/Creative Commons

Como a confusão na OpenAI determinará nossas vidas

By | Tecnologia | No Comments

Nessa quarta (30), o lançamento do ChatGPT completa seu primeiro aniversário. É bem pouco tempo para um produto que mudou a maneira como fazemos muitas coisas em nossas vidas. Isso se deu não por seus próprios recursos, limitados a escrever textos (ainda que de maneira surpreendente), mas por ter iniciado a corrida da inteligência artificial generativa, que invadiu todo tipo de ferramenta de produtividade.

Por uma infame coincidência, a OpenAI, criadora do sistema, quase deixou de existir na semana passada. Na sexta anterior (17), Sam Altman, fundador e CEO da empresa, foi sumariamente demitido, pegando o mundo da tecnologia –e aparentemente ele mesmo– de surpresa. A OpenAI só não desapareceu por uma cinematográfica sequência de eventos, que puseram Altman de volta na sua cadeira em apenas cinco dias.

Isso já tornaria essa história incrível, mas pouco se sabe e menos ainda se fala dos elementos mais suculentos em seus bastidores. Afinal, o que faria o conselho de administração da OpenAI mandar embora a estrela mais brilhante do Vale do Silício no momento, em plena ascensão?

A resposta é profundamente mais complexa que uma simples “quebra de confiança”, apresentada na justificativa. O real motivo são visões conflitantes sobre como o desenvolvimento da inteligência artificial deve continuar acontecendo. De um lado, temos uma maneira mais lenta e cuidadosa, até para se evitar que ela “saia do controle” e ameace a humanidade. Do outro, há os que defendam que isso aconteça de forma acelerada, criando freneticamente novos e fabulosos produtos com ela.


Veja esse artigo em vídeo:


Sam Altman faz parte do segundo grupo. Os agora ex-membros do conselho de administração da OpenAI fazem parte do outro.

No fim de semana seguinte a sua demissão, Altman tentou sem sucesso reassumir o cargo. Então a Microsoft, que é a principal investidora da OpenAI, anunciou na segunda (20) a sua contratação para liderar um novo centro de pesquisa de inteligência artificial. Disse ainda que aceitaria qualquer profissional da OpenAI que quisesse acompanhar Altman.

No dia seguinte, em um movimento ousado, cerca de 700 trabalhadores da startup publicaram uma carta aberta exigindo a readmissão de Altman e a renúncia dos membros do conselho. Caso contrário, todos se demitiriam, o que na prática acabaria com a empresa. Na quarta, Altman estava de volta e os conselheiros se demitiram.

A Microsoft não tinha nenhum interesse no fim da OpenAI, portanto contratar Altman foi uma jogada de mestre, por forçar a reação das suas equipes. Depois de investir US$ 13 bilhões na startup, seus produtos estão sendo gradualmente integrados aos da gigante, como o pacote 365 (antigo Office) e o buscador Bing. Além disso, a OpenAI está pelo menos seis meses à frente da concorrência, como Google e Meta, o que é um tempo enorme nas pesquisas de IA, e isso não pode ser jogado no lixo.

A confusão na OpenAI não se trata, portanto, se Altman estava fazendo um bom trabalho. Segundo o New York Times, ele e os antigos conselheiros já vinham brigando há mais de um ano, pois o executivo queria acelerar a expansão dos negócios, enquanto eles queriam desacelerar, para fazer isso com segurança.

Vale dizer que a OpenAI foi fundada em 2015 como uma organização sem fins lucrativos, para construir uma superinteligência artificial segura, ética e benéfica à humanidade. Mas a absurda capacidade de processamento que a inteligência artificial exige levou à criação de um braço comercial do negócio, em 2018.

 

A “mãe de todas as IAs”

Altman sempre disse que buscava o desenvolvimento de uma inteligência artificial geral (IAG), um sistema capaz de realizar qualquer tarefa por iniciativa própria, até mesmo se modificar para se aprimorar. Isso é muito diferente das IAs existentes, que realizam apenas um tipo tarefa e dependem de serem acionadas por um usuário.

Alguns pesquisadores afirmam que a IAG, que superaria largamente a capacidade cognitiva humana, jamais existirá. Outros dizem que já estamos próximos dela.

Na semana passada, a OpenAI deu mais um passo nessa busca, com o anúncio da Q* (lê-se “Q-Star”, ou “Q-Estrela”, em tradução livre), uma IA ainda mais poderosa que as atuais. Esse sistema pode ter contribuído para a demissão de Altman.

Nada disso é um “papo de nerd”. Se chegaremos a ter uma inteligência artificial geral ou até com que agressividade a IA transformará todo tipo de ferramentas já impacta decisivamente como vivemos. E isso vem acontecendo de maneira tão rápida, que mesmo os pesquisadores estão inseguros sobre benefícios e riscos que isso envolve.

Há ainda preocupações geopolíticas: se as grandes empresas ocidentais não fizerem isso, regimes autoritários e fundamentalistas podem chegar lá, com consequências imprevisíveis para a ordem mundial. Mas também não podemos ver candidamente o Vale do Silício como um campeão da liberdade e da ética. Eles querem dinheiro, e casos como o da OpenAI e de muitas redes sociais ilustram isso.

Mesmo uma “IA legítima” pode ser usada de forma antiética e abusiva. Acabamos de ver isso na eleição presidencial argentina, com os candidatos usando essas plataformas para se comunicar melhor com seus eleitores, mas também para criar imagens depreciativas dos concorrentes. O mesmo deve acontecer aqui nas eleições municipais de 2024. Tanto que o Tribunal Superior Eleitoral (TSE) já busca como coibir a bagunça. A inteligência artificial deve, portanto, nos preocupar desde um improvável extermínio da humanidade até problemas pelo seu uso incorreto em nosso cotidiano.

Os robôs têm “leis” para que não se voltem contra nós, propostas pelo escritor Isaac Asimov, em 1942. São elas: “um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal”, “um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que entrem em conflito com a Primeira Lei” e “um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.” Mais tarde, ele acrescentou a “Lei Zero”: “um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.”

Elas parecem suficientes, mas são apenas uma ideia, enquanto a IA é uma realidade. E mesmo que sejam implantadas no âmago de uma inteligência artificial geral, que garantia temos de que ela não encontre maneiras de alterar seu código para desobedecê-las se assim achar necessário?

Por tudo isso, as decisões do novo conselho da Open AI nos próximos meses, que a devem tornar mais capitalista, afetarão não apenas a empresa, mas o futuro de todos nós. Com tanto dinheiro envolvido, era pouco provável que um grupo de acadêmicos conseguisse desacelerar o desenvolvimento da IA por questões éticas.

No final das contas, estamos fazendo uma aposta entre produtividade e segurança. Uma goleada da primeira começa a se formar. O problema é que aparentemente não temos capacidade de antecipar com certeza o que acontecerá. Temos que estar monitorando a cada momento essa evolução e ter uma tomada física para simplesmente puxar e desligar a coisa toda, se assim for necessário.

 

Cena de “Black Mirror”, em que se vê o implante ocular digital que aparece em vários episódios, com usos diversos - Foto: Reprodução

IA traz as coisas mais legais e mais sinistras de “Black Mirror” para o nosso cotidiano

By | Tecnologia | No Comments

Você gostaria de ter a sua disposição algumas das tecnologias de “Black Mirror”, que praticamente dão “superpoderes” a seus usuários, mesmo que isso possa lhes trazer algum risco? Se a reposta for positiva, prepare-se, pois a inteligência artificial pode fazer algo parecido àquilo se tornar realidade em breve, com tudo de bom e de ruim que oferece.

A série britânica, disponível na Netflix, ficou famosa por mostrar uma realidade alternativa ou um futuro próximo com dispositivos tecnológicos incríveis, capazes de alterar profundamente a vida das pessoas. Mas, via de regra, algo dá errado na história, não pela tecnologia em si, mas pela desvirtuação de seu uso por alguns indivíduos.

Os roteiros promovem reflexões importantes sobre as pessoas estarem preparadas para lidar com tanto poder. Com as novidades tecnológicas já lançadas ou prometidas para os próximos meses, os mesmos dilemas éticos começam a invadir nosso cotidiano, especialmente se (ou quando) as coisas saírem dos trilhos. Diante de problemas inusitados (para dizer o mínimo), quem deve ser responsabilizado: os clientes, por usos inadequados dos produtos, ou seus fabricantes, que não criaram mecanismos de segurança para conter isso?


Veja esse artigo em vídeo:


Provavelmente o dispositivo mais icônico de “Black Mirror”, que aparece em vários episódios, com diferentes aplicações, é uma espécie de implante ocular capaz de captar tudo que a pessoa vê em sua vida, que fica armazenado em um chip implantado atrás da orelha. Essa memória eterna e detalhada pode ser recuperada a qualquer momento, sendo projetada diretamente no próprio olho ou em uma tela.

Não é difícil imaginar como isso pode ser problemático, especialmente quando outras pessoas têm acesso a memórias alheias. Algumas coisas deveriam ser simplesmente esquecidas ou jamais compartilhadas!

A privacidade se torna um bem cada vez mais valioso em um mundo em que nossas informações pessoais viram dinheiro na mão de empresas que as transformam em dados comercializáveis. Um bom exemplo são equipamentos que vestimos (os chamados “wearables”) que captam informações sobre nossa saúde, muitas delas compartilhadas com os fabricantes. Mas para que esse envio é necessário?

Os relógios inteligentes (os “smart watches”) são o exemplo mais popular desses equipamentos. Mas uma nova geração de dispositivos melhorados pela inteligência artificial aprendem como nosso corpo funciona e nos oferecem informações personalizadas para uma vida melhor.

É o caso do Whoop 4.0, uma pulseira com diversos sensores biométricos, como batimentos cardíacos, oxigênio no sangue, temperatura e taxa de respiração, que afirma ajudar em atividades físicas e até em como dormimos. Já o Oura Smart Ring oferece algo semelhante, porém “escondido” em um simples anel.

Alguns são mais radicais, como a pulseira Pavlok 3. Ela promete ajudar a desenvolver hábitos mais saudáveis, como dormir melhor e até parar de fumar. Quando o dispositivo detecta algo ruim (como fumar), ele emite uma vibração e, se necessário, dá um choque elétrico na pessoa, para associar desconforto ao mau hábito.

Mas dois outros dispositivos lembram mais “Black Mirror”: o Rewind Pendant e o Humane AI Pin. Ainda não são os implantes oculares da série, mas prometem gravar o que acontece a nossa volta e muito mais. Eles pretendem inaugurar a era da “computação invisível”, em que não mais dependeremos de telas, nem mesmo as de celulares ou de óculos de realidades virtual ou aumentada.

O Rewind Pendant é um pequeno pingente que grava tudo que o usuário fala ou ouve. A partir daí, é possível dar comandos simples como “resuma a reunião de ontem” ou “o que meu filho me pediu hoje de manhã”. Como o sistema identifica a voz de quem está falando, o fabricante afirma que só grava alguém se essa pessoa explicitamente autorizar isso por voz.

Já o Humane AI Pin é um discreto broche que funciona como um assistente virtual que conhece nossos hábitos, grava e até projeta imagens em nossa mão. Comunica-se com o usuário por voz e sua inteligência artificial pode até desaconselhar que se coma algo, porque aquilo contém algum ingrediente a que a pessoa seja intolerante.

 

“Babaca digital”

Impossível não se lembrar do Google Glass, óculos inteligentes que a empresa lançou em 2013. Ele rodava diferentes aplicativos e as informações eram projetadas em sua lente, que se tornava uma tela para o usuário.

Apesar de cobiçado, acabou retirado do mercado por questões de privacidade. Ele tirava fotos e filmava sem que os outros soubessem. Além disso, fazia reconhecimento facial de interlocutores, que poderia ser usado para coletar informações adicionais. As pessoas que faziam maus usos do produto passaram a ser chamadas de “glassholes”, um trocadilho que junta “Glass” a “asshole” (algo como “babaca” em inglês).

Isso nos remete novamente a “Black Mirror”. Nenhum desses produtos foi criado para maus usos, mas as pessoas podem fazer o que bem entenderem com eles. E depois que são lançados, fica difícil “colocar o gênio de volta na lâmpada”.

Estamos apenas arranhando as possibilidades oferecidas pela inteligência artificial, que ainda revolucionará vidas e negócios. Tanto poder exigiria grandes responsabilidades, mas não podemos esperar isso das pessoas, e os fabricantes tampouco parecem muito preocupados.

Como exemplo, na semana passada, vimos o caso de alunos do 7º ao 9º ano do Colégio Santo Agostinho, um dos mais tradicionais do Rio de Janeiro, usando a inteligência artificial para criar imagens de suas colegas sem roupa. Desenvolvedores desses sistemas proíbem que sejam usados para esse fim, mas é inocência achar que isso será atendido. Tanto que já foram criadas plataformas especificamente para isso.

Quem deve ser responsabilizado por esses “deep nudes”: os alunos, os pais, a escola, o fabricante? Não se pode mais acreditar em qualquer imagem, pois ela pode ter sido sintetizada! Isso potencializa outros problemas, como os golpes de “sextorsão”, em que pessoas são chantageadas para que suas fotos íntimas não sejam divulgadas. Com a “computação invisível”, isso pode se agravar ainda mais!

O sociólogo polonês Zygmunt Bauman (1925 – 2017) era mesmo o filósofo de nosso tempo, com obras como “Modernidade Líquida” (1999), “Amor Líquido” (2004) e “Vida Líquida” (2005). Não viveu para experimentar a IA ou esses dispositivos, mas seu pensamento antecipou como tudo se tornaria descartável e efêmero na vida, nos relacionamentos, na segurança pessoal e coletiva, no consumo e no próprio sentido da existência.

A inteligência artificial está aí e ela é incrível: não dá para deixar de usá-la! Mas precisamos encontrar mecanismos para não cairmos nas armadilhas que nós mesmos criaremos com seu uso indevido.

 

Thiago Araki, diretor-sênior de Tecnologia da Red Hat na América Latina, no palco do Summit Connect, no dia 18 – Foto: Red Hat

Negócios e empregos mudam exponencialmente com novas tecnologias e modelos

By | Tecnologia | No Comments

O ano de 2023 será lembrado como o momento em que a inteligência artificial ganhou as ruas. O lançamento do ChatGPT, no final de 2022, disparou uma corrida em que todos os negócios parecem ser obrigados a usar a IA, quase como se ela fosse um selo de qualidade, o que obviamente não passa de uma distorção do que ela representa. O grande desafio reside, portanto, em conhecer e se apropriar dessa tecnologia, para tirar proveito dela adequadamente.

As empresas têm um papel central em ajudar nessa tarefa, não apenas com o lançamento de produtos que tragam soluções consistentes com a IA, mas também na educação do mercado. Isso ficou claro durante o Red Hat Summit: Connect, principal evento de tecnologia open source da América Latina, que aconteceu em São Paulo no dia 18.

É curioso pensar que a inteligência artificial já está em nosso cotidiano há muitos anos, em incontáveis aplicações empresariais e até em nosso celular, ajudando-nos a fazer escolhas melhores. A diferença é que, até então, ela se escondia nas entranhas desses sistemas. Agora ganhou a luz do sol, exposta em conversas que temos com a máquina, que nos responde como se fosse outra pessoa.

Ainda há deslumbramento demais e conhecimento de menos sobre a inteligência artificial entre consumidores e empresas. O próprio lançamento de tantas plataformas de inteligência artificial generativa, na esteira do sucesso explosivo do ChatGPT, indica um certo descuido de alguns desenvolvedores de soluções, liberando um enorme poder para pessoas que não sabem como usá-lo corretamente.

Nesse sentido, a Red Hat, que é a maior empresa do mundo no fornecimento de soluções empresariais open source, entende que deve ir além do seu papel de desenvolver produtos que tiram proveito da IA: deve também educar seus usuários, seja pelas suas próprias iniciativas, seja pela colaboração com o mundo acadêmico. “As empresas não só podem como devem colaborar na formação de profissionais”, explica Alexandre Duarte, vice-presidente de Serviços para a América Latina na Red Hat. “Nós temos que juntar esforços do mundo corporativo com o mundo educacional, estando alinhados.”

A versão latino-americana do Summit, que também acontece em Buenos Aires (Argentina), Santiago (Chile), Tulum (México), Lima (Peru) e Montevidéu (Uruguai), traz para esses mercados produtos e conceitos que foram apresentados em maio no evento global da empresa, realizado em Boston (EUA). Entre eles, o Ansible Lightspeed e o OpenShift AI, que usam a inteligência artificial na automação de tarefas, como geração de códigos a partir de pedidos simples em português, liberando o tempo das equipes para funções mais nobres.

E assim como pude ver em Boston, aqui a empresa também deixa claro que a inteligência artificial não chega para substituir profissionais, e sim para melhorar suas rotinas. “Se você for um novato, poderá criar melhor, mais rápido; se for um especialista, poderá melhorar muito o que faz e usar seu domínio para refinar a entrega”, explicou-me Matt Hicks, CEO global da Red Hat, em uma conversa com jornalistas durante o Summit na cidade americana. “Nessa nova fase, temos que conhecer a pergunta para a qual queremos a resposta”, concluiu.

É auspicioso observar essa visão em uma das empresas de software mais respeitadas do mundo, em um momento em que muita gente teme pelo seu emprego pelo avanço da inteligência artificial. “Essas ondas tecnológicas não tiram o emprego das pessoas, os profissionais precisam se acomodar”, acalma Duarte. Mas ele faz uma ressalva: é preciso querer aprender! “Se você tem propensão a aprender coisas novas, eu não acredito que a inteligência artificial vai tirar seu emprego, e ainda vai gerar novas oportunidades de trabalho”, acrescenta.

 

O poder da “coopetição”

Em março deste ano, a Red Hat completou 30 anos. Ele cresceu a partir de sua distribuição do sistema operacional Linux, provavelmente o software open source mais famoso do mundo. Nessa modalidade, o produto e o código-fonte ficam disponíveis gratuitamente. A regra fundamental é que, se alguém fizer uma melhoria no sistema, ela deve ser compartilhada de volta com a comunidade.

Essa forma de pensar inspira seu próprio modelo de trabalho, que ficou conhecido como “open business”, uma abordagem empresarial em que equipes, a comunidade e até concorrentes são convidados a cooperar de maneira transparente. Ela valoriza a transparência e a responsabilização, distribuindo os benefícios para todos. “Há 30 anos a gente fala sobre essa abertura, essa transparência, essa possibilidade de diferentes perspectivas”, afirma Sandra Vaz, diretora-sênior de Alianças e Canais para a América Latina na Red Hat.

Surge então a chamada “coopetição”, um neologismo que une “cooperação” e “competição”. “Nada mais é que dois competidores cooperando e criando novas soluções para o bem de seus clientes”, explica Vaz. “Nós colaboramos, nossas equipes de desenvolvimento se conectam e criam o melhor dos mundos, simplificando soluções já existentes.”

A “coopetição” também é uma poderosa ferramenta para ampliar a base de clientes, pois um dos participantes pode trazer consumidores a que o outro lado não teria acesso. Sandra dá, como exemplo, um provedor de serviços na nuvem, como a AWS ou a Microsoft, que podem até ter produtos concorrentes aos da Red Hat, mas que se associam a ela justamente nessas soluções, se assim for o desejo do cliente.

A tecnologia avança a passos muito rápidos, assim como modelos de negócios inovadores. Qualquer que seja o mercado ou a função, está claro que profissionais precisam estar não apenas abertos à inovação, como também dispostos a aprender como tirar proveito dela de maneira eficiente e ética.

A inteligência artificial talvez não acabe com os empregos das pessoas que não a adotem, mas isso pode acabar acontecendo pelas mãos daquelas que passarem a usá-la.


Você pode assistir à íntegra em vídeo das minhas entrevistas com os executivos da Red Hat. Basta clicar no respectivo nome: Alexandre Duarte, Sandra VazMatt Hicks.

 

Graças à IA em novos celulares, qualquer um poderá alterar profundamente suas fotos - Foto: Akshay Gupta/Creative Commons

Celulares podem se tornar máquinas de distorcer a realidade

By | Tecnologia | No Comments

Quando a fotografia foi inventada, no século XIX, ela revolucionou o mundo por conseguir reproduzir facilmente a realidade. De lá para cá, ela só melhorou, culminando na fotografia digital, que transformou um hobby caro em uma diversão extremamente popular, consolidada com as câmeras cada vez mais poderosas nos celulares. Mas agora esses equipamentos podem ironicamente subverter a característica essencial da fotografia de retratar a realidade com precisão.

A culpa disso recai sobre a inteligência artificial. Ela já está presente há algum tempo nos softwares de captura e edição de imagens dos melhores celulares. Mas, até então, prestava-se a “melhorar” (note as aspas) as fotografias, usando técnicas para aumentar a sua fidelidade e refinar elementos como cores, brilho e contraste.

Isso começa a mudar agora, com o lançamento nos EUA, no dia 11, do Pixel 8 (sem previsão de chegada ao Brasil). O smartphone de US$ 700 do Google consegue efetivamente alterar a realidade fotografada. Isso quer dizer que, com ele, é possível, por exemplo, eliminar pessoas e objetos das fotos, alterar elementos das imagens ou modificar suas posições e até “melhorar” (de novo, com aspas) o rosto de pessoas combinando com a maneira que elas apareceram em outras fotos.

Como em todas as atuais plataformas baseadas na inteligência artificial generativa, alguns resultados dessas edições são decepcionantes e até grotescos. Outros, porém, ficam incrivelmente convincentes!

Já dizia São Tomé: “preciso ver para crer”. Parábolas à parte, é um fato que somos seres visuais: nosso cérebro tende a assumir como real o que está diante de nossos olhos. Por isso, vale perguntar até que ponto é positivo e até saudável dar a possibilidade de se distorcer a realidade de maneira tão simples.


Veja esse artigo em vídeo:


É curioso que a fotografia foi combatida por muitos quando surgiu, justamente pela sua capacidade de reproduzir, de maneira fácil, rápida e precisa, o mundo. Pintores diziam que o invento era algo grosseiro, que eliminava a subjetividade e a técnica dos artistas quando retratavam pessoas e paisagens. Grupos religiosos também a combatiam, por serem contrários à captura de imagens de “coisas feitas por Deus”.

Em 1826, o francês Joseph Nicéphore Niépce registrou seu quintal em uma placa de estanho revestida de betume, usando uma câmera escura por oito horas. Essa é considerada a primeira fotografia permanente. Três anos depois, ele fez um acordo com outro francês, Louis Jacques Mandé Daguerre, que aperfeiçoou o processo com o daguerreótipo, que precisava de “apenas” 30 segundos para fazer uma fotografia.

A patente do daguerreótipo foi vendida ao Estado francês em 1839, que a colocou em domínio público. Isso permitiu que a fotografia experimentasse grandes avanços ao redor do mundo. Provavelmente a empresa mais inovadora do setor foi criada pelo americano George Eastman em 1888: a Kodak. Entre suas contribuições, estão o rolo de filme (1889), a primeira câmera de bolso (1912) e o filme colorido moderno (1935).

O último grande invento da Kodak foi a fotografia digital, em 1975. Mas como os lucros da empresa dependiam da venda de filmes, seus executivos não deram importância a ela. Foi um erro fatal, pois a tecnologia se tornou incrivelmente popular e, quando a empresa decidiu olhar para ela, as japonesas já dominavam o mercado.

Em 1999, foi lançado o Kyocera VP-210, o primeiro celular com câmera capaz de tirar fotos, que tinham resolução de 0,11 megapixel (o iPhone 15 tira fotos de 48 megapixels). E isso nos traz de volta ao dilema atual.

 

Realidade alternativa

As fotografias nos celulares se tornaram tão realistas e detalhadas que o próprio negócio de câmeras fotográficas entrou em colapso. Elas continuam existindo, mas hoje praticamente só profissionais as utilizam, pois sabem como aproveitar todos os recursos daqueles equipamentos para fotografias realmente diferenciadas.

Os recursos de IA do Pixel 8 fazem parte de uma nova versão do Google Fotos, o aplicativo de edição e publicação de fotos da empresa, que é nativo nos smartphones Android, mas também pode ser baixado para iPhones. Isso significa que, em tese, outros aparelhos poderão ganhar esses recursos em breve, desde que, claro, tenham capacidade de processamento para isso.

A alteração de fotografias sempre existiu, mesmo antes dos softwares de edição de imagem. Entretanto fazer isso era difícil, exigindo equipamentos e programas caros e muita habilidade técnica. Além disso, as fotos editadas eram apresentadas como tal, sem a pretensão de levar quem as visse a acreditar que fossem reais (salvo exceções, claro)..

O que se propõe agora é que isso seja feito de maneira muito fácil, por qualquer pessoa, sem nenhum custo adicional e em equipamentos vendidos aos milhões. Isso levanta algumas questões éticas.

A primeira delas é que as pessoas podem passar a se tornar intolerantes com a própria realidade. O mundo deixaria de ser o que é, para ser o que gostariam. Isso é perigosíssimo como ferramenta para enganarem outros indivíduos e até a si mesmas.

A sociedade já experimenta, há anos, um crescimento de problemas de saúde mental, especialmente entre adolescentes, devido a fotos de colegas com corpos “perfeitos” (pela terceira vez, as aspas). Isso acontece graças a filtros com inteligência artificial em redes sociais, especialmente Instagram e TikTok, que fazem coisas como afinar o nariz, engrossar os lábios, diminuir os quadris e alterar a cor da pele. O que se observa mais recentemente são adolescentes insatisfeitos com seus corpos não pelo que veem em amigos, mas pelo que veem em suas próprias versões digitais.

Há um outro aspecto que precisa ser considerado nesses recursos de alteração de imagens, que são os processos de desinformação. Muito provavelmente veremos grupos que já se beneficiam das fake news usando intensamente essa facilidade para convencer seu público com mentiras cada vez mais críveis.

Hoje esses recursos ainda estão toscos demais para um convencimento completo. Mas é uma questão de pouco tempo até que eles se aproximem da perfeição.

Não tenham dúvidas: quando estiver disponível, as pessoas usarão intensamente essa tecnologia, estando imbuídas de boas intensões ou de outras não tão nobres assim. Quem será responsabilizado quando começarem a surgir problemas disso?

Assim como acontece com as redes sociais, as desenvolvedoras se furtam disso, dizendo que apenas oferecem um bom recurso, e as pessoas que fazem maus usos deles. Em tese, isso é verdade. Mas alegar inocência dessa forma chega a ser indecente! É como entregar uma arma carregada na mão de uma criança e torcer para que nada de ruim aconteça.

Chegamos ao mundo em que a ilusão se sobrepõe à realidade, mas não estamos prontos para lidar com isso.

 

Entregador dorme sobre seus jornais, em imagem tirada em 1935 – Foto: City of Toronto Archives/Creative Commons

Reação da mídia ao ChatGPT pode favorecer as fake news

By | Tecnologia | No Comments

Nas últimas semanas, diversas empresas de comunicação impediram que seus conteúdos continuassem sendo usados para alimentar o ChatGPT. Elas argumentam –com razão– que seus produtos têm valor e que não estão sendo remuneradas pela melhoria que proporcionam involuntariamente à plataforma geradora de textos por inteligência artificial da OpenAI.

Entre os que decidiram promover o bloqueio, estão os jornais americanos The New York Times e The Washington Post, o britânico The Guardian, a rede de TV CNN, as agências de notícias Reuters e Bloomberg, além de diversos veículos europeus. Até a gigante de e-commerce Amazon decidiu fechar a porta para esse robô.

Apesar de seus argumentos legítimos, essa decisão pode favorecer a desinformação em um futuro breve. Os sistemas de inteligência artificial generativa tornaram-se um enorme sucesso, e as pessoas devem usá-los cada vez mais. Em uma situação extrema em que todos os produtores de bons conteúdos os neguem a essas plataformas, elas poderiam ficar restritas a sites dedicados a fake news e outros tipos de conteúdo de baixa qualidade para “aprender o que dizer” aos seus usuários.

Nesse cenário, o público poderia passar a consumir e a replicar o lixo desinformativo, em uma escala ainda maior que a já vista nos últimos anos. Seria terrível para o jornalismo –que luta para combater isso– e para a sociedade como um todo.


Veja esse artigo em vídeo:


Eu já vi uma história parecida antes. Quando foi criado, em 2002, o Google Notícias gerou protestos entre veículos de comunicação do mundo todo, que acusavam a empresa de se apropriar de sua produção para criar um concorrente. O Google Notícias sempre se defendeu, dizendo que fazia um “uso justo” de pequenos trechos dos veículos e que sempre enviava os leitores que clicassem nos seus links para a fonte da notícia.

Diante das reclamações, o Google criou um recurso para que os veículos impedissem que seu conteúdo fosse usado no Notícias. O problema é que isso também tirava os veículos do buscador, o que não era nada interessante para eles. Eventualmente as partes chegaram a acordos que permitiram que esse conteúdo continuasse sendo usado, enquanto o Google criava mecanismos de apoio ao jornalismo no mundo. Movimentos semelhantes também aconteceram com as principais redes socais.

No caso atual, há algumas diferenças significativas. Pela natureza da inteligência artificial generativa, ela sempre cria textos inéditos, a cada pedido dos usuários. Não há remuneração, referência e sequer um link para as fontes que foram usadas para o sistema escrever aquilo. Consequentemente não há nenhum ganho para os autores.

“Certamente as inteligências artificiais não produziriam o conteúdo que elas são capazes sem serem alimentadas com o conteúdo criado por humanos, que não autorizaram isso e que não estão sendo remunerados por isso”, explica Marcelo Cárgano, advogado de Direito Digital e de Proteção de Dados do Abe Advogados. “A grande questão, no final, é essa!”

No dia 6, 26 organizações do mercado editorial, inclusive a brasileira ANJ (Associação Nacional de Jornais), publicaram o documento “Princípios Globais para a Inteligência Artificial”. Ele traz regras que consideram essenciais para a prática do jornalismo frente ao avanço da inteligência artificial, cobrando o desenvolvimento ético da tecnologia e o respeito às propriedades intelectuais dos veículos.

Outra fonte de informação ameaçada pela inteligência artificial é a enciclopédia digital Wikipedia. Pela natureza mais perene de seus milhões de verbetes, as pessoas poderiam fazer perguntas a plataformas de IA ao invés de consultar suas páginas, o que já vem preocupando seus editores. Suprema ironia, uma das maiores fontes para o ChatGPT é a própria Wikipedia.

 

Atualidade e ética

Além da questão da falta de remuneração pelo uso de conteúdos alheios, há ainda o temor de que as plataformas de inteligência artificial acabem substituindo a Wikipedia e o próprio jornalismo.

Esse questionamento surgiu, na quarta passada, em uma mesa de debates da qual participei na Semana da Imprensa, promovida pelo jornal Joca, na ESPM (Escola Superior de Propaganda e Marketing). O evento explica o jornalismo para crianças e adolescentes, o público do veículo.

Os participantes foram unânimes em negar essa possibilidade. O primeiro motivo é que esses sistemas, a despeito de seus melhores esforços, são imprecisos, cometendo muitos erros pela falta de uma verificação humana. Outro problema é que suas bases estão sempre desatualizadas (o ChatGPT só conhece fatos até setembro de 2021). Por fim, mas não menos importante, essas ferramentas não possuem qualquer iniciativa, ética ou transparência, essenciais a qualquer produto informativo.

“A função dos veículos de comunicação é particularmente importante para a democracia”, explica Cárgano, fazendo referência ao papel do jornalismo de promover debates críticos para a sociedade. “Mas eles também são empresas e têm que gerar lucro para sua própria viabilidade econômica”, acrescenta.

Toda essa confusão deriva do impacto que essa tecnologia já apresenta sobre pessoas e empresas. Ele é enorme, mas ainda pouco compreendido. Enquanto isso, todos buscam caminhos para aproveitar seus incríveis recursos, sem cair em possíveis armadilhas que podem surgir dela.

A decisão de impedir as plataformas de inteligência artificial de aprender com a sua produção pode ser ironicamente um “tiro no pé” do jornalismo. Se elas forem entregues a fontes de baixa qualidade, podem se tornar poderosas ferramentas de fake news, que fustigam os jornalistas e a própria imprensa como pilar que é de uma sociedade desenvolvida.

É preciso uma conscientização dos diferentes atores nesse processo. Do lado dos usuários, eles devem entender que a IA não é uma ferramenta que substitui o jornalismo ou mesmo um buscador, pois ela não garante a verdade no que produz. As empresas de inteligência artificial devem, por sua vez, melhorar ainda mais sua tecnologia, para corrigir as imperfeições existentes, e cuidar para não canibalizar suas próprias fontes, o que poderia, a médio prazo, inviabilizar seu próprio negócio.

As empresas de comunicação têm um papel fundamental na solução desse imbróglio. Obviamente elas precisam defender seus interesses comerciais, mas sem que isso crie riscos ainda inexistentes para o próprio negócio. Devem buscar uma compensação justa das plataformas de IA.

Vivemos em um mundo em que a verdade perde força diante de narrativas distorcidas por diferentes grupos de poder. Aqueles que a buscam deve se unir e somar as novas tecnologias às suas metodologias editoriais consagradas. Se forem bem-sucedidos nisso, todos ganharão!

 

Crianças participam em atividade de aula de robótica em sua escola - Foto: Arno Mikkor/Creative Commons

Pensamento computacional em crianças e jovens ajuda a formar melhores cidadãos

By | Educação | No Comments

Em uma famosa entrevista em 1995, Steve Jobs disse que “todos neste país deveriam aprender a programar um computador, pois isto ensina a pensar.” O cofundador da Apple foi visionário, pois dominar a tecnologia se tornou crucial em um mundo imerso nela. A explosão no debate e aplicações de inteligência artificial reacendeu o tema, pois fica cada vez mais claro que ela pode colocar pessoas e empresas em um patamar superior àquelas que não se aproveitam de seus recursos.

Mas o pensamento computacional transcende programar computadores. Na verdade, hoje podemos fazer usos incríveis das máquinas sem escrever uma linha de código. Essa maneira de raciocinar envolve a capacidade analítica de resolver qualquer tipo de problema, de identificar padrões, de modelar processos. Ela aprimora nossa capacidade de aprender e de pensar criativa e criticamente, mesmo sem nada digital.

Nas últimas décadas, muitas escolas tentaram implantar computadores no cotidiano escolar em iniciativas muitas vezes improdutivas. Até pouco tempo, muitas ainda tinham “aulas de informática” sobre Windows e Word. Isso já erra por segregar a “informática” a uma aula, ao invés de encará-la de maneira transversal nas disciplinas.

Agora nos aproximamos do momento em que as escolas precisarão implantar a Política Nacional de Educação Digital, que estabelece diretrizes e metas para a promoção da educação digital, instituída no dia 11 de janeiro pela lei 14.533/23. Resta saber se as escolas estão preparadas para isso.


Veja esse artigo em vídeo:


Não podemos esquecer que muitas dessas instituições no país não têm infraestrutura para isso, carecendo de computadores e acesso à Internet. Mas esse trabalho pode começar mesmo sem o lado digital.

“Se a gente trabalha isso desde cedo nas escolas, com crianças e jovens, a gente consegue uma geração que sabe pensar de um jeito melhor, mais estruturado”, explica Cristina Diaz, diretora da UpMat Educacional, empresa que atua na educação básica a partir de conteúdos de matemática e pensamento computacional. Para ela, as crianças que desenvolvem essas habilidades desde cedo têm mais chance de criar um gosto pelo aprendizado, que levarão para o resto da vida.

Uma resolução do MEC (Ministério da Educação), de 4 de outubro do ano passado, determina que, a partir do mês que vem, as escolas passem a ensinar computação. A lei de janeiro detalha como isso deve ser feito, considerando a inclusão digital da sociedade, a educação digital nas escolas, as ações de capacitação do mercado de trabalho e o incentivo à inovação, à pesquisa e ao desenvolvimento.

Se isso já não bastasse, o lançamento do ChatGPT em novembro passado provocou um enorme debate sobre como a inteligência artificial impacta as atividades escolares, com professores e alunos usando a ferramenta sem preparo. Coincidentemente, na quinta passada, a Unesco (Organização das Nações Unidas para Educação, Ciência e Cultura) publicou orientações sobre o uso da inteligência artificial na educação e na pesquisa. Nelas, o órgão sugere que a IA não seja usada antes dos 13 anos de idade.

Diaz não acredita que a inteligência artificial deixará as pessoas menos inteligentes ou preguiçosas, um temor que vem sendo ventilado por muita gente. O motivo é simples: “para manusear esse tipo de tecnologia, a gente vai ter que aprender coisas mais sofisticadas, uma leitura crítica, a utilizar competências superiores”, afirma.

De fato, uma ferramenta tão poderosa como a inteligência artificial generativa oferece os seus maiores benefícios àqueles que sabem tirar proveito dela, com perguntas inteligentes. Infelizmente, a recíproca também é válida.

Como diz um ditado americano, “se entra lixo, sai lixo”.

 

Aliada da educação

Ao contrário do que muitos temem, a tecnologia digital –e a inteligência artificial particularmente– não ameaça a educação ou o papel do professor. Pelo contrário, pode ser uma incrível aliada no processo, se bem usada.

Em uma palestra há quatro meses, Salman Khan, fundador e CEO da Khan Academy, uma organização que oferece educação gratuita pela Internet, demonstrou uma ferramenta de IA generativa que auxilia professores e alunos. Nela, é possível ver, no caso dos estudantes, a máquina não lhes dando respostas prontas e ajudando-os a pensar na solução dos problemas. Para os professores, a ferramenta ajuda no planejamento de aulas mais engajadoras. Como disse Khan, para os alunos, a IA atua como um tutor, enquanto, para os professores, age como um assistente.

Os professores, as escolas e as políticas educacionais precisam se modernizar para absorver essas mudanças aceleradas da sociedade. Ainda temos um sistema educacional conteudista, com uma quantidade de informação tão grande, que pode desestimular o aluno a querer aprender mais.

Isso se reflete nos péssimos resultados do Brasil nas diferentes avaliações internacionais de eficiência educacional. Nossos estudantes, na média, sabem muito pouco de linguagem, ciências e matemática. Essa última é particularmente maltratada em nosso país, cujas últimas gerações parecem não gostar dela por definição.

Mas como ser um bom cidadão em uma sociedade profundamente digital sem uma boa base de pensamento computacional?

Engana-se quem acha que isso impacta apenas habilidades ligadas às Exatas. Um pensamento computacional limitado afeta diretamente o senso crítico do indivíduo. Em um mundo em que redes sociais e smartphones se transformaram em ferramentas de dominação ideológica pelas infames fake news, nada é mais necessário e determinante para a criação de um cidadão consciente, com sua mente livre.

“As escolas já estão reconhecendo a sensação de que não tem para onde escapar, e não porque é uma demanda da lei, mas porque é uma demanda da sociedade, das crianças, das famílias, da vida”, acrescenta Diaz. “Ninguém fala em outra coisa: o mundo do trabalho depende disso!”

Pais e escolas precisam se unir para que as crianças sejam incentivadas a desenvolver seu pensamento computacional. A matemática e o raciocínio lógico não podem continuar sendo encarados como “coisas chatas”, pois são os alunos que dominam esses recursos que escreverão o futuro de um mundo melhor para si e para todos os demais.

 

Tom Cruise viveu pela segunda vez o intrépido piloto da Marinha dos EUA Pete Mitchell, em “Top Gun: Maverick” (2022) - Foto: divulgação

Inteligência artificial pode mandar “Top Gun” para o museu

By | Tecnologia | No Comments

Em 1986, plateias do mundo todo prenderam a respiração diante das acrobacias aéreas de Tom Cruise nas telas de cinema em “Top Gun”. Ele repetiu a dose em “Maverick”, a segunda maior bilheteria de 2022, rendendo US$ 1,4 bilhão, logo atrás de “Avatar 2”. Agora a inteligência artificial pode fazer essas peripécias virarem peças de museu, ao tornar pilotos de caça obsoletos e desnecessários.

Duas notícias recentes, uma do The New York Times e outra do The Washington Post, revelam planos dos militares de usar essa tecnologia em novas gerações de aviões e de drones. Ela seria capaz de tomar decisões mais rápidas e precisas que os pilotos, até os mais experientes.

A ideia é controversa. Muito se tem debatido sobre a substituição das mais diversas categorias profissionais por robôs, considerando o impacto social dessa mudança. Mas o que se propõe agora é uma máquina tomar decisões que efetivamente visam a morte de pessoas.

Diversos aspectos éticos são levantados nessa hora. Os próprios pilotos veem isso com ressalva, e não apenas porque podem perder seu emprego daqui um tempo. Afinal, uma máquina pode decidir sobre a vida ou a morte de um ser humano? E se isso realmente acontecer no controle de aviões de combate, quanto faltará para vermos robôs policiando nossas ruas e tomando as mesmas decisões letais por sua conta na vizinhança?


Veja esse artigo em vídeo:


Não estamos falando da atual geração de drones militares, que, apesar de úteis, são bem limitados. Um bom exemplo do que vem por aí é o veículo aéreo não tripulado experimental XQ-58A, conhecido como “Valkyrie”, da Força Aérea americana. Ele, se parece muito mais a um caça furtivo futurista, apesar de ser bem menor que os aviões de combate. É impulsionado por um motor de foguete e é capaz de voar de um lado ao outro da China, carregando munições poderosas.

Mas seu grande diferencial é o controle por inteligência artificial, podendo tomar decisões sozinho, apesar de os militares afirmarem que só executará ações letais se autorizado por um ser humano. Ele pode voar diferentes tipos de missões, inclusive apoiando pilotos em seus caças, aumentando o sucesso e preservando suas vidas.

Como sempre, uma guerra não se ganha apenas com os melhores soldados, mas também com a melhor tecnologia. Mas até agora a decisão de matar sempre recaiu sobre os primeiros. O que pode estar diante de nossos olhos é o surgimento de armas que tomem essa decisão seguindo seus critérios, um ponto sensível para os EUA, pelo seu histórico de ataques ilegais com drones convencionais que mataram civis.

Diante disso, o general Mark Milley, principal conselheiro militar do presidente americano, Joe Biden, afirmou que os EUA manterão “humanos à frente da tomada de decisões”. Ele recentemente conclamou forças armadas de outros países a adotar o mesmo padrão ético.

Nesse ponto, caímos em um outro aspecto crítico desse avanço. Países que adotem essas “boas práticas” poderiam ficar em desvantagem diante de outras potências militares e tecnológicas não tão “comprometidas”, com o maior temor recaindo sobre a China. Como a guerra é, por definição, algo “sujo”, seguir as regras poderia então criar uma desvantagem catastrófica.

Outra mudança trazida pela IA ao tabuleiro armamentista é a entrada de novas empresas fornecedoras de equipamentos. No caso da Força Aérea americana, dois nomes surgem quando pensamos na indústria de caças: a Lockheed Martin e a Boeing. Esses casamentos comerciais são tão antigos e poderosos que sua tecnologia jamais chega, por exemplo, a países menores ou –pior– a grupos guerrilheiros.

Com a pulverização de drones com IA relativamente baratos, muitas outras empresas passam a disputar esses bilionários orçamentos. O “Valkyrie”, produzido pela Kratos (fundada em 1994) custa cerca de US$ 7 milhões. Pode parecer muito, mas é bem menos que os US$ 80 milhões de um F-35 Lightning II, da Lockheed Martin. Outros modelos podem custar ainda menos, na casa de US$ 3 milhões.

O receio é que esses fabricantes passem depois a oferecer tecnologia militar de ponta a terroristas e ditadores. E aí o medo de maus usos pela China vira “café pequeno”.

 

Campo de testes

O poder da inteligência artificial contra exércitos poderosos está sendo colocado à prova na invasão da Ucrânia. Seu exército vem usando drones bem mais simples que os citados, mas que já contam com recursos de IA, para atacar tropas russas. Mesmo quando essas aeronaves perdem o contato com seus pilotos remotos, devido aos sistemas de interferência do inimigo, ainda completam sua missão por conta própria.

De fato, a Ucrânia vem se tornando um frutífero campo de testes desses armamentos, que vêm sendo produzidos aos milhares. Além de poderem refinar seus equipamentos em situações reais de combate, os fabricantes podem fazer testes que dificilmente podem acontecer em um país que não esteja em guerra.

Os militares sabem que a inteligência artificial toma decisões erradas. Basta ver as falhas –algumas fatais– de carros autônomos nos últimos anos. Mesmo a tecnologia militar sempre sendo muito mais refinada e cara que a civil, não há garantias quanto a sua precisão. E há outros aspectos a serem considerados.

O primeiro é que a IA pode ser excelente em decisões a partir de padrões conhecidos, mas pode se confundir bastante diante do desconhecido e do inesperado, algo que permeia qualquer campo de batalha. Além disso, máquinas não possuem uma bússola moral, que norteia algumas das melhores decisões de um soldado.

É inevitável pensar no filme RoboCop (1987), em que um policial dado como morto é praticamente transformado em um robô. Apesar de ser obrigado a seguir diretivas em seu sistema, o que o tornava realmente eficiente era a humanidade que sobreviveu em seu cérebro. Isso lhe permitia vencer robôs de combate mais poderosos.

Tudo isso me faz lembrar da Guerra do Golfo, que aconteceu entre 1990 e 1991, quando os americanos invadiram o Iraque. Os militares invasores exterminavam o inimigo de longe, quase sem entrar em combate. Na época, um especialista criticou “soldados que querem matar, mas não querem morrer”.

A inteligência artificial pode potencializar isso. É claro que ninguém quer morrer e todos querem vencer um conflito, de preferência logo. Mas quem ganha algo com isso, além da indústria armamentista? Se a Rússia tivesse essa tecnologia, talvez a Ucrânia tivesse deixado de existir em poucas semanas dessa nefasta invasão atual.

Esse é um dos casos em que a inteligência artificial nunca deveria ser usada. Mas seria uma ilusão pueril acreditar que isso não acontecerá. Talvez o futuro da guerra pertença mesmo às máquinas autônomas. Só espero que isso não aconteça também em policiais-robôs nas ruas de nossos bairros.