OpenAI

Para o CEO da OpenAI, Sam Altman, devemos chegar à IA Geral nos próximos anos: agentes são um possível caminho - Foto: reprodução

Líderes da IA começam nova corrida tecnológica

By | Tecnologia | No Comments

A disputa para dominar a inteligência artificial anda tão acirrada, que se parece cada vez mais a uma corrida de cavalos, em que o ganhador vence “por um nariz”. Agora foi dada a largada para um novo páreo, o dos agentes de IA, e os principais nomes dessa indústria já estão na pista!

Isso não quer dizer que os agentes sejam uma novidade: eles já existem há anos em nossas vidas pessoais e profissionais. Mas até agora são soluções prontas dos fabricantes. Criar o próprio agente é uma tarefa complexa e que exige conhecimentos técnicos. O que Microsoft, OpenAI, Google e Anthropic prometem agora é tornar essa tarefa tão simples quanto conversar com um chatbot, como já nos acostumamos.

Um agente é um sistema que usa a IA para realizar tarefas específicas de maneira autônoma, com pouca ou nenhuma dependência de um ser humano. Ele age de maneira contínua, monitorando o ambiente e analisando dados para tomar decisões seguindo o que lhe foi pedido. Isso é bem diferente de um uso da IA generativa, como conversas com o ChatGPT, em que, por mais incríveis que seus resultados sejam, são atividades pontuais e totalmente dependentes da interação com o usuário.

Essas empresas agora prometem unir o melhor desses dois mundos, de modo que qualquer pessoa possa criar agentes sofisticados de maneira tão simples, quanto pedir que o chatbot escreva um texto. Ainda que isso não vá acontecer imediatamente, a simples abertura desse caminho pode ser realmente revolucionária.


Veja esse artigo em vídeo:


A Microsoft saiu na frente nessa nova etapa, com o lançamento do Copilot Studio. Ele permite criar agentes de IA com relativa facilidade, expandindo as funcionalidades do Copilot ao integrá-lo a bases de dados empresariais, gerando respostas a partir dessas informações, considerando cada contexto específico. Esses agentes podem ser distribuídos para pessoas dentro e fora da organização.

Já a Anthropic, startup de IA ligada ao Google e à Amazon, anunciou recentemente uma abordagem inusitada para sua plataforma Claude, batizada de “uso do computador”. Ainda na fase de testes, ela inova ao adaptar a IA para o uso de sistemas existentes, e não o contrário. Ela pode, por exemplo, assumir o controle de um computador como se fosse o usuário, para realizar tarefas de acordo com o que aparece na tela, até mesmo usando vários programas.

A OpenAI, que continua sendo a estrela mais brilhante do setor com seu ChatGPT, obviamente não quer ficar para trás. A empresa anunciou a versão de testes de um produto para desenvolvedores semelhante à solução da Anthropic. Ela deve ser liberada em janeiro.

O Google também “está dando seus pulos”. A empresa promete novidades na área de agentes ainda nesse ano! Vale lembrar que a empresa impressionou muita gente em 2019, quando ninguém ainda falava de IA generativa, com o lançamento do Google Duplex. Ele permite que o usuário peça que o Assistente realize tarefas simples, com a possibilidade de fazer ligações telefônicas, para, por exemplo, reservar uma mesa de restaurante, interagindo com atendentes humanos. Essas conversas são tão impressionantes, que muita gente se incomodou quando descobria que estava falando com um robô, e não com outra pessoa.

Os agentes que já estão disponíveis em nosso cotidiano se diferenciam de automações convencionais justamente pelas características da IA, especialmente de continuar funcionando se algo não sai como o esperado. Eles também melhoram com o uso, aprendendo coisas novas.

 

O futuro é dos agentes

Nas empresas, os agentes vêm sendo usados cada vez mais no atendimento automatizado a clientes. Eles também são muito úteis ao identificar movimentos do mercado e propor ações mais assertivas para as equipes comerciais, além de ajudar em negociações e de propor ideias aos gestores. Eles também são bastante usados pelo RH, em processo de contratação e até de demissão de profissionais.

Em nosso cotidiano pessoal, os agentes estão em nossos smartphones (no Google Assistente e na Siri) e em alto-falantes inteligentes, como o Amazon Echo. Nesse último, a Alexa pode, entre outras coisas, identificar compras recorrentes e auxiliar em novos pedidos, quando necessário. Relógios inteligentes e outros dispositivos podem monitorar a nossa saúde, e até eletrodomésticos, como aspiradores de pó robôs, realizam tarefas da casa de forma autônoma e cada vez melhor.

Quando a nova geração de agentes sair da fase de testes e chegar ao cidadão comum, ela poderá ampliar seus poderes consideravelmente. As pessoas não ficarão mais restritas aos agentes criados pelos fabricantes dos equipamentos.

Isso permitirá a definição de regras complexas, que combinarão recursos e informações de diferentes serviços aos que o usuário tem acesso. Por exemplo, será possível tirar automaticamente dinheiro de uma aplicação financeira que esteja com baixa rentabilidade para comprar ações de uma empresa com boas perspectivas.

É praticamente um consenso entre especialistas que os agentes representam o futuro da IA. Eles não apenas se tornarão mais diversificados e poderosos, como também serão mais fáceis de se criar. Além disso, veremos cada vez mais soluções complexas resultantes da combinação de vários agentes trabalhando em conjunto.

Muita gente acredita que esse seja o caminho para a Inteligência Artificial Geral (IAG), o “Santo Graal” dessa tecnologia. Quando (e se) estiver disponível, ela tomará decisões de maneira autônoma (ou seja, sem necessidade de comandos de alguém), sobre qualquer assunto e de maneira adaptável. É basicamente como nosso cérebro funciona, mas a IAG terá sobre nós a vantagem de analisar, com velocidade sobre-humana, uma quantidade de dados gigantesca, para tomar decisões mais assertivas.

Ainda existe muita especulação se chegaremos a isso algum dia. Especialistas de alto nível afirmam que a IAG é um conceito teórico inatingível. As big techs apostam fortemente no sucesso, dizendo que isso acontecerá ainda nessa década. Mas não podemos esquecer que elas têm interesses comerciais em afirmações como essas.

Qualquer que seja esse desfecho, devemos nos manter atentos às oportunidades que essa tecnologia oferece, apropriando-nos do que ela pode nos oferecer de bom e nos mantendo vigilantes contra eventuais armadilhas que desenvolvimentos descuidados e usos pouco éticos possam colocar em nosso caminho.

Esse é um trabalho de educação digital importantíssimo, envolvendo empresas, instituições de ensino, governos e outros atores da sociedade civil. As pessoas precisam entender e se apropriar conscientemente da IA e seus agentes, e isso deve chegar a todos.

 

Uma inteligência artificial treinada com informações ruins não deve ser usada para confundir eleitores – Ilustração: Paulo Silvestre

A democracia precisa que o jornalismo e a inteligência artificial se entendam

By | Jornalismo, Tecnologia | No Comments

A recente briga do New York Times contra a Microsoft e a OpenAI (criadora do ChatGPT) pode ajudar a definir como nos informaremos no futuro e impactar consideravelmente a saúde da democracia no mundo todo. Tudo porque o processo aberto pelo jornal no dia 27 de dezembro contra as duas empresas de tecnologia pode balizar a qualidade do que a inteligência artificial oferecerá a todos nós.

O jornal afirma que seu conteúdo vem sendo usado para treinar as plataformas de IA, sem que seja remunerado ou sequer tenha autorizado esse uso, o que é verdade. Enquanto isso, essas plataformas rendem bilhões de dólares a seus donos.

Desde que o ChatGPT foi lançado no final de 2022, as pessoas vêm usando a IA para trabalhar, estudar e se divertir, acreditando candidamente em suas entregas. Sua precisão e seus recursos para evitar que produza e dissemine fake news dependem profundamente da qualidade do conteúdo usado em seu treinamento. O New York Times e outros grandes veículos jornalísticos são, portanto, algumas das melhores fontes para garantir uma entrega mais confiável aos usuários.

O problema é tão grave que, no dia 10, o Fórum Econômico Mundial indicou, em seu relatório Riscos Globais 2024, que informações falsas ou distorcidas produzidas por inteligência artificial já representam o “maior risco global no curto prazo”.

Nesse ano, dois bilhões de pessoas participarão de eleições no mundo, inclusive no Brasil, e a IA já vem sendo usada para aumentar a desinformação nas campanhas. Por aqui, o Tribunal Superior Eleitoral (TSE) busca maneiras de regular seu uso no pleito municipal de outubro, uma tarefa muito complexa. Por isso, é fundamental que os bons produtores de conteúdo e as big techs encontrem formas de melhorar essas plataformas respeitando os direitos e remunerando adequadamente os autores.


Veja esse artigo em vídeo:


Em um cenário extremo hipotético em que todos os produtores de bons conteúdos impeçam que os desenvolvedores os acessem, a IA ficaria à mercê de fontes pouco confiáveis (para dizer o mínimo). Isso aumentaria brutalmente a chance de ela ser manipulada, ajudando a transformar os usuários em autômatos da desinformação. E isso seria trágico também para o bom jornalismo, que luta fortemente contra isso.

Criou-se então um dilema: as plataformas precisam de bom conteúdo, mas não estão muito dispostas a pagar por ele, enquanto os veículos jornalísticos têm que garantir seus direitos, mas deveriam ajudar a melhorar as entregas da inteligência artificial.

“Quando eu compro uma assinatura do New York Times, eu não estou autorizado a pegar todo o conteúdo e desenvolver um produto meu em cima dele”, explica Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). “Só que é mais ou menos isso que a OpenAI faz quando pega esses dados”.

Para que os sistemas de inteligência artificial funcionem bem, eles precisam ser treinados com uma quantidade monstruosa de informações diversas, para que aprendam o que dizer e respeitem a diversidade de ideias. Em tese, todas as suas produções são inéditas, por isso os desenvolvedores se valem do conceito jurídico americano do “uso justo” (“fair use”), que protege as big techs há pelo menos duas décadas, quando, por exemplo, rastreiam a Internet inteira para fazer um buscador funcionar.

Por essa regra, os produtos digitais exibiriam apenas pequenos trechos desses conteúdos, insuficientes para configurar uma concorrência. Mas em seu processo, o New York Times afirma que as plataformas de IA exibiriam literalmente grandes nacos de sua produção, inclusive de material exclusivo a seus assinantes. A OpenAI nega.

É um desafio para a Justiça dos EUA, pois as leis do país proíbem a cópia de conteúdo, mas permitem que se criem produtos combinando elementos de diferentes fontes, sem criar concorrência direta. As plataformas de IA fazem as duas coisas.

 

Ameaça à democracia

Nesse pântano jurídico, grupos políticos já vêm se esbaldando nos recursos da inteligência artificial para convencer –ou mais especificamente confundir– os eleitores.

O TSE tenta encontrar formas de pelo menos dificultar que isso aconteça nas eleições brasileiras. No dia 4, publicou dez minutas de resoluções para esse fim. Esses textos estarão em consulta pública até o dia 19 deste mês. Entre 23 e 25 de janeiro, ocorrerão audiências abertas na Corte para o aperfeiçoamento das normas.

Infelizmente, criar ótimas regras é relativamente fácil. Verificar seu cumprimento, por outro lado, é bem difícil, especialmente nas campanhas não-oficiais, realizadas por eleitores diretamente instruídos pelos candidatos ou espontaneamente. Com isso, o gigantesco problema de disseminação de fake news e discursos de ódio em redes sociais (que fazem muito menos do que deveriam para combater isso) agora deve ser potencializado pelo uso da inteligência artificial igualmente não-regulada.

A solução exige, portanto, a participação da Justiça, dos veículos de comunicação e das big techs das redes sociais e de inteligência artificial. Felizmente há também movimentos positivos de consenso.

Segundo o mesmo New York Times, a Apple, que está atrasada no campo da IA, estaria tentando costurar acordos financeiros para justamente usar os conteúdos de grandes empresas de comunicação para o treinamento da sua plataforma em desenvolvimento. A notícia só não é totalmente positiva porque ela estaria interessada em consumir esse conteúdo, mas não em responder por qualquer problema derivado dele, o que está deixando os editores desses veículos desconfortáveis. E eles andam bem desconfiados por seus acordos prévios com o Vale do Silício, que, ao longo dos anos, favoreceram as big techs, enquanto viam seus negócios minguarem.

Tudo isso envolve interesses de bilhões de dólares e moldará a sociedade decisivamente nos próximos anos. É preciso um desenvolvimento responsável e transparente da tecnologia e uma enorme quantidade de boas informações. “Pode ser que a gente tenha modelos de inteligência artificial que sejam focados na maldade”, sugere Crespo. “É que ninguém parou para fazer isso ainda ou talvez ninguém tenha tanto dinheiro para isso.”

Alguns acreditam que a solução seria educar a população para não acreditar tão facilmente no que veem nas redes sociais e agora na inteligência artificial. No mundo ideal, isso resolveria o problema. Mas isso simplesmente não vai acontecer e as pessoas continuarão sendo manipuladas, agora possivelmente ainda mais.

Os já citados atores precisam dar as mãos para evitar o pior. Os veículos de comunicação devem alimentar a IA, mas de maneira justa, sem que isso ameace sua sobrevivência. As big techs precisam se abrir a esses acordos financeiros e se esforçar muito mais na transparência de seus sistemas e no respeito aos usuários e à própria democracia. E a Justiça precisa encontrar meios de regular tudo isso, sem ameaçar o avanço tecnológico.

Em um mundo tão digitalizado, a democracia depende do sucesso dessa união.

 

O CEO da OpenAI, Sam Altman, que ganhou a briga contra o antigo conselho da empresa - Foto: Steve Jennings/Creative Commons

Como a confusão na OpenAI determinará nossas vidas

By | Tecnologia | No Comments

Nessa quarta (30), o lançamento do ChatGPT completa seu primeiro aniversário. É bem pouco tempo para um produto que mudou a maneira como fazemos muitas coisas em nossas vidas. Isso se deu não por seus próprios recursos, limitados a escrever textos (ainda que de maneira surpreendente), mas por ter iniciado a corrida da inteligência artificial generativa, que invadiu todo tipo de ferramenta de produtividade.

Por uma infame coincidência, a OpenAI, criadora do sistema, quase deixou de existir na semana passada. Na sexta anterior (17), Sam Altman, fundador e CEO da empresa, foi sumariamente demitido, pegando o mundo da tecnologia –e aparentemente ele mesmo– de surpresa. A OpenAI só não desapareceu por uma cinematográfica sequência de eventos, que puseram Altman de volta na sua cadeira em apenas cinco dias.

Isso já tornaria essa história incrível, mas pouco se sabe e menos ainda se fala dos elementos mais suculentos em seus bastidores. Afinal, o que faria o conselho de administração da OpenAI mandar embora a estrela mais brilhante do Vale do Silício no momento, em plena ascensão?

A resposta é profundamente mais complexa que uma simples “quebra de confiança”, apresentada na justificativa. O real motivo são visões conflitantes sobre como o desenvolvimento da inteligência artificial deve continuar acontecendo. De um lado, temos uma maneira mais lenta e cuidadosa, até para se evitar que ela “saia do controle” e ameace a humanidade. Do outro, há os que defendam que isso aconteça de forma acelerada, criando freneticamente novos e fabulosos produtos com ela.


Veja esse artigo em vídeo:


Sam Altman faz parte do segundo grupo. Os agora ex-membros do conselho de administração da OpenAI fazem parte do outro.

No fim de semana seguinte a sua demissão, Altman tentou sem sucesso reassumir o cargo. Então a Microsoft, que é a principal investidora da OpenAI, anunciou na segunda (20) a sua contratação para liderar um novo centro de pesquisa de inteligência artificial. Disse ainda que aceitaria qualquer profissional da OpenAI que quisesse acompanhar Altman.

No dia seguinte, em um movimento ousado, cerca de 700 trabalhadores da startup publicaram uma carta aberta exigindo a readmissão de Altman e a renúncia dos membros do conselho. Caso contrário, todos se demitiriam, o que na prática acabaria com a empresa. Na quarta, Altman estava de volta e os conselheiros se demitiram.

A Microsoft não tinha nenhum interesse no fim da OpenAI, portanto contratar Altman foi uma jogada de mestre, por forçar a reação das suas equipes. Depois de investir US$ 13 bilhões na startup, seus produtos estão sendo gradualmente integrados aos da gigante, como o pacote 365 (antigo Office) e o buscador Bing. Além disso, a OpenAI está pelo menos seis meses à frente da concorrência, como Google e Meta, o que é um tempo enorme nas pesquisas de IA, e isso não pode ser jogado no lixo.

A confusão na OpenAI não se trata, portanto, se Altman estava fazendo um bom trabalho. Segundo o New York Times, ele e os antigos conselheiros já vinham brigando há mais de um ano, pois o executivo queria acelerar a expansão dos negócios, enquanto eles queriam desacelerar, para fazer isso com segurança.

Vale dizer que a OpenAI foi fundada em 2015 como uma organização sem fins lucrativos, para construir uma superinteligência artificial segura, ética e benéfica à humanidade. Mas a absurda capacidade de processamento que a inteligência artificial exige levou à criação de um braço comercial do negócio, em 2018.

 

A “mãe de todas as IAs”

Altman sempre disse que buscava o desenvolvimento de uma inteligência artificial geral (IAG), um sistema capaz de realizar qualquer tarefa por iniciativa própria, até mesmo se modificar para se aprimorar. Isso é muito diferente das IAs existentes, que realizam apenas um tipo tarefa e dependem de serem acionadas por um usuário.

Alguns pesquisadores afirmam que a IAG, que superaria largamente a capacidade cognitiva humana, jamais existirá. Outros dizem que já estamos próximos dela.

Na semana passada, a OpenAI deu mais um passo nessa busca, com o anúncio da Q* (lê-se “Q-Star”, ou “Q-Estrela”, em tradução livre), uma IA ainda mais poderosa que as atuais. Esse sistema pode ter contribuído para a demissão de Altman.

Nada disso é um “papo de nerd”. Se chegaremos a ter uma inteligência artificial geral ou até com que agressividade a IA transformará todo tipo de ferramentas já impacta decisivamente como vivemos. E isso vem acontecendo de maneira tão rápida, que mesmo os pesquisadores estão inseguros sobre benefícios e riscos que isso envolve.

Há ainda preocupações geopolíticas: se as grandes empresas ocidentais não fizerem isso, regimes autoritários e fundamentalistas podem chegar lá, com consequências imprevisíveis para a ordem mundial. Mas também não podemos ver candidamente o Vale do Silício como um campeão da liberdade e da ética. Eles querem dinheiro, e casos como o da OpenAI e de muitas redes sociais ilustram isso.

Mesmo uma “IA legítima” pode ser usada de forma antiética e abusiva. Acabamos de ver isso na eleição presidencial argentina, com os candidatos usando essas plataformas para se comunicar melhor com seus eleitores, mas também para criar imagens depreciativas dos concorrentes. O mesmo deve acontecer aqui nas eleições municipais de 2024. Tanto que o Tribunal Superior Eleitoral (TSE) já busca como coibir a bagunça. A inteligência artificial deve, portanto, nos preocupar desde um improvável extermínio da humanidade até problemas pelo seu uso incorreto em nosso cotidiano.

Os robôs têm “leis” para que não se voltem contra nós, propostas pelo escritor Isaac Asimov, em 1942. São elas: “um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal”, “um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que entrem em conflito com a Primeira Lei” e “um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.” Mais tarde, ele acrescentou a “Lei Zero”: “um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.”

Elas parecem suficientes, mas são apenas uma ideia, enquanto a IA é uma realidade. E mesmo que sejam implantadas no âmago de uma inteligência artificial geral, que garantia temos de que ela não encontre maneiras de alterar seu código para desobedecê-las se assim achar necessário?

Por tudo isso, as decisões do novo conselho da Open AI nos próximos meses, que a devem tornar mais capitalista, afetarão não apenas a empresa, mas o futuro de todos nós. Com tanto dinheiro envolvido, era pouco provável que um grupo de acadêmicos conseguisse desacelerar o desenvolvimento da IA por questões éticas.

No final das contas, estamos fazendo uma aposta entre produtividade e segurança. Uma goleada da primeira começa a se formar. O problema é que aparentemente não temos capacidade de antecipar com certeza o que acontecerá. Temos que estar monitorando a cada momento essa evolução e ter uma tomada física para simplesmente puxar e desligar a coisa toda, se assim for necessário.