ética

A fábula atribuída a Esopo pode ajudar em uma implantação consciente dessa tecnologia – Foto: Paulo Silvestre/Creative Commons

Não mate a galinha dos ovos de ouro do seu negócio com a IA

By | Tecnologia | No Comments

A fábula atribuída a Esopo é uma velha conhecida! Era uma vez um fazendeiro que possuía uma galinha que, todos os dias, botava um ovo de ouro. Com isso, ele ficou muito rico, mas, com o tempo, sucumbiu à ganância. E assim pensou que, se a galinha botava ovos de ouro, dentro dela deveria haver uma grande quantidade do metal. Decidiu matá-la para pegar todo o ouro de uma vez, mas descobriu, ao cortá-la, que, por dentro, era como qualquer outra galinha.

A história demonstra os perigos de se querer resultados imediatos sem pensar nas consequências. E há tempos a relaciono a usos inadequados da inteligência artificial generativa, que deslumbra muitos gestores. Eles a veem como a tecnologia dos “ovos de ouro”: inovação, produtividade e redução de custos! Mas ao usá-la sem planejamento, ética ou compreensão, esses gestores podem “matar sua galinha”.

Ao implantar a IA sem considerar os impactos sociais, regulatórios ou organizacionais, como a perda de empregos, vieses algorítmicos ou uso irresponsável de dados, eles minam a confiança dos clientes, pioram a experiência deles com a marca, prejudicam a sua reputação e até enfrentam consequências legais.

Pensei nisso na semana passada em uma conversa com Tiago Paiva, fundador e CEO da Talkdesk, quando disse que “há muitas empresas que não conseguem perceber que a experiência do cliente é das coisas mais importantes que há.” E ele fala com propriedade, pois seus produtos automatizam o atendimento a clientes com um bom uso da IA, em uma missão declarada de “livrar o mundo da experiência do cliente ruim”.

De fato, o atendimento é uma das áreas mais impactadas pela IA. Usada corretamente, essa tecnologia pode mesmo levar a experiência do cliente a um novo patamar. Porém, muitos gestores ainda “matam suas galinhas” ao usá-la irresponsavelmente para inflar resultados.


Veja esse artigo em vídeo:


É curioso que vivemos um “paradoxo da automação”. Ele indica que clientes esperam que empresas ofereçam suporte automatizado eficiente, mas as que automatizam demais seu atendimento afugentam as pessoas. O segredo é encontrar um equilíbrio, com a IA resolvendo problemas simples, ficando os casos sensíveis para os humanos.

“O problema é que, no passado, com a chegada dos bots, foi criada uma expectativa maior que a capacidade da entrega, e isso danificou a imagem dessas automações”, explicou-me Pedro Andrade, vice-presidente de IA da Talkdesk. “Agora temos que usar essa tecnologia para recuperar essa confiança”, acrescenta.

Infelizmente, muitas companhias usam a IA com automações isoladas, motivadas pelo “ovo de ouro” do corte de custos. Assim, ameaçam a experiência de seus clientes e perdem a oportunidade de transformar o atendimento em um diferencial.

Usada com consciência, a IA pode oferecer personalização refinada, eficiência operacional, proatividade e prevenção. Não se limita a reagir aos clientes, antecipando suas necessidades e otimizando processos, exatamente o que as pessoas querem.

“Não é fácil fazer isso”, avisa Andrade. “Mas para os sistemas de IA, que são capazes de carregar grande quantidade de informação e ajustar o contexto da conversa, torna-se muito mais fácil”, explicando que uma plataforma bem desenvolvida atende a outras demandas dos clientes atuais, como imediatismo, hiperpersonalização e autonomia.

 

“Bazuca para matar uma mosca”

Pouco adianta usar um sistema gigantesco, porém pouco ou nada ajustado à realidade da empresa, como o ChatGPT. Suas respostas acabam sendo imprecisas e genéricas, sem falar que podem custar desnecessariamente caro. Em vez disso, a adoção de modelos menores, mais econômicos, com exigências mais simples de recursos, pode melhorar muito a experiência do cliente.

Os aspectos de segurança, de legislação e de ética também foram amplamente debatidos nessa visita à sede da Talkdesk em Palo Alto (EUA). Os benefícios da implantação da IA nos negócios são mais visíveis, como as já mencionadas eficiência, hiperpersonalização e redução de custos. Mas até que ponto isso é seguro e ético?

Os potenciais riscos dessa adoção recaem no surgimento de vieses algorítmicos, em ameaças à privacidade e ao uso de dados sensíveis, na falta de transparência e de explicabilidade das decisões dos sistemas. Em situações mais extremas, ela pode gerar dependência excessiva da automação e manipulação de clientes e funcionários.

“Muitos clientes erram ao pôr uma plataforma e tentar fazer tudo com ela, pois a inteligência artificial é mais complicada que isso”, alerta Paiva. “Não dá para usar um sistema de LLMs (como o ChatGPT) e achar que tudo funcionará”, conclui.

Para ajudar na criação de um mercado mais maduro, Andrade defende a regulamentação da IA. “Tem que existir regulação, responsabilidades, regras de transparência”, completando que isso não ameaça a inovação e que as empresas que abraçarem isso construirão um diferencial junto a seus clientes. “Essa regulação vai separar as empresas que estão no mercado sério e corporativo de IA, dos players de nicho e dos que estão ainda tentando encontrar o seu lugar.”

Esse é um dos debates mais quentes em torno dessa tecnologia. Para muitos, é bem sedutor tirar qualquer restrição a ela e maximizar os ganhos, sem se preocupar com as consequências. Mas uma IA descolada da ética e da segurança pode ser um dos maiores erros que uma empresa pode cometer, ainda que, em um primeiro momento, colha benefícios aparentes dessa “liberdade”.

O sucesso a longo prazo depende da capacidade de construir um relacionamento sustentável com a IA, cultivando seus benefícios e mitigando seus riscos. O ser humano deve sempre ter a última palavra nas decisões apoiadas por essas plataformas. E os interesses da sociedade devem estar sempre no centro de qualquer ação ligada a essa tecnologia, superando a ganância de empresas e de governos.

Assim como na fábula, a lição é que a implementação de IA requer paciência, planejamento e uma abordagem gradual e responsável. Os “ovos de ouro” virão naturalmente quando a tecnologia for implementada com sabedoria e responsabilidade.


 

Sundar Pichai, CEO do Google, fala durante a conferência Google I/O 2024, realizada em 14 de maio do ano passado - Foto: reprodução

Google dá sua bênção para que a IA seja usada em armas e vigilância

By | Tecnologia | No Comments

Em mais um caso de big tech que trai seus princípios, na terça passada (4), o Google alterou suas regras éticas para que a inteligência artificial da empresa possa ser usada no desenvolvimento de armas, na vigilância de pessoas, em produtos que possam causar danos severos à sociedade ou que violem direitos humanos.

Não quer dizer que a companhia entrou no negócio de armas de destruição em massa. Sua posição agora é de “mitigar resultados não intencionais ou prejudiciais” e buscar “princípios amplamente aceitos do direito internacional e dos direitos humanos”. Mas na prática, isso significa pouco ou nada.

É uma mudança profunda, que pode ter impacto global no uso da IA. Pela posição de enorme destaque do Google, ela pode inspirar empresas do mundo todo a fazer o mesmo, provavelmente com ainda menos cuidado.

É inevitável perguntar por que decidiram fazer isso agora, e por que se recusavam até então. Além disso, se a IA poderá ser usada largamente em produtos criados com o objetivo de matar pessoas, qual garantia existe de que essa tecnologia não sairá do controle, com consequências devastadoras?

Vale lembrar o antigo lema do Google: “don’t be evil” (“não seja mau”), um pacto com práticas empresariais éticas e responsáveis. Mas em 2015, a Alphabet, conglomerado que incorporou o Google, trocou o mote por “faça a coisa certa”, bem mais genérico.

E cá estamos discutindo como a recente decisão pode ser tão má!


Veja esse artigo em vídeo:


O Google alega que a decisão reflete a necessidade de empresas de “países democráticos” defenderem seus valores em um cenário geopolítico complexo. Mas especialistas sugerem que a pressão do mercado de IA e a busca por lucrativos contratos militares de um governo nacionalista podem ter influenciado seus gestores.

Qualquer que seja o motivo, a empresa mina a confiança do público e sinaliza que a ética é negociável. Isso estabelece um novo padrão para toda a indústria, em uma competição global impiedosa e menos preocupada com direitos humanos.

Ironicamente, no início do mês, passaram a valer partes da Lei da Inteligência Artificial da União Europeia que proíbem o uso de sistemas de reconhecimento facial em espaços públicos e restringem aplicações consideradas de alto risco, como a manipulação comportamental e a vigilância em massa.

A nova posição do Google se choca com a anterior, que listava as “aplicações que não buscaremos”: armas, vigilância, tecnologias que “causam ou podem causar danos gerais” ou que violam os princípios do direito internacional e dos direitos humanos.

Essas regras que agora foram enterradas surgiram após protestos de funcionários em 2018 contra o projeto Maven, um contrato militar que usava seus algoritmos de visão computacional para analisar imagens de drones. Milhares assinaram uma carta aberta que dizia: “acreditamos que o Google não deveria estar no negócio da guerra”. Por isso, além daquelas regras, o contrato com o Pentágono não foi firmado na época.

O Google não está sozinho nesse novo posicionamento. Concorrentes como Microsoft, Amazon, OpenAI e Anthropic já oferecem suas IAs para aplicações militares. Mas o gigante de busca sempre serviu de inspiração para aqueles que procuram um uso ético da tecnologia. Agora isso acabou!

 

“Skynet feelings”

Algumas das maiores autoridades em IA do mundo, como o canadense Yoshua Bengio, vencedor em 2018 do prêmio Turing (o “Nobel da computação”), afirmam que a busca pela inteligência artificial geral (AGI), que terá autonomia e flexibilidade semelhante ao cérebro humano, pode levar a comportamentos inesperados ou indesejados, até mesmo contrários aos interesses humanos.

Sistemas com aprendizado autônomo podem criar estratégias para autopreservação ou poder, o que poderia torná-los difíceis de controlar. A falta de transparência aumenta o risco de decisões incompreensíveis e não-rastreáveis, dificultando a intervenção humana em casos críticos. Mesmo um botão físico para desligar um servidor (um “kill switch”) poderia ser contornado com a IA se replicando em incontáveis outros servidores antes que fosse possível interromper seu funcionamento.

Adicione a esse caldo a IA sendo usada para o desenvolvimento e operação de armas autônomas. Não entrarei em cenários da ficção em que máquinas decidem exterminar a humanidade, mas isso pode, sem dificuldade, levar a violações de direitos humanos e a escaladas militares perigosas. Pode ainda incentivar o uso de IA para vigilância em massa, especialmente por regimes autoritários, comprometendo as liberdades civis.

Para evitar isso, as big techs deveriam agir de forma oposta ao que estão fazendo. Devem existir regras internas e leis que impeçam o uso da IA em atividades potencialmente perigosas ou que violem direitos individuais. Além disso, os sistemas precisam ser transparentes para auditorias independentes. E isso deve acontecer em todos os países do mundo: talvez o mais difícil de tudo isso, e o que põe tudo a perder.

A decisão do Google de flexibilizar seus princípios éticos não pode ser vista como uma mera decisão empresarial. Como uma das empresas mais valiosas do mundo, cujos produtos são usados diariamente pela maior parte da população global, deveria ser um farol mostrando que responsabilidade e inovação podem coexistir. Mas a gigante decidiu priorizar os lucros em detrimento da segurança e dos direitos humanos.

Essa é uma lógica do capitalismo: companhias não fazem nada que comprometa seus lucros. Assim, é uma ilusão esperar que elas se autorregulem efetivamente por pressões competitivas e financeiras. Diante disso, regulamentações governamentais tornam-se essenciais para estabelecer limites claros e garantir que o desenvolvimento tecnológico continue existindo, mas sem comprometer valores humanos fundamentais.

Nada disso é ficção: vivemos uma realidade que nos brinda com avanços fabulosos, mas que oferece um mundo perigosamente instável por conflitos militares, Estados autoritários que atropelam a civilidade pelos interesses de seus governantes, e uma sociedade cada vez mais fragilizada, em que o cidadão, de tão manipulado pelo meio digital, defende ferozmente seus próprios algozes.

Com tudo isso, quem precisa de robôs assassinos?

 

Donald Trump toma posse como presidente dos EUA pela segunda vez - Foto: Congresso americano/Creative Commons

O resgate da civilidade digital depende de cada um de nós

By | Jornalismo, Tecnologia | No Comments

Com a posse para seu segundo mandato como presidente dos EUA, Donald Trump, um notório valentão que faz de agressões, desqualificações e fake news ferramentas do cotidiano, iniciou uma nova fase de deterioração da convivência online. Com a adesão explícita das big techs a essa agenda, o processo deve se ampliar exponencialmente. Isso seria grave o suficiente por si só. Mas em um mundo dominado por redes sociais, o maior risco vem do exército voluntário que amplia seus métodos para além dos limites do digital, esgarçando a própria trama da sociedade.

Há aqueles que se alinham a esse movimento e participam ativamente dele. Existem os que acham tudo “normal”, e acabam espalhando o conteúdo nocivo alegremente, com um entendimento distorcido da liberdade de expressão. E tem os que parecem não se importar com nada e acabam fazendo isso de forma inconsciente.

Não há nada de “normal” ou inocente nisso! Promover o ódio, cercear pensamentos diferentes, atacar grupos sociais, roubar identidades, expor pessoas estão entre os piores comportamentos de nosso tempo. Além da brutal violência psíquica e até física contra as vítimas, isso pode acabar com o debate público: em um meio inseguro e agressivo, as pessoas ficam desencorajadas a expor suas ideias construtivamente. E assim a democracia se enfraquece e os valentões ganham poder.

Pelo seu grande público e influência, jornalistas e criadores de conteúdo digital têm obrigação de combater essas práticas. Mas não são suficientes para eliminar esse mal. A sociedade só reencontrará um caminho sustentável de desenvolvimento quando cada um se empenhar em promover um ambiente digital civilizado.


Veja esse artigo em vídeo:


Não é uma tarefa simples ou pequena. Infelizmente muitos que propõem uma convivência harmônica e construtiva no meio online acabam sendo agredidos por aqueles que se beneficiam do ódio e da polarização, em uma tentativa explícita de silenciá-los. Por isso mesmo, não se devem deixar intimidar.

Mas há boas maneiras para se lidar com esses “trolls da política digital”. Fazer as escolhas certas diferencia entre uma explosão de ódio e uma contenção da violência pela racionalidade e pela empatia.

Como mencionado anteriormente, nada disso é protegido pela liberdade de expressão. O artigo 5º da Constituição Federal, que trata dos direitos e garantias fundamentais, determina, em seu inciso IV, que “é livre a manifestação do pensamento, sendo vedado o anonimato.” Isso assegura que se possa dizer o que quiser, mas, ao mesmo tempo, determina que os responsáveis por violações de direitos como honra, imagem ou privacidade, ou que cometam outros crimes sejam identificados e punidos.

Muitos argumentam que querem ter a liberdade de falar nas redes as maiores barbaridades, e que depois a Justiça que cuide das punições. Isso seria aceitável se o Judiciário tivesse capacidade infinita de julgar e punir todas as violações, o que está muito longe de acontecer. Assim essa proposta, travestida de liberdade, não passa de um subterfúgio para se cometer esses crimes impunemente.

Os ataques online se unem a outras formas de violência, como as direcionadas a grupos específicos, como mulheres, negros, pessoas com deficiência e LGBTQIA+, que vivem em determinada região ou professem uma fé específica. É comum que essas características sejam usadas para inflamar o ódio e ampliar a desinformação, para que o valentão atinja objetivos que não têm nada a ver com a situação da vítima.

 

Não alimentem os “trolls”

O ataque dos “trolls digitais” não pode ser classificado como mera contraposição de ideias divergentes (como costumam se defender), porque eles não aceitam o debate. Visam apenas desestabilizar sua vítima e prejudicar a troca saudável de argumentos.

Isso foi perfeitamente descrito em 1945 pelo austríaco Karl Popper (1902-1994) com seu “paradoxo da tolerância”, no best-seller “A Sociedade Aberta e Seus Inimigos”. Segundo ele “a tolerância ilimitada leva ao desaparecimento da tolerância”. O filósofo explicava que “se não estivermos preparados para defender a sociedade do assalto da intolerância, então os tolerantes serão destruídos e a tolerância com eles”.

Para ele, as filosofias intolerantes devem ser combatidas com argumentos racionais e mantidas em xeque frente à opinião pública. Mas alertava que os intolerantes não lidam com a razão, “a começar por criticarem todos os argumentos e proibindo seus seguidores de ouvir argumentos racionais, porque são enganadores e os ensinam a responder aos argumentos com punhos ou pistolas”. E sugeria que “devemos exigir que qualquer movimento que pregue a intolerância fique fora da lei e que qualquer incitação à intolerância e perseguição seja considerada criminosa”.

Popper queria evitar algo que se observa muito hoje. Formadores de opinião e pessoas comuns se afastam do debate público com medo dos “trolls”. Quando isso acontece, as ideias dos valentões evoluem para uma sociedade totalitária, em que os que não se alinharem ao grupo violento perdem gradualmente seus direitos.

Deve-se tomar cuidado ao responder aos “trolls”. Um confronto direto é tudo que eles querem, pois isso valida seus métodos e cria novos valentões. Além disso, o embate tende a normalizar o discurso violento e banalizar suas pautas excludentes.

Às vezes, deixar o “troll” falando sozinho é o melhor a se fazer. O problema é que, nas redes sociais, alguém pode amplificar os ataques desnecessariamente. Nesse caso, o silêncio pode não servir mais. A violência deve então, de maneira constante e resiliente, ser combatida com ética, sensatez e propostas construtivas.

Em 1947, Winston Churchill disse: “Ninguém espera que a democracia seja perfeita ou infalível. Na verdade, tem sido dito que a democracia é a pior forma de governo, excetuando-se todas as demais formas.” O ex-primeiro-ministro do Reino Unido, considerado um dos maiores estadistas da história, sabia que a democracia só funciona bem pela contraposição de ideias. Mas isso só é válido quando pessoas com ideias diferentes não apenas conseguem conviver entre si, como ainda constroem juntas uma sociedade, em nome de um bem maior.

Diante do avanço de governos encabeçados por valentões de qualquer ideologia, que sistematicamente silenciam ideias diferentes das suas, as sociedades precisam reforçar a educação digital e midiática. A primeira permitirá que seus cidadãos saibam usar adequadamente os recursos digitais para uma vida melhor; a segunda, que desenvolvam um senso crítico refinado, informem-se melhor e fiquem menos suscetíveis à desinformação e à brutalidade dos “trolls”.

Mas acima de tudo, precisamos urgentemente resgatar nossa humanidade e nossa capacidade de sermos empáticos, inclusive com quem não conhecemos. É assim que verdadeiramente se derrota um valentão.

 

Para Gilson Magalhães, diretor-geral da Red Hat Latin America, IA trará resultados em 2025 com agentes - Foto: Paulo Silvestre

Esse será o ano em que a IA começará a trazer resultados

By | Tecnologia | No Comments

Como não poderia ser diferente, 2025 começa acelerado pela inteligência artificial. Mas esse ano deve trazer algo que empresários desejam desde que começaram a investir pesadamente nessa tecnologia, com o lançamento do ChatGPT: resultados!

Se 2023 foi o ano da curiosidade e 2024 representou a democratização dessa tecnologia, 2025 deve ser aquele em que aplicações realmente transformadoras devem chegar ao mercado. E engana-se quem acredita que isso se dará por uma IA poderosíssima, capaz de resolver qualquer coisa.

Segundo um ditado popular, “os melhores perfumes estão nos pequenos frascos”. Talvez isso também seja verdade na inteligência artificial. E, nesse caso, respondem pelo nome de “agentes”. Eles são sistemas que usam a IA para realizar tarefas específicas de maneira autônoma, com pouca ou nenhuma dependência de um ser humano. Agem de maneira contínua, monitorando o ambiente e analisando dados para tomar decisões seguindo o que lhes foi pedido.

Especializados em uma tarefa e alimentados por dados controlados, os agentes tendem a ser mais baratos e mais confiáveis que um grande LLM, como o ChatGPT, ainda sujeito a suas “alucinações”, quando responde bobagens quando não sabe o que dizer. O desafio agora é tornar a criação desses agentes um processo mais simples.

Claro que continuaremos nos maravilhando com novas aplicações da IA generativa, mas será uma grande notícia vê-la finalmente transformando os negócios.


Veja esse artigo em vídeo:


Para Adriana Aroulho, presidente da SAP Brasil, “2025 será um ano em que o foco permanecerá na Inteligência Artificial Generativa, mas com o diferencial de transformar expectativas em resultados práticos.” Essa percepção é compartilhada por Marco Stefanini, fundador e CEO Global do Grupo Stefanini. Segundo ele, “uma coisa é você implementar IA, outra é você realmente utilizar IA no dia a dia, adotar a solução que realmente fará diferença no seu negócio.”

Esse deve ser também o ano em que o hype, a excitação em torno dessa tecnologia dará espaço a aplicações estruturadas, com resultados mais bem planejados. O tempo de usar grandes IAs “genéricas”, como o ChatGPT, para se resolver soluções empresariais vai ficando para trás.

“As empresas vão dizer: ‘inteligência artificial é legal, mas eu vou aplicá-la criando agentes muito específicos”, afirma Gilson Magalhães, diretor-geral da Red Hat Latin America. Ele explica que esses sistemas, apesar de limitados a uma tarefa, trazem grande ganhos ao negócio. “Ao usar uma quantidade de dados controlada, num ambiente controlado, ele assumirá uma função que era manual e foi automatizada.”

É preciso que fique claro que não se trata de mera automação, existente há décadas. De fato, uma das diferenças da inteligência artificial para um programa convencional de computador é tomar decisões como um ser humano, especialmente diante de imprevistos, a partir do que sabe e do que se espera dela. Um software convencional não consegue fazer isso.

Marcelo Flores, gerente-geral da consultoria da IBM Brasil, inventou o verbo “cognitivar” para diferenciar uma coisa da outra. “Os agentes usam uma tecnologia supernova para fazer aquilo que não é só automação ou só repetição”, explica. “Isso é algo mais sofisticado, que exige cognição, por isso conseguem essa autonomia.”

Tudo isso parece incrível, mas antes de finalmente colher esses resultados, as empresas precisam cuidar de algo que também deve ganhar mais destaque em 2025: “limpar” os seus dados.

 

“Poluição digital”

Dados de baixa qualidade são um problema histórico nas empresas. Elas guardam em seus arquivos informações erradas, desatualizadas e até conflitantes. Isso pode derivar de migrações descuidadas de sistemas, coletas de informações redundantes por critérios diferentes a cada momento, departamentos que não compartilham suas informações e outros pesadelos de TI.

O problema é que nem a melhor inteligência artificial dá bons resultados se for alimentada com dados ruins. “Se a gente não corrigir os dados que estão ‘sujos’, desorganizados, perdidos, a gente não vai a lugar nenhum”, diz categoricamente Magalhães. “E essa é uma tarefa cara, difícil e demorada”, adverte.

Essa não é a única “poluição” ligada à IA. Em 2024, as empresas se deram conta das enormes demandas de recursos dessa tecnologia. Estudo divulgado em novembro pela consultoria Gartner indicou que, nos próximos dois anos, o consumo dos data centers de IA deve crescer até 160%, atingindo 500 terawatts-hora (TWh) por ano. Como comparação, em 2022, a cidade de São Paulo consumiu “apenas” 21,18 TWh.

“Estamos vivendo tempos desafiadores, especialmente com a crise climática nos pressionando a agir”, alerta Aroulho. Por isso, ela afirma que a SAP “renovará o compromisso com a inovação aberta e a sustentabilidade.”

Dados “sujos” e impactos ambientais demonstram como uma tecnologia tão poderosa como a inteligência artificial custa muito caro. Ninguém quer se preocupar com os gastos de conversar com o ChatGPT, mas eles existem e são altos.

“A tecnologia força as pessoas a se reinventarem”, afirma Flores. Para ele, “as empresas têm acesso a tecnologias mais disruptivas, que respondem muitas perguntas, mas, no final, a transformação vem das pessoas”.

Stefanini adverte que “2025 e 2026 serão anos de adoção mais massiva da IA nas empresas”, que permitirá, como já explicado, que comecem finalmente a colher grandes benefícios dessa tecnologia. E isso é muito bom!

Mas temos que cuidar também das discussões associadas a todos esses benefícios. Os próximos 12 meses abrirão espaço para isso. Resta saber quem aparecerá para conversar sobre uma IA mais sustentável. Mas uma coisa é certa: “não existe almoço grátis”.

 

Anúncios dos vencedores do Prêmio Nobel de Física de 2024, pelo seu trabalho nos fundamentos do machine learning - Foto: reprodução

Este ano foi um ano de democratização da inteligência artificial

By | Tecnologia | No Comments

Estamos nos últimos momentos de 2024, um ano de novidades profundas em tecnologias e seus impactos nas empresas e nas vidas das pessoas. Por exemplo, o 5G se difundiu ainda mais, e grandes avanços aconteceram em veículos autônomos, tecnologias sustentáveis, biotecnologia e robótica. Mas no ano em que os prêmios Nobel tanto de Física quanto de Química foram entregues a cientistas com pesquisas ligadas à inteligência artificial, foi ela que deixou indiscutivelmente sua marca.

Vale dizer que a IA já fazia parte da nossa vida há muitos anos, potencializando aplicações e equipamentos, porém de maneira invisível. Tudo mudou em novembro de 2022, quando o ChatGPT ganhou as ruas, dando ao cidadão comum o gostinho de fazer facilmente criações com a inteligência artificial generativa. E isso deflagrou uma corrida para que se buscasse aplicar a IA em tudo.

Obviamente os primeiros resultados disso pareciam protótipos mal-acabados e muitos tinham aplicações questionáveis. O ano de 2023 viu a desconfiança de profissionais, que mesclavam deslumbramento diante das possibilidades da IA e medo de que ela roubasse seus empregos.

Agora, ao fim de 2024, pode-se dizer que ela deixou o terreno da curiosidade: esse foi o ano em que seu uso foi disseminado, com pessoas e principalmente empresas abandonando a especulação e incorporando a IA em seu cotidiano. Mas ainda há muito a se aprender sobre como aproveitá-la de maneira ética, produtiva e segura.


Veja esse artigo em vídeo:


“Estamos em uma fase muito importante, de democratização da IA generativa e também de uma compreensão maior dessa tecnologia”, afirma Adriana Aroulho, presidente da SAP Brasil, subsidiária brasileira da gigante alemã de software que vem incorporando a tecnologia em seus produtos.

Essa percepção é compartilhada por Gilson Magalhães, diretor-geral da Red Hat Latin America. “Não é só aquela questão de você ter perguntas respondidas por uma máquina de forma brilhante, mas como aquilo poderá ser inserido nas empresas”, explica. Segundo ele, depois da fase inicial de experimentação, nesse ano as companhias começaram a colher benefícios na produtividade de suas equipes, com método. “A gente viu algumas empresas já criando processos internos para permitir que a inteligência artificial fosse incorporada, considerando aspectos de segurança, de compliance, de copyright, de soberania de dados”, acrescenta.

É importante notar que, apesar dos impressionantes avanços exponenciais (e para alguns, quase sobrenaturais) dos grandes modelos de linguagem, quando se olha para os ganhos para os negócios pela IA, isso se deve também a um amadurecimento de suas equipes.

“É muito mais do lado das empresas, de os gestores começarem a ter uma visão mais concreta, mas tangível do que pode e do que não pode ser feito, o que é exagerado ou não”, explica Marco Stefanini, fundador e CEO Global do Grupo Stefanini. Isso é muito importante, pois muitos gestores acreditam que a tecnologia sozinha fará “mágicas” em seu negócio, e esse é um caminho fácil para a frustração. Para o executivo, “vem muito mais de maturidade das empresas que da própria tecnologia.”

Esse também foi um ano em que a IA passou a ser usada para melhorar planos de negócios, ajudar a vencer a burocracia, diminuir custos e concretizar ideias. “As pessoas já vinham abrindo negócios nas redes sociais sem apoio da inteligência artificial, mas agora, com ela, ganham muito poder”, sugere Marcelo Flores, gerente-geral da consultoria da IBM Brasil. E vai além nos benefícios da IA nisso: “as pessoas estão tendo mais poder de escolha das suas carreiras.”

Não é exagero, portanto, dizer que a IA é uma das tecnologias mais transformadoras que existiram, ao lado da marcos como a imprensa, o domínio da eletricidade e a Internet. Mas tudo traz consequências e, com a velocidade típica da IA, nem sempre temos tempo de pensar sobre isso.

 

Ética e segurança

Se em 2023, vimos diversos exemplos de sérios problemas decorrentes de usos descuidados da IA, 2024 trouxe alguma conscientização sobre um uso mais responsável dela. “Em um momento de intenso hype em torno da inteligência artificial, reforçamos a importância de uma abordagem equilibrada e construtiva, focada em resultados tangíveis e no impacto a longo prazo nos negócios”, explica Aroulho.

“Houve uma discussão muito grande neste ano para não se entrar de forma inconsequente no uso de uma tecnologia que pode ter desdobramentos em todas as direções, inclusive para divulgação de dados que não deveriam sair de dentro da empresa”, acrescenta Magalhães. “Isso passou a ser uma preocupação, que, de certa forma, trava um avanço mais rápido.”

Essa também foi uma das marcas de 2024: quais os limites éticos do uso da IA? Se ela deve ser regulamentada para proteger o cidadão, como fazer isso sem impedir o seu desenvolvimento?

A Europa puxou a fila das regulamentações dessa tecnologia: o Parlamento Europeu aprovou a sua Lei da Inteligência Artificial em março, criando vários níveis de risco de seus usos, atribuindo a cada um diferentes níveis de responsabilidade de empresas e governos. Ela não trata da tecnologia em si, para evitar empecilhos ao seu desenvolvimento. No Brasil, o projeto de lei 2338/2023, que visa regulamentar a IA e que apresenta forte inspiração na lei europeia, foi aprovado pelo Senado Federal em 10 de dezembro, e começará 2025 em análise na Câmara dos Deputados.

“Não sou contra regulamentação de maneira alguma –é necessária–, mas não pode ser exagerada”, explica Stefanini, dando voz a um debate que movimenta intensamente o setor. “A gente está perdendo essa janela, olhando para um viés muito político, carregado de controle, nocivo para o desenvolvimento da IA no país”, afirma.

A falta de consenso em torno disso foi outra marca de 2024. O lobby das big techs, que preferem pouca ou nenhuma regulamentação para acelerarem o máximo que puderem no desenvolvimento da IA, é intenso! Mas alguns dos maiores especialistas do setor afirmam que isso é um grande risco, pois a IA vem se comportando de maneiras que surpreendem seus próprios desenvolvedores.

O ano termina então com um grande desafio de encontrarmos maneiras de ampliarmos o desenvolvimento e os usos da IA para todos, porém de maneira responsável e segura. Como afirma Flores, “temos que democratizar a tecnologia, porque ela tem que ser benéfica para todos no seu dia a dia.”

Pelo que vimos nesse ano, esse debate se desdobrará de maneiras muito interessantes em 2025.

 

Para Kant (esquerda), não se pode ser imoral, mesmo para um bom fim; já Maquiavel defendia que o fim justifica os meios - Foto: reproduções

Como equilibrar a ética, a competitividade tecnológica e a liberdade de expressão

By | Tecnologia | No Comments

Estamos chegando ao final de um ano em que o debate sobre o equilíbrio entre a ética, a competitividade tecnológica e a liberdade de expressão ganhou novos contornos com o avanço da inteligência artificial, de práticas questionáveis das big techs e com as discussões em torno do Marco Civil da Internet. Enfrentamos uma grande dificuldade para encontrar um caminho razoável para, ao mesmo tempo, proteger as pessoas da voracidade irresponsável das plataformas digitais, evitar a censura, fazer um uso seguro da tecnologia e garantir a competitividade pessoal, nos negócios e até de nações, em uma geopolítica cada vez mais determinada pela tecnologia.

Esse é um dos grandes desafios dessa geração, pois a sociedade não está conseguindo processar as mudanças na velocidade em que estão sendo impostas. Insistimos em medir essa transformação com réguas que foram criadas para um mundo que já não existe. Esse é um processo fadado ao fracasso!

O exemplo mais claro é o impacto social das casas de aposta online, as infames “bets”. Elas crescem exponencialmente no mundo todo, mas no Brasil se tornaram um problema de saúde pública, com pessoas perdendo economias de uma vida e indivíduos das camadas mais pobres gastando o dinheiro da comida na jogatina.

Alguns podem dizer que “aposta quem quiser”. Só que atribuir toda a culpa ao livre arbítrio é um reducionismo de tudo que se discute aqui. A facilidade de se apostar pelo smartphone fica irresistível com a influência dos algoritmos dessas plataformas, com a promessa mentirosa de ganhos fáceis (ampliada por influenciadores pagos), com a interface gamificada e até com um senso de pertencimento no grupo de amigos apostadores.

Em outras palavras, nosso livre arbítrio é manipulado pelas mais diversas plataformas digitais, e engana-se quem acredita ser totalmente imune a isso. A sedução digital insidiosa vence mesmo mentes afiadas, em algum momento. É disso que temos que tratar, sem perder os inegáveis benefícios da tecnologia ou ferir direitos fundamentais.


Veja esse artigo em vídeo:


Agora o Supremo Tribunal Federal (STF) debate a inconstitucionalidade do artigo 19 do Marco Civil da Internet. “Inconstitucionalidade” é uma palavra forte, mas não me parece ser o caso do referido artigo. Ainda assim, os votos já dados por ministros do STF indicam que ele acabará sendo classificado dessa forma.

Historicamente, defendo o artigo 19. Ele determina que cada um seja responsável pelo que publica nas plataformas digitais, que elas não sejam corresponsáveis por isso, e que elas devem retirar do ar apenas conteúdos que a Justiça tenha julgado ofensivos. Já o artigo 21 abre uma exceção para conteúdo com nudez ou sexo não autorizados, quando basta uma notificação extrajudicial para que as redes sejam obrigadas a remover a publicação. Essa combinação de artigos valoriza a liberdade de expressão.

Não há dúvida sobre qualquer um ser responsável, para o bem e para o mal, pelo que publica na Internet. Mas há uma simplificação muito grande sobre o papel das empresas. Elas já retiram sumariamente o que consideram inadequado seguindo seus critérios, muitas vezes questionáveis. O processo ocorre majoritariamente de forma automática, e seus algoritmos erram muito na sua decisão, tanto ao retirar conteúdos legítimos, quanto ao preservar outros, que ferem leis e seus próprios termos de uso.

As plataformas oferecem sistemas de denúncia contra conteúdos inadequados, mas eles são muito falhos. Eu mesmo já fui vítima de diversos delitos digitais, como discurso de ódio e roubo de conteúdo. Sempre utilizo essas ferramentas de denúncia, mas é muito raro que isso produza qualquer resultado.

Pela redação do artigo 19, eu e pessoas vítimas de afrontas online muito mais graves precisamos entrar na Justiça para nos defender, um processo complexo, caro e muito longo. Enquanto isso, o problema continuará no ar, infligindo severos danos. Como as plataformas ficarão isentas, não farão nada, apesar de viabilizarem o crime.

Em sua defesa, elas argumentam que, se tomarem para si a decisão de o que pode ser publicado, correm o risco de promover censura. O argumento é verdadeiro, mas é cínico, pois as mesmas plataformas promovem ostensivamente conteúdos claramente nocivos, pois são os que lhes rendem maiores ganhos. E nada lhes acontece!

Esse é o tipo de conflito que esses tempos digitalmente acelerados nos impõem.

 

A superinteligência digital

Esse debate também se aplica à inteligência artificial.

Na sexta (20), a OpenAI, criadora do ChatGPT, lançou o OpenAI o3, seu novo modelo de IA, com capacidades cognitivas ainda mais impressionantes. A empresa não mede esforços em incensar seus novos produtos como passos em direção à Inteligência Artificial Geral, um estágio teórico em que o sistema deixaria de ser especializado em uma coisa e passaria a pensar como um ser humano, dispensando comandos e sendo capaz de resolver qualquer coisa sem ter sido criado para aquilo, de pintar um quadro a dirigir um carro. Algumas pessoas afirmam que o o3 seria algo ainda maior: o caminho para a superinteligência artificial, um conceito teórico ainda mais ousado, em que a máquina superaria largamente as capacidades humanas em qualquer área.

Todos esses holofotes são ótimos para os negócios da OpenAI, que lidera essa indústria, mas sofre forte concorrência de empresas como o Google e a Anthropic. Mas mostra também que essas empresas parecem dispostas a acelerar contra uma parede, se isso lhes garantir o protagonismo nessas tecnologias.

Alguns dos maiores especialistas do setor, como Geoffrey Hinton, considerado o “padrinho da IA”, demonstram sérias preocupações com isso. Alguns afirmam que nunca chegaremos a esse estágio tecnológico, mas o maior temor é que percamos o controle desses sistemas, que passariam a se autoatualizar seguindo seus interesses, e não mais os da humanidade, algo conhecido no setor como “desalinhamento”.

Caímos novamente na questão de regulações. Como de costume, a Europa saiu na frente, com sua Lei da Inteligência Artificial, focada em proteger os cidadãos de maus usos dessa tecnologia e de abusos de empresas e de governos.

Muita gente acredita que ela reduzirá a competitividade do continente cada vez mais, especialmente diante de nações que regulam pouco ou nada a IA, como a China. No caso dos EUA, há uma grande expectativa de como o país se comportará nisso com o início, em janeiro, do segundo mandato presidencial de Donald Trump, fortemente influenciado pelo libertário Elon Musk, publicamente contrário a regulamentações.

A verdade é que ninguém sabe como equilibrar a ética, a competitividade e os direitos individuais nessa corrida desenfreada e irresponsável da tecnologia. Ela naturalmente deve continuar sendo desenvolvida e precisamos aprender a fazer usos produtivos dela. Mas isso não pode passar por cima da segurança e do bem-estar das pessoas.

O mundo atual vem sendo guiado por princípios do filósofo Nicolau Maquiavel (1469-1527), que defendia que o sucesso e a manutenção do poder justificariam os métodos empregados, mesmo imorais, desde que fossem eficazes. Mas talvez devêssemos olhar mais para as ideias de outro filósofo, Immanuel Kant (1724-1804). Para ele, mentir ou agir imoralmente nunca é justificável, mesmo para alcançar um bom fim.

Temos que fazer isso logo, antes que a sociedade se esfacele irreversivelmente.

 

Influenciadores dominam a linguagem das redes, mas a maioria não checa as informações que publica - Foto: Freepik/Creative Commons

Influenciadores promovem desinformação por amadorismo e descuido

By | Jornalismo | No Comments

Que as redes sociais são o grande vetor da desinformação, não é novidade. Mas em tempos em que o Supremo Tribunal Federal (STF) discute se essas plataformas têm responsabilidade sobre conteúdos nocivos em suas páginas, precisamos entender as motivações que levam alguém a fazer isso. Nesse cenário, os influenciadores digitais desempenham um papel central, pelo seu poder de persuasão de grandes plateias.

Existem aqueles que conscientemente propagam informações falsas, e esses devem ser combatidos. Mas o estudo “Por Trás das Telas”, publicado no dia 26 de novembro pela Unesco (Organização das Nações Unidas para a Educação, a Ciência e a Cultura) mostra que muitos fazem isso sem intenção, por amadorismo ou descuido.

Realizada com 500 influenciadores de 45 países, incluindo o Brasil, a pesquisa indica que apenas 36,9% dos influenciadores verificam a correção das informações que publicam. Além disso, 41,7% deles consideram curtidas e visualizações como o principal critério de credibilidade de suas fontes.

Esses dois números deixam claro que eles podem ser facilmente manipulados pelos criadores de desinformação, agravando o problema. A boa notícia é que 73% demonstraram interesse em serem treinados para melhorarem em sua atividade.

Apesar dos ataques daqueles que se beneficiam da desinformação, a imprensa ainda goza de boa credibilidade com a maior parte da população. Mas há anos ela não está mais sozinha no processo informativo, dividindo esse espaço com os influenciadores.

Seria ótimo que esses dois grupos trabalhassem juntos, mas parecem viver em mundos distintos. É uma pena, pois o público se informa por ambos, cada um com suas vantagens e desvantagens.


Veja esse artigo em vídeo:


O estudo aponta que apenas 36,9% dos influenciadores digitais se informam pela imprensa, a mesma quantidade dos que fazem isso a partir de fontes online que não sejam da mídia profissional. Sua principal “fonte” é a própria experiência (58,1%), seguido por pesquisas e entrevistas próprias (38,7%).

Para os influenciadores, as já citadas curtidas e visualizações de longe dão mais credibilidade a uma fonte. Depois vem a simples confiança em um amigo ou especialista (20,6%), seguida de perto pela reputação do autor (19,4%). Documentações são usadas apenas por 17,0% dos influenciadores.

Se apenas 4 entre 10 deles checam as informações antes de publicá-las, 33,5% publicam sem checar se confiarem na fonte. Outros 15,8% publicam sem verificar se considerarem o conteúdo divertido ou útil. Por fim 13,2% checam apenas se o que compartilharem for uma notícia.

Vale dizer que 59,0% desconhecem ou apenas ouviram falar de regras relacionadas às comunicações digitais e 56,4% conhecem treinamentos voltados para eles, mas só 13,9% desses participaram de algum. Isso faz com que saibam pouco sobre seus direitos e deveres como produtores de conteúdo, o que facilita com que 32,3% sofram com discursos de ódio nas redes. Tudo fica mais grave quando se pensa que ganhar dinheiro é a principal motivação de um quarto deles.

O estudo considera que alguém com mais de mil seguidores já pode ser considerado um seguidor, mas 68,0% dos entrevistados tinham até 10 mil seguidores. Desse valor a 100 mil seguidores, eram 25,0%. Apenas 1,6% tinham mais de 1 milhão de seguidores. A rede preferida é o Instagram (34,0%), seguido pelo Facebook (25,0%), o TikTok (16,4%) e YouTube (9%).

A categoria mais popular é de “moda e estio de vida” (39,3%). Na sequência, vêm “beleza” e “viagem e comida” (ambos com 34,0%), “jogos” (29,0%) e “comédia” (27,1%). Os estilos mais populares de publicações são “coisas bonitas” (18,0%), “entretenimento e memes” (15,6%) e “recomendações” (13,8%).

Ao contrário da imprensa, que, a despeito de imperfeições, segue regras rígidas para produção de conteúdo, esse amadorismo dos influenciadores representa um sério ponto de atenção.

 

“Desordem informacional”

Em 2017, um estudo do Conselho da Europa e da Universidade de Harvard classificou a “desordem informacional” em desinformação (informação deliberadamente errada para causar danos), informação falsa (errada, mas sem intenção de causar danos) e informação maliciosa (correta, mas usada para causar danos). Influenciadores, muitas vezes, se encontram na segunda categoria, quando espalham informações incorretas por confiarem em fontes ruins ou por não saberem como verificar uma informação.

O instituto britânico Alan Turing detalhou em 2021 como uma sociedade pode ameaçar a própria sobrevivência com ataques deliberados à aquisição de conhecimento. Segundo a pesquisa, há quatro ameaças a isso, nenhuma ao acaso. A primeira são pessoas que atrapalham as decisões com desinformação, de maneira consciente ou não. Há também o excesso de informação, que atrapalha as pessoas na separação de verdades e mentiras. Elas também se acostumaram a rejeitar o que desafia suas ideias, particularmente se houver uma forte identidade no grupo. E, por fim, as redes sociais tornaram mais difícil avaliar a confiabilidade das fontes.

A pesquisa conclui que, quando não sabemos em quem acreditar, confiamos naquilo que nos mostra o mundo como queremos. Novamente os influenciadores podem se tornar ferramentas poderosas para a desinformação, mesmo inconscientemente.

Infelizmente as perspectivas de melhora desse quadro não são animadoras, diante da resistência das redes sociais de sofrerem qualquer tipo de responsabilização e do persistente amadorismo dos influenciadores. A colaboração desses profissionais com jornalistas, atuando de maneira complementar, traria grande benefício à sociedade.

Os influenciadores têm alcance e confiança de seus seguidores, além de dominar a linguagem das plataformas digitais. Já os jornalistas possuem ética e técnica para produzir informações precisas e contextualizadas. Uma parceria efetiva entre essas comunidades poderia não apenas mitigar os impactos da desinformação, como fortalecer a confiança no ecossistema informacional.

Infelizmente isso esbarra em barreiras culturais e estruturais. Influenciadores priorizam sua autonomia criativa, e podem ver jornalistas como representantes de um modelo de comunicação pouco dinâmico e distante da realidade das redes. Jornalistas, por sua vez, frequentemente subestimam a capacidade dos influenciadores de se adaptarem às boas práticas jornalísticas.

A desinformação é um dos maiores desafios dessa geração. Ela sempre existiu, mas as redes sociais transformaram o que antes não passava de fofocas restritas em uma indústria milionária de distorção da realidade. Apesar desse fenômeno digital ter menos de uma década, já provocou danos irreparáveis no mundo.

A solução desse problema depende de todos nós, começando por escolhermos fontes confiáveis de informação. O estudo da Unesco mostra que, se influenciadores e jornalistas conseguissem juntar forças criativamente, poderiam construir ambientes informacionais mais saudáveis, transparentes e comprometido com a verdade.

A sociedade agradecerá muito se isso acontecer!

 

Gilson Magalhães, novo diretor-geral da Red Hat Latin America, se apresenta no Summit Connect, em São Paulo, no dia 8 - Foto: Red Hat

Muitos querem “ganhar na loteria” com a IA, mas poucos fazem o necessário para isso

By | Tecnologia | No Comments

A inteligência artificial generativa está prestes a completar dois anos de mercado. Desde o lançamento do ChatGPT, em 30 de novembro de 2022, ela vem redefinindo o mundo com uma velocidade nunca vista, não só pelos 100 milhões de usuários nos seus primeiros dois meses, mas pela avalanche de aplicações que prometem facilitar as mais diversas tarefas. Porém, apesar dessa euforia, não há milagre nisso, e poucas pessoas entendem como tirar o proveito máximo dela.

“Eu tenho convicção de que a tecnologia atual, que ainda é incipiente, é o embrião de uma nova civilização”, proclamou Gilson Magalhães, novo diretor-geral na América Latina da Red Hat, a maior empresa de software open source do mundo. “É preciso ter muita atenção a essa tecnologia, porque ela é de altíssimo impacto, e vai crescer progressivamente, trazendo novos insumos”, acrescentou, durante o Red Hat Summit Connect, principal evento da empresa no país, que aconteceu no dia 8, em São Paulo.

Mas ainda há muito mais entusiasmo que conhecimento em torno da IA. Tanto que um estudo recente da consultoria Gartner indicou que metade das iniciativas com essa tecnologia se limita a ferramentas de produtividade para as equipes, enquanto 30% agem nos processos. Implantações para verdadeiramente transformar o negócio, o que indicaria seu uso mais robusto, acontecem em apenas 20% dos casos.

Magalhães deixa bastante claro: as pessoas querem “mágica” da IA, mas não funciona assim. Como qualquer outra tecnologia, os resultados vêm com informação e trabalho.

É um cenário semelhante aos primórdios de outras tecnologias que transformaram dramaticamente o mundo: a Internet comercial e os smartphones. Nem em seus sonhos mais loucos, os responsáveis por esses lançamentos poderiam imaginar o que surgiria daquilo! Não obstante, cá estamos, com vidas profundamente digitalizadas.

Cabe a essa geração aprender a usar a inteligência artificial de maneira construtiva, segura e ética, criando utilizações que talvez hoje se pareceriam mesmo com mágica.


Veja esse artigo em vídeo:


“Nós precisamos organizar nossa vida, mas temos tantas tarefas diárias, cuidar da agenda, da saúde, dos filhos, da família, e as pessoas estão vivendo mais”, propõe Sandra Vaz, diretora-sênior de Alianças e Canais da Red Hat Latin America. “A inteligência artificial será a nossa grande parceira para que possamos ter mais produtividade e tomar decisões melhores frente à nossa concorrência”, acrescenta.

Há um caminho a ser percorrido. As empresas precisam substituir a euforia por conhecimento, capacitar suas equipes e envolver as pessoas na adoção da IA.

“Todo esse tema de IA Generativa ainda tem uma compreensão baixa no mercado”, explica Thiago Araki, diretor-sênior de Tecnologia da Red Hat Latin America. Ele explica que as empresas começam a entender que não haverá uma IA que resolverá todos os problemas, que serão necessários trabalhar com diferentes modelos. “Então ainda não temos projetos muito avançados, porque é tudo muito novo”, conclui.

Mesmo com tudo isso, cresce no mercado um consenso de que profissionais e empresas que adotem conscientemente a inteligência artificial construirão uma vantagem enorme sobre seus concorrentes. Mas isso dependerá não apenas de bons algoritmos, mas também de bons dados, um tema tratado de maneira displicente em uma parcela assustadoramente grande de empresas.

O problema começa por diferentes departamentos coletarem suas próprias informações, sem compartilhá-las com o resto da empresa. Não raro, esses dados são redundantes –e pior, conflitantes– com os de outros departamentos. O problema se agrava por metodologia frágeis para sua captura e atualização.

Mesmo com o mais incrível algoritmo, a IA trará respostas ruins se for alimentada com informações de baixa qualidade.

 

A era dos agentes

Apesar de já existirem literalmente milhares de aplicações impulsionadas pela inteligência artificial generativa, automatizando tarefas bem específicas, a maioria das pessoas continua usando ferramentas não-especializadas, como o próprio ChatGPT ou o Gemini, do Google. Mas isso tende a mudar, com a ascensão dos agentes.

Eles são sistemas baseados em IA autônomos ou semiautônomos, criados para realizar tarefas específicas, a partir de interações com o usuário ou o ambiente. Eles podem aprender e se refinar com o uso, e funcionam a partir de dados selecionados.

Magalhães acredita que a inteligência artificial não evoluirá para um supercérebro eletrônico, capaz de realizar qualquer coisa, como se vê na ficção científica. Ao invés disso, ele aposta no surgimento de incontáveis agentes aprimorando nossa capacidade de realizar virtualmente qualquer tarefa.

Naturalmente, existirão agentes oferecidos prontos por empresas, melhorando a eficiência de seus produtos. Mas já se pode criar os próprios agentes usando plataformas como o ChatGPT.

Talvez isso ainda pareça ficção científica ou no mínimo algo nada trivial para a maioria das pessoas. Mas o recurso já está disponível e deve ser, pelo menos, aprendido. Afinal, houve uma época em que o Google também era uma novidade, e hoje ele está totalmente integrado à vida de todos nós!

Apesar de ser uma discussão tecnológica, as empresas falham também quando esquecem de incluir as pessoas. Outro estudo do Gartner indica que apenas 14% dos líderes de RH estão envolvidos em conversas sobre IA. É um grande erro, pois, com isso, as pessoas não se sentem parte da jornada da IA na organização.

Tudo isso pode parecer uma exigência um tanto opressora para muita gente, que gostaria de continuar levando uma vida sem IA. São escolhas! É preciso entender que, a médio prazo, isso pode realmente custar a competitividade profissional e até a se demorar mais tempo para fazer as mesmas coisas que seus amigos.

“É um desafio para todos, não tenho como dizer que é um caminho fácil”, afirma Magalhães. “A minha recomendação é: ‘não se afaste da IA’”, conclui.

Como costumo sempre dizer, diante da IA, não podemos ser nem deslumbrados, achando que ela fará tudo sozinha por nós, nem resistentes, rejeitando-a a qualquer custo. Com seu avanço galopante, ela realmente não é mágica, mas pode ajudar de maneira surpreendente a qualquer um que resolva dar os passos necessários para um uso consciente de todo esse poder.


Veja a íntegra em vídeo da entrevista com Gilson Magalhães, novo diretor-geral da Red Hat Latin America:

 

Adriana Aroulho, presidente da SAP Brasil, fala durante a abertura do SAP Now 2024, em São Paulo – Foto: Paulo Silvestre

IA só entregará a prometida transformação, se o investimento for feito com consciência

By | Tecnologia | No Comments

A “corrida da inteligência artificial” está prestes a completar dois anos, com executivos buscando maneiras de usar essa tecnologia para levar seus negócios a um patamar de produtividade inédito. Mas esse aspecto quase messiânico da IA tem decepcionado muitos deles, que não vêm colhendo os frutos esperados de seus investimentos.

A culpa não é da IA, e sim de implantações feitas sem planejamento. Em um estudo de julho de 2023, pesquisadores da consultoria McKinsey concluíram que, embora 89% das grandes empresas no mundo já tivessem projetos com IA em curso, apenas 31% haviam aumentado as receitas e 25% diminuído os custos como esperado. Outro levantamento, essa da consultoria Gartner, do segundo trimestre de 2023, indicou que 64% dos CEOs não achavam que existia exageros sobre a IA, mas 53% dos CIOs não tinham certeza se estavam preparados para mitigar os riscos associados a ela.

A implantação responsável da IA teve destaque durante o SAP Now, evento anual da subsidiária brasileira da gigante alemã de software, que aconteceu na semana passada, em São Paulo. Apesar de a inteligência artificial generativa ganhar os holofotes, seu uso consciente permeou a fala das lideranças da empresa.

Essa tecnologia efetivamente traz ganhos de produtividade antes inimagináveis a profissionais em diferentes funções e de diversos setores da economia. Porém os seres humanos precisam se manter no controle do processo. Isso demanda o desenvolvimento de novas habilidades nas equipes, criando também exigências inéditas para os gestores.

Não é de se estranhar, portanto, que ainda se observe desperdícios na implantação de uma tecnologia tão revolucionária. Sem um olhar responsável, criterioso e ético, além de capacitação dos times, a IA pode ser mesmo decepcionante.


Veja esse artigo em vídeo:


“Você não traz inovação, IA, transformação para a nuvem, se você não trouxer valor para o negócio”, explicou no evento Cristina Palmaka, presidente da SAP América Latina e Caribe. “Seja a criação de novos modelos, seja aumento de produtividade, eficiência, todo o tema de segurança, o apetite está atrelado a ter um caso de negócios que justifique o investimento”, acrescentou.

Em outras palavras, antes de pensar em investir desbragadamente em inteligência artificial, deve-se saber qual é o ganho para o negócio que ela trará, qual é o problema a ser resolvido. Parece óbvio, mas nem sempre isso é seguido pelos gestores: no estudo do Gartner, 65% dos entrevistados disseram usar dados para justificar uma decisão já tomada, normalmente pela pessoa mais bem-paga na organização.

“Nosso posicionamento é de ‘business AI’: a gente não quer ser mais uma alternativa de tecnologia, como o ChatGPT, porque o insumo deles é a informação que está aí, pela Internet”, afirmou no SAP Now Adriana Aroulho, presidente da SAP Brasil, reforçando o seu posicionamento corporativo. “A nossa inteligência artificial faz uso dos dados do próprio negócio, pois a gente quer a inteligência artificial resolvendo problemas de negócios reais”, justificou.

Pouco antes, na abertura do evento, a executiva havia destacado a importância de que a IA de aplicações corporativas siga três R (em inglês): “Relevant” (relevante), “Reliable” (confiável) e “Responsible” (responsável). Eles endereçam um dos grandes problemas que muitas empresas enfrentam nas suas atuais implantações de inteligência artificial: a baixa confiabilidade nas respostas oferecidas pelas plataformas, incluindo as chamadas “alucinações”.

De fato, estima-se que pelo menos 3% de todas as respostas dadas por sistemas públicos, como o ChatGPT e o Gemini, contenham imprecisões leves ou severas. Isso acontece porque eles sempre respondem algo aos questionamentos do usuário, mesmo quando não sabem o que dizer. Além disso, por usarem informações públicas da Internet, isso diminui a relevância de suas respostas para os negócios.

Soluções corporativas de IA da SAP e de outras empresas, como IBM e Red Hat, mitigam esse risco por se focarem em dados do próprio cliente, aumentando sua relevância e a sua confiabilidade.

 

O R de “responsável”

O “terceiro R”, o da responsabilidade, depende mais das pessoas que das máquinas. Afinal, a tecnologia é agnóstica, e fará tudo que lhe for pedido.

“A gente entende que a decisão é sempre do humano: a IA automatiza, mas é o cliente que faz a pergunta”, lembrou Aroulho. Para ela, as empresas não podem perder de vista a ética quando usam a IA, e precisam capacitar suas equipes para usos conscientes. “À medida que a inteligência artificial vai automatizando, a gente vai melhorando também, porque temos que fazer a pergunta certa”, detalhou.

“Alguns especialistas dizem que a inteligência artificial generativa se assemelha ao descobrimento do fogo, da eletricidade e à criação da Internet, no que tange à evolução da espécie humana, e eu não acho que seja exagero”, sugeriu no palco do SAP Now Matheus Souza, Chief Innovation Officer da SAP América Latina e Caribe.

Concordo com ele! Mas estou certo de que muitos de nossos ancestrais primitivos queimaram a mão tentando dominar o fogo. Mesmo hoje, ainda sofremos acidentes com ele, porém proporcionalmente pouco, pois aprendemos como usá-lo.

Estamos na aurora da inteligência artificial. Apesar de suas pesquisas já terem mais de 70 anos, apenas agora empresas e profissionais têm acesso amplo a seus recursos, seja pelo grande poder de processamento disponível, seja pela atenção que ela ganhou com o lançamento do ChatGPT.

Mas apesar de seu apelo irresistível, executivos e gestores de pessoas devem abraçá-la do jeito certo. Se não souberem que problemas a IA resolverá, e se suas equipes não estiverem à vontade e preparadas para isso, sua adoção pode ser decepcionante.

Na atual intersecção da tecnologia com os negócios, essas decisões não podem mais se restringir a aspectos de um ou do outro. Como explicou Palmaka, essa inovação não deve servir apenas para aquilo que se faz hoje, mas também para aquilo que será feito no futuro.

Com tanto poder em jogo, não há espaço para amadorismo.

 

Tim Cook, CEO da Apple: empresa adiará recursos de IA na União Europeia por causa de lei - Foto: Christophe Licoppe/Creative Commons

Ética não pode ser um luxo ou um item opcional nas plataformas de IA

By | Tecnologia | No Comments

Na sexta (21), a Apple anunciou que adiará na Europa o lançamento dos recursos de inteligência artificial para suas plataformas, apresentados no início do mês. A empresa culpou a Lei dos Mercados Digitais (DMA, na sigla em inglês), criada para evitar abusos das big techs, pela sua decisão, e não deu um prazo para que esses recursos cheguem ao continente.

Alguns europeus podem ficar irritados com a Apple; outros, com a lei. Mas essas regras existem justamente porque as gigantes de tecnologia abusam do poder que têm sobre seus usuários há décadas, criando relações comerciais desequilibradas, francamente desfavoráveis aos clientes.

A decisão da Apple de adiar a liberação desses recursos na Europa e sua oferta no resto do mundo é emblemática, e podemos aprender algo com ela. Em nota oficial, ela disse estar preocupada que os requisitos da DMA comprometam a integridade dos produtos, colocando em risco a privacidade e a segurança dos dados. Oras, se as regras de uma lei que determina boas práticas comerciais e de concorrência ameaçam um serviço, ele não me parece maduro para ser lançado em qualquer mercado.

Isso precisa ser observado em todos os produtos, mas é particularmente importante nos que usam a inteligência artificial. Essa tecnologia é tão poderosa, que, ainda que esteja em seus estágios iniciais, já transforma nossas vidas e o cotidiano de empresas. Nesse cenário, aspectos éticos e de governança são fundamentais para que a sociedade se desenvolva com a IA, evitando que ela aumente ainda mais a concentração de poder nas mãos de poucos grupos.


Veja esse artigo em vídeo:


A Apple já foi multada em março em €1,8 bilhão (cerca de R$ 10,5 bilhões) por infringir a DMA. No caso, o Spotify moveu um processo alegando práticas anticompetitivas pela Apple exigir de que os aplicativos para o iPhone e o iPad sejam instalados exclusivamente a partir da App Store, com a empresa ficando com 30% das transações na sua plataforma. Talvez por isso esteja ressabiada agora.

Graças à DMA, ela agora permite lojas de aplicativos de terceiros, o Google alterou o Android para usuários escolherem seu navegador e buscador, e a Meta concorda que outros serviços conversem com o WhatsApp e o Messenger. A Microsoft já aceita que os usuários desativem o Bing no Windows, e a Amazon solicita o consentimento dos clientes para personalização de anúncios. Por fim, o TikTok permite que os usuários baixem todos seus dados na plataforma. Mas tudo isso só vale para os europeus!

A inteligência artificial traz essas preocupações a um patamar inédito. A partir do momento em que essa tecnologia pode influenciar decisivamente nosso cotidiano e até nossas ações, é preciso entender como ela funciona. A opacidade dos algoritmos, que já causou muita dor de cabeça nas redes sociais, não pode se sentir confortável com a IA.

“A gente já tem uma dinâmica de inteligência artificial muito madura dentro das empresas, mas o tema de governança tem que ser antecipado”, explica Thiago Viola, diretor de inteligência artificial, dados e automação da IBM Brasil. Segundo ele, os gestores precisam adotar a IA com fortes padrões éticos, transparência e explicabilidade, ou seja, permitir aos usuários saberem como a IA foi construída e entenderem como ela tomou cada decisão.

No Brasil, o Congresso analisa o Projeto de Lei 2338/23, que teve uma nova versão de seu texto liberada na semana passada. Em vários pontos, ele se inspira na Lei da Inteligência Artificial, aprovada pelo Parlamento Europeu em março. E os conceitos de transparência, explicabilidade e rastreabilidade aparecem em toda parte.

Viola está certo: as questões éticas nunca devem ser colocadas de lado por interesses comerciais. Agora, com a ascensão galopante da IA, esses temas gritam para gestores, desenvolvedores e usuários. Mas se é assim, por que tantas empresas só parecem atentar a isso quando são obrigadas por força de lei?

 

Conflito de interesses

Precisamos entender que vivemos hoje uma reedição da “corrida do ouro” patrocinada pela inteligência artificial. Quem dominar essa tecnologia mais que seus concorrentes conseguirá um posicionamento determinante no mercado, especialmente porque, nesse caso, alguns meses à frente nessa etapa inicial podem significar uma liderança consolidada por muitos anos.

Diante disso, as empresas do setor, de startups a big techs, querem experimentar, ajustar e correr o quanto puderem agora, de preferência livres de qualquer restrição. Se algo der errado, pode-se considerar isso como justificáveis danos colaterais do processo de inovação supostamente inadiável.

Por conta da entrada em vigor da DMA, em março, conversei sobre isso com Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). “Empresas têm liberdade para oferecer seus produtos e serviços da maneira que considerarem mais estratégica, mas essa liberdade é limitada por leis que procuram prevenir práticas que restrinjam a concorrência”, explicou. E segundo ele, “a questão central é se os benefícios imediatos para os consumidores superam os potenciais prejuízos a longo prazo decorrentes de práticas anticompetitivas”.

Em um mundo capitalista selvagem, a busca incessante pelo lucro e a meritocracia de pessoas e empresas parecem valores  inalienáveis. Mas essa é uma distorção de realidade, como ironicamente o próprio mercado ajuda a desmistificar.

Um cenário de segurança jurídica ajuda muito a própria inovação, especialmente as mais vultosas e de mais impacto social. Basta ver que uma das indústrias mais regulamentadas que há –a farmacêutica– vive de inovação. E ainda que elas não pipoquem a cada mês como nas big techs, são mais duradouras e rentáveis a longo prazo.

Viola adverte que a governança precisa ser levada muito a sério pelas empresas quando se fala de IA, pois problemas associados a ela inevitavelmente acontecerão. “Se você tiver cultura, pessoas e ferramental preparados, o seu padrão de ação é muito mais rápido, mas se você não entende e não sabe o que está acontecendo, isso durará dias, semanas, e cairá na Internet”, explica.

Não proponho, de forma alguma, que a inovação seja desacelerada. Mas já passou da hora de as empresas entenderem que ela precisa ser realizada com ética, sem relaxamentos. Hoje as pessoas ainda estão deslumbradas com a inteligência artificial, despreocupadas com assumirem, como suas, sugestões vindas de uma caixa-preta, da qual nada sabem.

Mas à medida que essas decisões se tornarem mais frequentes e críticas em seu cotidiano, e problemas graves acontecerem por essa falta de transparência, a “lua de mel” acabará.  Ninguém continua usando algo pouco confiável. Se a falta de transparência das empresas com a IA levar a isso, todo esse poder será questionado.


Assista à íntegra em vídeo da conversa com Thiago Viola:

 

Geoffrey Hinton, o “padrinho da IA”, que se demitiu do Google em maio para poder criticar livremente os rumos da IA - Foto: reprodução

Entusiastas da IA querem acelerar sem parar, mas isso pode fazê-la derrapar

By | Tecnologia | No Comments

Nesse ano, a inteligência artificial deixou de ser um interesse da elite tecnológica e conquistou o cidadão comum, virando tema até de conversas de bar. Muita gente agora a usa intensamente, criando tanto coisas incríveis, quanto enormes bobagens. Isso gerou uma excitação em torno da tecnologia, com grupos que propõem que seja desenvolvida sem nenhuma restrição ou controle, acelerando o máximo que se puder.

Isso pode parecer emocionante, mas esconde um tipo de deslumbramento quase religioso que de vez em quando brota no Vale do Silício, a meca das big techs, nos EUA. Um movimento especificamente vem fazendo bastante barulho com essa ideia. Batizado de “Aceleracionismo Efetivo” (ou “e/acc”, como se autodenominam), ele defende que a inteligência artificial e outras tecnologias emergentes possam avançar o mais rapidamente possível, sem restrições ou regulamentações.

Mas quem acelera demais em qualquer coisa pode acabar saindo da pista!

Eles desprezam pessoas que chamam de “decels” e “doomers”, aquelas preocupadas com riscos de segurança vindos de uma IA muito poderosa ou reguladores que querem desacelerar seu desenvolvimento. Entre eles, está Geoffrey Hinton, conhecido como o “padrinho da IA”, que no dia 1º de maio se demitiu do Google, para poder criticar livremente os caminhos que essa tecnologia está tomando e a disputa sem limites entre as big techs, o que poderia, segundo ele, criar “algo realmente perigoso”.

Como de costume, radicalismos de qualquer lado tendem a dar muito errado. A verdade costuma estar em algum ponto no meio de caminho, por isso todos precisam ser ouvidos. Então, no caso da IA, ela deve ser regulada ou seu desenvolvimento deve ser liberado de uma forma quase anárquica?


Veja esse artigo em vídeo:


O Aceleracionismo Efetivo surgiu nas redes sociais no ano passado, como uma resposta a outro movimento: o “Altruísmo Eficaz”, que se tornou uma força importante no mundo da IA. Esse último começou promovendo filantropia otimizada a partir de dados, mas nos últimos anos tem se preocupado com a segurança da sociedade, propondo a ideia de que uma IA poderosa demais poderia destruir a humanidade.

Já o aceleracionistas efetivos acham que o melhor é sair da frente e deixar a inteligência artificial crescer livre e descontroladamente, pois seus benefícios superariam muito seus eventuais riscos, por isso jamais deveria ser vista como uma ameaça. Para eles, as plataformas devem ser desenvolvidas com software open source, livre do controle das grandes empresas.

Em um manifesto publicado no ano passado, os aceleracionistas efetivos descreveram seus objetivos como uma forma de “inaugurar a próxima evolução da consciência, criando formas de vida impensáveis da próxima geração”. De certa forma, eles até aceitam a ideia de que uma “super IA” poderia ameaçar a raça humana, mas a defendem assim mesmo, pois seria “o próximo passo da evolução”.

Para muita gente, como Hinton, isso já é demais! Em entrevista ao New York Times na época em que deixou o Google, o pioneiro da IA disse que se arrependia de ter contribuído para seu avanço. “Quando você vê algo que é tecnicamente atraente, você vai em frente e faz”, justificando seu papel nessas pesquisas. Agora ele teria percebido que essa visão era muito inconsequente.

Portanto é um debate em torno da ética do desenvolvimento tecnológico e das suas consequências. Conversei na época sobre aquela entrevista de Hinton com Lucia Santaella, professora-titular da PUC-SP. E para ela, “a ética da inteligência artificial tem que funcionar mais ou menos como a da biologia, tem que ter uma trava! Se não, os filmes de ficção científica vão acabar se realizando.”

 

A dificuldade de se regular

Além da questão ética, outro ponto que contrapõe aceleracionistas efetivos e altruístas eficazes é a necessidade de se regular a inteligência artificial. Mas verdade seja dita, essa tecnologia está dando um banho nos legisladores. Isso porque ela evolui muito mais rapidamente do que eles são capazes de propor leis.

Podemos pegar, como exemplo, a União Europeia, que legisla de forma rápida e eficiente temas ligados à tecnologia. Em abril de 2021, ela apresentou um projeto de 125 páginas como “referência” na regulação da IA. Fruto de três anos de debates com especialistas de diferentes setores associados ao tema, Margrethe Vestager, chefe da política digital do bloco, disse que o documento estava “preparado para o futuro”.

Parecia ser isso mesmo, até que, em novembro do ano passado, a OpenAI lançou o ChatGPT e criou uma corrida frenética para se incluir a inteligência artificial generativa em todo tipo de sistema. E isso nem era citado na proposta europeia!

O processo de criação de uma nova lei de qualidade é naturalmente lento, pois exige muita pesquisa e debate. Mas se as coisas acontecerem como propõem os e/accs, os legisladores estarão sempre muito atrás dos desenvolvedores. Os primeiros não conseguem sequer entender a tempo o que os segundos estão criando e, justiça seja feita, mesmo esses não têm total certeza do que fazem.

Enquanto isso, Microsoft, Google, Meta, OpenAI e outras gigantes da tecnologia correm soltas para criar sistemas que lhes concederão muito poder e dinheiro. A verdade é que quem dominar a IA dominará o mundo nos próximos anos.

Os aceleracionistas efetivos afirmam que eles são o antídoto contra o pessimismo dos que querem regular a inteligência artificial, algo que diminuiria o ritmo da inovação, o que, para eles, seria o equivalente a um pecado. Mas quanto disso é real e quanto é apenas uma “atitude de manada” inconsequente?

Sou favorável que a IA se desenvolva ainda mais. Porém, se nenhum limite for imposto, ainda que de responsabilização quando algo der errado, as big techs farão o mesmo que fizeram com as redes sociais. E vejam onde isso nos levou!

Não podemos perder o foco em nossa humanidade, que nos permite distinguir verdade de mentira, certo de errado! Só assim continuaremos desenvolvendo novas e incríveis tecnologias, sem ameaçar a sociedade.

Afinal, a ética consciente é o que nos diferencia dos animais, e agora, pelo jeito, também das máquinas!


Antes de encerrar, gostaria de fazer uma nota pessoal. Ainda que discorde filosoficamente dos aceleracionistas efetivos, acho o debate válido, se feito de forma construtiva. Pessoas com pontos de vista diferentes encontram juntas boas soluções que talvez não conseguiriam sozinhas, justamente por terem visões parciais de um tema. Para isso, necessitamos de conhecimento e de vontade de fazer o bem. Esse é um dos motivos para eu iniciar em 2024 meu doutorado na PUC-SP, sob orientação de Lucia Santaella, para pesquisar o impacto da inteligência artificial na “guerra” pelo que as pessoas entendem como “verdade”, algo determinante em suas vidas.

 

O CEO da OpenAI, Sam Altman, que ganhou a briga contra o antigo conselho da empresa - Foto: Steve Jennings/Creative Commons

Como a confusão na OpenAI determinará nossas vidas

By | Tecnologia | No Comments

Nessa quarta (30), o lançamento do ChatGPT completa seu primeiro aniversário. É bem pouco tempo para um produto que mudou a maneira como fazemos muitas coisas em nossas vidas. Isso se deu não por seus próprios recursos, limitados a escrever textos (ainda que de maneira surpreendente), mas por ter iniciado a corrida da inteligência artificial generativa, que invadiu todo tipo de ferramenta de produtividade.

Por uma infame coincidência, a OpenAI, criadora do sistema, quase deixou de existir na semana passada. Na sexta anterior (17), Sam Altman, fundador e CEO da empresa, foi sumariamente demitido, pegando o mundo da tecnologia –e aparentemente ele mesmo– de surpresa. A OpenAI só não desapareceu por uma cinematográfica sequência de eventos, que puseram Altman de volta na sua cadeira em apenas cinco dias.

Isso já tornaria essa história incrível, mas pouco se sabe e menos ainda se fala dos elementos mais suculentos em seus bastidores. Afinal, o que faria o conselho de administração da OpenAI mandar embora a estrela mais brilhante do Vale do Silício no momento, em plena ascensão?

A resposta é profundamente mais complexa que uma simples “quebra de confiança”, apresentada na justificativa. O real motivo são visões conflitantes sobre como o desenvolvimento da inteligência artificial deve continuar acontecendo. De um lado, temos uma maneira mais lenta e cuidadosa, até para se evitar que ela “saia do controle” e ameace a humanidade. Do outro, há os que defendam que isso aconteça de forma acelerada, criando freneticamente novos e fabulosos produtos com ela.


Veja esse artigo em vídeo:


Sam Altman faz parte do segundo grupo. Os agora ex-membros do conselho de administração da OpenAI fazem parte do outro.

No fim de semana seguinte a sua demissão, Altman tentou sem sucesso reassumir o cargo. Então a Microsoft, que é a principal investidora da OpenAI, anunciou na segunda (20) a sua contratação para liderar um novo centro de pesquisa de inteligência artificial. Disse ainda que aceitaria qualquer profissional da OpenAI que quisesse acompanhar Altman.

No dia seguinte, em um movimento ousado, cerca de 700 trabalhadores da startup publicaram uma carta aberta exigindo a readmissão de Altman e a renúncia dos membros do conselho. Caso contrário, todos se demitiriam, o que na prática acabaria com a empresa. Na quarta, Altman estava de volta e os conselheiros se demitiram.

A Microsoft não tinha nenhum interesse no fim da OpenAI, portanto contratar Altman foi uma jogada de mestre, por forçar a reação das suas equipes. Depois de investir US$ 13 bilhões na startup, seus produtos estão sendo gradualmente integrados aos da gigante, como o pacote 365 (antigo Office) e o buscador Bing. Além disso, a OpenAI está pelo menos seis meses à frente da concorrência, como Google e Meta, o que é um tempo enorme nas pesquisas de IA, e isso não pode ser jogado no lixo.

A confusão na OpenAI não se trata, portanto, se Altman estava fazendo um bom trabalho. Segundo o New York Times, ele e os antigos conselheiros já vinham brigando há mais de um ano, pois o executivo queria acelerar a expansão dos negócios, enquanto eles queriam desacelerar, para fazer isso com segurança.

Vale dizer que a OpenAI foi fundada em 2015 como uma organização sem fins lucrativos, para construir uma superinteligência artificial segura, ética e benéfica à humanidade. Mas a absurda capacidade de processamento que a inteligência artificial exige levou à criação de um braço comercial do negócio, em 2018.

 

A “mãe de todas as IAs”

Altman sempre disse que buscava o desenvolvimento de uma inteligência artificial geral (IAG), um sistema capaz de realizar qualquer tarefa por iniciativa própria, até mesmo se modificar para se aprimorar. Isso é muito diferente das IAs existentes, que realizam apenas um tipo tarefa e dependem de serem acionadas por um usuário.

Alguns pesquisadores afirmam que a IAG, que superaria largamente a capacidade cognitiva humana, jamais existirá. Outros dizem que já estamos próximos dela.

Na semana passada, a OpenAI deu mais um passo nessa busca, com o anúncio da Q* (lê-se “Q-Star”, ou “Q-Estrela”, em tradução livre), uma IA ainda mais poderosa que as atuais. Esse sistema pode ter contribuído para a demissão de Altman.

Nada disso é um “papo de nerd”. Se chegaremos a ter uma inteligência artificial geral ou até com que agressividade a IA transformará todo tipo de ferramentas já impacta decisivamente como vivemos. E isso vem acontecendo de maneira tão rápida, que mesmo os pesquisadores estão inseguros sobre benefícios e riscos que isso envolve.

Há ainda preocupações geopolíticas: se as grandes empresas ocidentais não fizerem isso, regimes autoritários e fundamentalistas podem chegar lá, com consequências imprevisíveis para a ordem mundial. Mas também não podemos ver candidamente o Vale do Silício como um campeão da liberdade e da ética. Eles querem dinheiro, e casos como o da OpenAI e de muitas redes sociais ilustram isso.

Mesmo uma “IA legítima” pode ser usada de forma antiética e abusiva. Acabamos de ver isso na eleição presidencial argentina, com os candidatos usando essas plataformas para se comunicar melhor com seus eleitores, mas também para criar imagens depreciativas dos concorrentes. O mesmo deve acontecer aqui nas eleições municipais de 2024. Tanto que o Tribunal Superior Eleitoral (TSE) já busca como coibir a bagunça. A inteligência artificial deve, portanto, nos preocupar desde um improvável extermínio da humanidade até problemas pelo seu uso incorreto em nosso cotidiano.

Os robôs têm “leis” para que não se voltem contra nós, propostas pelo escritor Isaac Asimov, em 1942. São elas: “um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal”, “um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que entrem em conflito com a Primeira Lei” e “um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.” Mais tarde, ele acrescentou a “Lei Zero”: “um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.”

Elas parecem suficientes, mas são apenas uma ideia, enquanto a IA é uma realidade. E mesmo que sejam implantadas no âmago de uma inteligência artificial geral, que garantia temos de que ela não encontre maneiras de alterar seu código para desobedecê-las se assim achar necessário?

Por tudo isso, as decisões do novo conselho da Open AI nos próximos meses, que a devem tornar mais capitalista, afetarão não apenas a empresa, mas o futuro de todos nós. Com tanto dinheiro envolvido, era pouco provável que um grupo de acadêmicos conseguisse desacelerar o desenvolvimento da IA por questões éticas.

No final das contas, estamos fazendo uma aposta entre produtividade e segurança. Uma goleada da primeira começa a se formar. O problema é que aparentemente não temos capacidade de antecipar com certeza o que acontecerá. Temos que estar monitorando a cada momento essa evolução e ter uma tomada física para simplesmente puxar e desligar a coisa toda, se assim for necessário.

 

Tom Cruise viveu pela segunda vez o intrépido piloto da Marinha dos EUA Pete Mitchell, em “Top Gun: Maverick” (2022) - Foto: divulgação

Inteligência artificial pode mandar “Top Gun” para o museu

By | Tecnologia | No Comments

Em 1986, plateias do mundo todo prenderam a respiração diante das acrobacias aéreas de Tom Cruise nas telas de cinema em “Top Gun”. Ele repetiu a dose em “Maverick”, a segunda maior bilheteria de 2022, rendendo US$ 1,4 bilhão, logo atrás de “Avatar 2”. Agora a inteligência artificial pode fazer essas peripécias virarem peças de museu, ao tornar pilotos de caça obsoletos e desnecessários.

Duas notícias recentes, uma do The New York Times e outra do The Washington Post, revelam planos dos militares de usar essa tecnologia em novas gerações de aviões e de drones. Ela seria capaz de tomar decisões mais rápidas e precisas que os pilotos, até os mais experientes.

A ideia é controversa. Muito se tem debatido sobre a substituição das mais diversas categorias profissionais por robôs, considerando o impacto social dessa mudança. Mas o que se propõe agora é uma máquina tomar decisões que efetivamente visam a morte de pessoas.

Diversos aspectos éticos são levantados nessa hora. Os próprios pilotos veem isso com ressalva, e não apenas porque podem perder seu emprego daqui um tempo. Afinal, uma máquina pode decidir sobre a vida ou a morte de um ser humano? E se isso realmente acontecer no controle de aviões de combate, quanto faltará para vermos robôs policiando nossas ruas e tomando as mesmas decisões letais por sua conta na vizinhança?


Veja esse artigo em vídeo:


Não estamos falando da atual geração de drones militares, que, apesar de úteis, são bem limitados. Um bom exemplo do que vem por aí é o veículo aéreo não tripulado experimental XQ-58A, conhecido como “Valkyrie”, da Força Aérea americana. Ele, se parece muito mais a um caça furtivo futurista, apesar de ser bem menor que os aviões de combate. É impulsionado por um motor de foguete e é capaz de voar de um lado ao outro da China, carregando munições poderosas.

Mas seu grande diferencial é o controle por inteligência artificial, podendo tomar decisões sozinho, apesar de os militares afirmarem que só executará ações letais se autorizado por um ser humano. Ele pode voar diferentes tipos de missões, inclusive apoiando pilotos em seus caças, aumentando o sucesso e preservando suas vidas.

Como sempre, uma guerra não se ganha apenas com os melhores soldados, mas também com a melhor tecnologia. Mas até agora a decisão de matar sempre recaiu sobre os primeiros. O que pode estar diante de nossos olhos é o surgimento de armas que tomem essa decisão seguindo seus critérios, um ponto sensível para os EUA, pelo seu histórico de ataques ilegais com drones convencionais que mataram civis.

Diante disso, o general Mark Milley, principal conselheiro militar do presidente americano, Joe Biden, afirmou que os EUA manterão “humanos à frente da tomada de decisões”. Ele recentemente conclamou forças armadas de outros países a adotar o mesmo padrão ético.

Nesse ponto, caímos em um outro aspecto crítico desse avanço. Países que adotem essas “boas práticas” poderiam ficar em desvantagem diante de outras potências militares e tecnológicas não tão “comprometidas”, com o maior temor recaindo sobre a China. Como a guerra é, por definição, algo “sujo”, seguir as regras poderia então criar uma desvantagem catastrófica.

Outra mudança trazida pela IA ao tabuleiro armamentista é a entrada de novas empresas fornecedoras de equipamentos. No caso da Força Aérea americana, dois nomes surgem quando pensamos na indústria de caças: a Lockheed Martin e a Boeing. Esses casamentos comerciais são tão antigos e poderosos que sua tecnologia jamais chega, por exemplo, a países menores ou –pior– a grupos guerrilheiros.

Com a pulverização de drones com IA relativamente baratos, muitas outras empresas passam a disputar esses bilionários orçamentos. O “Valkyrie”, produzido pela Kratos (fundada em 1994) custa cerca de US$ 7 milhões. Pode parecer muito, mas é bem menos que os US$ 80 milhões de um F-35 Lightning II, da Lockheed Martin. Outros modelos podem custar ainda menos, na casa de US$ 3 milhões.

O receio é que esses fabricantes passem depois a oferecer tecnologia militar de ponta a terroristas e ditadores. E aí o medo de maus usos pela China vira “café pequeno”.

 

Campo de testes

O poder da inteligência artificial contra exércitos poderosos está sendo colocado à prova na invasão da Ucrânia. Seu exército vem usando drones bem mais simples que os citados, mas que já contam com recursos de IA, para atacar tropas russas. Mesmo quando essas aeronaves perdem o contato com seus pilotos remotos, devido aos sistemas de interferência do inimigo, ainda completam sua missão por conta própria.

De fato, a Ucrânia vem se tornando um frutífero campo de testes desses armamentos, que vêm sendo produzidos aos milhares. Além de poderem refinar seus equipamentos em situações reais de combate, os fabricantes podem fazer testes que dificilmente podem acontecer em um país que não esteja em guerra.

Os militares sabem que a inteligência artificial toma decisões erradas. Basta ver as falhas –algumas fatais– de carros autônomos nos últimos anos. Mesmo a tecnologia militar sempre sendo muito mais refinada e cara que a civil, não há garantias quanto a sua precisão. E há outros aspectos a serem considerados.

O primeiro é que a IA pode ser excelente em decisões a partir de padrões conhecidos, mas pode se confundir bastante diante do desconhecido e do inesperado, algo que permeia qualquer campo de batalha. Além disso, máquinas não possuem uma bússola moral, que norteia algumas das melhores decisões de um soldado.

É inevitável pensar no filme RoboCop (1987), em que um policial dado como morto é praticamente transformado em um robô. Apesar de ser obrigado a seguir diretivas em seu sistema, o que o tornava realmente eficiente era a humanidade que sobreviveu em seu cérebro. Isso lhe permitia vencer robôs de combate mais poderosos.

Tudo isso me faz lembrar da Guerra do Golfo, que aconteceu entre 1990 e 1991, quando os americanos invadiram o Iraque. Os militares invasores exterminavam o inimigo de longe, quase sem entrar em combate. Na época, um especialista criticou “soldados que querem matar, mas não querem morrer”.

A inteligência artificial pode potencializar isso. É claro que ninguém quer morrer e todos querem vencer um conflito, de preferência logo. Mas quem ganha algo com isso, além da indústria armamentista? Se a Rússia tivesse essa tecnologia, talvez a Ucrânia tivesse deixado de existir em poucas semanas dessa nefasta invasão atual.

Esse é um dos casos em que a inteligência artificial nunca deveria ser usada. Mas seria uma ilusão pueril acreditar que isso não acontecerá. Talvez o futuro da guerra pertença mesmo às máquinas autônomas. Só espero que isso não aconteça também em policiais-robôs nas ruas de nossos bairros.

 

Neo luta contra o Agente Smith em “Matrix Revolutions” (2003): mundo digital criado para iludir a humanidade - Foto: divulgação

Se deixarmos, a inteligência artificial escolherá o próximo presidente

By | Tecnologia | No Comments

Nas eleições de 2018, eu disse que o presidente eleito naquele ano seria o que usasse melhor as redes sociais, e isso aconteceu. Em 2022, antecipei a guerra das fake news, que iludiram o eleitorado. Para o pleito de 2026, receio que a tecnologia digital ocupe um espaço ainda maior em nossas decisões, dessa vez pelo uso irresponsável da inteligência artificial.

Não estou dizendo que a IA escolherá por sua conta qual é o melhor candidato. A despeito de um medo difuso de que máquinas inteligentes nos exterminem, isso não deve acontecer porque, pelo menos no seu estágio atual, elas não têm iniciativa ou vontade própria: fazem apenas o que lhes pedimos. Os processos não são iniciados por elas. Temos que cuidar para que isso continue dessa forma.

Ainda assim, a inteligência artificial generativa, que ganhou as ruas no ano passado e que tem no ChatGPT sua maior estrela, atingiu um feito memorável: dominou a linguagem, não apenas para nos entender, mas também para produzir textos, fotos, vídeos, músicas muito convincentes.

Tudo que fazemos passa pela linguagem! Não só para nos comunicar, mas nossa cultura e até nosso desenvolvimento como espécie depende dela. Se agora máquinas com capacidades super-humanas também dominam esse recurso, podemos ser obrigados a enfrentar pessoas inescrupulosas que as usem para atingir seus objetivos, a exemplo do que foi feito com as redes sociais e com as fake news.


Veja esse artigo em vídeo:


A inteligência artificial não sai das manchetes há seis meses. Mesmo com tanta informação, as pessoas ainda não sabem exatamente como funciona e o que pode ser feito com ela. E isso é um risco, pois se tornam presas daquele que entendem.

É aí que mora o perigo para as eleições (e muito mais), com o uso dessa tecnologia para iludir e convencer. “No Brasil, as próximas eleições presidenciais serão daqui a três anos, e a tecnologia estará ainda mais avançada”, afirma Diogo Cortiz, professor da PUC-SP e especialista em IA. “A gente vai partir para um discurso não só textual, mas também com vídeo, som, fotografias ultrarrealistas, que farão ser muito difícil separar o real do que é sintético”, explica.

Não nos iludamos: vai acontecer! Esse é o capítulo atual do jogo em que estamos há uma década, em que a tecnologia digital é usada como ferramenta de convencimento. E, como sempre, ela não é ruim intrinsicamente, mas, se não houver nenhuma forma de controle, pessoas, empresas, partidos políticos podem abusar desses recursos para atingir seus fins, até de maneira criminosa.

Entretanto, não somos vítimas indefesas. Da mesma que esses indivíduos não deveriam fazer esses usos indecentes da tecnologia para nos manipular, cabe a cada um de nós usá-la conscientemente. Por mais que pareça mágica ao responder a nossos anseios de maneira tão convincente, ela erra, e muito! Por isso, não podemos pautar decisões importantes no que a IA nos entrega sem verificar essas informações.

O ser humano sempre teve medo de ficar preso em um mundo de ilusões. O filósofo e matemático grego Platão (428 a.C. – 348 a.C.) antecipou isso em seu “Mito da Caverna”. Nos dias atuais, o assunto permeia a ficção, como na série de filmes “Matrix”, curiosamente um mundo falso criado por máquinas para iludir a humanidade.

 

Intimidade com a máquina

Há um outro aspecto que precisamos considerar. Assim como a IA primitiva das redes sociais identifica nossos gostos, desejos e medos para nos apresentar pessoas e conteúdos que nos mantenham em nossa zona de conforto, as plataformas atuais também podem coletar e usar essa informação para se tornarem ainda mais realistas.

Hoje vivemos no chamado “capitalismo de vigilância”, em que nossa atenção e nosso tempo são capturados pelas redes sociais, que os comercializa como forma eficientíssima de vender desde quinquilharias a políticos.

Com a inteligência artificial, a atenção pode ser substituída nessa função pela intimidade. “Eu vejo vários níveis de consequência disso: sociais, cognitivos e psicológicos”, afirma Cortiz, que tem nesse assunto um dos pontos centrais de suas pesquisas atuais. “Se a pessoa começar a projetar um valor muito grande para essa relação com a máquina e desvalorizar a relação com o humano, a gente tem um problema, porque essa intimidade é de uma via só: o laço não existe.”

“O cérebro funciona quimicamente, buscando o menor consumo com o maior benefício”, explica Victoria Martínez, gerente de negócios e data science da empresa de tecnologia Red Hat para a América Latina. Para ela, uma das coisas que nos define como humanos é nossa capacidade de pensar coisas distintas, e não podemos perder isso pela comodidade da IA. E alerta do perigo implícito de crianças e adolescentes usarem essa tecnologia na escola, entregando trabalhos sem saber como foram feitos. “É muito importante aprender o processo, pois, para automatizarmos algo, precisamos entender o que estamos fazendo”, acrescenta.

A qualidade do que a inteligência artificial nos entrega cresce de maneira exponencial. É difícil assimilarmos isso. Assim pode chegar um momento em que não saberemos se o que nos é apresentado é verdade ou mentira, e, no segundo caso, se isso aconteceu por uma falha dos algoritmos ou porque eles foram usados maliciosamente.

Isso explica, pelo menos em parte, tantos temores em torno do tema. Chegamos a ver em março mais de mil de pesquisadores, especialistas e até executivos de empresas do setor pedindo que essas pesquisas sejam desaceleradas.

É por isso que precisamos ampliar o debate em torno da regulação dessa tecnologia. Não como um cabresto que impedirá seu avanço, mas como mecanismos para, pelo menos, tentar garantir responsabilidade e transparência de quem desenvolve essas plataformas e direitos e segurança para quem as usa.

Isso deve ser feito logo, e não apenas depois que o caos se instale, como aconteceu com as redes sociais. Agora, no meio do turbilhão, vemos como está sendo difícil regulamentá-las, graças aos interesses dos que se beneficiam dessa situação.

“Por enquanto, nós temos o controle”, afirma Martínez. “Então espero que a democracia não seja dominada por uma máquina.”

É verdade, mas temos que nos mexer. E que isso seja feito pelas nossas aspirações, e não porque algo deu muito errado!

 

Matt Hicks, CEO da Red Hat, durante a abertura do Red Hat Summit 2023: “esse é o momento da IA” - Foto: Paulo Silvestre

Inteligência artificial produz coisas incríveis, mas não podemos perder nosso protagonismo

By | Tecnologia | No Comments

Estive na semana passada em Boston (EUA), participando do Red Hat Summit, maior evento de software open source do mundo. Apesar desse modelo de desenvolvimento de programas aparecer a todo momento, a estrela da festa foi a inteligência artificial. E algo que me chamou a atenção foi a preocupação da Red Hat e de seus executivos em demonstrar como essa tecnologia, por mais poderosa que seja, não deve fazer nada sozinha, precisando ser “treinada” com bons dados, com o ser humano ocupando o centro do processo.

O próprio CEO, Matt Hicks, abriu a conferência dizendo que esse é o “momento da IA”. Muitos dos principais anúncios do evento, como o Ansible Lightspeed e o OpenShift AI, embutiam um incrível poder da inteligência artificial na automação de tarefas, como geração de código a partir de pedidos simples em português, liberando o tempo das equipes para funções mais nobres.

Isso não quer dizer, entretanto, que os profissionais possam simplesmente “terceirizar” o raciocínio e a sua criatividade para as máquinas. Pelo contrário, por mais fabulosas que sejam essas ferramentas, elas pouco ajudam se o usuário não conhecer pelo menos o essencial do que os sistemas produzem.

Tanto é verdade que assistimos a casos de pessoas e de empresas que enfrentam grandes contratempos por usar plataformas generalistas de inteligência artificial (como o ChatGPT) de maneira descuidada. Precisamos ter em mente que, por mais que ela chegue a parecer mágica, não é infalível!


Veja esse artigo em vídeo:


Foi o que aconteceu recentemente com o advogado americano Steven Schwartz, da firma Levidow, Levidow & Oberman, com mais de 30 anos de experiência: ele enfrentará agora medidas disciplinares por usar o ChatpGPT para pesquisas para o caso de um cliente que processava a Avianca. Tudo porque apresentou à corte um documento com supostos casos semelhantes envolvendo outras empresas aéreas.

O problema é que nenhum desses casos existia: todos foram inventados pelo ChatGPT. Schwartz ainda chegou a perguntar à plataforma se os casos eram reais, o que ela candidamente confirmou. É o que os especialistas chamam de “alucinação da inteligência artificial”: ela apresenta algo completamente errado como um fato, cheia de “convicção”, a ponto de conseguir argumentar sobre aquilo.

“Nessa nova fase, temos que conhecer a pergunta para qual queremos a resposta”, explicou-me Hicks, em uma conversa com jornalistas durante o Summit. “Se você for um novato, poderá criar melhor, mais rápido; se for um especialista, poderá melhorar muito o que faz e usar seu domínio para refinar a entrega”, concluiu.

Para Paulo Bonucci, vice-presidente e gerente-geral da Red Hat para a América Latina, “não adianta você chegar com inteligência artificial assustando a todos, dizendo que vai faltar emprego”. Para o executivo, a transformação que a inteligência artificial promoverá nas empresas passa por uma transformação cultural nos profissionais. “A atenção principal enquanto se desenvolvem os códigos e as tecnologias de inteligência artificial são as pessoas, são os talentos”, acrescenta.

Chega a ser reconfortante ver lideranças de uma empresa desse porte –a Red Hat é a maior empresa de soluções empresariais open source do mundo– demonstrando essa consciência. Pois não se enganem: a inteligência artificial representa uma mudança de patamar tecnológico com um impacto semelhante ao visto com a introdução dos smartphones ou da própria Internet comercial.

A diferença é que, no mundo exponencial em que vivemos, as transformações são maiores e os tempos são menores. E nem sempre as empresas e ainda mais as pessoas têm sido capazes de absorver esse impacto.

 

Corrida do ouro

Infelizmente o que se vê é uma corrida tecnológica, que pode estar atropelando muita gente por descuido e até falta de ética de alguns fabricantes. “Existem empresas grandes que fazem anúncios quando sua tecnologia não está madura”, afirma Victoria Martínez, gerente de negócios e data science da Red Hat para a América’ Latina. “Essa corrida tornou-se muito agressiva”.

É interessante pensarmos que as pesquisas em inteligência artificial existem há décadas, mas o assunto se tornou um tema corriqueiro até entre não-especialistas apenas após o ChatGPT ser lançado, em novembro. Não é à toa que se tornou a ferramenta (de qualquer tipo) de adoção mais rápida da história: todos querem usar o robô para passar para ele suas tarefas. E, graças a essa corrida, isso tem sido feito de maneira descuidada, pois alguns fabricantes parecem não se preocupar tanto com perigos que isso pode representar.

“Isso é uma coisa que a gente deveria estar discutindo mais”, sugere Eduardo Shimizu, diretor de ecossistemas da Red Hat Brasil. “Entendo que nós, não só como especialistas em segurança ou em tecnologia, mas como seres humanos, precisamos discutir esses temas éticos da forma de usar a tecnologia”, acrescenta.

Martínez lembra das preocupações que educadores vêm apresentando sobre o uso de plataformas de IA generativas, como o próprio ChatGPT por crianças. “Não podemos esquecer de aprender o processo”, alerta. Em uma situação limite, seria como entregar uma calculadora a uma criança que não sabe sequer conceitualmente as quatro operações básicas. Ela se desenvolveria como um adulto com seríssimos problemas cognitivos e de adaptação à realidade.

Por isso, a qualquer um que não saiba fazer uma divisão deveria ser proibido usar uma calculadora. Por outro lado, para quem domina suficientemente a matemática, a calculadora e mais ainda uma planilha eletrônica são ferramentas inestimáveis.

É assim que devemos encarar essa mudança de patamar tecnológico. Como escreveu Hicks em um artigo recente, “não sabemos o que o futuro reserva –nem mesmo o ChatGPT é precognitivo ainda. Isso não significa que não podemos antecipar quais desafios enfrentaremos nos próximos meses e anos.”

Quaisquer que sejam, quem deve estar no comando somos nós. Os robôs, por sua vez, serão ajudantes valiosíssimos nesse processo.


Você pode assistir à íntegra em vídeo das minhas entrevistas com os quatro executivos da Red Hat. Basta clicar no seu nome: Matt Hicks, Paulo Bonucci, Victoria Martínez e Eduardo Shimizu.