Monthly Archives: maio 2024

Matt Hicks, CEO da Red Hat, explica a integração entre inteligência artificial e open source - Foto: Paulo Silvestre

Open source fortalece confiança e pode popularizar inteligência artificial

By | Tecnologia | No Comments

A corrida pela inteligência artificial acontece não apenas entre as big techs, que buscam estabelecer a dominância nesse mercado bilionário, mas também entre profissionais e empresas que querem construir uma vantagem sobre seus concorrentes, pelo uso dessa tecnologia. Agora o open source, modelo de produção e distribuição em que qualquer um pode propor melhorias em softwares, chega com ideias que podem tornar a IA mais segura, fácil e profissional.

Desde que o ChatGPT a apresentou às massas há 18 meses, seu avanço acontece a passos largos. Mas apesar de algumas aplicações disponíveis parecerem mágicas em seus resultados, a IA ainda está engatinhando. Muitos dos usos que vêm sendo feitos dela são poucos profissionais e podem até expor dados sigilosos.

Em grande parte, isso acontece porque as pessoas usam ferramentas genéricas, construídas para respostas sobre qualquer assunto, como o próprio ChatGPT. O amadurecimento desse mercado passa, portanto, pela oferta de plataformas que permitam que as empresas criem e ajustem seus próprios modelos, adequados a necessidades específicas e com suas informações usadas de maneira segura.

Durante o Red Hat Summit, maior evento de open source do mundo, que aconteceu em Denver (EUA) na semana passada, a Red Hat, líder global de soluções nesse formato, apresentou o InstructLab, plataforma que propõe solucionar esses problemas. Ela permite que qualquer pessoa, mesmo sem conhecimento técnico, contribua com o desenvolvimento de modelos de IA para seus negócios.


Veja esse artigo em vídeo:


Construído sobre o LLM (modelo de linguagem ampla) Granite, da IBM, a plataforma sintetiza dados a partir de informações do cliente, mesmo em pequenas quantidades, tentando vencer um problema atual dos grandes LLMs, que exigem volumes colossais de informação para seu treinamento, e estão esbarrando na falta de novo conteúdo. Com a ação dos usuários, esse modelo sintético tende a ficar melhor por uma fração dos custos de um desenvolvimento tradicional, para aplicações específicas.

“Isso permite que comunidades de pessoas ensinem os LLMs a aprender da mesma forma que os humanos aprendem”, explica Matt Hicks, CEO da Red Hat. “Ao permitir a qualquer pessoa que contribua para um modelo e ajustá-lo de novas maneiras, podemos realmente desbloquear o potencial da especialização em um assunto.”

“Talvez seja isso que de fato popularizará nas empresas esse modelo que a população experimentou, mas aplicado ao seu negócio, combinado com seus dados, com as suas informações”, sugere Gilson Magalhães, presidente da Red Hat Brasil. “Isso é revolucionário!”

Explicando de maneira mais simples, as empresas continuam se beneficiando das informações e da capacidade de produção dos grandes LLMs, mas agora podem construir modelos especializados para suas necessidades, a partir de seus dados e das habilidades e do conhecimento de sua equipe. “A tecnologia entra, mas sem os talentos, sem as pessoas, jamais se alcançará a transformação como ela deve ser feita”, afirma Paulo Bonucci, diretor-geral da Red Hat Latin America.

“O mundo não será composto por um único modelo, e sim, cada vez mais, por modelos especializados”, explica Thiago Araki, diretor de tecnologia da Red Hat Latin America. “Ao invés de usar um modelo de forma genérica, para qualquer caso, teremos modelos pequenos para usos específicos, para cada negócio.”

O amadurecimento do mercado implica também nas empresas entenderem que são responsáveis ao usar decisões tomadas pela IA. “Já existem ferramentas que ajudam nessa auditoria, mas trabalhar com código aberto permite identificar como e por que essas decisões foram tomadas e com quais dados”, detalha Victoria Martínez Suárez, líder em inteligência artificial da Red Hat Latin America.

 

Questões regulatórias

Todos esses executivos, com quem conversei em Denver, afirmam ser necessária alguma forma de regulamentação da tecnologia, naturalmente em um sentido que não prejudique seu desenvolvimento, mas para proteger os usuários de abusos econômicos das big techs e para dar segurança jurídica ao mercado.

Bonucci acredita que a legislação ideal deveria ficar entre a Lei da Inteligência Artificial, aprovada no mês passada pela União Europeia, e a proposta americana. A primeira é um documento extenso e detalhado, construído principalmente sobre os diferentes níveis de risco que a inteligência artificial pode oferecer às pessoas, orientando seu uso. Já o modelo dos EUA delega a decisão sobre o que pode ou não ser feito às diferentes agências regulatórias já existentes.

“A rastreabilidade e a transparência são exigidas em alguns setores, em outros são recomendadas”, explica Martínez. “Ter isso claro é bom porque, em algum momento, essas informações podem ser solicitadas para qualquer problema que ocorra.”

No momento, o Congresso Nacional analisa o Projeto de Lei 2338/23, que guarda muita semelhança com a lei europeia. Os legisladores brasileiros têm o desafio de criar regras claras para evitar que se repita na IA o que se vê nas redes sociais, que gostam de não dar satisfações, e com isso vêm causando muitos danos a usuários e à sociedade como um todo. “A regulação é um princípio ocidental muito útil para garantir que empresas e pessoas não sejam massacradas por qualquer que seja o domínio”, afirma Magalhães. “Mas ela tem que ser sábia para proteger, sem inibir”.

Tudo isso se faz necessário para que essa tecnologia, que evolui de forma exponencial, deixe de ser uma curiosidade e passe a trazer benefícios claros para pessoas e companhias. Por mais que esteja ainda em seus estágios incipientes, precisamos compreender seu funcionamento e recursos.

“A proposta é trabalhar não tecnologia por tecnologia, e sim algo que vai trazer impacto ao negócio”, acrescenta Araki. “Não devemos usar IA generativa só porque está na moda, e sim fazer o uso disso quando tem algum sentido para o negócio.”

É incrível pensar que, há apenas 18 meses, quase ninguém falava de inteligência artificial. No ano passado, ficamos deslumbrados com suas possibilidades. Agora estamos encontrando novas formas de nos apropriarmos dela. Assim, para que, no ano que vem, ela nos traga ainda mais benefícios, esse debate precisa ser ampliado.


Clique nos links para assistir à íntegra em vídeo das entrevistas com os executivos acima:

 

Sam Altman, CEO da OpenAI, líder global no desenvolvimento da inteligência artificial, no Fórum Econômico Mundial – Foto: reprodução

Sociedade exige da IA uma transparência que ela mesmo não pratica

By | Tecnologia | No Comments

Muito além do aquecido debate sobre legislações que organizem o uso da inteligência artificial, começa a se formar um consenso sobre alguns valores em torno dessa tecnologia, como uso e desenvolvimento responsáveis, decisões rastreáveis e dois conceitos que se confundem e são pouco conhecidos: transparência e explicabilidade. Todos são essenciais para que os impactos da IA sejam positivos. Mas a sociedade está exigindo algo dessas plataformas que ela mesma não pratica.

Se fizermos uma autoanálise, perceberemos que conscientemente não somos transparentes em muitas coisas de nosso cotidiano, assim como tampouco são empresas e instituições. Como exemplo, uma das maiores falhas das redes sociais, que levou à insana polarização da sociedade e a problemas de saúde mental de seus usuários, é a completa falta de transparência das decisões de seus algoritmos.

Diante disso, alguns especialistas afirmam que exigir esse nível de responsabilidade e transparência das plataformas de IA é um exagero e até, de certa forma, hipocrisia.

Talvez… Mas o fato de cultivarmos esses maus hábitos não pode ser usado para desestimular a busca desses objetivos nessa tecnologia com potencial de ofuscar a transformação que as redes sociais fizeram, que, por sua vez, deixou pequena as mudanças promovidas pela mídia tradicional anteriormente.

Se não tomarmos as devidas precauções, a inteligência artificial pode causar graves consequências para a humanidade pelas ações de grupos que buscam o poder de forma inconsequente. Por isso, ela precisa ser organizada para florescer como uma tecnologia que ampliará nossas capacidades criativas e de produção.

Sem esses pilares éticos, sequer confiaremos no que a IA nos disser, e então tudo irá por água abaixo.


Veja esse artigo em vídeo:


No momento, as plataformas de inteligência artificial funcionam como caixas pretas: colocamos nossos dados e fazemos nossos pedidos de um lado, e nos deslumbramos com os resultados do outro, sem saber como aquela “mágica” foi feita. Apenas quem está dentro das big techs que produzem esses sistemas sabe como aquilo funciona, mas até eles se surpreendem com alguns resultados das suas criaturas, como quando desenvolvem sozinhas habilidades para as quais não foram programadas.

Quando se cria algo que promove profundas mudanças na sociedade, mas não se conhecem seu funcionamento e objetivos, isso pode colocar em risco a própria democracia, não porque exista algo maquiavélico na sua confecção, mas justamente por esse desconhecimento. Não é à toa que legislações para a inteligência artificial ao redor do mundo, com o brasileiro Projeto de Lei 2338/23 e a europeia Lei da Inteligência Artificial, tentem definir rastreabilidade, transparência e explicabilidade.

A rastreabilidade é a capacidade de identificar e acompanhar as ações de um sistema de IA, saber quais dados foram usados para treiná-lo e seus algoritmos, manter registros sobre como chegou a uma determinada decisão e qual foi seu impacto. Isso permite que suas escolhas sejam auditadas e que vieses sejam corrigidos.

Já a transparência se refere às pessoas poderem ser capazes de entender como o sistema de IA funciona, quais dados ele usa e como ele toma decisões. Isso visa garantir que ele seja usado de forma justa e ética, aumentando sua aceitação pública.

Por fim, a explicabilidade se traduz na capacidade de um ser humano compreender as razões complexas pelas quais um sistema de IA toma uma determinada decisão, que fatores contribuíram e como foram ponderados. Ela é importante para identificar erros, prever resultados e garantir a conformidade com padrões éticos e legais.

Se não é fácil entender, mais difícil ainda é entregar esses valores. Os algoritmos mais eficientes são justamente os mais complexos, e uma simples documentação pode não ser suficiente. Ainda assim, o desafio dessa conformidade permanece.

 

Temos que entender

Como exemplo da importância de se entender essas plataformas, podemos pensar na exigência do artigo 20 da Lei Geral de Proteção de Dados (LGPD), que determina que o cidadão pode “solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses”. Mas como ele fará isso se nem compreende como a decisão foi tomada? Da mesma forma, como a empresa revisará a decisão, se tampouco a compreende?

Considerando que a IA estará cada vez mais presente e determinante em nossas vidas, sua compreensão deve ser ensinada até nas escolas, desde a infância, de maneira crescente. Não quer dizer que todos precisem dominar plenamente seu funcionamento: apenas o suficiente para suas necessidades. Fazendo uma comparação com um carro, existe sobre ele os conhecimentos de um projetista, de um mecânico, de um motorista e de um passageiro. E todos usam o carro à sua maneira!

Ao contrário do que alguns dizem, a exigência de que plataformas de inteligência artificial sigam esses preceitos éticos não pode ser visto como ameaça ao seu desenvolvimento e inovação. Pelo contrário, são condições que devem integrar sua própria concepção. A população precisa disso para confiar na inteligência artificial, ou, passada essa fase inicial de deslumbramento, ela poderá deixar de ser considerada como a incrível ferramenta de produtividade que é.

Entendo que as dificuldades para isso sejam imensas. Sei também que nós mesmos não somos transparentes em nosso cotidiano, como já disse. Mas nada disso pode servir como desculpa para se esquivar dessa tarefa. Tampouco é hipocrisia exigir que os desenvolvedores se esmerem para cumprir essas determinações.

Não podemos incorrer no mesmo erro cometido com as redes sociais, que até hoje atuam de maneira inconsequente e sem responsabilidade pelos eventuais efeitos muito nocivos de suas ações. A inteligência artificial já está transformando a sociedade de maneira determinante.

Seríamos inocentes se acreditássemos que essas empresas se autorregularão: seus interesses sempre falarão mais alto nesse caso. Precisamos de regulamentações claras, não para coibir o progresso, mas para dar um norte de bons princípios, para que a inteligência artificial beneficie a todos, e não apenas grupos tecnocratas.