explicabilidade

Tim Cook, CEO da Apple: empresa adiará recursos de IA na União Europeia por causa de lei - Foto: Christophe Licoppe/Creative Commons

Ética não pode ser um luxo ou um item opcional nas plataformas de IA

By | Tecnologia | No Comments

Na sexta (21), a Apple anunciou que adiará na Europa o lançamento dos recursos de inteligência artificial para suas plataformas, apresentados no início do mês. A empresa culpou a Lei dos Mercados Digitais (DMA, na sigla em inglês), criada para evitar abusos das big techs, pela sua decisão, e não deu um prazo para que esses recursos cheguem ao continente.

Alguns europeus podem ficar irritados com a Apple; outros, com a lei. Mas essas regras existem justamente porque as gigantes de tecnologia abusam do poder que têm sobre seus usuários há décadas, criando relações comerciais desequilibradas, francamente desfavoráveis aos clientes.

A decisão da Apple de adiar a liberação desses recursos na Europa e sua oferta no resto do mundo é emblemática, e podemos aprender algo com ela. Em nota oficial, ela disse estar preocupada que os requisitos da DMA comprometam a integridade dos produtos, colocando em risco a privacidade e a segurança dos dados. Oras, se as regras de uma lei que determina boas práticas comerciais e de concorrência ameaçam um serviço, ele não me parece maduro para ser lançado em qualquer mercado.

Isso precisa ser observado em todos os produtos, mas é particularmente importante nos que usam a inteligência artificial. Essa tecnologia é tão poderosa, que, ainda que esteja em seus estágios iniciais, já transforma nossas vidas e o cotidiano de empresas. Nesse cenário, aspectos éticos e de governança são fundamentais para que a sociedade se desenvolva com a IA, evitando que ela aumente ainda mais a concentração de poder nas mãos de poucos grupos.


Veja esse artigo em vídeo:


A Apple já foi multada em março em €1,8 bilhão (cerca de R$ 10,5 bilhões) por infringir a DMA. No caso, o Spotify moveu um processo alegando práticas anticompetitivas pela Apple exigir de que os aplicativos para o iPhone e o iPad sejam instalados exclusivamente a partir da App Store, com a empresa ficando com 30% das transações na sua plataforma. Talvez por isso esteja ressabiada agora.

Graças à DMA, ela agora permite lojas de aplicativos de terceiros, o Google alterou o Android para usuários escolherem seu navegador e buscador, e a Meta concorda que outros serviços conversem com o WhatsApp e o Messenger. A Microsoft já aceita que os usuários desativem o Bing no Windows, e a Amazon solicita o consentimento dos clientes para personalização de anúncios. Por fim, o TikTok permite que os usuários baixem todos seus dados na plataforma. Mas tudo isso só vale para os europeus!

A inteligência artificial traz essas preocupações a um patamar inédito. A partir do momento em que essa tecnologia pode influenciar decisivamente nosso cotidiano e até nossas ações, é preciso entender como ela funciona. A opacidade dos algoritmos, que já causou muita dor de cabeça nas redes sociais, não pode se sentir confortável com a IA.

“A gente já tem uma dinâmica de inteligência artificial muito madura dentro das empresas, mas o tema de governança tem que ser antecipado”, explica Thiago Viola, diretor de inteligência artificial, dados e automação da IBM Brasil. Segundo ele, os gestores precisam adotar a IA com fortes padrões éticos, transparência e explicabilidade, ou seja, permitir aos usuários saberem como a IA foi construída e entenderem como ela tomou cada decisão.

No Brasil, o Congresso analisa o Projeto de Lei 2338/23, que teve uma nova versão de seu texto liberada na semana passada. Em vários pontos, ele se inspira na Lei da Inteligência Artificial, aprovada pelo Parlamento Europeu em março. E os conceitos de transparência, explicabilidade e rastreabilidade aparecem em toda parte.

Viola está certo: as questões éticas nunca devem ser colocadas de lado por interesses comerciais. Agora, com a ascensão galopante da IA, esses temas gritam para gestores, desenvolvedores e usuários. Mas se é assim, por que tantas empresas só parecem atentar a isso quando são obrigadas por força de lei?

 

Conflito de interesses

Precisamos entender que vivemos hoje uma reedição da “corrida do ouro” patrocinada pela inteligência artificial. Quem dominar essa tecnologia mais que seus concorrentes conseguirá um posicionamento determinante no mercado, especialmente porque, nesse caso, alguns meses à frente nessa etapa inicial podem significar uma liderança consolidada por muitos anos.

Diante disso, as empresas do setor, de startups a big techs, querem experimentar, ajustar e correr o quanto puderem agora, de preferência livres de qualquer restrição. Se algo der errado, pode-se considerar isso como justificáveis danos colaterais do processo de inovação supostamente inadiável.

Por conta da entrada em vigor da DMA, em março, conversei sobre isso com Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). “Empresas têm liberdade para oferecer seus produtos e serviços da maneira que considerarem mais estratégica, mas essa liberdade é limitada por leis que procuram prevenir práticas que restrinjam a concorrência”, explicou. E segundo ele, “a questão central é se os benefícios imediatos para os consumidores superam os potenciais prejuízos a longo prazo decorrentes de práticas anticompetitivas”.

Em um mundo capitalista selvagem, a busca incessante pelo lucro e a meritocracia de pessoas e empresas parecem valores  inalienáveis. Mas essa é uma distorção de realidade, como ironicamente o próprio mercado ajuda a desmistificar.

Um cenário de segurança jurídica ajuda muito a própria inovação, especialmente as mais vultosas e de mais impacto social. Basta ver que uma das indústrias mais regulamentadas que há –a farmacêutica– vive de inovação. E ainda que elas não pipoquem a cada mês como nas big techs, são mais duradouras e rentáveis a longo prazo.

Viola adverte que a governança precisa ser levada muito a sério pelas empresas quando se fala de IA, pois problemas associados a ela inevitavelmente acontecerão. “Se você tiver cultura, pessoas e ferramental preparados, o seu padrão de ação é muito mais rápido, mas se você não entende e não sabe o que está acontecendo, isso durará dias, semanas, e cairá na Internet”, explica.

Não proponho, de forma alguma, que a inovação seja desacelerada. Mas já passou da hora de as empresas entenderem que ela precisa ser realizada com ética, sem relaxamentos. Hoje as pessoas ainda estão deslumbradas com a inteligência artificial, despreocupadas com assumirem, como suas, sugestões vindas de uma caixa-preta, da qual nada sabem.

Mas à medida que essas decisões se tornarem mais frequentes e críticas em seu cotidiano, e problemas graves acontecerem por essa falta de transparência, a “lua de mel” acabará.  Ninguém continua usando algo pouco confiável. Se a falta de transparência das empresas com a IA levar a isso, todo esse poder será questionado.


Assista à íntegra em vídeo da conversa com Thiago Viola:

 

Sam Altman, CEO da OpenAI, líder global no desenvolvimento da inteligência artificial, no Fórum Econômico Mundial – Foto: reprodução

Sociedade exige da IA uma transparência que ela mesmo não pratica

By | Tecnologia | No Comments

Muito além do aquecido debate sobre legislações que organizem o uso da inteligência artificial, começa a se formar um consenso sobre alguns valores em torno dessa tecnologia, como uso e desenvolvimento responsáveis, decisões rastreáveis e dois conceitos que se confundem e são pouco conhecidos: transparência e explicabilidade. Todos são essenciais para que os impactos da IA sejam positivos. Mas a sociedade está exigindo algo dessas plataformas que ela mesma não pratica.

Se fizermos uma autoanálise, perceberemos que conscientemente não somos transparentes em muitas coisas de nosso cotidiano, assim como tampouco são empresas e instituições. Como exemplo, uma das maiores falhas das redes sociais, que levou à insana polarização da sociedade e a problemas de saúde mental de seus usuários, é a completa falta de transparência das decisões de seus algoritmos.

Diante disso, alguns especialistas afirmam que exigir esse nível de responsabilidade e transparência das plataformas de IA é um exagero e até, de certa forma, hipocrisia.

Talvez… Mas o fato de cultivarmos esses maus hábitos não pode ser usado para desestimular a busca desses objetivos nessa tecnologia com potencial de ofuscar a transformação que as redes sociais fizeram, que, por sua vez, deixou pequena as mudanças promovidas pela mídia tradicional anteriormente.

Se não tomarmos as devidas precauções, a inteligência artificial pode causar graves consequências para a humanidade pelas ações de grupos que buscam o poder de forma inconsequente. Por isso, ela precisa ser organizada para florescer como uma tecnologia que ampliará nossas capacidades criativas e de produção.

Sem esses pilares éticos, sequer confiaremos no que a IA nos disser, e então tudo irá por água abaixo.


Veja esse artigo em vídeo:


No momento, as plataformas de inteligência artificial funcionam como caixas pretas: colocamos nossos dados e fazemos nossos pedidos de um lado, e nos deslumbramos com os resultados do outro, sem saber como aquela “mágica” foi feita. Apenas quem está dentro das big techs que produzem esses sistemas sabe como aquilo funciona, mas até eles se surpreendem com alguns resultados das suas criaturas, como quando desenvolvem sozinhas habilidades para as quais não foram programadas.

Quando se cria algo que promove profundas mudanças na sociedade, mas não se conhecem seu funcionamento e objetivos, isso pode colocar em risco a própria democracia, não porque exista algo maquiavélico na sua confecção, mas justamente por esse desconhecimento. Não é à toa que legislações para a inteligência artificial ao redor do mundo, com o brasileiro Projeto de Lei 2338/23 e a europeia Lei da Inteligência Artificial, tentem definir rastreabilidade, transparência e explicabilidade.

A rastreabilidade é a capacidade de identificar e acompanhar as ações de um sistema de IA, saber quais dados foram usados para treiná-lo e seus algoritmos, manter registros sobre como chegou a uma determinada decisão e qual foi seu impacto. Isso permite que suas escolhas sejam auditadas e que vieses sejam corrigidos.

Já a transparência se refere às pessoas poderem ser capazes de entender como o sistema de IA funciona, quais dados ele usa e como ele toma decisões. Isso visa garantir que ele seja usado de forma justa e ética, aumentando sua aceitação pública.

Por fim, a explicabilidade se traduz na capacidade de um ser humano compreender as razões complexas pelas quais um sistema de IA toma uma determinada decisão, que fatores contribuíram e como foram ponderados. Ela é importante para identificar erros, prever resultados e garantir a conformidade com padrões éticos e legais.

Se não é fácil entender, mais difícil ainda é entregar esses valores. Os algoritmos mais eficientes são justamente os mais complexos, e uma simples documentação pode não ser suficiente. Ainda assim, o desafio dessa conformidade permanece.

 

Temos que entender

Como exemplo da importância de se entender essas plataformas, podemos pensar na exigência do artigo 20 da Lei Geral de Proteção de Dados (LGPD), que determina que o cidadão pode “solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses”. Mas como ele fará isso se nem compreende como a decisão foi tomada? Da mesma forma, como a empresa revisará a decisão, se tampouco a compreende?

Considerando que a IA estará cada vez mais presente e determinante em nossas vidas, sua compreensão deve ser ensinada até nas escolas, desde a infância, de maneira crescente. Não quer dizer que todos precisem dominar plenamente seu funcionamento: apenas o suficiente para suas necessidades. Fazendo uma comparação com um carro, existe sobre ele os conhecimentos de um projetista, de um mecânico, de um motorista e de um passageiro. E todos usam o carro à sua maneira!

Ao contrário do que alguns dizem, a exigência de que plataformas de inteligência artificial sigam esses preceitos éticos não pode ser visto como ameaça ao seu desenvolvimento e inovação. Pelo contrário, são condições que devem integrar sua própria concepção. A população precisa disso para confiar na inteligência artificial, ou, passada essa fase inicial de deslumbramento, ela poderá deixar de ser considerada como a incrível ferramenta de produtividade que é.

Entendo que as dificuldades para isso sejam imensas. Sei também que nós mesmos não somos transparentes em nosso cotidiano, como já disse. Mas nada disso pode servir como desculpa para se esquivar dessa tarefa. Tampouco é hipocrisia exigir que os desenvolvedores se esmerem para cumprir essas determinações.

Não podemos incorrer no mesmo erro cometido com as redes sociais, que até hoje atuam de maneira inconsequente e sem responsabilidade pelos eventuais efeitos muito nocivos de suas ações. A inteligência artificial já está transformando a sociedade de maneira determinante.

Seríamos inocentes se acreditássemos que essas empresas se autorregularão: seus interesses sempre falarão mais alto nesse caso. Precisamos de regulamentações claras, não para coibir o progresso, mas para dar um norte de bons princípios, para que a inteligência artificial beneficie a todos, e não apenas grupos tecnocratas.

 

Zack Kass (esquerda) e Uri Levine dividem o palco principal no fim do primeiro dia do VTEX Day, que aconteceu em São Paulo - Foto: divulgação

Mais que aumento do desemprego, IA pode levar a uma crise de identidade

By | Tecnologia | No Comments

A enorme visibilidade em torno da inteligência artificial desde que o ChatGPT foi lançado, há um ano e meio, reacendeu o velho temor de que, em algum momento, perderemos os nossos empregos para as máquinas. Mas para o futurista em IA Zack Kass, a tecnologia pode provocar outras mudanças no mundo do trabalho, que podem levar a verdadeiras crises de identidade nas pessoas.

Kass, um dos primeiros profissionais da OpenAI (criadora do ChatGPT), onde atuou por 14 anos, acredita que as pessoas continuarão trabalhando. Mas em muitos casos, elas não poderão fazer o que gostam ou no que foram formadas, porque a função será realizada por um robô. E aí nasce o problema!

“Nós conectamos intrinsicamente nossa identidade de trabalho à nossa identidade pessoal”, explica o executivo, que esteve no Brasil na semana passada para participar do VTEX Day, um dos maiores eventos de e-commerce do mundo. Segundo ele, mesmo que as necessidades das pessoas sejam atendidas, não poderem trabalhar com o que desejam pode lhes causar fortes reações. “Esse é meu maior medo”, disse.

Se nada for feito, essa previsão sombria pode mesmo se concretizar. Diante dessa perspectiva, os profissionais experientes e os recém-formados devem fazer os movimentos certos para não ficarem desempregados ou para não serem jogados nessa crise profissional e de identidade, o que seria ainda mais grave.


Veja esse artigo em vídeo:


O futurista naturalmente não é o único a se preocupar com os impactos da inteligência artificial no mundo do trabalho. “Sempre há o medo de que ela tire nosso emprego”, disse Uri Levine, cofundador do Waze, que dividiu o palco com Kass. “Mas o que sempre aconteceu foi um aumento da produtividade e, portanto, do tamanho do mercado, ocasionalmente mudando os tipos de empregos”, afirmou.

Para Neil Patel, outro palestrante internacional do evento e referência global em marketing, “a inteligência artificial afetará as profissões e algumas pessoas perderão seus empregos”. Ele pondera que a IA também aumentará a produtividade das pessoas, mas, para isso, “elas precisarão ter conhecimento de IA para poderem fazer melhor seu trabalho.”

A aceleração de nossas vidas aumenta a chance do temor de Kass acontecer. “Somos constantemente levados a demonstrar resultados, a aparecer, a aprender coisas diferentes, em um ritmo cada vez mais intenso”, adverte Katty Zúñiga, psicóloga especializada nas interações entre o ser humano e a tecnologia. Ela explica que não podemos perder a nossa essência pessoal e profissional diante de tanta pressão.

Kass afirma que será muito difícil para algumas pessoas entenderem que haverá trabalho disponível, mas não o que elas gostariam de fazer. E mesmo que elas continuem ganhando seu dinheiro, isso poderá deixá-las sem propósito.

Segundo Zúñiga, nossa formação e experiência profissional são fortalezas que podem ajudar a nos posicionar diante do avanço dos robôs sobre nossas funções. Mesmo com máquinas mais eficientes, nossa essência continuará nos acompanhando e nada do que sabemos se perde. “Isso nos torna seres mais estruturados e completos”, explica. A nossa humanidade acaba sendo, portanto, o nosso diferencial!

A psicóloga lembra que isso não é uma briga contra a tecnologia. Ela observa que muitas pessoas estão se entregando a usos indevidos da IA, quando, na verdade, o que precisamos fazer e nos apropriarmos do que ela nos oferece de bom, reforçando o que somos e nossas profissões.

 

Desenvolvimento responsável

De fato, a inteligência artificial deve funcionar apoiando o ser humano, e não representando ameaças a sua integridade física e mental.

Kass ressalta que todo o desenvolvimento dessa tecnologia deveria atender a dois princípios essenciais: o alinhamento e a explicabilidade. O primeiro se refere a quanto as propostas das plataformas estão preocupadas com os interesses dos seres humanos. Já a explicabilidade, como o nome sugere, indica se os sistemas são capazes de explicar ao usuário, com clareza, suas decisões.

Ele diz que essa é uma busca contínua e interminável. “Se pudermos fazer essas duas coisas, então todo o resto torna-se totalmente aceitável, muito menos importante”, afirma Kass.

O futurista defende a regulação internacional da tecnologia para garantir esses dois conceitos, prevenindo desenvolvimentos irresponsáveis. “Qualquer coisa que não esteja falando sobre alinhamento e explicabilidade está introduzindo oportunidades para corrupção e interesses especiais”, conclui.

Todas essas considerações refletem um cenário de transição em que estamos envolvidos com a inteligência artificial. Os avanços dessa tecnologia são galopantes e invadem os mais diversos setores. Por outro lado, de tempos em tempos, os próprios desenvolvedores demonstram surpresa com os resultados de suas criações.

Isso alimenta incertezas e até medos em torno da IA, o que pode levar a decisões desastrosas que impeçam uma adoção construtiva e consciente dessa tecnologia transformadora. Kass possui uma posição privilegiada nessa indústria para poder fazer essas afirmações conscientemente.

Apesar disso (e de certa forma, principalmente por isso), precisamos encontrar mecanismos para garantir esse desenvolvimento responsável, para as máquinas buscarem o melhor para a humanidade, e não apenas para grupos específicos. Isso se dá por legislações maduras e por grandes debates sociais, para conscientização de usuários e de empresas desenvolvedoras.

Esses são caminhos necessários para que a inteligência artificial ajude a humanidade a atingir um novo patamar de produtividade, sem ameaçar a saúde mental das pessoas. E isso deve acontecer não porque as máquinas cuidarão de tudo, mas porque nós mesmos deveremos continuar realizando aquilo que gostamos, porém de maneira mais fácil, rápida e eficiente, com a ajuda delas. A nossa humanidade deve prevalecer!


Assista às íntegras em vídeo das minhas entrevistas com os três executivos. Basta clicar sobre os seus nomes:

Zack Kass, futurista de IA

Neil Patel, referência global em marketing

Uri Levine, cofundador do Waze