Sam Altman, CEO da OpenAI, durante o Fórum Econômico Mundial 2024, que aconteceu em Davos (Suíça), em janeiro - Foto: reprodução

Quem deve ser o “dono” da inteligência artificial?

By | Tecnologia | No Comments

A inteligência artificial generativa é uma tecnologia diferente de tudo criado antes dela. Ao contrário de ferramentas mecânicas ou digitais, que nos ajudam a realizar melhor as mais diversas tarefas, ela se propõe a “entregar o trabalho pronto”. Se por um lado isso é realmente incrível, por outro exige que sejamos muito criteriosos sobre o criador das plataformas que usarmos e sobre suas produções.

Tudo porque essa tecnologia pode efetivamente, a longo prazo, alterar a maneira como pensamos e encaramos o mundo! O problema é que as pessoas não têm consciência disso, e usam essas plataformas despreocupadamente.

Não proponho que os responsáveis por esses sistemas tenham uma motivação maquiavélica de domínio do mundo. Mas as respostas da IA generativa não apenas trazem o conteúdo das fontes usadas em seu treinamento: também refletem a maneira de falar, a cultura e até os valores dos países que mais contribuíram para tal treino. No momento, isso cabe à Europa Ocidental e principalmente aos Estados Unidos, pelo simples fato de a maior parte do conteúdo na Internet ter essas nações como origem.

Isso pode mudar em pouco tempo! Países do Oriente, especialmente a China, investem pesadamente e com regras muito mais frouxas para criarem suas próprias inteligências artificiais generativas, treinadas com seu conteúdo e sua visão de mundo.

No último dia 25, Sam Altman, cofundador e CEO da OpenAI (criadora do ChatGPT), publicou um artigo no The Washington Post (reproduzido em português no Estadão) questionando qual país deve controlar o futuro da IA. Apesar do tom desbragadamente ufanista em favor dos Estados Unidos, ele faz provocações válidas.

Afinal, a nação que dominar a IA dominará o mundo! E isso não pode ser ignorado.


Veja esse artigo em vídeo:


Não concordo com tudo que Altman escreve em sua publicação, a começar pelo seu ímpeto em apresentar os Estados Unidos como um defensor ilibado da liberdade e dos direitos individuais. Sim, isso faz parte dos valores fundamentais daquele país, mas repetidos escândalos de espionagem digital de seus governos e de abusos de poder econômico de empresas americanas, por manipulação e usos indevidos de dados de seus clientes, desqualificam essa premissa de Altman.

Por outro lado, obviamente os Estados Unidos e principalmente a Europa estão muito mais bem-posicionados na defesa da democracia e de liberdades individuais que nações autoritárias, como a China e a Rússia. E a primeira vem forte na corrida da IA.

“Estamos diante de uma escolha estratégica sobre o tipo de mundo em que viveremos”, escreveu Altman. Considerando o poder sem precedentes de influência e até de dominação cultural que a IA generativa cria, essa é uma preocupação legítima. “O ditador russo Vladimir Putin avisa que o país que vencer a corrida da IA ‘se tornará o governante do mundo’, e a China diz que pretende se tornar o líder global em IA até 2030”, completa.

Ele adverte que, se isso acontecer, empresas do mundo todos seriam obrigadas a compartilhar os dados de seus usuários, o que criaria formas de espionagem e recursos para armas cibernéticas sofisticadas. Novamente o temor é válido, mas, em alguma escala, isso já vem sendo feito com as big techs americanas.

O CEO da OpenAI elenca pontos que considera essenciais para se manter a liderança na inteligência artificial: segurança cibernética, infraestrutura física robusta, investimento substancial em capital humano, diplomacia comercial para a IA, e normas para o desenvolvimento seguro dessa tecnologia. É interessante notar que, nesse ponto, ele defende que se conceda mais protagonismo para países do sul global, tradicionalmente deixados para trás nas decisões econômicas e tecnológicas.

Mas isso implica em trazer a China para a mesa.

 

Dominação pela IA

Desde a Antiguidade, as nações mais avançadas dominam as outras. A Grécia, apesar de ter sido anexada ao Império Romano, influenciou fortemente a cultura do invasor, até em seus deuses! No século XIX, a Inglaterra difundiu suas ideias, seguida pela França. E desde o fim da 2ª Guerra Mundial, o Ocidente é fortemente influenciado pelos Estados Unidos.

O principal mecanismo da dominação cultural dos Estados Unidos é o cinema, a televisão e a música. Basta olhar ao redor e ver como nos vestimos, comemos e até nos comportamos.

A IA pode levar a dominação cultural a um patamar inédito, ao incorporarmos suas respostas diretamente e sem filtros a nossas ações. De uma tacada só, passamos a consumir e a disseminar conceitos e valores de outro país.

A própria interface dessas plataformas favorece isso. Pela primeira vez na história, algo que não é humano consegue conversar consistente e convincentemente, como se fosse outra pessoa. Isso favorece a antropomorfização da IA, ou seja, passamos a atribuir características humanas a uma máquina, e assim absorvemos o que ela nos dá de maneira ainda mais direta, sem questionamentos.

De uma forma bastante ampla e talvez nociva, a IA pode nos aproximar da “aldeia global” do filósofo canadense Marshall McLuhan, que propôs em 1962 o fim de fronteiras geográficas e culturais. Ele acreditava que isso aconteceria pela influência dos meios de comunicação, o que aconteceu apenas timidamente. Agora, com a IA, isso pode finalmente acontecer, com o que tem de bom e de ruim.

Altman sabe disso! Seu artigo defende abertamente que os Estados Unidos liderem uma coalização internacional para manter sua hegemonia contra a ascensão de valores de nações autoritárias, graças à IA.

Para aqueles, como nós, que estão muito mais em posição de dominados que de dominadores, esse alerta serve para entendermos como a nova ordem mundial será construída nos próximos anos.

Qualquer que seja o vencedor dessa corrida, é preciso que existam leis em todos os países que exijam responsabilização no uso e desenvolvimento da inteligência artificial, seja pelas empresas, pelos governos e pelos usuários. Não podemos repetir o erro cometido com as redes sociais, que racharam a sociedade ao meio por não se sentirem responsáveis pelo que acontece em suas páginas.

Quanto a nós, resta investirmos pesadamente em letramento digital das pessoas, para que elas possam aproveitar consciente e criativamente os recursos dessa incrível tecnologia, tentando evitar tal dominação cultural. E essa não é uma tarefa fácil!

 

IA pode ampliar capacidades de profissionais de diversas áreas, mas apenas 21% dos brasileiros a usam - Foto: Freepik/Creative Commons

Inteligência artificial pode ampliar abismo social no Brasil

By | Tecnologia | No Comments

Cresce o consenso de que a inteligência artificial pode oferecer um grande salto de produtividade para profissionais das mais diferentes áreas. Ironicamente isso pode ampliar o abismo social no Brasil. Somos um país em que pouca gente tem acesso a essa tecnologia, o que pode fazer com que a produtividade dos profissionais mais bem preparados se distancie ainda mais da dos menos capacitados.

Uma pesquisa da Genial/Quaest, divulgada na semana passada, indica que apenas 21% dos brasileiros já usaram alguma ferramenta de inteligência artificial. A grande maioria deles está entre pessoas com curso superior e em classes sociais mais altas.

São os mesmos indivíduos que já têm um acesso mais amplo e de melhor qualidade a equipamentos eletrônicos e à Internet. Em um mundo profundamente digital, isso representa um inegável ganho competitivo.

Ainda há muita gente sem acesso a elementos essenciais de bem-estar no Brasil, como saneamento básico e eletricidade. Assim, preocupar-se com isso pode parecer luxo e até futilidade. Mas se encararmos a Internet e a inteligência artificial como as ferramentas de transformação social que são, entenderemos por que devem ser incluídas no pacote civilizatório que precisa ser oferecido a todos os cidadãos.

O abismo digital que reforça o social é um problema de décadas em nosso país, que não dá sinais de melhoria. A popularização dos smartphones, que poderia indicar um aspecto positivo, não resolve verdadeiramente o déficit digital da população.


Veja esse artigo em vídeo:


“A desigualdade social no Brasil se revela na diferença entre escolas públicas e privadas no acesso a computadores e Internet, por exemplo, e saltou aos olhos na pandemia, quando as crianças e jovens mais pobres não tinham como ter aulas online, por não terem computador ou acesso à internet em casa”, explica Felipe Nunes, fundador da Quaest. “O resultado da pesquisa é mais um dado dessa desigualdade.”

De fato, quando as escolas estavam fechadas por conta do Covid-19, mesmo as públicas ofereciam aulas online. Mas muitos alunos não conseguiam aproveitar bem esse recurso, porque não tinham computador em casa, e a experiência na tela pequena dos smartphones não era tão boa. Outros problemas enfrentados eram os pacotes de dados limitados e a residência ter apenas um aparelho, que precisava ser compartilhado entre todos os membros, para suas atividades diárias.

A pesquisa da Genial/Quaest também indica forte correlação do uso da IA com as faixas etárias, pendendo para os mais jovens: 33% dos brasileiros entre 16 e 34 anos já usaram a inteligência artificial, contra 19% entre 35 e 59 anos, e apenas 6% entre os que tem 60 ou mais.

A criação de textos é, de longe, a aplicação mais conhecida, tendo sido usada por 48% dos brasileiros que já aproveitaram a IA, seguido pela organização de arquivos (18%) e geração de imagens (16%). Sobre a percepção sobre os resultados, 76% dos usuários acharam a experiência positiva, 19% disseram que foi regular, e apenas 3% não gostaram.

Entre os usuários, 46% acharam que a IA é uma oportunidade para a humanidade, enquanto 37% a viram como uma ameaça e 17% não souberam o que dizer sobre isso. Há também medos em relação à IA, como ela ser usada para aumentar a desinformação (apontado por 82% das pessoas), para tornar grupos perigosos mais poderosos (81%), controle da população por governos autoritários (80%), manipulação da opinião pública (76%) e justamente piora na desigualdade social (76%).

Esses números sobre medos são expressivos, ainda mais se considerarmos que a maioria acha a IA uma oportunidade, com ampla vantagem para os que a veem como positiva. Mas uma coisa é sentir os benefícios da tecnologia em seu cotidiano, outra é entender os riscos que ela oferece.

“A IA é um campo imenso de possibilidades, que ainda estamos longe de compreender inteiramente”, explica Nunes. “Acredito que todo mundo tem atualmente apenas uma pequena ideia do que está por vir”, afirma.

 

Inclusão digital

Segundo a edição mais recente da TIC Domicílios, pesquisa sobre o uso de tecnologia nas residências no país, divulgada em agosto de 2023 pelo Cetic.br, 29,4 milhões de brasileiros não têm acesso à Internet, sendo 17,2 milhões deles das classes DE e 10,3 milhões na classe C.

O acesso feito exclusivamente pelo smartphone acontece em 58% da população conectada, mas esse número chega a 87% no caso da classe DE. Isso impacta diretamente as habilidades digitais dos usuários. Por exemplo, 71% das pessoas que estão online pelo computador e pelo smartphone verificam se uma informação que receberam é verdadeira, contra apenas 37% das conectadas apenas pelos celulares.

Dar acesso à Internet e à inteligência artificial é, portanto, cada vez mais crítico para o desenvolvimento pessoal e profissional do indivíduo. Mas é preciso também melhorar o nível do letramento digital das pessoas, para que façam um uso verdadeiramente positivo desses recursos tão poderosos.

Isso está se tornando um direito humano, considerando a digitalização galopante de nossas vidas e como esses recursos melhoram praticamente todas as atividades em que são usados. Governos, escolas, empresas e outros membros da sociedade civil precisam se engajar para a oferta de acesso à tecnologia, mas também para sua compreensão e domínio consciente e ético.

Caso contrário, veremos a inteligência artificial empurrando ainda mais para o fundo aqueles que já ocupam uma posição mais baixa na sociedade. Afinal, não é essa tecnologia que roubará seus empregos, e sim aquelas pessoas que estiverem se apropriando e usando melhor seus recursos.

 

George Kurtz, fundador e CEO da CrowdStrike, empresa responsável pelo “apagão cibernético” da sexta - Foto: Seb Daly/Creative Commons

Apagão cibernético na sexta escancara como dependemos de uma frágil trama digital

By | Tecnologia | No Comments

Não foi um ataque terrorista, nem uma elaborada ação de hackers mercenários. O “apagão cibernético” que deixou o mundo em pânico na sexta (19) aconteceu pela prosaica falha na atualização do software de uma única empresa. Mas ele serviu para escancarar quão frágil é a infraestrutura digital em que depositamos nossas vidas.

O que podemos aprender com esse problema titânico?

A crise demonstrou que confiamos muito nos sistemas que gerenciam os serviços que usamos, e como as empresas estão pouco preparadas para continuar operando diante de uma falha crítica, mesmo resultando de um problema simplório, como nesse caso.

Ele aconteceu por um dos maiores benefícios do mundo moderno, que é a de termos serviços digitais constantemente atualizados e operando na “nuvem”. Apesar de trazer benefícios inegáveis em custos e em (ironicamente) estabilidade, essa configuração também pode fazer uma falha desastrosa se espalhar rapidamente, como nesse caso.

E pensar que a Internet nasceu em 1969 por encomenda de militares americanos, que queriam uma rede descentralizada, em que, se alguns computadores fossem destruídos por um ataque soviético, os outros continuariam funcionando. Agora a pane de sexta esclareceu que atacar a infraestrutura digital é a forma mais rápida e eficiente de submeter qualquer nação, algo explorável em guerras e chantagens.

O “apagão” nos lembrou também que apesar de acharmos que a Internet é algo etéreo, ela depende de fazendas de servidores, que consomem quantidades absurdas de energia. Além disso, intermináveis cabos físicos transmitem um volume colossal de dados, até mesmo cruzando oceanos pelos seus leitos.

Nesse cenário, quando se pensa em um conflito entre nações, sabotar a produção dessa energia ou literalmente cortar os cabos submarinos pode fazer o inimigo entrar em colapso instantaneamente. E essas estratégias são bem reais!


Veja esse artigo em vídeo:


Diante de tantas preocupações, governos e empresas tentam se proteger. Então como o apagão de sexta aconteceu de maneira tão devastadora?

O problema recai sobre uma atualização de rotina de um componente do software Falcon Sensor, da empresa americana de segurança cibernética CrowdStrike. Para proteger um computador contra, por exemplo, um vírus, ele precisa ser mais poderoso que o invasor. Assim é instalado nas camadas mais internas do sistema operacional, sendo carregado antes que qualquer malware, que poderia sabotar a sua execução.

Uma falha no código da atualização desse módulo na sexta gerou uma instabilidade no Windows, o mais usado em servidores no mundo todo. Com isso, o sistema operacional da Microsoft caía em uma tela azul, que para o equipamento para evitar problemas maiores, como a corrupção de dados. Como o Falcon é uma das primeiras coisas executadas quando o computador é ligado, ele travava irremediavelmente!

Com isso, milhares de empresas e instituições clientes da CrowdStrike ficaram de joelhos. A Microsoft estima que 8,5 milhões de computadores tenham sido afetados, o que parece muito, mas representa “apenas” 1% das instalações do Windows.

O problema foi rapidamente identificado e corrigido, para evitar mais vítimas. Mas apesar de o módulo defeituoso ter sido distribuído online, a correção precisa ser feita em cada computador, por um profissional de TI, em um processo penosamente lento.

A resiliência cibernética das empresas e instituições, a sua capacidade de prevenir, resistir e se recuperar de um problema digital, além de continuar operando caso o pior aconteça, foi posta à prova e falhou miseravelmente. Elas dependem umbilicalmente de seus sistemas, e pararam de funcionar ou operaram de maneira muito precária.

O mercado não perdoou a CrowdStrike. Criada há 13 anos e com quase 8.500 funcionários, seu valor de mercado derreteu mais de US$ 12 bilhões na sexta. George Kurtz, fundador e atual CEO da empresa, perdeu sozinho US$ 338 milhões.

 

Guerra cibernética

Apesar de enormes, os prejuízos causados pelo “apagão cibernético” de sexta seriam apenas uma pequena amostra do que aconteceria no caso de uma guerra cibernética entre grandes potências. E os já citados cabos submarinos seriam alvos preferenciais.

Repousarem no leito de oceanos não lhes garante proteção. Pelo contrário: torna sua defesa difícil, diante de frotas especializadas em cortá-los e grampeá-los. Estados Unidos, Rússia, China e possivelmente outros países possuem embarcações para essas sabotagens.

Segundo a empresa TeleGeography, existem mais de 600 cabos submarinos ativos ou planejados, estendendo-se por 1,4 milhão de quilômetros. Muitos têm a espessura de uma mangueira, mas transferem 200 terabytes por segundo. Os Estados Unidos e a Europa são conectados por apenas 17 deles. Por isso, isolá-los não seria tão difícil.

Todo ano, 100 cabos são danificados no mundo por acidentes navais ou atividade sísmica. Em compensação, reconstruir essa infraestrutura é algo lento e caríssimo, pois há apenas 60 barcos capazes de fazer isso no globo.

Sem eles, ficaríamos sem buscadores, redes sociais e quase tudo em nossos smartphones e computadores. Mas esse prejuízo ainda seria pequeno diante do enfrentado por empresas e instituições, paralisando o comércio, a indústria, os serviços e o mercado financeiro globais, provocando uma recessão sem precedentes.

Felizmente o que aconteceu na sexta foi apenas um “bug de computador”. Devemos encarar isso como um treinamento para algo mais grave que eventualmente aconteça. Não como uma visão apocalíptica, mas como o despertar para boas práticas que, no final das contas, melhorarão nosso uso da Internet. A segurança e a redundância devem estar na essência da vida digital e devemos ter sempre alternativas para crises.

Somos uma sociedade de dados, e essa é uma realidade inescapável. Por isso, um uso ético desse ativo fundamental e um cuidado rigoroso com a infraestrutura física e lógica são absolutamente críticos.

Que a crise gerada pela CrowdStrike sirva pelo menos para esse aprendizado, e que eventuais paralisações futuras aconteçam apenas por causa de uma possível tradução de seu nome –“greve geral”– e não por outro colapso na Internet.

 

Empresas analisam como seguramos e digitamos em nossos celulares para confirmar nossa identidade - Foto: Shurkin Son/Creative Commons

Em um mundo com menos dinheiro físico, tecnologia vai além de garantir transações

By | Tecnologia | No Comments

No mundo todo, as pessoas cada vez mais trocam notas de dinheiro e moedas por meios eletrônicos de pagamento. Os brasileiros seguem essa tendência, e o estrondoso sucesso do Pix é o exemplo mais reluzente disso. Nesse cenário, a tecnologia digital ocupa um espaço que vai muito além de garantir as transações: ela viabiliza segurança, combate o crime e até promove a inclusão social.

Alguns podem dizer que os problemas decorrentes da digitalização dos meios de pagamento são um preço a se pagar pelos benefícios que isso traz. Pode ser verdade, mas isso não pode ser usado como desculpa para descuidos, pois os prejuízos para pessoas e empresas podem ser devastadores. E ninguém deveria passar por isso!

“Se as pessoas perderem a fé na segurança do seu meio de pagamento, eles vão parar de usá-lo e voltarão a usar dinheiro”, explicou-me Andrew Reiskind, Chief Data Officer da Mastercard, durante uma visita que fiz na semana passada ao laboratório da inovação da empresa, localizado em Nova York (EUA).

A solução não é simples e cabe a todos os envolvidos. Empresas, governos, universidades a até os usuários têm seus papeis para que a experiência de pagamentos digitais aumente seus benefícios e reduza seus riscos.

Algumas velhas preocupações ganham nova roupagem, enquanto outras surgem. A inteligência artificial e a computação quântica despontam como poderosas novidades. Enquanto isso, a ética e a experiência do cliente ganham ainda mais importância.

Uma coisa é clara: não há atalhos nesse processo, e aqueles que não se ajustarem às novas exigências podem ser fortemente penalizados pelo mercado.


Veja esse artigo em vídeo:


Os números do Pix dão a dimensão das transações digitais no Brasil. Segundo o Banco Central, em junho, o Brasil tinha 165,8 milhões de usuários cadastrados na sua plataforma. Em maio, foram realizadas 5,2 bilhões de transações, que movimentaram R$ 2,1 trilhões. O Pix representou 43% das transações no primeiro trimestre, contra 15% dos cartões de crédito, 13% dos de débito, 5% dos boletos e apenas 1% da TED. Com esse vigor, o país terminou 2023 na segunda posição global em transações instantâneas, atrás apenas da Índia.

Em contrapartida, os saques em dinheiro vivo nos caixas eletrônicos e agências bancárias caem ano após ano. Em 2012, os brasileiros sacaram R$ 3,9 trilhões; em 2022, esse valor foi de R$ 2,1 trilhões, o mesmo que o Pix movimentou só em maio.

Infelizmente a bandidagem também está trabalhando com força no mundo digital. O Brasil se converteu em um paraíso para golpistas, e o próprio Pix tornou-se uma de suas ferramentas preferidas, pela instantaneidade das transferências.

O golpe mais comum consiste em se passarem por outras pessoas, enganando familiares e amigos para que façam transferências. Uma vez que elas acontecem, os fraudadores passam os valores para outras contas, com o Pix. Isso impede que os bancos rastreiem o caminho do dinheiro. Assim essas instituições não se sentem obrigadas a devolver o dinheiro, e seus clientes via de regra amargam o prejuízo.

“É muito fácil fingir ser alguém ou comprar uma identidade roubada na Dark Web”, explica Chris Reid, vice-presidente executivo de soluções de identidade da Mastercard. Por isso, a gigante de meios de pagamento investe fortemente em tecnologias que tentam garantir a identidade do usuário, desde biometria até análise de comportamentos, como a forma com que a pessoa interage com seu smartphone. “Depois de 10 usos do seu dispositivo, é quase impossível alguém replicar como você o segura e como digita nele”, acrescenta.

 

O real valor do celular para o crime

Enquanto esses recursos não são amplamente disseminados, os criminosos aproveitam as deficiências de segurança dos smartphones e dos aplicativos de instituições financeiras para “limpar a conta” de vítimas. Por isso, esses aparelhos se tornaram o item mais roubado no Brasil desde o ano passado.

O problema ficou tão grave que, no último Google I/O, evento global de desenvolvedores da empresa, que acontece sempre em maio, ela anunciou novidades de segurança para o sistema operacional Android inspiradas nos crimes brasileiros. Entre eles, estão o bloqueio automático do celular se ele for retirado abruptamente da mão do usuário (como nos roubos pelas “gangues de bicicleta”), a criação de uma área escondida e protegida por senha para os aplicativos sensíveis, proteção contra “reset de fábrica” e autenticação aprimorada.

A digitalização do dinheiro e da própria vida exige também comportamentos mais transparentes e éticos das empresas no uso dos dados de seus clientes e na adoção de uma inteligência artificial responsável. No último dia 2, tivemos um movimento emblemático nesse sentido, quando a Autoridade Nacional de Proteção de Dados (ANPD) proibiu a Meta (empresa dona do Facebook, Instagram e WhatsApp) de usar os dados dos usuários para treinar seus modelos de inteligência artificial.

“Os dados dos indivíduos não nos pertencem, não pertencem ao banco”, afirma Reiskind. “Eles não são uma mercadoria, são um direito humano e, portanto, devemos tratá-los bem!”

O executivo lembra também que as empresas devem estar atentas para que seus dados e sua IA não desenvolvam vieses que possam prejudicar os clientes. Ele cita, como exemplo, empresas que não querem fazer negócios com pessoas que vivem em áreas de muita criminalidade. Mas, segundo Reiskind, a tecnologia deve ser usada para garantir serviços mesmo nesses casos, pois nem todos que vivem ali são criminosos, e merecem respeito.

A boa notícia é que o mesmo avanço exponencial que viabiliza soluções como o Pix também permite que mais pessoas tenham acesso legítimo a recursos como esses. Abrir uma conta corrente ou aprovar transações de cartão de crédito para esses indivíduos marginalizados pelo local em que vivem significa muito mais que uma transação: pode representar um importante fator de inclusão social.

Dessa forma, empresas que abusarem dos dados de seus clientes ou não trabalharem de forma mais justa com o público podem, aos poucos, perder mercado e manchar sua reputação. É preciso sempre criar serviços incríveis, mas também devem fazer o certo socialmente, sem comprometer a segurança.


Veja a entrevista em vídeo com Andrew Reiskind, Chief Data Officer da Mastercard:

 

Mark Zuckerberg, CEO da Meta: empresa quer usar dados de seus usuários para treinar sua IA - Foto: Anthony Quintano/Creative Commons

O que está por trás da proibição da Meta usar dados dos usuários para treinar sua IA

By | Tecnologia | No Comments

Na terça passada (2), a Autoridade Nacional de Proteção de Dados (ANPD) tomou a decisão de mais visibilidade e impacto da sua existência de cinco anos: proibiu a Meta (empresa dona do Facebook, Instagram e WhatsApp) de usar os dados dos usuários para treinar seus modelos de inteligência artificial. É a primeira vez que o órgão age contra uma big tech, em um movimento que impacta todos os internautas do país.

Segundo a ANPD, a maneira como a empresa está usando esses dados violaria a Lei Geral de Proteção de Dados (LGPD). O ineditismo da medida não se dá apenas pela sua abrangência, mas também por tratar de algo ligado à IA, uma área que empresas, governos e usuários ainda tentam compreender toda sua enorme complexidade.

Mas eventuais lacunas nesse entendimento não podem ser usadas por empresas para abusar de seus usuários e do mercado. Como não há legislação sobre a IA definida na maioria dos países, práticas como a da Meta levantam muitos questionamentos.

Afinal, os usuários podem ficar em risco ou serem expostos com isso? Esse comportamento configura um abuso de poder econômico? Não seria melhor as pessoas decidirem compartilhar os seus dados, ao invés de isso acontecer sem seu consentimento e até conhecimento? Se nossos dados são tão valiosos para as big techs criarem produtos que lhes rendem bilhões de dólares, não deveríamos ser remunerados por eles? E acima de tudo, será que as pessoas sequer entendem esse mundo em acelerada transformação diante de seus olhos?

É um terreno pantanoso! Por isso, qualquer que seja o desfecho da decisão da ANPD, o debate em torno dela já oferece um grande ganho para a sociedade.


Veja esse artigo em vídeo:

 


A Meta atualizou a política de privacidade de seus serviços para usar as informações de todos os posts públicos dos usuários, feitos de agora em diante e também no passado. Mas as pessoas não viram a nova regra ou, se viram, não leram ou sequer entenderam. E, como de costume, aceitaram, pois essa é uma condição para continuar usando esses produtos que se tornaram centrais em suas vidas.

As pessoas não esperam que seus posts sejam usados para treinar uma IA. Por conta disso e por entender que o formulário para os usuários se oporem a coleta de seus dados ser de difícil acesso, exigindo que a pessoa vença nove etapas, a ANPD anulou a atualização da política e determinou que a coleta seja interrompida imediatamente.

A Meta pode ser multada em R$ 50 mil por dia em que não cumprir a determinação. E vale dizer que a companhia enfrenta uma proibição semelhante na Europa.

Obviamente, a empresa reclamou! Em nota, disse estar desapontada com a decisão da ANPD, e que eles são mais transparentes no treinamento de sua IA que muitas outras empresas. Afirma ainda que a proibição seria um retrocesso para a inovação e a para a competividade no desenvolvimento de IA, podendo atrasar a chegada de seus benefícios para os brasileiros.

A Meta quer usar os textos, imagens, áudios e vídeos dos posts de seus usuários porque os modelos de linguagem amplos (da sigla em inglês LLM), que viabilizam plataformas de inteligência artificial generativa, como o ChatGPT, dependem de quantidades gigantescas de informações para serem treinados. Sem isso, são incapazes de dar respostas de qualidade.

Os posts nas redes sociais são uma fonte suculenta desse tipo de informação, mas sua coleta pode trazer riscos aos usuários. “É possível pensar em clonagem de voz e vídeo por IA para enganar familiares, amigos e colegas, ou mesmo extorsão por meio de deepfakes”, explica Marcelo Cárgano, advogado especialista em direito digital do Abe Advogados.

Segundo ele, esse uso dos dados pode ainda levar a uma “discriminação algorítmica”, quando os sistemas determinam que grupos selecionados serão desfavorecidos em processos como ofertas de crédito, emprego ou serviços públicos. “E em regimes autoritários, dados pessoais podem alimentar sistemas de IA preditiva comportamental, aumentando a vigilância e a repressão sobre a população”, adverte.

 

Pedir para entrar ou para sair?

Nesse caso, a Meta fez o chamado “opt-out” com seus usuários. Ou seja, assumiu que todos aceitariam que seus dados fossem coletados. Quem não quisesse bastaria pedir para sair. O problema é que, como a ANPD corretamente apontou, as pessoas nem sabem que seus dados estão sendo coletados, não entendem isso e o processo para se oporem à coleta é muito difícil, o que, na prática, pode fazer com que muita gente ceda seus dados sem assim desejar.

Do ponto de vista de privacidade e respeito às pessoas, o processo deveria ser o contrário: um “opt-in”. Nesse caso, os usuários precisariam conscientemente permitir que a empresa fizesse sua coleta, antes que isso começasse. Mas a Meta não adotou esse caminho porque obviamente pouquíssimas pessoas topariam.

Não quer dizer que dados pessoais não possam ser usados para o treinamento de um modelo de IA. Mas as boas práticas indicam que o usuário seja avisado previamente e aceite cedê-los conscientemente. Além disso, a informação deve ser anonimizada.

E é importante que esse consentimento seja dado antes de a coleta ser iniciada, pois, uma vez que a informação é incorporada ao modelo, é virtualmente impossível removê-la individualmente. Mas a LGPD determina que, mesmo que alguém conceda acesso a seus dados, se decidir que não mais aceita, a informação deve ser apagada.

Por fim, há a polêmica de que os usuários sejam eventualmente remunerados por seus dados, essenciais para a criação de um produto bilionário. “Um sistema amplo de remuneração de dados pessoais não me parece tão prático ou desejável, porque eles geralmente são valiosos para empresas quando são massificados”, explica Cárgano. “Isso pode tornar difícil para um indivíduo conseguir negociar um preço justo, se é que isso existe, para seus próprios dados”, conclui.

Como se vê, há mais dúvidas que consensos no uso de nossas informações para treinamento de modelos de IA. Ainda haverá muito ranger de dentes e aplausos em torno da decisão da ANPD. Mas temos que ter em mente também que muitas outras empresas estão fazendo exatamente o mesmo que a Meta, e precisam ser identificadas.

De todo jeito, tudo isso está servindo para a sociedade debater a questão. No final das contas, o que mais precisamos é que as big techs sejam mais transparentes e respeitem seus clientes, dois pontos em que elas historicamente falham feio!

 

Para a futurista Amy Webb, não devemos estar preparados para tudo, mas estar preparados para qualquer coisa - Foto: Paulo Silvestre

Superciclo tecnológico atual só faz sentido se gestores mantiverem o foco no cliente

By | Tecnologia | No Comments

Desde o arado, novas tecnologias transformam indivíduos e a sociedade como um todo, oferecendo-lhes maneiras de melhorar o que já fazem ou descobrindo novas possibilidades. Algumas promovem mudanças tão profundas e prolongadas que geram um “superciclo tecnológico”. Estamos vivenciando a aurora de mais um deles, protagonizado pela inteligência artificial. Mas ela não está sozinha na transformação!

Isso pode variar muito na forma, mas uma verdade é imutável: os benefícios para as pessoas são sempre mais importantes que a tecnologia em si. Aqueles que querem surfar nessa onda, ao invés de serem tragados por ela, não podem perder isso de vista, especialmente em um mundo tão volátil e ao mesmo tempo tão poderoso, graças à própria tecnologia.

Isso se reforça pelo fato de o intervalo entre os superciclos e sua duração ficarem cada vez menores. Por exemplo, tivemos a Revolução Industrial, que começou ainda no século XVIII e durou cerca de 200 anos. Depois vieram outros, como os superciclos da eletricidade, da química, da computação, da Internet e da mobilidade.

Se suas durações e os intervalos entre eles eram medidos em séculos, agora não chegam a uma década! Isso não os torna menos importantes, mas os faz mais intensos.

Nesse cenário crescentemente complexo, nem sempre há tempo para se apropriar de todas as novidades. Portanto, um dos principais desafios de gestores públicos e privados é não se deixar seduzir pelo brilho próprio da tecnologia, limitando-se a ela, e sim usá-la para transformar a vida das pessoas.


Veja esse artigo em vídeo:


Na quinta passada, a futurista americana Amy Webb abordou a capacidade de transformação social do superciclo tecnológico atual, durante a palestra mais aguardada da Febraban Tech, o principal evento de tecnologia bancária da América Latina, que aconteceu em São Paulo de terça à quinta.

Webb, que também é professora da Universidade de Nova York (EUA), explicou que essa é a primeira vez que um superciclo não é motivado por uma única tecnologia, e sim pela combinação de três: inteligência artificial, sensores por toda parte e biotecnologia. “Não são três superciclos separados, e sim um superciclo que combina as três tecnologias”, afirmou. “Isso vai reformar a existência humana!”

Disso deriva uma classe de produtos impulsionados pela chamada “Geração Aumentada por Recuperação de Dados” (da sigla em inglês RAG). Ela combina recursos sofisticados para extrair a informação que o usuário quiser de diferentes bancos de dados e serviços, apresentando-a de uma maneira facilmente compreensível graças à IA generativa.

Isso reforça os produtos com “tecnologia de propósito geral”, ou seja, que podem ser usados para funções muito distintas, algumas nem previstas no momento de seu lançamento. Por isso, chega a ser surpreendente os problemas enfrentados pela Alexa, um produto da Amazon que reinou nessas categorias nos anos de uma IA primitiva, mas que agora não está conseguindo fazer frente ao avanço do ChatGPT.

“Essa combinação entre o transacional e a IA generativa, não importa em qual dispositivo, em qual comunicador, em qual fornecedor, é a curva evolutiva da IA, que permeará tudo”, afirma Thiago Viola, diretor de inteligência artificial, dados e automação da IBM Brasil. Segundo ele, “se você simplesmente responde, sem integrar com um serviço, você faz o que a gente chama de IA parcial”, e aí se deixa de oferecer ao cliente o valor agregado de produtividade.

 

Assistente digital permanente

As tecnologias que compõem o superciclo tecnológico atual devem, portanto, ser usadas para oferecer uma assistência digital automática, permanente e cada vez mais personalizada às pessoas. E as empresas precisam assumir o seu papel nisso.

“Vejo essa tecnologia sendo usada para mudar a forma como uma empresa interage com seus clientes ou parceiros, gerando novos tipos de produtos e serviços digitais”, sugere o britânico Matthew Candy, diretor global de IA generativa na IBM Consulting, que também participou da Febraban Tech.

Ele explica que as empresas não podem fazer isso se limitando a um único modelo de IA (como o GPT), devendo criar experiências únicas e ajustadas às necessidades de seus clientes, pela combinação de vários pequenos modelos próprios. “Como vou conseguir uma diferenciação competitiva quando todos os meus concorrentes têm acesso e fazem a mesma coisa que eu, com o mesmo material”, questiona Candy.

Tudo isso pode parecer muito distante, como uma obra de ficção científica. Mas o superciclo atual está diante de nós, impondo suas incríveis oportunidades e apresentando novos desafios, não apenas tecnológicos, mas também éticos e de governança. Isso também impulsiona gestores a ousar em seus movimentos, mas sem desprezar os cuidados com segurança e privacidade dos dados dos clientes.

Em um mundo em que a inteligência artificial está cada vez mais integrada a nossas vidas, até no que vestimos, a personalização se torna um fator crítico de sucesso. Para isso ser possível, usuários concedem acesso cada vez mais irrestrito a suas informações, o que garante um enorme poder às organizações. Sem uma governança madura em seus processos, isso pode desequilibrar o relacionamento entre empresas e seus clientes, o que pode parecer tentador, mas, a longo prazo, é ruim para todos.

Gestores de tecnologia e de negócios devem, portanto, manter um olho na operação e outro na inovação. Em um ambiente de competição complexa, concentrar-se em qualquer dos lados dessa equação, diminuindo o outro, pode ser um erro fatal. Se prestarem muita atenção à operação, podem ser atropelados por concorrentes mais ousados; se privilegiarem apenas a inovação, podem construir sistemas frágeis ética e tecnologicamente.

Como disse Web em sua palestra, “nosso objetivo não deve ser estarmos preparados para tudo, mas estarmos preparados para qualquer coisa”. A diferença parece sutil, mas é enorme!

Em outras palavras, ninguém tem recursos para antecipar todas as possibilidades de seu negócio, mas precisamos estar abertos e prontos para abraçar criativa e cuidadosamente o imprevisto. Esse é o caminho para o sucesso e para relações mais saudáveis nesse superciclo tecnológico.

 

Tim Cook, CEO da Apple: empresa adiará recursos de IA na União Europeia por causa de lei - Foto: Christophe Licoppe/Creative Commons

Ética não pode ser um luxo ou um item opcional nas plataformas de IA

By | Tecnologia | No Comments

Na sexta (21), a Apple anunciou que adiará na Europa o lançamento dos recursos de inteligência artificial para suas plataformas, apresentados no início do mês. A empresa culpou a Lei dos Mercados Digitais (DMA, na sigla em inglês), criada para evitar abusos das big techs, pela sua decisão, e não deu um prazo para que esses recursos cheguem ao continente.

Alguns europeus podem ficar irritados com a Apple; outros, com a lei. Mas essas regras existem justamente porque as gigantes de tecnologia abusam do poder que têm sobre seus usuários há décadas, criando relações comerciais desequilibradas, francamente desfavoráveis aos clientes.

A decisão da Apple de adiar a liberação desses recursos na Europa e sua oferta no resto do mundo é emblemática, e podemos aprender algo com ela. Em nota oficial, ela disse estar preocupada que os requisitos da DMA comprometam a integridade dos produtos, colocando em risco a privacidade e a segurança dos dados. Oras, se as regras de uma lei que determina boas práticas comerciais e de concorrência ameaçam um serviço, ele não me parece maduro para ser lançado em qualquer mercado.

Isso precisa ser observado em todos os produtos, mas é particularmente importante nos que usam a inteligência artificial. Essa tecnologia é tão poderosa, que, ainda que esteja em seus estágios iniciais, já transforma nossas vidas e o cotidiano de empresas. Nesse cenário, aspectos éticos e de governança são fundamentais para que a sociedade se desenvolva com a IA, evitando que ela aumente ainda mais a concentração de poder nas mãos de poucos grupos.


Veja esse artigo em vídeo:


A Apple já foi multada em março em €1,8 bilhão (cerca de R$ 10,5 bilhões) por infringir a DMA. No caso, o Spotify moveu um processo alegando práticas anticompetitivas pela Apple exigir de que os aplicativos para o iPhone e o iPad sejam instalados exclusivamente a partir da App Store, com a empresa ficando com 30% das transações na sua plataforma. Talvez por isso esteja ressabiada agora.

Graças à DMA, ela agora permite lojas de aplicativos de terceiros, o Google alterou o Android para usuários escolherem seu navegador e buscador, e a Meta concorda que outros serviços conversem com o WhatsApp e o Messenger. A Microsoft já aceita que os usuários desativem o Bing no Windows, e a Amazon solicita o consentimento dos clientes para personalização de anúncios. Por fim, o TikTok permite que os usuários baixem todos seus dados na plataforma. Mas tudo isso só vale para os europeus!

A inteligência artificial traz essas preocupações a um patamar inédito. A partir do momento em que essa tecnologia pode influenciar decisivamente nosso cotidiano e até nossas ações, é preciso entender como ela funciona. A opacidade dos algoritmos, que já causou muita dor de cabeça nas redes sociais, não pode se sentir confortável com a IA.

“A gente já tem uma dinâmica de inteligência artificial muito madura dentro das empresas, mas o tema de governança tem que ser antecipado”, explica Thiago Viola, diretor de inteligência artificial, dados e automação da IBM Brasil. Segundo ele, os gestores precisam adotar a IA com fortes padrões éticos, transparência e explicabilidade, ou seja, permitir aos usuários saberem como a IA foi construída e entenderem como ela tomou cada decisão.

No Brasil, o Congresso analisa o Projeto de Lei 2338/23, que teve uma nova versão de seu texto liberada na semana passada. Em vários pontos, ele se inspira na Lei da Inteligência Artificial, aprovada pelo Parlamento Europeu em março. E os conceitos de transparência, explicabilidade e rastreabilidade aparecem em toda parte.

Viola está certo: as questões éticas nunca devem ser colocadas de lado por interesses comerciais. Agora, com a ascensão galopante da IA, esses temas gritam para gestores, desenvolvedores e usuários. Mas se é assim, por que tantas empresas só parecem atentar a isso quando são obrigadas por força de lei?

 

Conflito de interesses

Precisamos entender que vivemos hoje uma reedição da “corrida do ouro” patrocinada pela inteligência artificial. Quem dominar essa tecnologia mais que seus concorrentes conseguirá um posicionamento determinante no mercado, especialmente porque, nesse caso, alguns meses à frente nessa etapa inicial podem significar uma liderança consolidada por muitos anos.

Diante disso, as empresas do setor, de startups a big techs, querem experimentar, ajustar e correr o quanto puderem agora, de preferência livres de qualquer restrição. Se algo der errado, pode-se considerar isso como justificáveis danos colaterais do processo de inovação supostamente inadiável.

Por conta da entrada em vigor da DMA, em março, conversei sobre isso com Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). “Empresas têm liberdade para oferecer seus produtos e serviços da maneira que considerarem mais estratégica, mas essa liberdade é limitada por leis que procuram prevenir práticas que restrinjam a concorrência”, explicou. E segundo ele, “a questão central é se os benefícios imediatos para os consumidores superam os potenciais prejuízos a longo prazo decorrentes de práticas anticompetitivas”.

Em um mundo capitalista selvagem, a busca incessante pelo lucro e a meritocracia de pessoas e empresas parecem valores  inalienáveis. Mas essa é uma distorção de realidade, como ironicamente o próprio mercado ajuda a desmistificar.

Um cenário de segurança jurídica ajuda muito a própria inovação, especialmente as mais vultosas e de mais impacto social. Basta ver que uma das indústrias mais regulamentadas que há –a farmacêutica– vive de inovação. E ainda que elas não pipoquem a cada mês como nas big techs, são mais duradouras e rentáveis a longo prazo.

Viola adverte que a governança precisa ser levada muito a sério pelas empresas quando se fala de IA, pois problemas associados a ela inevitavelmente acontecerão. “Se você tiver cultura, pessoas e ferramental preparados, o seu padrão de ação é muito mais rápido, mas se você não entende e não sabe o que está acontecendo, isso durará dias, semanas, e cairá na Internet”, explica.

Não proponho, de forma alguma, que a inovação seja desacelerada. Mas já passou da hora de as empresas entenderem que ela precisa ser realizada com ética, sem relaxamentos. Hoje as pessoas ainda estão deslumbradas com a inteligência artificial, despreocupadas com assumirem, como suas, sugestões vindas de uma caixa-preta, da qual nada sabem.

Mas à medida que essas decisões se tornarem mais frequentes e críticas em seu cotidiano, e problemas graves acontecerem por essa falta de transparência, a “lua de mel” acabará.  Ninguém continua usando algo pouco confiável. Se a falta de transparência das empresas com a IA levar a isso, todo esse poder será questionado.


Assista à íntegra em vídeo da conversa com Thiago Viola:

 

Rotuladores de dados realizam um trabalho essencial para a IA, porém estressante e mal pago - Foto: Drazen Zigic/Creative Commons

Para nos beneficiarmos da IA, uma multidão ameaça a própria saúde mental por trocados

By | Tecnologia | No Comments

Não cansamos de nos deslumbrar com as capacidades da inteligência artificial generativa. Quando foi apresentado no dia 13 de maio, o GPT-4o, versão mais recente do “cérebro” do ChatGPT, parecia mágico, com suas capacidades cognitivas refinadas e conversas bem-humoradas. Mas ironicamente, apesar de essa data estar associada à lei que formalizou o fim da escravidão no Brasil, o “milagre da IA” das grandes empresas de tecnologia depende de um trabalho muitas vezes estressante e mal remunerado, feito por uma multidão de pessoas subcontratadas em países pobres.

Conhecidos como “data taggers” (ou “rotuladores de dados”), esses trabalhadores desempenham o papel crucial de ajudar os modelos de IA no que eles não conseguem distinguir por conta própria, de modo que, a partir daquela informação, eles saibam decidir corretamente. Por exemplo, em um conjunto de fotos, o que é um gato, um tigre, um leão e um cachorro? Um texto está com linguagem jornalística, publicitária ou acadêmica? Uma foto apresenta uma mulher amamentando, um nu artístico ou não passa de pornografia?

São sutilezas fáceis para uma pessoa entender, mas impossíveis para uma plataforma digital ainda destreinada. Mas depois que o rotulador de dados explica o que cada coisa é para a máquina, ela passa a ser capaz de identificar padrões para que tome boas decisões no futuro.

Como se pode ver, as respostas da IA dependem desse trabalho para serem adequadas. E como a humanidade usa cada vez mais esses sistemas, o descuido com o processo e com as pessoas nessa etapa pode trazer impactos significativos em tudo que fazemos. Portanto, se essas pessoas atuarem em condições degradantes, podemos estar confiando nosso futuro a uma forma de precarização de trabalho que pode trazer perigosos impactos para todos.


Veja esse artigo em vídeo:


A IA precisa de uma quantidade brutal de dados na fase de seu treinamento para que funcione. Só assim ela consegue identificar padrões e criar vínculos entre elementos de informação para que tire suas conclusões depois. Nem todos esses dados passam por um processo de rotulação por humanos, mas os que passam são fundamentais para que o sistema desenvolva uma base sobre a qual trabalhará.

A rotulação pode ser feita por cientistas de dados ou profissionais especializados. Isso resulta em um modelo mais preciso, porém custa mais e demora para ser concluído. O custo e a qualidade podem cair com um serviço terceirizado, e caem muito mais no modelo de “crowdsourcing”. E esse último formato tem sido escolhido pelas big techs para rotular as bases de dados colossais de suas plataformas de IA. Com ele, a classificação de dados é transformada em uma infinidade de microtarefas.

Você certamente já participou, sem saber, de inúmeras delas, quando precisou comprovar que era um ser humano. Essa tecnologia se chama reCAPTCHA, na qual ajudamos plataformas a identificar elementos em fotos ou palavras digitalizadas. Com isso, estamos rotulando dados para o sistema, que compara nossas respostas com a de muitos outros usuários para ter uma informação de qualidade.

Mas dizermos que partes de uma foto têm semáforos não é suficiente para treinar uma base como a que faz um ChatGPT funcionar. Para isso, um exército de pessoas subcontratadas por empresas especializadas realiza milhões dessas microtarefas.

Elas não têm contato com outros indivíduos, trabalhando de casa e gerenciadas por um software. Tudo isso pode prejudicar a qualidade das entregas. Assim algumas técnicas são usadas para compensar isso e minimizar problemas, como interfaces intuitivas, a busca de um consenso na rotulação de vários profissionais para um mesmo conteúdo e uma auditoria dos rótulos, que verifica sua precisão.

Esses trabalhadores normalmente são pouco qualificados e vivem em países pobres, como Quênia ou Índia, recebendo apenas de US$ 1 a US$ 2 por hora. Pessoas nos EUA ou na Europa Ocidental não aceitam tão pouco. Mas, apesar de ser aviltante nessas regiões, esse valor pode ser significativo nas partes mais pobres do globo.

E aí reside uma perversidade no sistema. Quando precisam que alguma informação seja rotulada por um americano, por exemplo, a plataforma paga muito mais pela mesma tarefa. Por isso, muitos trabalhadores de países pobres tentam enganar o sistema sobre onde estão. Se são descobertos, suas contas são bloqueadas e podem até ficar sem receber seu pagamento.

 

Saúde mental comprometida

Eventualmente esses trabalhadores precisam rotular textos ou imagens com violência, discurso de ódio e elementos grotescos. Por isso, podem desenvolver problemas como ansiedade, depressão e estresse pós-traumático. Uma exposição prolongada a esses conteúdos pode levar ainda a uma perda de sensibilidade e de empatia.

Além dos óbvios e graves problemas para a saúde mental desses trabalhadores, a exposição contínua a dados tóxicos pode comprometer a qualidade das entregas, introduzindo vieses e discriminação nos modelos. E isso pode depois se propagar em uma sociedade que cada vez mais confia nas informações oferecidas pela IA.

As empresas que gerenciam essas plataformas precisam, portanto, oferecer suporte psicológico a esses trabalhadores e mecanismos para que eles indiquem se algo está mal. Mas isso normalmente não acontece. As big techs, por sua vez, não se importam em forçar que isso seja seguido pelas empresas que contratam.

É irônico que um negócio multibilionário tenha na sua base uma legião de anônimos trabalhando em condições tão degradantes. A sociedade deve pressionar as gigantes da tecnologia para que criem políticas de trabalho éticas e transparentes envolvendo os rotuladores de dados, e que determinem que as empresa que lhes prestem serviços cumpram essas regras. E em tempos em que se discutem leis para reger a inteligência artificial, inclusive no Brasil, esse tema não pode ficar de fora.

Sabemos que preocupações sociais nem sempre provocam mudanças em processos de produção, especialmente quando isso impactará nos seus custos. Mas se não for por isso, as empresas deveriam, pelo menos, entender que essa precarização da mão de obra implicará em produtos piores para seus clientes.

Quanto a nós, os usuários de toda essa “magia” da inteligência artificial, precisamos entender e não esquecer que, quando conversamos com o ChatGPT, aquelas respostas incríveis só são possíveis porque alguém lhe disse o que cada coisa é.

 

O primeiro-ministro indiano, Narendra Modi (direita), manteve o cargo, após as “eleições da IA” - Foto: Governo da Índia/Creative Commons

Índia inaugura novo jeito de fazer campanha eleitoral, com apoio da IA

By | Tecnologia | No Comments

O resultado das eleições sempre esteve ligado ao uso das tecnologias da época. A TV era fundamental para a vitória até 2018, quando foi suplantada pelas redes sociais, críticas para definir os pleitos desde então. Mas agora elas podem perder esse posto para a inteligência artificial. E a Índia, que acabou de realizar a maior eleição do mundo, demonstrou como dominar essa tecnologia ficou essencial para os candidatos.

A IA na política não se resume a criar deep fakes para desmoralizar adversários ou se valer do ChatGPT para compor peças publicitárias, legítimas ou falsas. Como alguns candidatos indianos demonstraram, ela pode desenvolver canais inovadores e personalizados com os eleitores. E isso parece até uma boa ideia!

Se a IA fornecesse a atenção que nenhum candidato humano conseguisse dar, atendendo cada cidadão individualmente, isso poderia até fortalecer a democracia. Mas o problema do uso da IA na política é o mesmo do seu uso em qualquer atividade: abusos de seus recursos para produzir resultados imprecisos, imorais e ilegais, para assim, mais que convencer, manipular multidões e vencer uma eleição.

No final, a IA maximiza a índole de quem a usa. E infelizmente a classe política tem sido pródiga em apresentar pessoas com uma moral rasteira, dispostas a pisotear a ética e usar todos os recursos para vencer. Por isso, devemos olhar para o que aconteceu na Índia e aprender algo com aquilo. Se um bom uso da IA pode fortalecer a democracia, seu mau uso pode colocá-la em seríssimo risco!


Veja esse artigo em vídeo:


Por décadas, os candidatos brasileiros com mais tempo na TV iam para o segundo turno das eleições. Isso mudou em 2018, quando Geraldo Alckmin, que tinha 5 minutos e 32 segundos (quase metade do tempo total do horário eleitoral gratuito), amargou uma quarta posição, enquanto Jair Bolsonaro, com apenas 8 segundos, foi eleito presidente.

Ele ganhou porque percebeu, antes e melhor que todos, que as redes sociais haviam se tornado o canal mais eficiente de disseminação de ideias e de manipulação de mentes. E não se tratava apenas de fazer um bom uso dos recursos técnicos, mas de se alterar o jeito de se fazer a própria política, com apoio de algoritmos, fake news e discursos que parecem falar aos anseios de cada um, e não aos de toda a sociedade.

Agora a inteligência artificial promete levar a “política digital” a patamares inimagináveis. O pleito indiano foi um laboratório que deve ser observado pela população, pela mídia, por autoridades eleitorais e pelos políticos, pelo seu tamanho gigantesco e pela disseminação da tecnologia entre os cidadãos.

Em janeiro, o Fórum Econômico Mundial classificou a desinformação potencializada pela inteligência artificial como um dos maiores desafios do mundo nos próximos anos. No caso da Índia, o relatório a classificou como um risco maior que o de doenças infecciosas ou atividades econômicas ilícitas.

E de fato, muito do que se esperava de ruim se materializou nessa campanha, como uma enxurrada de fake news e de deep fakes para se atacar adversários. Mas foram vistos também o uso extensivo de hologramas de políticos (inclusive de lideranças falecidas) em comícios, sintetização de áudios e vídeos de candidatos para responder, em tempo real, a dúvidas de eleitores, e a inteligência artificial analisando quantidades colossais de dados de usuários (muitos coletados ilegalmente) para apoiar a decisão de campanhas.

A IA generativa foi amplamente usada não apenas para gerar instantaneamente as respostas e o audiovisual, mas também para fazer com que o avatar do candidato falasse na língua de cada eleitor, chamando-o pelo nome. Isso é importante em um país como a Índia, que tem 23 idiomas oficiais e mais de 400 dialetos.

Se as redes sociais foram eficientes em desinformar as pessoas, a inteligência artificial agora pode encantar (e até iludir) os eleitores.

 

Mentiras cada vez mais críveis

Especialistas temem que essa tecnologia convença cada vez mais as pessoas sobre os que os candidatos quiserem, pelos conteúdos personalizados e visualmente convincentes. Além disso, muita gente pode acreditar que está realmente falando com o candidato, ao invés de seu avatar.

Há ainda outro aspecto a ser considerado: por mais que os modelos de IA sejam bem treinados para sintetizar respostas às perguntas de cada eleitor individualmente, eles podem “alucinar” e repassar informações completamente erradas ao público.

No Brasil, o Congresso não ajuda ao travar projetos de lei que poderiam organizar o uso dessas tecnologias nas eleições. As autoridades eleitorais tentam, por sua vez, impedir que esses problemas aconteçam no país, definindo regras claras para a eleição municipal desse ano, incluindo contra abusos da inteligência artificial. Ao assumir a presidência do Tribunal Superior Eleitoral (TSE) no dia 3, a ministra Cármen Lúcia fez um discurso enfatizando a responsabilidade das redes sociais no problema e o combate que fará aos usos indevidos das tecnologias digitais na desinformação.

Não será uma tarefa fácil! Três dias depois, Meta (dona do Facebook, Instagram e WhatsApp), Google (dono do YouTube), Microsoft, TikTok e Kwai aderiram ao Programa de Combate à Desinformação do Supremo Tribunal Federal (STF). O X, que se tornou um dos principais canais de fake news, não mandou representantes.

Ainda que a IA ofereça campanhas muito eficientes por uma fração do custo necessário para se obter os mesmos resultados de maneira convencional, esses recursos podem custar milhões de reais para um candidato. Isso desequilibra ainda mais a eleição entre os concorrentes ricos e os pobres.

A Índia demonstrou as incríveis oportunidades e os enormes problemas do uso da inteligência artificial em uma eleição. Regras são necessárias para disciplinar essa prática, mas bandidos são conhecidos por infringi-las, portanto não são suficientes.

Não podemos ser ingênuos! Esperar que as plataformas digitais tomem todos os devidos cuidados nas eleições é como esperar que a raposa cuide do galinheiro. E achar que todos os candidatos farão um bom uso desses recursos é como entregar as galinhas –ou seja, os eleitores– diretamente para a raposa.

É hora de aproveitar o que há de bom e redobrar a atenção para os usos nocivos da IA! É assim que a política será feita de agora em diante.

 

Theodore e Samantha (o sistema operacional do celular em seu bolso), em cena do filme “Ela” (2013) Foto: reprodução

Empresas querem que acreditemos que a inteligência artificial é humana

By | Tecnologia | No Comments

A nossa interação com diferentes plataformas de inteligência artificial fica cada vez mais parecida com conversas que temos com outras pessoas. Em alguns casos, nossos cérebros podem ser enganados para crer que estão interagindo com outros indivíduos, por mais que saibam que não é verdade. Não é por acaso: as big techs querem que nos relacionemos com esses produtos de maneira mais “humana” possível. Mas longe de ser apenas um recurso para melhorar sua usabilidade, isso levanta questionamentos éticos e até de produtividade.

Ao longo da nossa evolução, aprimoramos a capacidade de atribuirmos características humanas ao que não é. Fazemos isso com animais de estimação, objetos, fenômenos da natureza e até a deuses. É o que chamamos de antropomorfismo. Por exemplo, dizemos que “o cachorro é muito inteligente”, “o carro está nervoso”, “a chuva está chorando” e representamos divindades com corpos e emoções humanas.

Isso é importante, porque facilita a nossa compreensão e interação, especialmente com aquilo com que não somos familiarizados. Além disso, com essa prática, criamos vínculos e até sentimos empatia pelo que não é humano.

Isso explica, pelo menos parcialmente, o ChatGPT ter atingido 100 milhões de usuários em apenas dois meses, o que o tornou o produto de mais rápida adoção da história. Antropomorfizar a inteligência artificial nos deixa à vontade para usá-la intensamente e para acreditar em suas respostas, às vezes além do que deveríamos.

Porém atribuir capacidades que esses sistemas não têm pode atrapalhar a nossa compreensão sobre o que realmente eles são e o que podemos fazer com a inteligência artificial. Corremos o risco de acabar atribuindo responsabilidades que as máquinas não possuem, enquanto ignoramos quem fizer usos indevidos de todo esse poder. Por isso, precisamos usar a IA como ela realmente é.


Veja esse artigo em vídeo:


Para deixar mais claros os efeitos do antropomorfismo, podemos comparar como nos relacionamos com a IA com o que sempre fizemos com os buscadores, que existem há quase três décadas. O Google, maior exemplo deles, tenta responder a todas as nossas perguntas desde 1998, quando foi lançado. E faz isso com uma eficiência incrível, sendo mais confiável que qualquer plataforma de inteligência artificial generativa do momento. Nem por isso, nós atribuímos características humanas a ele.

Como já debati nesse espaço, o mais incrível da inteligência artificial generativa não é o que ela nos diz, mas o simples fato de ser capaz de conversar conosco, como se fosse outra pessoa! Isso facilita o seu uso e amenta a credibilidade de suas respostas, mesmo quando ela nos diz alguma bobagem, as chamadas “alucinações” da IA.

Quando lançou o GPT-4o, no dia 13, a OpenAI dobrou essa aposta! Essa nova versão do “cérebro” do ChatGPT fala conosco com uma fluidez ainda mais impressionante, e é capaz de analisar, ao mesmo tempo, texto, voz, áudios e imagens, em tempo real, “enxergando” (olha a antropomorfização!) e analisando o que filmamos como celular.

Para reforçar ainda mais essa projeção, a empresa sugeriu que estaríamos nos aproximando do visto no filme “Ela” (2013), dirigido por Spike Jonze e estrelado por Joaquin Phoenix e Scarlett Johansson. Na história, Theodore (Phoenix) se apaixona por Samantha (a voz de Johansson), o sistema operacional de seu computador e smartphone, movido por uma aparente inteligência artificial geral.

Sam Altman, CEO da OpenAI, disse que “Ela” é seu filme preferido. Ele tentou contratar Johansson para dar voz ao GPT-4o, mas ela recusou a oferta. Não satisfeito, ele lançou o produto com uma voz muito parecida com a dela, o que lhe rendeu um processo da atriz. Aquela voz deixou de ser oferecida na plataforma.

Se tudo isso parece ficção científica demais, uma pesquisa publicada no ano passado na JAMA, a revista da Associação Médica Americana, indicou que pacientes consideraram empáticas quase dez vezes mais respostas dadas por um chatbot em relação às de médicos humanos. Na verdade, os pacientes sentiram alguma empatia do médico em apenas 5% das consultas, o que não deixa de ser uma informação importante por si só.

As pessoas querem se sentir acolhidas! Será que chegamos a um ponto em que as máquinas serão mais eficientes que humanos nessa tarefa?

 

A máquina perfeita de convencimento

O filósofo italiano e professor de Oxford Luciano Floridi, considerado uma das maiores autoridades nos campos da filosofia e da ética da informação, publicou um artigo nesse ano em que afirma que a inteligência artificial cria os mecanismos do que ele chama de “hiperpersuasão”. Resumidamente, essas plataformas ofereceriam um enorme poder para se convencer qualquer pessoa sobre qualquer coisa.

Segundo o pesquisador, isso se dá graças à já incrível e crescente capacidade de a máquina coletar e processar dados dos indivíduos, identificando padrões de comportamentos, preferências e vulnerabilidades, para manipular opiniões e comportamentos. Além disso, a inteligência artificial generativa pode produzir todo tipo de conteúdo com alta qualidade e cada vez mais parecida ao gerado por humanos.

Para ele, tecnologias persuasivas são tecnologias de poder. Já experimentamos isso com as redes sociais, e a esse processo deve se intensificar muito com a IA, não apenas pela tecnologia em si, mas por usos indevidos de grupos políticos e econômicos.

Para minimizar esses riscos, Floridi afirma que é necessária uma melhor proteção legal e ética da privacidade, contra os usos persuasivos da IA. E curiosamente, diante do fato de que esses usos nocivos acontecerão, ele sugere que a “hiperpersuasão” seja pluralista. Em outras palavras, usos positivos desse recurso poderão “compensar” os maus usos, trazendo também visões complementares do mundo. É mais ou menos o que acontece desde sempre com a mídia, mas agora aplicado à inteligência artificial.

Uma população em que todos os membros fossem muito educados e engajados ajudaria a resolver esse problema. Devemos perseguir sempre isso, mas entendo que seja uma utopia.

Isso nos leva então de volta ao antropomorfismo. Precisamos usar a IA como ela realmente é. Ela certamente atua como um agente social, no sentido em que promove transformações em nosso mundo, mas não é um agente moral, pois não tem autonomia e capacidade de escolher o que fará. Atribuir característica humanas à máquina pode distorcer essa realidade, isentando criminosos que fazem maus usos dela, e responsabilizando a máquina.

E isso não faz sentido algum!

 

Zumbis da série “Walking Dead”: as redes sociais podem nos transformar em uma versão digital dessas criaturas - Foto: reprodução

Ansiedade algorítmica cria zumbis que trabalham de graça para redes sociais

By | Tecnologia | No Comments

“Responda aos comentários dos fãs para ajudar a aumentar o engajamento com a sua conta”. Nessa semana, o Facebook me conclamou (de novo) a interagir ainda mais com outras pessoas, como se isso fosse fazer uma grande diferença na minha vida.

Como a principal rede do Mark Zuckerberg definitivamente não me entrega tal valor, dei de ombros. Mas muita gente não consegue praticar esse desapego, seja no Facebook ou em outras redes sociais. E isso vem provocando uma crescente onda de ansiosos por não darem conta de todas as “tarefas” sugeridas pelos algoritmos, como se fossem necessárias para se destacar em uma vida dividida constantemente entre as redes sociais e suas atividades presenciais.

Por que nos permitimos seduzir (ou controlar) por esses sistemas? Quando deixamos de agradar genuína e desinteressadamente pessoas verdadeiras para satisfazer as demandas insaciáveis das plataformas? Como elas conseguem nos dominar de maneira tão intensa e, ao mesmo tempo, subliminar?

A única rede que me traz benefícios reais é o LinkedIn. Meu mestrado se focou na construção de uma verdadeira reputação digital nele, mas, durante a pandemia, eu me debrucei sobre essas inquietações. Decidi então deixar de produzir para os algoritmos, como um escravizado digital, ou seja, como esses sistemas nos veem.

Já passou da hora de pararmos de nos submetermos aos caprichos desse capitalismo de vigilância e recuperarmos o controle de nossas vidas. No formato atual, as pessoas se afogam em sua ansiedade algorítmica, enquanto trabalham gratuitamente, sem perceber, para as redes sociais.


Veja esse artigo em vídeo:


Mantenho uma produção consistente e cuidadosa no LinkedIn, que me traz contatos qualificados e oportunidades de negócios interessantes. Mas reconheço que, quando parei de criar atendendo as neuroses dos algoritmos, minhas métricas sofreram.

Não escondo isso e, de certa forma, me orgulho desse movimento. Percebi que não precisava impactar, com minhas publicações, dezenas de milhares de pessoas cujos motivos e desejos só os algoritmos conheciam, e que não rendiam nada palpável. Muito melhor é chegar a menos pessoas, mas com as quais possa fazer trocas verdadeiras e produtivas. Outro ganho –tão ou mais importante que essas conexões– é encontrar prazer e leveza em falar com seres humanos, e não com sistemas.

Não é uma tarefa simples. As redes sociais descobriram como reforçar nossa busca por prazeres imediatos, aparentemente exigindo pouco de nós. Afinal, atire a primeira pedra quem nunca publicou algo em uma rede social na expectativa de receber muitas curtidas e, quem sabe, comentários que afagassem seu ego.

Curtidas não pagam contas! Mas relacionamentos qualificados podem ajudar nisso.

A raiz da ansiedade algorítmica está em sabermos que nossas vidas são controladas por esses sistemas, mas não termos conhecimento sobre como eles funcionam. Dependemos deles para conseguirmos trabalho, diversão e até amor, mas seu funcionamento é uma caixa preta que nunca se abre para nós.

Como consequência, estamos sempre tentando descobrir seus segredos para nos dar bem ou, no jargão das redes, “hackear o sistema”. Lemos artigos, fazemos cursos, acreditamos em gurus, mas o fato é que só quem desenvolve os algoritmos sabe da verdade, e esse é o “ouro do bandido”, um segredo tão bem guardado quanto a fórmula da Coca-Cola.

E assim nos viciamos nas microdoses de dopamina que nós mesmos produzimos quando um post tem uma visibilidade maior que nossa própria média (por menor que seja). A partir disso, buscamos sofregamente repetir aquele sucesso fugaz, tentando replicar uma receita que não temos.

 

O mal da falta de transparência

A inteligência artificial reacendeu os debates em torno da importância da transparência nas decisões dos algoritmos, para que entendamos seus motivos, assim como a explicabilidade e a rastreabilidade do que fazem com nossos dados.

Nisso reside um perverso jogo de poder. As redes sociais jamais nos darão essas informações, pois no obscurantismo está seu ganho. A ansiedade que essa nossa ignorância nos causa faz com que atuemos como zumbis teleguiados por seus sistemas. Se soubéssemos de toda a verdade, só publicaríamos o que “dá certo”, e as redes perderiam o controle que têm sobre nós. Isso seria ruim para seus negócios!

Não há a mínima reciprocidade entre os algoritmos e as pessoas: eles sabem tudo sobre nós, mas não sabemos verdadeiramente nada sobre eles. Temos só suposições e lampejos desconexos do seu funcionamento. Por isso, deixamos de representar, em nossas publicações, quem verdadeiramente somos ou o que desejamos. Ao invés disso, tentamos adivinhar e atender o que os outros querem de nós, esperando sua aceitação e aprovação, como se dependêssemos delas.

Essa é uma tarefa inglória e o caminho para a ansiedade e a depressão. Em casos extremos, vemos influenciadores digitais se suicidando, inclusive no Brasil, diante de sua incapacidade de ter o mínimo controle sobre os resultados de seu trabalho.

A opacidade dos algoritmos os torna mais cruéis quando mudam seus parâmetros continuamente, para que as pessoas não os dominem por muito tempo. Com isso, alguém que estivesse conseguindo ganhos de uma boa visibilidade, poderia subitamente ser descartado, sem explicação ou aviso prévio, gerando mais ansiedade.

As empresas se defendem afirmando que seus algoritmos existem para que as experiências em suas plataformas sejam úteis e divertidas, e não para que viciem os usuários. Dizem ainda que o que nos é empurrado depende de nossas interações na própria rede. Essa explicação, ainda que verdadeira, é tão rasa, que chega a ser hipócrita com quem consome e com quem produz conteúdo praticamente às cegas.

Vale lembrar que, apesar de estarmos falando aqui de algoritmos de redes sociais, eles estão presentes em toda parte, tomando decisões que podem influenciar profundamente nossas vidas. Dois exemplos emblemáticos são as plataformas de recrutamento, que podem definir se conseguiremos um emprego ou não, e os sistemas policiais, que podem decidir se somos criminosos, condenando-nos à cadeia.

Precisamos entender que os algoritmos devem trabalhar para nós, e não o contrário. Mas é inocência acreditar que temos algum controle nessa relação: em maior ou menor escala, somos dominados por esses sistemas, que exercem seu poder impunemente, mesmo quando causam grandes prejuízos aos usuários.

Por isso, o melhor a se fazer é mandar os algoritmos às favas e sermos nós mesmos, como acontecia nos primórdios das redes sociais. Mas você consegue fazer isso hoje?

 

Sameer Samat, diretor de produtos do Android, apresenta novidades de segurança do sistema durante o Google I/O 2024 - Foto: reprodução

Criminalidade brasileira transforma smartphones e inteligência artificial

By | Tecnologia | No Comments

A semana passada foi pródiga em lançamentos na área de tecnologia, fortemente impulsionados pela inteligência artificial. Em meio a tantas novidades, alguns recursos de cibersegurança me chamaram atenção, porque podem ajudar muito no combate à criminalidade digital no Brasil ou até foram explicitamente criados para atender a demandas de usuários de nosso país.

Na terça (14), o Google anunciou, durante seu evento anual Google I/O, um grande pacote de novidades na sua plataforma de inteligência artificial Gemini e no sistema operacional Android. No dia anterior, a OpenAI mostrou o novo cérebro do ChatGPT, o GPT-4o, que se aproxima incrivelmente da capacidade conversacional humana, incluindo reconhecimento em tempo real de texto, áudio e vídeo.

As referidas novidades de segurança fazem parte do novo Android. Uma delas automaticamente travará o smartphone no caso de roubo pelas infames “gangues de bicicleta”, que assombram os brasileiros, especialmente em São Paulo. A outra tentará identificar, em chamadas por voz, possíveis golpes, avisando imediatamente a vítima para que não acredite na mentira. A IA é o motor de ambos os recursos.

Fiquei feliz ao saber dessas funcionalidades! Tristemente, há anos o brasileiro se obriga a limitar o uso de tecnologias revolucionárias pela ação de criminosos. É o caso de restrições ao Pix, de andar com smartphones sem todos os aplicativos e até de não poder usar caixas eletrônicos de madrugada.

Já passa da hora de as big techs se envolverem na solução desses problemas!


Veja esse artigo em vídeo:


O nome do recurso contra as “gangues de bicicleta” é “Bloqueio de Proteção Contra Roubo” (“Theft Protection Lock”). Durante o Google I/O, Sameer Samat, diretor de produtos do Android, disse que esteve no Brasil no ano passado para conversar com a equipe local da empresa e com autoridades sobre essa modalidade de roubo, que faz um número assombroso de vítimas, especialmente para usar aplicativos bancários para desvio de valores e redes sociais para aplicar golpes em nome das vítimas.

Com a novidade, quando a IA do smartphone identificar uma mudança brusca de movimento, seguida de um padrão que indique um deslocamento por bicicleta, o smartphone será bloqueado. Essa identificação acontece por uma combinação de sensores do aparelho, inclusive do seu acelerômetro.

Já a ferramenta contra golpes telefônicos funciona com a inteligência artificial monitorando continuamente as conversas do usuário com alguém ligando de um número desconhecido, procurando por frases suspeitas. No palco do Google I/O, Dave Burke, vice-presidente de engenharia do Android, simulou uma conversa em que o interlocutor dizia ser funcionário do seu banco, sugerindo que ele transferisse seu dinheiro para outra conta por supostas atividades suspeitas na sua. Nesse momento, o aparelho tocou um alerta sonoro e a tela exibiu uma mensagem que dizia que “bancos nunca pedirão para transferir seu dinheiro para sua segurança.”

Outro recurso de segurança apresentado oculta mensagens e notificações com informações sensíveis, senhas ou autenticações em dois fatores. O objetivo é evitar que, no caso de o smartphone ser clonado ou de sua tela estar espelhada em outros dispositivos, criminosos tenham acesso a essas informações confidenciais.

Burke disse que as pessoas perderam mais de US$ 1 trilhão em golpes digitais no ano passado, em todo o mundo. Esse número astronômico faz sentido: apesar de os bandidos ainda poderem ser presos eventualmente, a chance de isso acontecer é muito menor que em assaltos a bancos, além de muito menos arriscados.

Esses novos recursos de segurança farão parte da versão 15 do sistema operacional Android, que deve ser lançada no final do ano, mas também devem chegar a smartphones com Android a partir da versão 10. Ainda não foi definida a data para essa atualização.

 

Proteção pela IA

Os golpes digitais crescem a olhos vistos: a toda hora, surge uma nova modalidade, aproveitando-se de falhas dos sistemas e especialmente da inocência e inexperiência dos usuários. E os smartphones são o principal canal para sua execução.

Os bancos ficam em uma situação bastante cômoda diante desse gravíssimo problema. Argumentam que a culpa é do seu cliente e raramente ressarcem os valores. Na verdade, a pessoa é a vítima e os aplicativos dos bancos fazem pouco para protegê-la. Essa postura se assemelha a dizer que o correntista seria culpado por fazer um saque no caixa em uma agência com um bandido lhe apontando uma arma para sua cabeça.

As autoridades tratam o problema como caso de polícia, mas isso é insuficiente para eliminá-lo pelo absurdo volume de ocorrências. Adotam também medidas paliativas, como impedir o uso de caixas eletrônicos de madrugada, pelos sequestros-relâmpago.

As big techs, particularmente o Google e a Apple, criadoras dos sistemas operacionais de todos os smartphones do mundo, há anos lançam recursos para minimizar o problema, mas eles também são claramente insuficientes. Os cibercriminosos conseguem superar muitas dessas barreiras tecnológicas, o que chega a ser assustador, considerando os milhões de dólares investidos no seu desenvolvimento desses recursos.

Agora a inteligência artificial desponta como uma esperança para equilibrar essa balança. De fato, ela consegue oferecer aos smartphones habilidades até então inimagináveis, em diversas atividades.

As big techs desempenham um papel absolutamente central na solução do cibercrime, pois ele acontece usando suas tecnologias e plataformas. Mas isso não desobriga as autoridades e os bancos de se empenharem muito mais na busca por saídas, assumindo a responsabilidade que têm na segurança do cidadão e dos próprios clientes. Jogar a culpa no outro é uma atitude preguiçosa e vergonhosa!

Já não é de hoje que os smartphones se tornaram o centro de nossas vidas, pois fazemos uma grande quantidade de atividades com eles. Sem segurança, todas essas ferramentas ficam comprometidas. Por isso, esses recursos agora anunciados são muito bem-vindos. Esperamos apenas que os cibercriminosas não consigam superar também essas proteções.

 

Matt Hicks, CEO da Red Hat, explica a integração entre inteligência artificial e open source - Foto: Paulo Silvestre

Open source fortalece confiança e pode popularizar inteligência artificial

By | Tecnologia | No Comments

A corrida pela inteligência artificial acontece não apenas entre as big techs, que buscam estabelecer a dominância nesse mercado bilionário, mas também entre profissionais e empresas que querem construir uma vantagem sobre seus concorrentes, pelo uso dessa tecnologia. Agora o open source, modelo de produção e distribuição em que qualquer um pode propor melhorias em softwares, chega com ideias que podem tornar a IA mais segura, fácil e profissional.

Desde que o ChatGPT a apresentou às massas há 18 meses, seu avanço acontece a passos largos. Mas apesar de algumas aplicações disponíveis parecerem mágicas em seus resultados, a IA ainda está engatinhando. Muitos dos usos que vêm sendo feitos dela são poucos profissionais e podem até expor dados sigilosos.

Em grande parte, isso acontece porque as pessoas usam ferramentas genéricas, construídas para respostas sobre qualquer assunto, como o próprio ChatGPT. O amadurecimento desse mercado passa, portanto, pela oferta de plataformas que permitam que as empresas criem e ajustem seus próprios modelos, adequados a necessidades específicas e com suas informações usadas de maneira segura.

Durante o Red Hat Summit, maior evento de open source do mundo, que aconteceu em Denver (EUA) na semana passada, a Red Hat, líder global de soluções nesse formato, apresentou o InstructLab, plataforma que propõe solucionar esses problemas. Ela permite que qualquer pessoa, mesmo sem conhecimento técnico, contribua com o desenvolvimento de modelos de IA para seus negócios.


Veja esse artigo em vídeo:


Construído sobre o LLM (modelo de linguagem ampla) Granite, da IBM, a plataforma sintetiza dados a partir de informações do cliente, mesmo em pequenas quantidades, tentando vencer um problema atual dos grandes LLMs, que exigem volumes colossais de informação para seu treinamento, e estão esbarrando na falta de novo conteúdo. Com a ação dos usuários, esse modelo sintético tende a ficar melhor por uma fração dos custos de um desenvolvimento tradicional, para aplicações específicas.

“Isso permite que comunidades de pessoas ensinem os LLMs a aprender da mesma forma que os humanos aprendem”, explica Matt Hicks, CEO da Red Hat. “Ao permitir a qualquer pessoa que contribua para um modelo e ajustá-lo de novas maneiras, podemos realmente desbloquear o potencial da especialização em um assunto.”

“Talvez seja isso que de fato popularizará nas empresas esse modelo que a população experimentou, mas aplicado ao seu negócio, combinado com seus dados, com as suas informações”, sugere Gilson Magalhães, presidente da Red Hat Brasil. “Isso é revolucionário!”

Explicando de maneira mais simples, as empresas continuam se beneficiando das informações e da capacidade de produção dos grandes LLMs, mas agora podem construir modelos especializados para suas necessidades, a partir de seus dados e das habilidades e do conhecimento de sua equipe. “A tecnologia entra, mas sem os talentos, sem as pessoas, jamais se alcançará a transformação como ela deve ser feita”, afirma Paulo Bonucci, diretor-geral da Red Hat Latin America.

“O mundo não será composto por um único modelo, e sim, cada vez mais, por modelos especializados”, explica Thiago Araki, diretor de tecnologia da Red Hat Latin America. “Ao invés de usar um modelo de forma genérica, para qualquer caso, teremos modelos pequenos para usos específicos, para cada negócio.”

O amadurecimento do mercado implica também nas empresas entenderem que são responsáveis ao usar decisões tomadas pela IA. “Já existem ferramentas que ajudam nessa auditoria, mas trabalhar com código aberto permite identificar como e por que essas decisões foram tomadas e com quais dados”, detalha Victoria Martínez Suárez, líder em inteligência artificial da Red Hat Latin America.

 

Questões regulatórias

Todos esses executivos, com quem conversei em Denver, afirmam ser necessária alguma forma de regulamentação da tecnologia, naturalmente em um sentido que não prejudique seu desenvolvimento, mas para proteger os usuários de abusos econômicos das big techs e para dar segurança jurídica ao mercado.

Bonucci acredita que a legislação ideal deveria ficar entre a Lei da Inteligência Artificial, aprovada no mês passada pela União Europeia, e a proposta americana. A primeira é um documento extenso e detalhado, construído principalmente sobre os diferentes níveis de risco que a inteligência artificial pode oferecer às pessoas, orientando seu uso. Já o modelo dos EUA delega a decisão sobre o que pode ou não ser feito às diferentes agências regulatórias já existentes.

“A rastreabilidade e a transparência são exigidas em alguns setores, em outros são recomendadas”, explica Martínez. “Ter isso claro é bom porque, em algum momento, essas informações podem ser solicitadas para qualquer problema que ocorra.”

No momento, o Congresso Nacional analisa o Projeto de Lei 2338/23, que guarda muita semelhança com a lei europeia. Os legisladores brasileiros têm o desafio de criar regras claras para evitar que se repita na IA o que se vê nas redes sociais, que gostam de não dar satisfações, e com isso vêm causando muitos danos a usuários e à sociedade como um todo. “A regulação é um princípio ocidental muito útil para garantir que empresas e pessoas não sejam massacradas por qualquer que seja o domínio”, afirma Magalhães. “Mas ela tem que ser sábia para proteger, sem inibir”.

Tudo isso se faz necessário para que essa tecnologia, que evolui de forma exponencial, deixe de ser uma curiosidade e passe a trazer benefícios claros para pessoas e companhias. Por mais que esteja ainda em seus estágios incipientes, precisamos compreender seu funcionamento e recursos.

“A proposta é trabalhar não tecnologia por tecnologia, e sim algo que vai trazer impacto ao negócio”, acrescenta Araki. “Não devemos usar IA generativa só porque está na moda, e sim fazer o uso disso quando tem algum sentido para o negócio.”

É incrível pensar que, há apenas 18 meses, quase ninguém falava de inteligência artificial. No ano passado, ficamos deslumbrados com suas possibilidades. Agora estamos encontrando novas formas de nos apropriarmos dela. Assim, para que, no ano que vem, ela nos traga ainda mais benefícios, esse debate precisa ser ampliado.


Clique nos links para assistir à íntegra em vídeo das entrevistas com os executivos acima:

 

Sam Altman, CEO da OpenAI, líder global no desenvolvimento da inteligência artificial, no Fórum Econômico Mundial – Foto: reprodução

Sociedade exige da IA uma transparência que ela mesmo não pratica

By | Tecnologia | No Comments

Muito além do aquecido debate sobre legislações que organizem o uso da inteligência artificial, começa a se formar um consenso sobre alguns valores em torno dessa tecnologia, como uso e desenvolvimento responsáveis, decisões rastreáveis e dois conceitos que se confundem e são pouco conhecidos: transparência e explicabilidade. Todos são essenciais para que os impactos da IA sejam positivos. Mas a sociedade está exigindo algo dessas plataformas que ela mesma não pratica.

Se fizermos uma autoanálise, perceberemos que conscientemente não somos transparentes em muitas coisas de nosso cotidiano, assim como tampouco são empresas e instituições. Como exemplo, uma das maiores falhas das redes sociais, que levou à insana polarização da sociedade e a problemas de saúde mental de seus usuários, é a completa falta de transparência das decisões de seus algoritmos.

Diante disso, alguns especialistas afirmam que exigir esse nível de responsabilidade e transparência das plataformas de IA é um exagero e até, de certa forma, hipocrisia.

Talvez… Mas o fato de cultivarmos esses maus hábitos não pode ser usado para desestimular a busca desses objetivos nessa tecnologia com potencial de ofuscar a transformação que as redes sociais fizeram, que, por sua vez, deixou pequena as mudanças promovidas pela mídia tradicional anteriormente.

Se não tomarmos as devidas precauções, a inteligência artificial pode causar graves consequências para a humanidade pelas ações de grupos que buscam o poder de forma inconsequente. Por isso, ela precisa ser organizada para florescer como uma tecnologia que ampliará nossas capacidades criativas e de produção.

Sem esses pilares éticos, sequer confiaremos no que a IA nos disser, e então tudo irá por água abaixo.


Veja esse artigo em vídeo:


No momento, as plataformas de inteligência artificial funcionam como caixas pretas: colocamos nossos dados e fazemos nossos pedidos de um lado, e nos deslumbramos com os resultados do outro, sem saber como aquela “mágica” foi feita. Apenas quem está dentro das big techs que produzem esses sistemas sabe como aquilo funciona, mas até eles se surpreendem com alguns resultados das suas criaturas, como quando desenvolvem sozinhas habilidades para as quais não foram programadas.

Quando se cria algo que promove profundas mudanças na sociedade, mas não se conhecem seu funcionamento e objetivos, isso pode colocar em risco a própria democracia, não porque exista algo maquiavélico na sua confecção, mas justamente por esse desconhecimento. Não é à toa que legislações para a inteligência artificial ao redor do mundo, com o brasileiro Projeto de Lei 2338/23 e a europeia Lei da Inteligência Artificial, tentem definir rastreabilidade, transparência e explicabilidade.

A rastreabilidade é a capacidade de identificar e acompanhar as ações de um sistema de IA, saber quais dados foram usados para treiná-lo e seus algoritmos, manter registros sobre como chegou a uma determinada decisão e qual foi seu impacto. Isso permite que suas escolhas sejam auditadas e que vieses sejam corrigidos.

Já a transparência se refere às pessoas poderem ser capazes de entender como o sistema de IA funciona, quais dados ele usa e como ele toma decisões. Isso visa garantir que ele seja usado de forma justa e ética, aumentando sua aceitação pública.

Por fim, a explicabilidade se traduz na capacidade de um ser humano compreender as razões complexas pelas quais um sistema de IA toma uma determinada decisão, que fatores contribuíram e como foram ponderados. Ela é importante para identificar erros, prever resultados e garantir a conformidade com padrões éticos e legais.

Se não é fácil entender, mais difícil ainda é entregar esses valores. Os algoritmos mais eficientes são justamente os mais complexos, e uma simples documentação pode não ser suficiente. Ainda assim, o desafio dessa conformidade permanece.

 

Temos que entender

Como exemplo da importância de se entender essas plataformas, podemos pensar na exigência do artigo 20 da Lei Geral de Proteção de Dados (LGPD), que determina que o cidadão pode “solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados pessoais que afetem seus interesses”. Mas como ele fará isso se nem compreende como a decisão foi tomada? Da mesma forma, como a empresa revisará a decisão, se tampouco a compreende?

Considerando que a IA estará cada vez mais presente e determinante em nossas vidas, sua compreensão deve ser ensinada até nas escolas, desde a infância, de maneira crescente. Não quer dizer que todos precisem dominar plenamente seu funcionamento: apenas o suficiente para suas necessidades. Fazendo uma comparação com um carro, existe sobre ele os conhecimentos de um projetista, de um mecânico, de um motorista e de um passageiro. E todos usam o carro à sua maneira!

Ao contrário do que alguns dizem, a exigência de que plataformas de inteligência artificial sigam esses preceitos éticos não pode ser visto como ameaça ao seu desenvolvimento e inovação. Pelo contrário, são condições que devem integrar sua própria concepção. A população precisa disso para confiar na inteligência artificial, ou, passada essa fase inicial de deslumbramento, ela poderá deixar de ser considerada como a incrível ferramenta de produtividade que é.

Entendo que as dificuldades para isso sejam imensas. Sei também que nós mesmos não somos transparentes em nosso cotidiano, como já disse. Mas nada disso pode servir como desculpa para se esquivar dessa tarefa. Tampouco é hipocrisia exigir que os desenvolvedores se esmerem para cumprir essas determinações.

Não podemos incorrer no mesmo erro cometido com as redes sociais, que até hoje atuam de maneira inconsequente e sem responsabilidade pelos eventuais efeitos muito nocivos de suas ações. A inteligência artificial já está transformando a sociedade de maneira determinante.

Seríamos inocentes se acreditássemos que essas empresas se autorregularão: seus interesses sempre falarão mais alto nesse caso. Precisamos de regulamentações claras, não para coibir o progresso, mas para dar um norte de bons princípios, para que a inteligência artificial beneficie a todos, e não apenas grupos tecnocratas.

 

Na quarta, o secretário da Educação de São Paulo, Renato Feder, falou sobre a IA nas escolas, durante o Bett Brasil - Foto: reprodução

ChatGPT na criação de aulas para escolas paulistas pode piorar a educação

By | Educação, Tecnologia | No Comments

A Secretaria da Educação do Estado de São Paulo confirmou que pretende usar o ChatGPT para “melhorar” as aulas que distribui para os professores das escolas estaduais paulistas. Apesar de garantir que todo o conteúdo gerado pela máquina será revisado por sua equipe de professores curriculistas, esse uso da inteligência artificial abriu uma grande discussão sobre uma possível redução no papel do professor e nos riscos vindos de uma tecnologia reconhecidamente ainda falha.

Segundo a Secretaria, a IA fará suas propostas a partir do material já existente, criado pelos curriculistas para alunos do Ensino Fundamental II (do 6º ao 9º ano) e do Ensino Médio. O ChatGPT deve propor ampliações no conteúdo e criação de exercícios.

Professores criticam o material do governo, que consideram limitante. Também possui erros gramaticais, de formatação e conceituais. Como exemplo, uma aula afirmava que a Lei Áurea teria sido assinada em 1888 por D. Pedro II (foi pela sua filha, a princesa Isabel), enquanto outra dizia que a cidade de São Paulo possuía praias.

O temor é que o ChatGPT agrave o problema. Assim como outras plataformas de IA generativa, ele é programado para sempre dizer algo, mesmo que não saiba o quê. Nesse caso, pode responder verdadeiras barbaridades, mas, como faz isso com grande “convicção”, muita gente acredita nas suas informações erradas. São as chamadas “alucinações”.

Caberá aos professores curriculistas não apenas ajustar pedagogicamente a produção do ChatGPT, como também verificar se o que ele diz está correto e se não fere direitos autorais. Fica a pergunta se eles terão recursos e disposição para fazer isso. Caso contrário, a inteligência artificial poderá deseducar, ao invés de melhorar aulas.


Veja esse artigo em vídeo:


A digitalização das escolas estaduais de São Paulo é uma bandeira do secretário da Educação, o empresário do setor de tecnologia Renato Feder. Desde o ano passado, 90 curriculistas produzem slides para os professores usarem em suas aulas. Ele chegou a anunciar que abandonaria os livros do Programa Nacional do Livro Didático (PNLD), obrigando os educadores a usar o material digital do governo.

Depois de muitas críticas, Feder recuou da ideia de desistir dos livros, mas os slides continuaram. Segundo ele, esse material prioriza conteúdos cobrados em avaliações nacionais, como o Saeb (Sistema de Avaliação da Educação Básica).

“A gente tem que tomar muito cuidado que o professor não seja apenas um aplicador de atividades”, afirma Ana Lúcia de Souza Lopes, professora da Universidade Presbiteriana Mackenzie e especialista em tecnologia para educação. “Ele deve ser aquele que media o conhecimento, que cria condições para o aluno aprender”, explica.

A especialista defende a criação de bons materiais para serem usados em salas de aula, desde que eles sejam criados por professores. Mas ela alerta que a formação desses profissionais tem sido deficiente, o que os atrapalha nessa atividade.

Até o momento, os professores curriculistas do Estado de São Paulo entregam quatro aulas por semana. Com o uso da IA, essa meta passa a ser de três aulas a cada dois dias úteis, podendo chegar a seis por semana.

 

Quantidade versus qualidade

Feder disse que continuará ampliando o uso da inteligência artificial na educação. Outra aplicação é o “fluencímetro”, um sistema que analisa fluência de leitura de alunos do 2º ao 5º ano. Segundo ele, a próxima etapa será a adoção de ferramentas para corrigir lições de casa dos alunos, que precisarão ser feitas em um aplicativo. A correção de redações também deve ser auxiliada pela IA.

A princípio, a adoção de ferramentas para auxiliar os sobrecarregados (e muitas vezes desmotivados) professores das escolas estaduais é bem-vinda. Mas recaímos no risco de os robôs piorarem o aprendizado, por suas próprias falhas. Além disso, isso pode diminuir ainda mais o protagonismo do professor, sem resolver problemas estruturais, como sua formação deficiente, enorme desvalorização social da carreira e condições precárias para realização de seu trabalho.

“Não sou contra o uso da inteligência artificial, mas precisamos ter atenção em como utilizar a ferramenta, principalmente em aspectos sensíveis, como no caso da educação”, alerta Lopes. E de fato, a recém-aprovada Lei da Inteligência Artificial europeia classifica o uso dessa tecnologia na educação como uma atividade de alto risco, e que, portanto, deve acontecer com muito cuidado.

O Ministério Público de São Paulo determinou que Feder apresente estudos científicas que justifiquem o uso de inteligência artificial na produção de material didático. Ele tem até a segunda quinzena de maio para fazer isso.

Muitos professores já usam a inteligência artificial na sala de aula. Os que mais poderiam se beneficiar dela são justamente aqueles que têm pouco apoio profissional e estão sobrecarregados. Uma grande ironia nisso é que normalmente eles são os que possuem uma formação deficiente e que, portanto, tendem a colher menos resultados de todo o poder que essa tecnologia lhes oferece. Isso pode aumentar ainda mais a distância entre professores e alunos de escolas privadas e os de escolas públicas.

Precisamos ter em mente que, mais que quantidade, educar é qualidade. Não basta oferecer materiais “mastigados” para alunos adestrados tirarem boas notas em avaliações oficiais. Isso se presta muito mais a gerar dividendos políticos.

A educação significa criar cidadãos conscientes, capazes de analisar seu cotidiano criticamente, entendendo de fato conteúdos e dominando habilidades que os permitam se desenvolver em um mundo cada vez mais competitivo. Para usar termos da moda, é preciso adquirir “hard skills” (como Matemática ou Língua Portuguesa), mas também as “soft skills” (habilidades intangíveis, como trabalho em equipe, capacidade de comunicação e resiliência).

A inteligência artificial é uma tecnologia fabulosa, com uma incrível capacidade de transformação social. Ela está apenas dando seus primeiros passos, e todos precisam se apropriar adequadamente de seus recursos, inclusive nas escolas. Ainda assim, ela não é capaz de cumprir essas tarefas, que só podem ser realizadas por um professor.

Mas eles precisam de apoio verdadeiro, melhor capacitação e reconhecimento profissional e social. Sem isso, nossos alunos ficarão cada vez mais desassistidos, e o Brasil cada vez menos competitivo. Enquanto governos, escolas, e famílias não apoiarem isso de maneira efetiva e coordenada, uma adoção afobada da IA na educação pode tornar essa nossa deficiência social ainda mais dramática.