inteligência artificial

Plataformas digitais ajudam estudantes a se envolverem melhor com o conteúdo escolar - Foto: Freepik/Creative Commons

IA pode ajudar alunos a falar mais e a aprender melhor

By | Educação, Tecnologia | No Comments

Uma métrica eficiente para se identificar uma boa aula é medir o quanto os estudantes falam nela sobre o conteúdo. Quando interagem, os alunos aprendem melhor. Agora a inteligência artificial pode ajudar professores a envolverem mais suas turmas.

Ser professor pode ser uma tarefa solitária. Fora dos centros de excelência, os docentes costumam criar seus planos de ensino com apoio mínimo, e ministram suas aulas sem uma avaliação contínua, com a qual poderiam aprimorar o processo.

Não é uma tarefa fácil. Produzir esse tipo de análise exige recursos que as escolas normalmente não têm. Além disso, se essa informação vazasse, o monitoramento de aulas poderia municiar membros de uma parcela da sociedade que decidiu perseguir professores explicitamente nos últimos anos.

Diante disso tudo, a IA surge como uma poderosa aliada pedagógica. Se bem usada, ela pode acompanhar as aulas do professor e lhe oferecer o apoio necessário de maneira eficiente e segura. Pode ainda atuar como um supervisor educacional para os docentes e como um tutor permanentemente disponível aos alunos.

Como tudo que se refere à inteligência artificial, soluções que parecem mágicas precisam ser bem compreendidas para que aparentes milagres não se tornem pesadelos. O robô pode mesmo oferecer grandes vantagens educacionais, mas ele não pode, de forma alguma, substituir o professor, como alguns poderiam pensar.


Veja esse artigo em vídeo:


Recentemente descobri uma plataforma criada para ajudar os professores a aumentarem o engajamento de seus alunos. Apesar de usar reconhecimento de voz e inteligência artificial, a TeachFX não é nova: a empresa foi criada em 2016, muito antes de toda a visibilidade que essa tecnologia ganhou nos últimos meses.

Seu funcionamento é incrivelmente simples. O próprio professor grava o áudio de suas aulas como celular ou computador. A partir disso, o sistema cria relatórios que indicam quanto tempo o professor e os alunos falaram individualmente e em grupo, se o professor fez perguntas que promoveram o debate, se deu tempo adequado para reflexão dos alunos, quais as palavras mais usadas e até se elas foram muito acadêmicas ou técnicas.

Segundo a empresa, apesar de estudos comprovarem que alunos falando sobre o conteúdo aprendem melhor, a análise de 20 mil horas de áudio gravado de aulas do Ensino Básico americano indicou que cada aluno fala, em média, apenas 27 segundos a cada hora! Levantamentos internos indicam um incremento de 97% nesse tempo em alunos de professores que gravaram pelo menos oito de suas aulas e analisaram os dados oferecidos pelo sistema.

Os desenvolvedores afirmam que a ferramenta não serve como um “espião” para diretores e pais. Os dados de cada professor são acessíveis só a ele mesmo. A equipe pedagógica vê apenas os números agregados de toda a escola. Eles entendem que, sem isso, os docentes não se sentiriam seguros para usá-lo. Não se trata, portanto, de um sistema para dar uma “nota” ao docente, e sim de uma ferramenta para promover uma reflexão qualificada do próprio método pedagógico.

Outro uso da inteligência artificial na educação que ganhou bastante destaque é o Khanmigo. Em maio, Salman Khan, fundador e CEO da Khan Academy, uma organização que oferece educação online gratuita, demonstrou essa ferramenta que auxilia professores e alunos. Ela não dá respostas aos estudantes, ajudando-os a pensar na solução dos problemas. Para professores, a ferramenta ajuda a planejar aulas engajadoras. Khan afirmou que, para os alunos, a IA atua como um tutor, enquanto, para os professores, age como um assistente.

Em um primeiro momento, parecem iniciativas incríveis, mas nem todos os professores estão entusiasmados com novidades como essas.

 

O medo do desconhecido

Estamos em um período de transição no uso da inteligência artificial em todos os setores da economia, e a educação não é exceção. Mas, nesse caso, há alguns desafios adicionais, até pelas características de uma atividade bastante refratária a inovações tecnológicas, se comparada a outras profissões intelectuais.

Pela minha experiência como educador, analiso soluções digitais para a educação há quase duas décadas. Observo um medo desproporcional dos professores, que relutam em adotar novidades por desconhecimento e falta de preparo para usá-las em seu cotidiano. Como me confidenciou uma professora há alguns anos, “vejo muito valor no que esse sistema oferece, mas eu não sei colocá-lo na MINHA aula”.

Mais que vender ferramentas aos professores, os desenvolvedores, as universidades e as autoridades educacionais precisam apoiar os docentes para que eles entendam que a tecnologia não pretende substituí-los nem restringir sua liberdade pedagógica. E obviamente isso deve ser verdade!

Não é trivial, especialmente diante de grupos que enxergam a educação de maneira meramente utilitária. No início do ano passado, por exemplo, o governo paulista tentou eliminar o acesso a livros didáticos nas escolas do Estado, substituindo por questionáveis slides criados pela equipe da Secretaria de Educação. Segundo o secretário da Educação, Renato Feder, eles seriam “mais assertivos” que os livros. Felizmente a proposta acabou sendo retirada, diante de protestos generalizados.

Como pesquisador de inteligência artificial, entendo que ela tem um poder considerável de homogeneizar conhecimento, ao ajudar com produções a partir de uma base de informações que representa uma espécie de “média” do que a humanidade sabe sobre qualquer assunto. Sem falar que isso pode também reforçar vieses e visões polarizadas do mundo. Isso deve ser evitado a todo custo!

Mas esses riscos não devem servir de desculpa para que a IA não seja usada na educação, e sim que seja utilizada de maneira inteligente. Os professores devem ter seus receios acolhidos, enquanto lhes é ensinado como se apropriar dessas ferramentas para ampliar as boas práticas que conhecem e lhes apresentar outras, sempre de maneira transparente e explicada.

A inteligência artificial e qualquer outra tecnologia não devem, portanto, ameaçar a liberdade dos professores ou criar mecanismos para aprisioná-los em modelos padronizados e “assertivos”. Pelo contrário, devem permitir que sua experiência e sua intuição encontrem maneiras mais eficientes e divertidas para envolverem seus alunos no cotidiano da mais nobre das profissões.

 

Aura Popa e Kurt Schlegel, na abertura da conferência Gartner Data & Analytics, na semana passada em São Paulo - Foto: divulgação

IA cria uma inteligência coletiva unindo pessoas e máquinas em torno de um propósito

By | Tecnologia | No Comments

A cada dia, aplicações com inteligência artificial surgem nos mais diversos setores. O ChatGPT mostrou para as massas como essa tecnologia pode trazer grandes ganhos de produtividade, e isso ciou uma sensação de que a IA automatizará tudo por conta própria. Mas isso não é verdade: o ser humano ainda precisa supervisionar seu aprendizado e suas conclusões. Ainda assim, a colaboração inteligente entre máquinas e pessoas pode tornar possível coisas até então inimagináveis.

Esses foram alguns dos principais temas da conferência Gartner Data & Analytics, que aconteceu em São Paulo na terça e na quarta passada. Na palestra de abertura, Aura Popa, diretora-sênior, e Kurt Schlegel, vice-presidente da consultoria, fizeram uma analogia entre a inteligência coletiva do mundo animal e o que podemos fazer junto com a inteligência artificial.

Esse fenômeno se observa desde enxames de abelhas até matilhas de lobos. Nelas, cada indivíduo tem autonomia para tomar suas decisões, mas também trabalha para os objetivos do grupo. Dessa maneira, ele não apenas sobrevive, como também prospera, atingindo coletivamente ganhos que não conseguiria sozinho.

Segundo os executivos, a inteligência artificial funciona agora como um facilitador para as pessoas criarem valores inéditos juntas. Mas, para isso, as empresas precisam reorganizar seus modelos operacionais para dar autonomia e flexibilidade aos profissionais. Devem também ampliar sua educação para usos conscientes dos dados e da IA. Por fim, precisam distribuir autoridade e responsabilidade para que todos atuem com um propósito bem definido, em todos os níveis da organização.

É uma proposta interessante, neste momento em que ainda tateamos a inteligência artificial para encontrar formas positivas de usá-la. Em diversos momentos na conferência, ficou claro que não se deve delegar decisões críticas completamente à máquina, pois ela pode cometer erros graves. Fazer isso também aceleraria o temor generalizado de termos nossos empregos substituídos por robôs.


Veja esse artigo em vídeo:


“Desencadeamos uma nova era de inteligência coletiva, que combina inteligência humana e de máquina”, disse Schlegel. Segundo eles, para se atingir esses objetivos, as empresas precisam investir em estratégia, mas também se dedicar mais na execução.

“Concentre-se na execução e gaste mais tempo trabalhando em toda a empresa para descobrir como usar esses dados”, explicou Popa, que concluiu: “concentre-se nos fundamentos da governança e na maturidade da implantação, e olhe além dos resultados de curto prazo.”

Uma pesquisa do Gartner realizada no segundo trimestre de 2023, indicou que 75% dos CEOs já haviam experimentado a IA generativa, sendo que 64% não acham que exista exageros no que se fala dela e 62% já discutiram a IA com os conselhos de administração de suas empresas. Por outro lado, 53% dos líderes de tecnologia disseram não ter certeza se estão preparados para mitigar os riscos da IA.

Um bom caminho para se enfrentar esse desafio recai sobre os dados usados nas plataformas, incluindo a precisão, confiança e transparência nessas informações, além de sua proteção. Segundo a consultoria, organizações com práticas maduras de governança de dados têm 25% mais chance de ter sucesso com essas inovações.

Essa inteligência coletiva viabilizada pela IA abre um incrível caminho para melhorar as decisões de negócios, que passam a ser mais contextualizadas, conectadas e contínuas. Isso contrasta com o que se vê hoje: segundo o próprio Gartner, 65% dos entrevistados disseram usar dados para justificar uma decisão já tomada, normalmente pela pessoa mais bem paga na organização.

 

IA ajudando nas decisões

“Muitas escolhas de negócios ainda possuem poucos dados internos, e isso tem que mudar”, afirmou Pieter den Hamer, vice-presidente do Gartner. Para ele, as empresas precisam passar de “orientadas por dados” para “orientadas por decisões”. “É essencial abrir a caixa preta da tomada de decisões”, disse.

Frank Buytendijk, chefe de pesquisa do Gartner Futures Lab, sugeriu que poderemos ver, em poucos anos, plataformas de IA ocupando posições em conselhos de administração, e ele considera isso assustador. Segundo ele, um robô que soubesse tudo que os grandes executivos disseram ou escreveram não seria necessariamente útil, pois esse “superexecutivo” nunca existiu e nunca esteve na liderança de uma única companhia.

Mas ele não duvida que decisões de alto nível passem a ser cada vez mais auxiliadas (e até feitas) pela inteligência artificial. Isso poderia levar a um futuro distópico, com dois extremos. Em um deles, veremos a tomada de decisões e a liderança se tornando demasiadamente centralizadas por tecnologias digitais. “Isto eliminaria a autonomia das pessoas, e lhe falta a diversidade e a inclusão que levam a melhores decisões”, explicou. O extremo oposto é um cenário de excessiva distribuição, em que cada um faz suas próprias coisas, sem a visão do todo.

Gestores de diferentes áreas, mas principalmente aqueles ligados a implantações de inteligência artificial e análise de dados, devem cuidar para que não cheguemos a isso. A IA deve auxiliar na tomada de decisões, mas não pode responder sozinha por elas. Considerando que, em um tempo relativamente curto, todo mundo usará essa tecnologia no seu cotidiano, as pessoas devem ser educadas para compreender o que estão fazendo e se apropriar do processo, sedo responsáveis pelas consequências de suas decisões apoiadas pelas máquinas.

No final, o conceito de inteligência coletiva do mundo animal pode mesmo guiar nossos passos nesse mundo em transformação acelerada pela IA. Todos devemos ter autonomia para tomar mais e melhores decisões dentro do escopo de nossas atuações, mas elas devem estar sempre alinhadas com um objetivo maior, que vise o crescimento de onde estivermos e o bem-estar da sociedade como um todo.

 

Soldados ucranianos exibem drone russo capturado em agosto passado - Foto: Ministério de Assuntos Internos da Ucrânia/Creative Commons

Como vencer uma guerra sem disparar um único tiro

By | Tecnologia | No Comments

Para mim, as guerras representam a falência da humanidade. Quando governos recorrem a armas para impor pontos de vista ou obter ganhos às custas de incontáveis vidas humanas e enorme destruição, algo dramaticamente deu errado, partindo para a força. A tecnologia vem abrindo novos caminhos para a guerra, em que as armas dividem seu protagonismo com o mundo digital.

Talvez cheguemos a um cenário em que se vença um conflito sem que nenhum tiro seja disparado, o que não quer dizer que não mais existirão prejuízos e sofrimento. Ainda não estamos lá, mas a brutal invasão russa na Ucrânia fez dos dois anos desse teatro de guerra um campo de testes tecnológicos de drones, novos materiais e inteligência artificial para fins militares, que estão transformando o conceito da guerra.

Ela sempre esteve associada à ciência, para o desenvolvimento de melhores estratégias e armamentos. Grandes avanços para a humanidade também se derivaram disso, como a penicilina e até os fornos de micro-ondas.

Agora a Ucrânia vivencia uma guerra de algoritmos, inteligência artificial e satélites. O desconhecido se torna claro, previsível e muitas vezes evitável. Por outro lado, tropas e civis se tornam mais vulneráveis. Generais criam assim suas estratégias com o apoio de algoritmos preditivos e de armas que cumprem “suas missões” sozinhas.

Mas então por que o conflito da Ucrânia chegou a um impasse, sem conclusão aparente? Por que as cidades seguem sendo destruídas e as pessoas continuam sendo mortas? Como se pode ver, nesse videogame, ninguém tem vida extra.


Veja esse artigo em vídeo:


A resposta passa, em parte, por essas novas tecnologias serem relativamente portáteis, baratas e disponíveis para ambos os lados do conflito. Em janeiro, dois comandantes veteranos, o general Yuri Baluievski, ex-chefe do Estado-Maior russo, e o general Valeri Zaluzhni, chefe do Estado-Maior ucraniano, fizeram publicações em que abordam a digitalização da guerra, respectivamente na publicação russa “Army Standard” e no site do Ministério de Defesa da Ucrânia.

As tropas de ambos os países estão aprendendo as mesmas lições. Entre elas, está que a tecnologia favorece mais a defesa. A exceção são os drones, veículos aéreos e aquáticos não-tripulados, que conseguem causar danos aos inimigos de maneira barata, eficiente e preservando tropas, enquanto tanques, aviões e navios têm sido mais facilmente interceptados. Eles são as estrelas desse conflito sangrento.

Não se trata dos sofisticados drones militares americanos. Os veículos usados no conflito são baratos, às vezes equipamentos de mercado, que podem ser adquiridos em grande quantidade. Eles são modificados para carregar explosivos e para tentarem ser menos suscetíveis aos sistemas do inimigo que embaralham as frequências que usam, fazendo com que os pilotos percam seu controle. E nessas contramedidas digitais, a Rússia vem levando vantagem, com sua massiva máquina de guerra.

Mas uma nova geração de drones tenta resolver esse problema. Graças à inteligência artificial, eles são capazes de cumprir sua missão, mesmo que seu piloto remoto perca o contanto com eles. Nesse caso, o sistema no próprio veículo assume o controle e faz tudo que for necessário para atingir seu alvo, mesmo que ele se mova.

Nem sempre dá certo. Em uma simulação no ano passado, um “drone inteligente” atacou seu próprio centro de comando depois de receber dele um comando para cancelar a missão. O robô entendeu que essa ordem atrapalhava o objetivo de destruir o inimigo, e por isso atacou a própria base. Felizmente era apenas uma simulação.

Às vezes, soluções simples podem ser mais eficientes. As armas antigas, sem inteligência ou guiadas por GPS, ganham uma sobrevida com o apoio da tecnologia, que indica com precisão onde os disparos devem acontecer. Os ucranianos também têm usado celulares espalhados pelo território para captar o zunido típico dos drones. Dessa forma, identificam sua aproximação melhor que caros sistemas de radar.

Smartphones nas mãos dos soldados tornaram-se, por outro lado, uma perigosa ameaça a sua segurança. A Ucrânia infligiu pesadas baixas aos russos ao atacar locais em que identificaram grande concentração de sinais de celulares, WiFi ou Bluetooth.

 

Uma guerra sem disparos

A guerra do futuro tem outras formas, igualmente ligadas ao avanço da tecnologia. Ela pode viabilizar confrontos que acontecerão sem disparos e uso de tropas militares, mas ainda assim criarão grandes prejuízos ao inimigo.

Além dos já citados drones, mais fáceis de compreender e implantar, Forças Armadas de diversos países investem no desenvolvimento de ataques cibernéticos, capazes de inutilizar digitalmente a infraestrutura de inimigos. Em um mundo cada vez mais digital, isso pode colocar uma nação de joelhos em curtíssimo tempo. Militares estão atentos a isso e tratam de proteger seus equipamentos. Mas atacar sistemas civis, muito mais vulneráveis, podem trazer resultados catastróficos.

A inteligência artificial, especialmente modelos de linguagem amplos (como o ChatGPT), está sendo usada para identificar fragilidades em inimigos, analisar fotos de satélite e até decifrar suas mensagens cifradas, o que pode conceder uma vantagem tática incrível. Isso teve um papel decisivo na vitória dos Aliados na Segunda Guerra Mundial, quando uma equipe de matemáticos britânicos, liderada por Alan Turing, construiu um rudimentar computador mecânico capaz de decifrar a máquina Enigma, usada pelos nazistas para suas transmissões militares codificadas.

Rompendo a tradição de se manterem afastadas de desenvolvimentos militares, algumas big techs e startups americanas, como Microsoft, Amazon Web Services, OpenAI e Scale AI, têm trabalhado com os militares do país para que sua tecnologia seja usada com esse fim. O Google também fazia isso, mas encerrou sua colaboração com o Pentágono em 2019, após protestos de seus funcionários.

A mistura de IA com armamentos desperta medo em muita gente, alguns oriundos da ficção científica, como nos filmes do “Exterminador do Futuro”. Espero que não cheguemos àquilo, mas uma guerra cibernética pode envolver a contaminação de bases de dados dessas plataformas no inimigo, para que elas tomem decisões erradas e potencialmente devastadoras.

O militar prussiano Carl Von Clausewitz (1790-1831), especialista em estratégias militares, escreveu em sua obra “Sobre a Guerra” (1832) que “a guerra é a continuação da política por outros meios”. Segundo ele, trata-se de “um ato de violência destinado a forçar o adversário a submeter-se à nossa vontade.”

Para isso, ao longo da história, o ser humano usou porretes, flechas, rifles, canhões e bombas, armas químicas e biológicas, e dispositivos nucleares. A tecnologia da vez vem do mundo digital. Mas qualquer que seja o meio, a guerra continua sendo o que é, conduzida por homens que desprezam qualquer vida que não seja a sua própria, para atingir objetivos no mínimo questionáveis.

 

Roberta Metsola, presidente do Parlamento Europeu, que acaba de aprovar a Lei da Inteligência Artificial - Foto: PE/Creative Commons

Europa regulamenta a IA protegendo a sociedade e sem ameaçar a inovação

By | Tecnologia | No Comments

O Parlamento Europeu aprovou, na quarta passada (13), a Lei da Inteligência Artificial, uma legislação pioneira que visa a proteção da democracia, do meio ambiente e dos direitos fundamentais, enquanto promove o desenvolvimento dessa tecnologia. As novas regras, que devem entrar em vigor ao longo dos próximos dois anos, estabelecem obrigações para desenvolvedores, autoridades e usuários da IA, de acordo com potenciais riscos e impacto de cada aplicação.

Na semana anterior, a Europa já havia aprovado uma lei que regula a atuação das gigantes da tecnologia, favorecendo a competição. Tudo isso consolida a vanguarda do continente na organização do uso do mundo digital para proteger e beneficiar a sociedade, inspirando leis pelo mundo. O maior exemplo é a GDPR, para proteção de dados, que no Brasil inspirou a LGPD, nossa Lei Geral de Proteção de Dados.

Legislações assim se tornam necessárias à medida que a digitalização ocupa espaço central em nossas vidas, transformando profundamente a sociedade. Isso acontece desde o surgimento da Internet comercial, na década de 1990. De lá para cá, cresceu com as redes sociais, com os smartphones e agora com a inteligência artificial.

O grande debate em torno dessas regras é se elas podem prejudicar a sociedade, ao atrapalhar o desenvolvimento tecnológico. A preocupação é legítima, mas ganha uma dimensão muito maior que a real por influência dessas empresas, que se tornaram impérios por atuarem quase sem regras até agora, e gostariam de continuar assim.

Infelizmente essas big techs abusaram dessa liberdade, sufocando a concorrência e criando recursos que, na prática, podem prejudicar severamente seus usuários. Portanto, essas leis não devem ser vistas como ameaças à inovação (que continuará existindo), e sim como necessárias orientações sociais para o uso da tecnologia.


Veja esse artigo em vídeo:


A nova lei proíbe algumas aplicações da IA. Por exemplo, o uso de câmeras fica restrito, sendo proibido o “policiamento preditivo”, em que a IA tenta antecipar um crime por características e ações das pessoas. Também são proibidos a categorização biométrica e a captação de imagens da Internet ou câmeras para criar bases de reconhecimento facial. A identificação de emoções em locais públicos, a manipulação de comportamentos e a exploração de vulnerabilidades tampouco são permitidos.

“O desafio é garantir que tecnologias de vigilância contribuam para a segurança e bem-estar da sociedade, sem prejuízo das liberdades civis e direitos individuais”, explica Paulo Henrique Fernandes, Legal Ops Manager no Viseu Advogados. “Isso requer um diálogo contínuo para aprimoramento de práticas e regulamentações que reflitam valores democráticos e éticos”, acrescenta.

A lei também disciplina outros sistemas de alto risco, como usos da IA em educação, formação profissional, emprego, infraestruturas críticas, serviços essenciais, migração e Justiça. Esses sistemas devem reduzir os riscos, manter registros de uso, ser transparentes e ter supervisão humana. As decisões da IA deverão ser explicadas aos cidadãos, que poderão recorrer delas. Além disso, imagens, áudios e vídeo sintetizados (os deep fakes) devem ser claramente rotulados como tal.

A inovação não fica ameaçada pela lei europeia, porque ela não proíbe a tecnologia em si, concentrando-se em responsabilidades sobre aplicações que criem riscos à sociedade claramente identificados. Como a lei prevê um diálogo constante entre autoridades, desenvolvedores, universidades e outros membros da sociedade civil, esse ambiente pode até mesmo favorecer um desenvolvimento sustentável da IA, ao criar segurança jurídica a todos os envolvidos.

A nova legislação também aborda um dos temas mais polêmicos do momento, que é o uso de conteúdos de terceiros para treinar as plataformas de IA. Os donos desses sistemas vêm usando tudo que podem coletar na Internet para essa finalidade, sem qualquer compensação aos autores. A lei aprovada pelo Parlamento Europeu determina que os direitos autorias sejam respeitados e que os dados usados nesse treinamento sejam identificados.

 

Evitando Estados policialescos

Um grande ganho da nova lei europeia é a proteção do cidadão contra o próprio Estado e seus agentes. A tecnologia digital vem sendo usada, em várias partes do mundo, para monitorar pessoas e grupos cujas ideias e valores sejam contrárias às do governo da vez, uma violação inaceitável a direitos fundamentais, além de criar riscos enormes de injustiças por decisões erradas das máquinas.

Em várias partes do mundo, inclusive no Brasil, muitas pessoas foram presas por terem sido confundidas pelos sistemas com criminosos. Em São Paulo, a primeira proposta do programa Smart Sampa, implantado em 2023 pela Prefeitura e que monitora os cidadãos com milhares de câmeras, previa que o sistema indicasse à polícia pessoas “em situação de vadiagem”, seja lá o que isso significasse.

A ficção nos alerta há muito tempo sobre os problemas desses abusos. O filme “Minority Report” (2002), por exemplo, mostra que mesmo objetivos nobres (como impedir assassinatos, nessa história) podem causar graves danos sociais e injustiças com a tecnologia. E há ainda os casos em que as autoridades deliberadamente a usam para controlar os cidadãos, como no clássico livro “1984”, publicado por George Orwell em 1949.

O Congresso brasileiro também estuda projetos para regulamentar a inteligência artificial. O mais abrangente é o Projeto de Lei 2.338/2023, que propõe o Marco Legal da Inteligência Artificial. “Enquanto a União Europeia estabeleceu um quadro regulatório detalhado e abrangente, focando na gestão de riscos associados a diferentes usos da IA, o Brasil ainda está definindo seu caminho regulatório, com um enfoque aparentemente mais flexível e menos prescritivo”, explica Fernandes.

É inevitável a profunda transformação que a inteligência artificial já promove em nossa sociedade, um movimento que crescerá de maneira exponencial. Os benefícios que ela traz são imensos, mas isso embute também muitos riscos, especialmente porque nem os próprios desenvolvedores entendem tudo que ela vem entregando.

Precisamos estar atentos também porque muitos desses problemas podem derivar de maus usos da IA, feito de maneira consciente ou não. Por isso, leis que regulamentem claramente suas utilizações sem impedir o desenvolvimento são essenciais nesse momento em que a colaboração entre pessoas e máquinas ganha um novo e desconhecido patamar. Mais que aspectos tecnológicos ou de mercado, essas legislações se tornam assim verdadeiros marcos civilizatórios, críticos para a manutenção da sociedade.

 

IA pode ser usada na eleição, mas seguindo regras para evitar fake news - Ilustração: Paulo Silvestre com Freepik/Creative Commons

Regras para IA nas eleições são positivas, mas criminosos não costumam seguir a lei

By | Tecnologia | No Comments

A tecnologia volta a ser protagonista na política, e não dá para ignorar isso em um mundo tão digital. Na terça, o Tribunal Superior Eleitoral (TSE) aprovou instruções para o pleito municipal desse ano. Os usos de redes sociais e inteligência artificial nas campanhas chamaram atenção. Mas apesar de positivas e bem-produzidas, elas não dizem como identificar e punir a totalidade de crimes eleitorais no ciberespaço, que só aumentam. Enquanto isso, a tecnologia continua favorecendo os criminosos.

Claro que a medida gerou uma polêmica instantânea! Desde 2018, as eleições brasileiras vêm crescentemente sendo decididas com forte influência do que se vê nas redes sociais, especialmente as fake news, que racharam a sociedade brasileira ao meio. Agora a inteligência artificial pode ampliar a insana polarização que elege candidatos com poucas propostas e muito ódio no discurso.

É importante que fique claro que as novas regras não impedem o uso de redes sociais ou de inteligência artificial. Seria insensato bloquear tecnologias que permeiam nossa vida e podem ajudar a melhorar a qualidade e a baratear as campanhas, o que é bem-vindo, especialmente para candidatos mais pobres. Mas não podemos ser inocentes e achar que os políticos farão apenas usos positivos de tanto poder em suas mãos.

Infelizmente a solução para essas más práticas do mundo digital não acontecerá apenas com regulamentos. Esse é também um dilema tecnológico e as plataformas digitais precisam se envolver com seriedade nesse esforço.


Veja esse artigo em vídeo:


A iniciativa do TSE não é isolada. A preocupação com o impacto político do meio digital atingiu um pico no mundo em 2024, ano com 83 eleições ao redor do globo, a maior concentração pelos próximos 24 anos. Isso inclui algumas das maiores democracias do mundo, como Índia, Estados Unidos e Brasil, o que fará com que cerca de metade dos eleitores do planeta depositem seus votos até dezembro.

As regras do TSE procuram ajudar o eleitor a se decidir com informações verdadeiras. Por isso, determinam que qualquer texto, áudio, imagem ou vídeo que tenha sido produzido ou manipulado por IA seja claramente identificado como tal. Além disso, proíbem que sejam criados sistemas que simulem conversas entre o eleitor e qualquer pessoa, inclusive o candidato. Vedam ainda as deep fakes, técnica que cria áudios e vídeos falsos que simulam uma pessoa dizendo ou fazendo algo que jamais aconteceu.

Além de não praticar nada disso, candidatos e partidos deverão denunciar fraudes à Justiça Eleitoral. As plataformas digitais, por sua vez, deverão agir por conta própria, sem receberem ordens judiciais, identificando e removendo conteúdos que claramente sejam falsos, antidemocráticos ou incitem ódio, racismo ou outros crimes. Se não fizerem isso, as empresas podem ser punidas. Candidatos que infringirem as regras podem ter a candidatura e o mandato cassados (no caso de já terem sido eleitos).

Outra inovação é equiparar as redes sociais aos meios de comunicação tradicionais, como jornal, rádio e TV, aplicando a elas as mesmas regras. Alguns especialistas temem que esse conjunto de medidas faça com que as plataformas digitais exagerem nas restrições, eliminando conteúdos a princípio legítimos, por temor a punições. E há ainda o interminável debate se elas seriam capazes de identificar todos os conteúdos problemáticos de maneira automática.

Os desenvolvedores estão se mexendo, especialmente por pressões semelhantes que sofrem nos Estados Unidos e na União Europeia. Em janeiro, 20 empresas de tecnologia assinaram um compromisso voluntário para ajudar a evitar que a IA atrapalhe nos pleitos. A OpenAI, criadora do ChatGPT, e o Google, dono do concorrente Gemini, anunciaram que estão ajustando suas plataformas para que não atendam a pedidos ligados a eleições. A Meta, dona do Facebook, do Instagram e do WhatsApp, disse que está refinando técnicas para identificar e rotular conteúdos criados ou modificados por inteligência artificial.

Tudo isso é necessário e espero que não se resuma apenas a “cortinas de fumaça” ou “leis para inglês ver”. Mas resta descobrir como fiscalizar as ações da parte ao mesmo tempo mais frágil e mais difícil de ser verificada: o usuário.

 

Ajudando o adversário a se enforcar

Por mais que os políticos e as big techs façam tudo que puderem para um bom uso desses recursos, o maior desafio recai sobre os cidadãos, seja um engajado correligionário (instruído ou não pelas campanhas), seja um inocente “tio do Zap”. Esses indivíduos podem produzir e distribuir grande quantidade de conteúdo incendiário e escapar da visão do TSE. Pior ainda: podem criar publicações ilegais como se fossem o adversário deliberadamente para que ele seja punido.

O tribunal não quer que se repita aqui o que foi visto na eleição presidencial argentina, em novembro. Lá as equipes dos candidatos que foram ao segundo turno, o peronista Sergio Massa e o ultraliberal Javier Milei, fizeram amplo uso da IA para denegrir a imagens dos adversários.

Em outro caso internacional, os moradores de New Hampshire (EUA) receberam ligações de um robô com a voz do presidente Joe Biden dizendo para que não votassem nas primárias do Estado, no mês passado. Por aqui, um áudio com a voz do prefeito de Manaus, David Almeida, circulou em dezembro com ofensas contra professores. Os dois casos eram falsos.

Esse é um “jogo de gato e rato”, pois a tecnologia evolui muito mais rapidamente que a legislação, e os criminosos se valem disso. Mas o gato tem que se mexer!

Aqueles que se beneficiam desses crimes são os que buscam confundir a população. Seu discurso tenta rotular essas regras como cerceamento da liberdade de expressão. Isso não é verdade, pois todos podem continuar dizendo o que quiserem. Apenas pagarão no caso de cometerem crimes que sempre foram claramente tipificados.

Há ainda o temor dessas medidas atrapalharem a inovação, o que também é questionável. Alguns setores fortemente regulados, como o farmacêutico e o automobilístico, estão entre os mais inovadores. Por outro lado, produtos reconhecidamente nocivos devem ser coibidos, como os da indústria do cigarro.

A inteligência artificial vem eliminando a fronteira entre conteúdos verdadeiros e falsos. Não se pode achar que os cidadãos (até especialistas) consigam identificar mentiras tão bem-criadas, mesmo impactando decisivamente seu futuro. E as big techs reconhecidamente fazem menos do que poderiam e deveriam para se evitar isso.

Ausência de regras não torna uma sociedade livre, mas anárquica. A verdadeira liberdade vem de termos acesso a informações confiáveis que nos ajudem a fazer as melhores escolhas para uma sociedade melhor e mais justa para todos.

Ao invés de atrapalhar, a tecnologia deve nos ajudar nessa tarefa. E ela pode fazer isso!

 

Nos EUA, uma patente só pode ser concedida se um humano fizer uma “contribuição significativa” - Foto: Freekpik/Creative Commons

Proibição de IA registrar patentes abre debate sobre seus limites criativos

By | Tecnologia | No Comments

No dia 13, o Gabinete de Marcas e Patentes dos Estados Unidos determinou que patentes não podem ser registradas em nome de plataformas de inteligência artificial, apenas por pessoas. Essa tecnologia pode, entretanto, ser usada intensamente no desenvolvimento de invenções: basta seres humanos terem feito uma “contribuição significativa” para que a patente possa ser concedida.

A questão que salta aos olhos é: quem é o verdadeiro inventor nesse caso?

Apesar de bem-intencionada, a determinação possui falhas conceituais. A proposta de garantir que a propriedade intelectual continue sob domínio de pessoas é bem-vinda. Mas ao permitir que a IA seja usada na pesquisa (e não faz sentido proibir isso hoje), cria-se uma brecha para que ela seja vista como coautora do processo.

Como a tal contribuição humana não precisa ser comprovada, pode acontecer ainda de a IA fazer todo o trabalho e depois não ser “reconhecida” pelos pesquisadores. O aspecto tecnológico então dá lugar a outros, éticos e filosóficos: a máquina trabalha para nós ou o contrário, quando lhe fornecemos comandos e ela se torna coautora?

Como diz o ditado, “é nos detalhes que mora o diabo”.


Veja esse artigo em vídeo:


A inteligência artificial não é verdadeiramente criativa, pelo menos, não ainda. Ela é capaz de trazer grandes ideias ao processo por analisar e encontrar padrões que respondam a questionamentos ao analisar uma quantidade gigantesca de informações, de uma maneira que nem o melhor cientista conseguiria. Mas por enquanto ela precisa que alguém lhe faça as perguntas corretas, porque, se para os humanos, suas experiências pessoais lhes permitem transcender para novas ideias, para as máquinas, seu arcabouço de conhecimento funciona como um limitador.

“A máquina fica como um apêndice seu, porque é você que está no comando do diálogo”, explica Lucia Santaella, professora da PUC-SP e autoridade global em semiótica. “Mas se você não sabe o que procura, se você não exercita a sua vida intelectual, você vira um apêndice da máquina”, provoca.

“Independentemente de quão avançada seja a IA, você precisa de algum humano para falar o que tem que inventar: aí que eu vejo uma ‘contribuição significativa’”, afirma Matheus Puppe, sócio especialista em novas tecnologias do Maneira Advogados. Para ele, essas brechas na decisão do Gabinete de Marcas e Patentes podem funcionar até como um freio ao progresso. “Essa decisão mostra que eles estão reagindo apenas, e não pensaram muito bem sobre os detalhes de como isso seria aplicável”, acrescenta.

A característica essencial da IA de extrair informações de grandes massas de dados traz uma preocupação em registro de patentes, pois, no processo, ela pode infringir outras existentes, de onde aprendeu algo. Tanto que diversas empresas de comunicação e produtores de conteúdo estão processando desenvolvedores dessas plataformas por infração de direitos autorais. Mas Puppe acredita que, em nome do progresso tecnológico e dos benefícios derivados da IA, o uso de fragmentos anonimizados de informações devem ser flexibilizados para o treinamento da IA.

Tudo ficará diferentes se (ou quando) chegarmos à chamada “inteligência artificial geral”, que se parece muito mais com o cérebro humano, deixando de ser especialista em apenas um tema e até possuindo iniciativa para tomar ações. Nesse caso, a máquina dispensaria os humanos e suas “contribuições significativas”.

Para Puppe, nesse caso, talvez tenha que ser criada uma personalidade jurídica de uma “pessoa digital”, que poderia ser detentora de direitos específicos, inclusive monetários. Enquanto isso não chega, ele sugere que patentes criadas com apoio de IA tenha a tecnologia (e seus desenvolvedores) como coautores, ou pelo menos que exista uma copropriedade, com pagamentos de royalties por isso.

 

A “sociedade do prompt

Ainda que imprecisa, a decisão do Gabinete de Marcas e Patentes reflete uma profunda mudança social que a IA vem impondo desde o ano passado. Cada vez mais, muitas tarefas passam a se resumir à criação de um prompt, um comando eficiente para a inteligência artificial realizar a tarefa com precisão.

Ela não substituirá as pessoas, mas elas poderão ser gradativamente substituídas por quem a use. Isso aumenta o abismo profissional entre os que têm acesso e dominam a tecnologia e os que não têm, pois o robô assumirá não apenas tarefas braçais, como processará grandes volumes de dados, com uma percepção sobre-humana, melhorando as entregas desses profissionais.

A IA também é capaz de realizar produções de conteúdo, incluindo obras artísticas. E isso tem desafiado a sociedade a redefinir o papel tanto de um cientista, quanto o de um artista. “O que define um escritor, um músico é a criatividade da ideia”, sugere Puppe. “Isso é o importante, e não a sua habilidade de executá-la”, conclui.

O grande risco dessa capacidade de produção e de simular a realidade que a IA oferece é que não consigamos mais distinguir o que é real. Somos uma civilização que aprendeu a confiar no que vemos, mas agora somos desafiados continuamente a duvidar de nossos olhos pelas diferentes telas, vivendo em uma insustentável “incerteza perceptiva”.

“O que nos constitui é a linguagem, e ela está crescendo”, afirma Santaella. “Com a IA generativa, produzimos imagens, vídeo, sons, essa tecnologia simula o humano!”

Temos que nos apropriar de todo esse poder com consciência e ética! Não devemos temer a IA, nem tampouco nos deslumbrarmos com ela! Sempre a máquina deve trabalhar para nós, e não nós para ela ou para seus desenvolvedores.

Por isso, talvez até seja justo que eles sejam remunerados por uma patente ou qualquer outra produção comercial criada com forte apoio da IA. Mas não podem ser classificados como coautores, pois isso implica uma responsabilidade que a máquina não tem (e que essas empresas não querem ter), especialmente no caso de algo dar errado.

Nessa “sociedade do prompt”, devemos sempre recordar que nós estamos no controle, e que a máquina é apenas uma ferramenta. E por mais fabulosa que seja, ela não deve ser usada de uma maneira que nos torne intelectualmente preguiçosos.

“Eu só acredito na educação e no crescimento através da aprendizagem”, afirma Santaella.” Não a educação no sentido formal, mas a educação no sentido de não deixar morrer a curiosidade pelo conhecimento!”

Afinal, a nossa humanidade é o nosso grande diferencial para não sermos substituídos de vez por um robô. Precisamos continuar cultivando tudo que a faz ser o que é.

 

Criada por IA, Ren Xiaorong é a âncora do telejornal “Diário do Povo”, controlado pelo governo chinês - Foto: reprodução

IA agora produz e publica notícias, aumentando os riscos de desinformação

By | Jornalismo, Tecnologia | No Comments

O que você sentiria se o presidente da República telefonasse a você para lhe convencer de algo? Ou se alguém bem próximo, como um sobrinho ou até um filho, enviasse um áudio pedindo dinheiro? Muita gente desconfiaria que se trata de um golpe. Mas o rápido avanço da inteligência artificial está tornando esse tipo de engodo cada vez mais crível, fazendo vítimas em todos os estratos sociais.

Portanto, cuidado ao gritar que jamais cairá em algo assim. Por muito menos, todo mundo já acreditou em alguma fake news!

A ameaça cresce quando se observa que o uso da IA vai muito além da produção de textos, áudios e vídeos bem-feitos. Os robôs agora constroem sequências de notícias falsas sobre temas que lhes forem solicitados. Além disso, eles as distribuem de maneiras cada vez mais criativas, até como se fossem jornalistas humanos.

Não por acaso, em janeiro, o Fórum Econômico Mundial apontou a desinformação potencializada pela inteligência artificial como o maior risco que a humanidade enfrentará nos próximos anos.

As big techs, responsáveis pela criação dessas plataformas, estão se mexendo. No mesmo Fórum, Nick Clegg, presidente de assuntos globais da Meta (dona do Facebook, Instagram e WhatsApp), anunciou que a empresa está trabalhando com os principais nomes do setor para criar mecanismos que identifiquem claramente que um conteúdo foi sintetizado por IA. O executivo classificou a iniciativa como “a tarefa mais urgente” da indústria tecnológica atualmente.

Já passamos há anos do ponto em que as versões ficaram mais “importantes” para o público que os fatos, e falhamos miseravelmente no combate a isso, com consequências desastrosas. Nesse ano, com mais de 2 bilhões de pessoas votando em 58 países, o desafio de todos passa a ser não apenas resgatar o valor da verdade, como também serem capazes de identificá-la.


Veja esse artigo em vídeo:


Isso já acontece, inclusive onde estão as sedes das big techs: os EUA. O país começou 2024 com a polarização nas alturas pela eleição presidencial em novembro, que deve colocar novamente o atual presidente, Joe Biden, frente a seu antecessor, Donald Trump. O primeiro já vem sendo vítima de vídeos falsos desde o ano passado.

Recentemente, eleitores do Estado de New Hampshire receberam telefonemas com a voz de Biden enganando-os para não votarem na eleição primária local. Isso fez com que o governo proibisse o uso de IA para simular vozes em ligações automáticas no país.

Legislações costumam chegar atrasadas e muitas vezes são ineficientes, diante da velocidade da inovação. O debate sobre regulamentar redes sociais e agora a inteligência artificial vem deixando claro que se focar nas tecnologias é infrutífero, devendo se concentrar na responsabilização dos desenvolvedores e dos usuários que usam esses recursos indevidamente.

O grande problema é que, com ou sem regras claras, os vilões –sejam empresas ou usuários– continuam fazendo o que bem entendem para garantir seus lucros ou outros objetivos. A IA deve facilitar esse processo ainda mais, e eles sabem disso.

A imprensa historicamente desempenha o papel de proteger a sociedade desse tipo de abuso, mas ela própria vem sendo impactada pela inteligência artificial, seja em seus próprios processos, seja na concorrência de “pseudojornalistas digitais” que tentam enganar o público.

O Reuters Institute divulgou em janeiro um detalhado estudo sobre as perspectivas para esse ano sobre jornalismo, mídia e tecnologia. O documento reconhece esses desafios, destacando que a maioria do conteúdo na Internet será produzido por IA já em 2026. Segundo os pesquisadores, isso exige que jornalistas e empresas noticiosas repensem seu papel e propósito urgentemente.

 

“Jornalistas sintéticos”

Essas empresas já observam queda na sua audiência vinda de redes sociais, que passaram a privilegiar criadores no estilo TikTok ao invés de jornalismo, pois isso lhes favorece. O desafio do jornalismo aumenta com o crescimento das “Experiências Generativas de Busca”, um recurso de buscadores como Google e Bing, em que a IA generativa redige parágrafos que explicam brevemente o que o usuário procura. Com isso, ele não precisa mais visitar as páginas de onde as informações foram tiradas.

Em outras palavras, os veículos de comunicação alimentam essas plataformas e não ganham nem mesmo a visita do usuário em troca. É quase como se cada um de nós agora tivesse um “jornalista sintético” a nossa disposição para nos explicar qualquer assunto.

Parece ótimo, mas isso embute um risco enorme: esses parágrafos podem misturar alegremente informações jornalísticas de qualidade com fake news bizarras. Portanto, podem se converter em poderosas ferramentas de desinformação, além de achatar a audiência dos veículos de comunicação.

Pesquisadores acreditam que, nesse ano, plataformas de inteligência artificial também passem a produzir grandes volumes de desinformação, não mais dependendo de comando individuais, mas seguindo diretrizes mais amplas. Como a publicação é automática, isso pode inundar as redes sociais com informações falsas, que soterrariam o conteúdo jornalístico diante dos algoritmos. Além disso, países como China e até Venezuela já usam avatares ultrarrealistas que se passam por jornalistas humanos e despudoradamente leem notícias que lhes forem ordenadas.

O relatório do Reuters Institute indica que as empresas de comunicação pretendem reforçar o contato direto com seu público, em detrimento das plataformas digitais. Mas isso pode afastá-las ainda mais de sua audiência mais jovem e menos instruída, que se sente satisfeita com as notícias geradas por IA.

A inteligência artificial é uma ferramenta fabulosa e estamos em um caminho sem volta para sua adoção em todos os setores da economia, inclusive na comunicação. Apesar de todos esses desafios, ela também oferece muitos ganhos ao jornalismo, se bem usada.

O risco a que todos nós –e não apenas jornalistas– temos que estar atentos é a possibilidade de decisões básicas da sociedade civil, como em quem votar, sejam sequestradas por robôs sem ética. As empresas de comunicação não podem repetir com a IA o erro que cometeram ao desprezar o poder das redes sociais, quando ainda estavam começando. Precisam compreender e se apropriar dessa tecnologia, e ajudar toda a sociedade a fazer o mesmo.

Caso contrário, seremos cada vez mais cidadãos teleguiados.

 

Na Conferência de Desenvolvedores de 2019, Mark Zuckerberg anunciava que “o futuro é privado” - Foto: Anthony Quintano/Creative Commons

Tudo que você postar pode ser usado contra você e a favor da IA

By | Tecnologia | No Comments

Não é novidade que tudo que publicamos nas redes sociais é usado para criarem perfis detalhados sobre nós para que seus anunciantes nos vendam todo tipo de quinquilharia. Também é conhecido que nossas informações são usadas para “aprimorar” essas plataformas. E que muitas delas fazem menos do que poderiam e deveriam para nos proteger contra desinformação e diferentes tipos de assédio, que podem prejudicar nossa saúde mental. Mas o que é novidade é que agora essas companhias também usam nossas informações pessoais para treinar seus nascentes serviços de inteligência artificial, abrindo uma nova potencial violação de privacidade.

Essas empresas transitam nas ambiguidades de seus termos de serviço e posicionamentos públicos. Por exemplo, no dia 31, os CEOs das redes sociais mais usadas por crianças e adolescentes foram interpelados no Comitê Judiciário do Senado americano, sobre suas ações para proteger os jovens. O mais questionado foi Mark Zuckerberg, CEO da Meta (dona do Facebook, Instagram e WhatsApp). Diante da pressão dos senadores, ele se levantou e se desculpou ao público nas galerias.

Ali estavam pais e mães de crianças que morreram por problemas derivados de abusos nas redes sociais. Menos de uma semana depois, o mesmo Zuckerberg disse, durante uma transmissão sobre os resultados financeiros anuais da Meta, que sua empresa está usando todas as publicações de seus usuários (inclusive de crianças) para treinar suas plataformas de IA.

O mercado adorou: suas ações dispararam 21% com o anúncio dos resultados! E essa infinidade de dados pessoais é mesmo uma mina de ouro! Mas e se eu, que sou o proprietário das minhas ideias (por mais que sejam públicas), quiser que a Meta não as use para treinar sua IA, poderei continuar usando seus produtos?

É inevitável pensar que, pelo jeito, não temos mais privacidade e até mesmo propriedade sobre nossas informações pessoais. E as empresas podem se apropriar delas para criar produtos e faturar bilhões de dólares.


Veja esse artigo em vídeo:


No momento mais dramático da audiência no dia 31, Zuckerberg se levantou e, de costas para os senadores e olhando para as pessoas presentes, muitas carregando fotos de seus filhos mortos, disse: “Sinto muito por tudo que passaram. Ninguém deveria passar pelas coisas que suas famílias sofreram.”

Mas também se defendeu, afirmando que investiu mais de US$ 20 bilhões e contratou “milhares de funcionários” para essa proteção. Ponderou ainda que a empresa precisa equilibrar o cuidado e “as boas experiências entre amigos, entes queridos, celebridades e interesses”. Em outras palavras, a proteção não pode “piorar” o produto, o que seria ruim para os negócios.

Seis dias depois, disse aos investidores: “No Facebook e no Instagram, existem centenas de bilhões de imagens compartilhadas publicamente e dezenas de bilhões de vídeos públicos, que estimamos ser maiores do que os dados do Common Crawl, e as pessoas também compartilham um grande número de postagens de texto públicas em comentários em nossos serviços.”

O Common Crawl é um gigantesco conjunto de dados resultante do contínuo rastreamento do que é público na Internet, podendo ser usado por quem quiser e para qualquer finalidade. Ele serve de base para o treinamento de várias plataformas de IA.

“Considerando os Termos de Uso e as regras da plataforma, seria possível a Meta usar nossos dados para treinar sua IA, embora seja bastante discutível”, explica Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). “É discutível porque muitas das informações nas redes sociais podem ser consideradas dados pessoais e, neste caso, eventualmente legislações específicas acabam incidindo, como a Lei Geral de Proteção de Dados (LGPD)”.

Nos Termos de Serviço do Facebook, a única referência à IA é: “usamos e desenvolvemos tecnologias avançadas (como inteligência artificial, sistemas de aprendizado de máquina e realidade aumentada) para que as pessoas possam usar nossos produtos com segurança, independentemente de capacidade física ou localização geográfica.”

O mesmo documento diz: “realizamos pesquisa para desenvolver, testar e melhorar nossos produtos. Isso inclui a análise dos dados que temos sobre os nossos usuários e o entendimento de como as pessoas usam nossos produtos.” Esse trecho poderia garantir o uso das nossas publicações para o desenvolvimento da IA da Meta.

Por outro lado, os Termos dizem que a remuneração da Meta se dá apenas por anúncios entregues a seus usuários pela análise de suas informações. Oras, a inteligência artificial não é anúncio, mas ela renderá bilhões de dólares à empresa. Assim o uso de nossos dados para treinar a IA geraria um conflito entre as cláusulas.

 

O rei está nu e perdeu a majestade

Sempre tivemos nossos dados coletados e manipulados. O nosso “sócio” mais tradicional é o governo, que sabe coisas inimagináveis sobre o cidadão! Basta ver o Imposto de Renda pré-preenchido! E isso é só a pontinha desse enorme iceberg.

Não vou defender qualquer governo, pois muitas dessas apropriações são no mínimo questionáveis. Mas há uma diferença essencial de qualquer big tech: ele foi eleito para melhorar a vida do cidadão. As empresas, por sua vez, visam apenas seu lucro.

Crespo explica que a principal violação nesse movimento da Meta é que ela usa dados pessoais de seus usuários para uma finalidade que não é aquela pela qual criaram suas contas e fazem suas publicações, e que eles nem sabem. Vale lembrar que, no fim de dezembro, o The New York Times processou a Microsoft e a OpenAI por se apropriarem de seus conteúdos para treinar seu ChatGPT, e um de seus argumentos foi essas empresas usarem esse conteúdo sem pagar por esse objetivo específico.

Esse mesmo raciocínio poderia se aplicar às postagens dos 3 bilhões de usuários do Facebook e dos 2 bilhões do Instagram. Além disso, a baixa qualidade de muitas publicações nessas plataformas pode incluir vieses e informações no mínimo questionáveis no treinamento dessa IA.

“Esse é o grande dilema da atualidade”, afirma Crespo. Empresas podem criar regras para quem quiser usar seus produtos, mas, depois de usar algo como o Google por duas décadas, alguém o abandonaria porque seus dados seriam usados para uma nova e questionável finalidade (entre tantas outras)? “A grande questão é se essas regras são moralmente aceitas e transparentes, ou se, de alguma forma, constituem abuso de direito”, explica Crespo.

No final, caímos novamente no infindável debate sobre a regulamentação das ações e responsabilidades dessas empresas. Essa novidade trazida por Zuckerberg é apenas o mais recente exemplo de que, se deixarmos para que elas se autorregulem, nós, seus usuários, continuaremos sendo os grandes prejudicados.

 

Crianças com “laptop de US$ 100” do projeto “One Laptop Per Child”, criado por Nicholas Negroponte - Foto: OLPC/Creative Commons

Volta às aulas reacende debate sobre o lugar da tecnologia na escola

By | Educação | No Comments

Estamos em plena volta às aulas! Com os alunos, ressurge o debate sobre como usar a tecnologia na educação, com uma inteligência artificial cada vez mais poderosa. E a prefeitura do Rio de Janeiro jogou lenha na fogueira ao proibir, na sexta passada, que os alunos usem celulares nas escolas públicas municipais, mesmo no recreio.

Especialistas aprovam a decisão, que tem 30 dias para ser implantada. Já debatemos longamente, nesse mesmo espaço, como os celulares em sala de aula em atividades não acadêmicas roubam a atenção dos alunos e prejudicam profundamente seu aprendizado. No caso do recreio, eles atrapalham os processos de socialização entre as crianças, necessários para o seu desenvolvimento. Pela nova regra, os equipamentos devem ficar desligados ou silenciados na mochila do estudante, podendo ser usados apenas se o professor os solicitar para alguma atividade, ou em casos excepcionais, como alunos com algum problema de saúde.

A determinação é interessante para ampliarmos o debate sobre a digitalização do ensino. Nessa mesma época, no ano passado, os professores estavam em polvorosa devido ao então recém-lançado ChatGPT. Muitos achavam que não conseguiriam mais avaliar seus alunos e alguns temiam até perderem o emprego para as máquinas.

Passado um ano, nada disso aconteceu, até porque descobrimos que essa tecnologia ainda erra muito. Mas todo aquele burburinho serviu para, pelo menos, os professores repensarem os seus processos de avaliação. Em uma sociedade altamente digitalizada, não dá mais para só pedir que alunos entreguem textos escritos em casa.

Mas se sabemos o que não deve mais ser feito, ainda não há clareza sobre como usar todo esse poder digital de maneira criativa e construtiva com os estudantes, desde a infância até a universidade. A despeito dos riscos e problemas conhecidos, os alunos devem aproveitar o que ela também oferece de bom, de forma adequada a sua idade. Essa é uma lição de casa que todos nós temos que fazer.


Veja esse artigo em vídeo:


Há 15 anos, eu trabalhava com o desenvolvimento de conteúdos didáticos digitais e sistemas de apoio pedagógico. Era uma época em que Nicholas Negroponte, fundador do Media Lab, do Massachusetts Institute of Technology (MIT), propunha o uso de notebooks de US$ 100 para crianças estudarem melhor com o apoio da tecnologia.

Essas máquinas chegaram a ser criadas e pude conhecer alguns modelos. Eram pequenas maravilhas tecnológicas para a época, a um preço convidativo. O projeto foi implantado em alguns países, mas em muitos casos (inclusive no Brasil) não evoluiu, não pela tecnologia, mas porque os professores não sabiam bem o que fazer com ela.

De certa forma, vivemos algo semelhante agora. Estamos cercados por telas, e as crianças têm acesso a elas cada vez mais cedo. Segundo a pesquisa TIC Kids Online Brasil, divulgada em 25 de outubro pelo Cetic.br (órgão de pesquisa ligado ao Comitê Gestor da Internet no Brasil), 95% dos brasileiros entre 9 e 17 anos estão online, e 24% tiveram seu primeiro acesso até os seis anos de idade.

O ChatGPT popularizou a inteligência artificial, e muitas empresas correm para criar soluções educacionais com ela. Como exemplo, em maio, Salman Khan, fundador e CEO da Khan Academy, uma organização que oferece educação online gratuita, demonstrou uma ferramenta que auxilia professores e alunos. Ela não dava respostas aos estudantes, ajudando-os a pensar na solução dos problemas. Para professores, a ferramenta ajudava a planejar aulas engajadoras. Khan afirmou que, para os alunos, a IA atua como um tutor, enquanto, para os professores, age como um assistente.

Esse é um sonho antigo do Vale do Silício. Não tenho dúvidas que a tecnologia pode ajudar na educação: eu cresci com isso! Mas também sei que ela sozinha não resolve, nem mesmo a “IA tutora” de Khan. Uma educação eficiente em qualquer idade não se resume a conteúdo de qualidade ou tutores que façam provocações inteligentes. Ela depende também da humanidade dos professores, capazes de ensinar, mas também de engajar e acolher seus alunos além de suas necessidades pedagógicas.

De todo jeito, está na hora de repensarmos a educação à luz da tecnologia.

 

Celulares e IA como apoio

Vivemos um cenário paradoxal. Segundo a Unesco (Organização das Nações Unidas para Educação, Ciência e Cultura), o excesso de telas sem orientação prejudica a aprendizagem e até a saúde mental de crianças e adolescentes. O órgão sugere também que a IA não seja usada antes dos 13 anos de idade. Por outro lado, a ausência de tecnologia põe estudantes em desvantagem educacional.

Devemos ter cuidado para não nos deslumbrarmos com as possibilidades da tecnologia nem tampouco rechaçá-la por temor do desconhecido. Isso significa que as escolas não podem abraçar inconsequentemente uma solução como a de Khan (que tem muitos méritos), especialmente como marketing, nem demonizar as telas na sala de aula, como alguns podem entender a determinação da prefeitura do Rio de Janeiro.

Precisamos ser guiados por consciência e equilíbrio. Vimos, no ano passado, a tentativa do governo do Estado de São Paulo de abandonar os livros, que seriam substituídos por questionáveis slides produzidos pelo próprio governo. Isso sim é um uso inadequado da tecnologia, reduzindo profundamente o papel do professor.

Há muito tempo, a sociedade brasileira debate a “atualização” e a “utilidade” dos currículos escolares. E nos últimos anos, uma parcela da população aprendeu a demonizar os professores. Para esses, quanto menos professor, melhor, e a inteligência artificial poderia ser a resposta a suas preces.

Naturalmente a escola precisa estar alinhada ao nosso mundo em constante transformação. Mas devemos ter cuidado para não reduzi-la a algo meramente utilitário. A escola deve principalmente formar cidadãos conscientes e viáveis, capazes de lidar com os desafios da sociedade e melhorá-la, e isso não se faz só com a capacidade de ler ou de fazer contas: são necessárias empatia, inteligência emocional, pensamento livre e humanidade.

Quem ensina isso são os professores e o melhor lugar para uma criança e um adolescente aprenderem é a escola. A tecnologia deve ser vista como uma parceira valiosa nesse processo de transformação, não uma substituta.

Por tudo isso, tenho visto professores em algumas listas de “profissões do futuro”. Mas naturalmente serão aqueles que usam a tecnologia para ampliar seus próprios limites e os de seus alunos. O amanhã pertence a quem domine a tecnologia, sem perder nada de sua humanidade.

 

A cantora Taylor Swift, vítima de “deep nudes” que inundaram as redes sociais na semana passada – Foto: Paolo V/Creative Commons

Imagens geradas por IA podem agravar problemas de saúde mental

By | Tecnologia | No Comments

Na semana passada, as redes sociais foram inundadas com fotos de Taylor Swift nua. Não se tratava de algum vazamento de fotos íntimas da cantora, mas de imagens falsas criadas por inteligência artificial, uma técnica conhecida por “deep nude”. Apesar da compreensível revolta dos fãs pelo uso criminoso da sua imagem, o episódio não deve ter causado grandes transtornos para ela, que tem uma equipe multidisciplinar para ajudá-la a lidar com os problemas típicos da sua superexposição.

Infelizmente quase ninguém tem essa rede de proteção. Por isso, a explosão de imagens sintetizadas digitalmente vem provocando muitos danos à saúde mental de crianças, jovens e adultos, que não sabem como lidar com fotos e vídeos falsos de si mesmos ou de ideais inatingíveis de beleza ou sucesso.

Isso não é novo: surgiu na televisão, antes das mídias digitais. Mas elas potencializaram esse problema, que agora se agrava fortemente com recursos de inteligência artificial generativa usados inadequadamente.

Junte ao pacote a dificuldade que muitos têm de lidar com os efeitos nocivos da exposição que as redes sociais podem lhes conferir, ainda que de maneira fugaz. Não é algo pequeno, não é “frescura” ou uma bobagem. Família, amigos e as autoridades precisam aprender a lidar com esses quadros, oferecendo o apoio necessário para que o pior não aconteça.


Veja esse artigo em vídeo:


O youtuber PC Siqueira não teve esse apoio. Neste sábado (27), fez um mês que ele se suicidou em seu apartamento, na zona sul de São Paulo. Um dos primeiros influenciadores do país, quando o termo ainda nem era usado com essa acepção, ele surgiu no YouTube em 2010 e chegou a apresentar um programa na MTV Brasil.

PC Siqueira nunca escondeu que sofria de ansiedade e de depressão. Seu quadro se deteriorou à medida que sua audiência diminuiu com os anos. A situação piorou muito em junho de 2020, quando ele foi acusado de pedofilia. Sempre disse que estava sendo vítima de uma “armação” e, de fato, em fevereiro de 2021, a Polícia Civil concluiu que não havia qualquer indício de que ele tivesse cometido o crime. Ainda assim, nunca conseguiu se recuperar, chegando a essa ação extrema no fim de 2023.

Se PC Siqueira foi vítima de aspectos sórdidos da autoexposição, crescem os casos em que as vítimas são envolvidas de maneira totalmente involuntária. Foi o que aconteceu com um grupo de alunas do Ensino Fundamental II do colégio Santo Agostinho, um dos mais tradicionais do Rio de Janeiro, em outubro passado. Alguns de seus colegas usaram plataformas de criação de “deep nudes” para gerar imagens delas nuas, e as espalharam pelas redes sociais.

Para uma adolescente, isso é devastador! Subitamente elas se tornam o “assunto” da escola inteira, de amigos, de parentes e até nas redes sociais. As fotos passam a ser vistas como se elas as tivessem tirado de fato. Como enfrentar tanta pressão, ainda mais não tendo feito absolutamente nada de errado?

Outro fenômeno que não para de crescer com a IA são as “influenciadoras virtuais”. São imagens de mulheres “perfeitas” que atuam como influenciadoras digitais. Mas tanta beldade não existe: elas são sintetizadas por comandos que podem reforçar estereótipos e falta de diversidade. E isso cria padrões de beleza distorcidos e ainda mais inatingíveis, piorando as já conhecidas pressões por conformidade e empecilhos para aceitar o próprio corpo que afetam muitas mulheres, especialmente adolescentes.

O problema fica mais grave quando se observa que, por trás dessas criações, estão homens, o que reforça a visão masculina de como uma mulher deve ser. Tanto que muitas delas também possuem perfis em sites de imagens pornográficas, em que outros homens pagam para ver as avatares nuas, obviamente também sintetizadas.

 

Capturados pelos seguidores

Todas essas práticas podem impactar seriamente o equilíbrio emocional das pessoas. Apesar de já convivermos há duas décadas com as redes sociais, a verdade é que ainda não sabemos lidar adequadamente com a influência de seus algoritmos e a visibilidade que eventualmente recebemos graças a elas. A ascensão violenta da inteligência artificial generativa apenas está acelerando esses efeitos.

O artista americano Andy Warhol disse em 1968 que “no futuro, todos serão mundialmente famosos por 15 minutos”. Naturalmente ele não antecipava o fenômeno das redes sociais, mas foram elas que viabilizaram sua profecia. Porém, com raríssimas exceções, elas só oferecem mesmo “15 minutos de fama”: da mesma forma que podem alçar um anônimo ao estrelato instantâneo, podem devolvê-lo ao ostracismo com a mesma velocidade. E muita gente não suporta voltar ao lugar de onde veio.

Muitos querem ser famosos e as redes sociais parecem ser o caminho mais fácil para isso. Almejam dinheiro e outros benefícios da exposição, mas poucos estão realmente preparados para lidar com isso. Assim, enquanto poucos são capazes de “capturar sua audiência”, muitos são capturados por ela.

Em algum momento, todos nós ajustamos nossa personalidade para satisfazer expectativas alheias. Isso acontece com muita força na adolescência, no grupo de amigos. Mas com as redes sociais, agora potencializadas pela IA, muita gente se transforma em uma persona que não é, e eventualmente até em algo que lhe cause sofrimento, apenas para agradar seu público online: pessoas que nem conhecem e que, em muitos casos, têm um prazer mórbido de dar suas “curtidas” pelo nosso pior, desvalorizando o que temos de bom a oferecer em um mundo-cão.

Atire a primeira pedra quem nunca produziu uma foto pensando nas “curtidas” que ela geraria! O grande problema disso, para muitas pessoas, é que elas acabam se tornando reféns dessa persona. Para não perderem sua audiência, esquecem do que são e passam a viver uma caricatura de si mesmos, sem escapatória.

Como jornalista, aprendi desde cedo a não cair nessa arapuca. Claro que estou atento aos interesses de meu público, mas, para não entrar nesse “poço narcisista”, nunca esqueço quem sou ou sobre o que falo. Mas admito que essa é uma tarefa muito difícil em um mundo digital que vive de aparências distorcidas pela inteligência artificial.

Todos nós temos a obrigação de resistir aos padrões e pensamentos-únicos que nos são impostos pelas redes sociais e pela inteligência artificial. Isso vai desde não se encantar por influenciadoras virtuais até resistir ao apelo fácil do “copia-e-cola” dos textos desalmados do ChatGPT em nossos posts e trabalhos.

Talvez, se fizermos isso, tenhamos menos gente “gostando” de nós. Em compensação, além de paz de espírito e de uma saúde mental muito mais equilibrada, teremos as pessoas que gostam de nós pelo que genuinamente somos. Isso é essencial, até mesmo para fecharmos negócios sustentáveis e transparentes com o nosso público, e termos mais que os 15 minutos de fama de Andy Warhol.

 

Sam Altman, CEO da OpenAI, fala sobre inteligência artificial no Fórum Econômico Mundial desse ano, em Davos - Foto: reprodução

Enquanto a IA melhora a produtividade de alguns, torna outros “inempregáveis”

By | Tecnologia | No Comments

No dia 14, o Fundo Monetário Internacional (FMI) divulgou um estudo que indica que cerca de 40% dos trabalhos do mundo serão impactados pela inteligência artificial. Isso não se dará de maneira homogênea: enquanto ela trará grande produtividade a alguns, pode eliminar postos de trabalho e até deixar muitas pessoas “inempregáveis”, ou seja, sem capacidade de assumir qualquer ocupação com o que sabem fazer.

Por que uma mesma tecnologia provoca consequências tão opostas no mercado de trabalho de um mesmo país, ao mesmo tempo? A resposta passa pelas capacidades dos profissionais de se adaptar para tirar proveito do que ela oferece.

Enquanto isso, o Brasil comemora mais uma queda na taxa de desemprego, que terminou novembro em 7,5%, a menor desde fevereiro de 2015. Ainda assim, o país continua tendo 8,2 milhões de desempregados. Apesar de muito bem-vinda essa retração, é preciso estar atento à qualidade desses empregos. Afinal, com o avanço da IA, muitos deles podem desaparecer em breve por falta de capacitação. A sociedade brasileira precisa se mobilizar para que isso não aconteça com força.

A IA escancara, portanto, algo que já se observa há anos: o futuro do trabalho passa pelo futuro da educação. Os robôs estão se tornando auxiliares valiosos, mas as pessoas precisam de uma melhor formação para não serem substituídas por eles.


Veja esse artigo em vídeo:


Segundo o estudo do FMI, nos países mais ricos, a IA afetará 60% dos postos de trabalho: metade será beneficiada, enquanto a outra pode experimentar desemprego, queda de salários e até extinção de profissões inteiras. Já nos emergentes, o impacto deve atingir 40% dos trabalhadores, mas apenas 26% devem ser beneficiados.

Segundo os autores, essa diferença entre países se dá pela falta de infraestrutura e de mão de obra qualificada para aproveitar bem a IA nos emergentes. Por isso, com o tempo, a inteligência artificial pode aumentar a desigualdade entre nações, e o mesmo se pode esperar entre ricos e pobres de um mesmo país.

A IA vem despertando tanto deslumbramento quanto medo. Não devemos sentir nenhum deles: precisamos entendê-la para nos apropriarmos do que els oferece de bom e nos esquivarmos de eventuais armadilhas, inclusive no mundo do trabalho.

Novas tecnologias extinguem profissões e criam oportunidades desde o início da Revolução Industrial, no século XVIII. A sociedade se ajusta e faz as mudanças para o novo. A diferença é que agora a adaptação precisa ser muito mais rápida, exigindo habilidades básicas que muitos não têm e que não conseguem adquirir a tempo. Por isso, pessoas no seu auge profissional estão vendo sua empregabilidade derreter, de uma maneira que elas não conseguem controlar, algo desesperador a qualquer um.

Ao contrário do que se via há alguns anos, quando apenas as pessoas menos qualificadas eram impactadas pela automação, a inteligência artificial também atinge carreiras mais nobres e criativas. Portanto, apesar de uma boa educação continuar sendo absolutamente fundamental, é preciso saber o que e como estudar.

Um estudo do Instituto Brasileiro de Economia da Fundação Getúlio Vargas (Ibre-FGV) divulgado em setembro demonstrou que os brasileiros que estudaram mais foram os que perderam mais renda na última década, com um aumento abrupto na informalidade. Isso obviamente não está associado à explosão da IA, que ainda é muito recente, mas demonstra que ninguém mais está “seguro”.

Na semana passada, o LinkedIn divulgou quais são as profissões em alta em vários países. No Brasil, várias estão intimamente ligadas ao mundo digital e à própria IA, como analista de privacidade, de cibersegurança e de dados. Outro estudo, da Universidade da Pensilvânia (EUA) e da OpenAI, concluiu que 80% dos trabalhadores americanos podem ter pelo menos 10% de suas tarefas afetadas pela IA.

Isso fica dramático no Brasil, com sua educação tecnológica ruim e um acesso limitado ao mundo digital. Segundo a mais recente pesquisa TIC Domicílios, feita pelo Comitê Gestor da Internet no Brasil, 20% dos domicílios (15 milhões) e 14% dos brasileiros com 10 anos ou mais (27 milhões) nem têm acesso à Internet.

 

Futuros do trabalho e da educação juntos

Muitas das “profissões do futuro” paradoxalmente existem desde a Antiguidade, como professores e médicos. Elas assim se classificam porque continuarão existindo e sendo muito importantes para a sociedade. Mas mesmo elas já sofrem e continuarão sofrendo grande mudanças pela digitalização. Querer continuar as exercendo como se fazia há alguns anos é um convite para ser colocado para fora do mercado. Por outro lado, profissionais que se atualizem com as novas tecnologias, como a inteligência artificial, se tornarão ainda mais relevantes.

O avanço galopante da IA atropela uma sociedade que não consegue medir as transformações que ela trará em pouco tempo. Em dezembro, o fundador da Microsoft Bill Gates disse que o avanço dessa tecnologia em breve permitirá semanas de trabalho de três dias, com as pessoas ganhando o mesmo. Tecnicamente pode ser verdade, mas, para que isso aconteça, os gestores teriam que fazer esse movimento magnânimo, ao invés de simplesmente demitir metade de sua força de trabalho para aumentar muito seus lucros. Não se trata, portanto, só de uma mudança tecnológica.

No Fórum Econômico Mundial em Davos (Suíça) do ano passado, os líderes mundiais estavam deslumbrados com as oportunidades da IA. Na edição desse ano, que terminou na sexta, a euforia foi substituída por uma busca de como usá-la de forma responsável e segura, e qual o papel de cada um nisso.

Toda tecnologia deve ser usada para o bem de todos, e não apenas para o benefício de alguns. Um dos temores sobre a IA, que indubitavelmente fará a humanidade dar vários saltos, é que ela também seja usada para o mal. O mundo do trabalho é apenas um dos elementos mais críticos disso na vida das pessoas.

Governos, empresas e demais atores da sociedade civil devem fazer os ajustes necessários antes que essa bomba exploda, pois seu efeito pode ser devastador. Aqueles que estão na parte beneficiada pela IA não podem se acomodar e fingir que esse problema não lhes pertence, pois acabarão impactados de uma ou outra forma.

Precisamos de uma revolução educacional que ensine as pessoas a usarem melhor as tecnologias, não como meros apertadores de botões ou criadores de comando para o ChatGPT. Elas precisam entender o porquê de tudo isso para fazer escolhas conscientes, sem se tornar consumidores com senso crítico achatado pela máquina. De uma maneira um tanto paradoxal, isso acontecerá apenas com uma educação que também fortaleça seus aspectos humanos.

E precisamos disso já, pois a inteligência artificial não esperará pela lerdeza natural.

 

Uma inteligência artificial treinada com informações ruins não deve ser usada para confundir eleitores – Ilustração: Paulo Silvestre

A democracia precisa que o jornalismo e a inteligência artificial se entendam

By | Jornalismo, Tecnologia | No Comments

A recente briga do New York Times contra a Microsoft e a OpenAI (criadora do ChatGPT) pode ajudar a definir como nos informaremos no futuro e impactar consideravelmente a saúde da democracia no mundo todo. Tudo porque o processo aberto pelo jornal no dia 27 de dezembro contra as duas empresas de tecnologia pode balizar a qualidade do que a inteligência artificial oferecerá a todos nós.

O jornal afirma que seu conteúdo vem sendo usado para treinar as plataformas de IA, sem que seja remunerado ou sequer tenha autorizado esse uso, o que é verdade. Enquanto isso, essas plataformas rendem bilhões de dólares a seus donos.

Desde que o ChatGPT foi lançado no final de 2022, as pessoas vêm usando a IA para trabalhar, estudar e se divertir, acreditando candidamente em suas entregas. Sua precisão e seus recursos para evitar que produza e dissemine fake news dependem profundamente da qualidade do conteúdo usado em seu treinamento. O New York Times e outros grandes veículos jornalísticos são, portanto, algumas das melhores fontes para garantir uma entrega mais confiável aos usuários.

O problema é tão grave que, no dia 10, o Fórum Econômico Mundial indicou, em seu relatório Riscos Globais 2024, que informações falsas ou distorcidas produzidas por inteligência artificial já representam o “maior risco global no curto prazo”.

Nesse ano, dois bilhões de pessoas participarão de eleições no mundo, inclusive no Brasil, e a IA já vem sendo usada para aumentar a desinformação nas campanhas. Por aqui, o Tribunal Superior Eleitoral (TSE) busca maneiras de regular seu uso no pleito municipal de outubro, uma tarefa muito complexa. Por isso, é fundamental que os bons produtores de conteúdo e as big techs encontrem formas de melhorar essas plataformas respeitando os direitos e remunerando adequadamente os autores.


Veja esse artigo em vídeo:


Em um cenário extremo hipotético em que todos os produtores de bons conteúdos impeçam que os desenvolvedores os acessem, a IA ficaria à mercê de fontes pouco confiáveis (para dizer o mínimo). Isso aumentaria brutalmente a chance de ela ser manipulada, ajudando a transformar os usuários em autômatos da desinformação. E isso seria trágico também para o bom jornalismo, que luta fortemente contra isso.

Criou-se então um dilema: as plataformas precisam de bom conteúdo, mas não estão muito dispostas a pagar por ele, enquanto os veículos jornalísticos têm que garantir seus direitos, mas deveriam ajudar a melhorar as entregas da inteligência artificial.

“Quando eu compro uma assinatura do New York Times, eu não estou autorizado a pegar todo o conteúdo e desenvolver um produto meu em cima dele”, explica Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). “Só que é mais ou menos isso que a OpenAI faz quando pega esses dados”.

Para que os sistemas de inteligência artificial funcionem bem, eles precisam ser treinados com uma quantidade monstruosa de informações diversas, para que aprendam o que dizer e respeitem a diversidade de ideias. Em tese, todas as suas produções são inéditas, por isso os desenvolvedores se valem do conceito jurídico americano do “uso justo” (“fair use”), que protege as big techs há pelo menos duas décadas, quando, por exemplo, rastreiam a Internet inteira para fazer um buscador funcionar.

Por essa regra, os produtos digitais exibiriam apenas pequenos trechos desses conteúdos, insuficientes para configurar uma concorrência. Mas em seu processo, o New York Times afirma que as plataformas de IA exibiriam literalmente grandes nacos de sua produção, inclusive de material exclusivo a seus assinantes. A OpenAI nega.

É um desafio para a Justiça dos EUA, pois as leis do país proíbem a cópia de conteúdo, mas permitem que se criem produtos combinando elementos de diferentes fontes, sem criar concorrência direta. As plataformas de IA fazem as duas coisas.

 

Ameaça à democracia

Nesse pântano jurídico, grupos políticos já vêm se esbaldando nos recursos da inteligência artificial para convencer –ou mais especificamente confundir– os eleitores.

O TSE tenta encontrar formas de pelo menos dificultar que isso aconteça nas eleições brasileiras. No dia 4, publicou dez minutas de resoluções para esse fim. Esses textos estarão em consulta pública até o dia 19 deste mês. Entre 23 e 25 de janeiro, ocorrerão audiências abertas na Corte para o aperfeiçoamento das normas.

Infelizmente, criar ótimas regras é relativamente fácil. Verificar seu cumprimento, por outro lado, é bem difícil, especialmente nas campanhas não-oficiais, realizadas por eleitores diretamente instruídos pelos candidatos ou espontaneamente. Com isso, o gigantesco problema de disseminação de fake news e discursos de ódio em redes sociais (que fazem muito menos do que deveriam para combater isso) agora deve ser potencializado pelo uso da inteligência artificial igualmente não-regulada.

A solução exige, portanto, a participação da Justiça, dos veículos de comunicação e das big techs das redes sociais e de inteligência artificial. Felizmente há também movimentos positivos de consenso.

Segundo o mesmo New York Times, a Apple, que está atrasada no campo da IA, estaria tentando costurar acordos financeiros para justamente usar os conteúdos de grandes empresas de comunicação para o treinamento da sua plataforma em desenvolvimento. A notícia só não é totalmente positiva porque ela estaria interessada em consumir esse conteúdo, mas não em responder por qualquer problema derivado dele, o que está deixando os editores desses veículos desconfortáveis. E eles andam bem desconfiados por seus acordos prévios com o Vale do Silício, que, ao longo dos anos, favoreceram as big techs, enquanto viam seus negócios minguarem.

Tudo isso envolve interesses de bilhões de dólares e moldará a sociedade decisivamente nos próximos anos. É preciso um desenvolvimento responsável e transparente da tecnologia e uma enorme quantidade de boas informações. “Pode ser que a gente tenha modelos de inteligência artificial que sejam focados na maldade”, sugere Crespo. “É que ninguém parou para fazer isso ainda ou talvez ninguém tenha tanto dinheiro para isso.”

Alguns acreditam que a solução seria educar a população para não acreditar tão facilmente no que veem nas redes sociais e agora na inteligência artificial. No mundo ideal, isso resolveria o problema. Mas isso simplesmente não vai acontecer e as pessoas continuarão sendo manipuladas, agora possivelmente ainda mais.

Os já citados atores precisam dar as mãos para evitar o pior. Os veículos de comunicação devem alimentar a IA, mas de maneira justa, sem que isso ameace sua sobrevivência. As big techs precisam se abrir a esses acordos financeiros e se esforçar muito mais na transparência de seus sistemas e no respeito aos usuários e à própria democracia. E a Justiça precisa encontrar meios de regular tudo isso, sem ameaçar o avanço tecnológico.

Em um mundo tão digitalizado, a democracia depende do sucesso dessa união.

 

Para Salvador Dalí, “você tem que criar a confusão sistematicamente; isso liberta a criatividade” - Foto: Allan Warren/Creative Commons

Não “terceirize” sua criatividade para as máquinas!

By | Tecnologia | No Comments

Quando o ChatGPT foi lançado, em 30 de novembro de 2022, muita gente disse que, com ele, as pessoas começariam a ficar “intelectualmente preguiçosas”, pois entregariam à inteligência artificial até tarefas que poderiam fazer sem dificuldade. De lá para cá, observamos mesmo muitos casos assim, inclusive com resultados desastrosos. Mas o que também tenho observado é algo mais grave, ainda que mais sutil: indivíduos “terceirizando” a sua criatividade para as máquinas.

Quando fazemos um desenho, tiramos uma foto, compomos uma música ou escrevemos um texto, que pode ser um singelo post para redes sociais, exercitamos habilidades e ativamos conexões neurológicas essenciais para o nosso desenvolvimento. Ao entregar essas atividades à máquina, essas pessoas não percebem o risco que correm por realizarem menos essas ações.

Há um outro aspecto que não pode ser ignorado: a nossa criatividade nos define como seres humanos e como indivíduos. Por isso, adolescentes exercitam intensamente sua criatividade para encontrar seu lugar no mundo e definir seus grupos sociais.

A inteligência artificial generativa é uma ferramenta fabulosa que está apenas dando seus passos iniciais. Por mais que melhore no futuro breve (e melhorará exponencialmente), suas produções resultam do que essas plataformas aprendem de uma base gigantesca que representa a média do que a humanidade sabe.

Ao entregarmos aos robôs não apenas nossas tarefas, mas também nossa criatividade, ameaçamos nossa identidade e a nossa humanidade. Esse é um ótimo exemplo de como usar muito mal uma boa tecnologia. E infelizmente as pessoas não estão percebendo isso.


Veja esse artigo em vídeo:


Assim como nossa carga genética, algo que nos diferencia dos outros indivíduos são nossas ideias. Apesar de fazermos isso naturalmente, ter uma ideia original é um processo complexo, que combina tudo que aprendemos em nossa vida com os estímulos que estivermos recebendo no momento. Além disso, ela é moldada por nossos valores, que são alinhados com os grupos sociais a que pertencemos. E nossa subjetividade ainda refina tudo isso.

Mesmo a mais fabulosa inteligência artificial possui apenas a primeira dessas etapas para suas produções, que é o que aprendeu de sua enorme base de informações coletadas das mais diferentes fontes. É por isso que a qualidade do que produz depende implicitamente da qualidade dessas fontes.

Alguns argumentam que a inteligência artificial também pode desenvolver valores a partir de sua programação, dos dados que consome e da própria interação com os usuários. De fato, um dos maiores problemas dessa tecnologia são os vieses que acaba desenvolvendo, o que piora suas entregas.

Com valores, a máquina se aproxima mais do processo criativo humano. Mas a inteligência artificial ainda não pode ser chamada de criativa, justamente pela etapa final, conduzida pela nossa subjetividade. Os padrões que aprendemos em nossa história de vida única nos permitem ir além de simples deduções lógicas no processo criativo. Para as máquinas, por outro lado, esses mesmos padrões tornam-se limitadores.

Gosto de pensar que o processo criativo é algo que nos conecta com algo sublime, alguns diriam com algo divino. Quando escrevo, por exemplo, um artigo como esse, combino grande quantidade de informações que coletei para essa tarefa com o que aprendi ao longo da minha vida. Mas a fagulha criativa que faz com que isso não seja uma composição burocrática e chata (assim espero) só acontece ao me abrir intensamente para minha sensibilidade.

Jamais entregaria isso a uma máquina, pois isso me define e me dá grande prazer!

 

Nós nos tornaremos máquinas?

Em seu livro “Tecnologia Versus Humanidade” (The Futures Agency, 2017), Gerd Leonhard questiona, anos antes do ChatGPT vir ao sol, como devemos abraçar a tecnologia sem nos tornarmos parte dela. Para o futurólogo alemão, precisamos definir quais valores morais devemos defender, antes que o ser humano altere o seu próprio significado pela interação com as máquinas.

Essas não são palavras vazias. Basta olhar nosso passado recente para ver como a nossa interação incrivelmente intensa com a tecnologia digital nos transformou nos últimos anos, a começar pela polarização irracional que fraturou a sociedade.

O mais terrível disso tudo é que as ideias que nos levaram a isso não são nossas, e sim de grupos que se beneficiam desse caos. Eles souberam manipular os algoritmos das redes sociais para disseminar suas visões, não de maneira óbvia e explícita, mas distribuindo elementos aparentemente não-relacionados (mas cuidadosamente escolhidos) para que as pessoas concluíssem coisas que interessavam a esses poderosos. E uma vez que essa conclusão acontece, fica muito difícil retirar essa ideia da cabeça do indivíduo, pois ele pensa que ela é genuinamente dele.

Se as redes sociais se prestam até hoje a distorcer o processo de nascimento de ideias, a inteligência artificial pode agravar esse quadro na etapa seguinte, que é a nutrição dessas mesmas ideias. Como uma plantinha, elas precisam ser regadas para que cresçam com força.

Em um artigo publicado na semana passada, a professora da PUC-SP Lucia Santaella, autoridade global em semiótica, argumenta que o nosso uso da inteligência artificial generativa criou um novo tipo de leitor, que ela batizou de “leitor iterativo”. Afinal, não lemos apenas palavras: lemos imagens, gráficos, cores, símbolos e a própria natureza.

Com a IA generativa, entramos em um processo cognitivo inédito pelas conversas com essas plataformas. Segundo Santaella, o processo iterativo avança por refinamentos sucessivos, e os chatbots respondem tanto pelo que sabem, quanto pelos estímulos que recebem. Dessa forma, quanto mais iterativo for o usuário sobre o que deseja, melhores serão as respostas.

Isso reforça a minha proposta original de que não podemos “terceirizar” nossa criatividade para a inteligência artificial. Até mesmo a qualidade do que ela nos entrega depende do nível de como nos relacionamos com ela.

Temos que nos apropriar das incríveis possibilidades da inteligência artificial, uma ferramenta que provavelmente potencializará pessoas e empresas que se destacarão nos próximos anos. Mas não podemos abandonar nossa criatividade nesse processo. Pelo contrário: aqueles que mais se beneficiarão das máquinas são justamente os que maximizarem a sua humanidade.

 

Ilustração: Creative Commons

Esse será de novo o ano da inteligência artificial, mas de uma forma diferente

By | Tecnologia | No Comments

Quando 2022 começou, o mundo da tecnologia só falava de metaverso, grande promessa incensada por Mark Zuckerberg, que até trocou o nome de sua empresa de Facebook para Meta. Mas, passados 12 meses, nada verdadeiramente útil aconteceu em torno dele. Já 2023 começou com a inteligência artificial ocupando os grandes debates tecnológicos, e, ao final do ano, ela superou todas as expectativas. Agora, que estamos começando 2024, ressurge a pergunta: esse será o ano do que, no cenário tecnológico?

Conversei com diferentes especialistas e executivos e a resposta passa novamente pela inteligência artificial. Mas nada será como era antes! O que aconteceu em 2023 e deixou o mundo de queixo caído ficará para trás como iniciativas embrionárias, quase protótipos. Os entrevistados foram unânimes em afirmar que o ano que passou foi de aprendizado e que agora, em 2024, o mundo deve começar a ver a inteligência artificial movendo produtos realmente profissionais.

Outras mudanças em curso se consolidarão a reboque disso. O mercado de trabalho continuará sendo impactado, com oportunidades para profissionais mais atualizados e ameaças para quem permanece em tarefas repetitivas. Além disso, a liderança de TI ocupará cada vez mais o espaço de decisão de negócios, e questões éticas do uso da tecnologia ganharão destaque no cotidiano empresarial.

Esse será o ano em que a inteligência artificial se tornará verdadeiramente produtiva!


Veja esse artigo em vídeo:


“Quando eu olho 2024, continua sendo um ano de inteligência artificial, mas será um ano de muito mais inteligência de transformar o caso de uso em realidade”, afirma Thiago Viola, diretor de Inteligência Artificial e Dados da IBM Brasil. “As empresas vão começar a amadurecer, para garantir que as soluções funcionarão, que não vão ‘alucinar’, que não vão dar nenhum problema.”

“Em 2023, a gente teve alguns ‘brinquedinhos’, não eram ainda algo que se pudesse chamar de uma aplicação corporativa”, explica Cassio Dreyfuss, vice-presidente de análise e pesquisa do Gartner Brasil. “Em 2024, isso vai decolar e você tem que estar preparado para isso!”

Essa também é a percepção de Marcelo Ciasca, CEO da Stefanini. Para ele, “apesar de em 2023 a inteligência artificial ter sido a pauta principal em termos de tecnologia, ninguém sabia exatamente ainda como aplicá-la efetivamente.”

“’Automação’ é uma palavra importante para o ano”, sugere Gilson Magalhães, presidente da Red Hat Brasil. Apesar do deslumbramento que a IA provocou em 2023, as empresas passam a entender que ela é uma ferramenta para processos mais robustos e poderosos. “A automação vai entrar mais nas casas, melhorar nossa percepção de temas pessoais, mas a gente vai ver também automação industrial, no campo, fabril, a automação entrando como uma grande meta”, acrescenta.

A OpenAI, criadora do afamado ChatGPT, deu um passo importante nessa direção no final de 2023, ao liberar a possibilidade de seus usuários pagantes criarem os seus próprios assistentes virtuais, especializados em um tema e alimentados com dados próprios. Esse é o prelúdio de inteligências artificiais capazes de realizar tarefas mais amplas a partir de comandos complexos, conectando-se a diferentes serviços e até tomando decisões em nome do usuário.

A primeira vez que vi isso foi ainda em novembro de 2019, em uma demonstração da Microsoft, Adobe, Accenture e Avanade. Em uma época que o ChatGPT parecia uma miragem, um sistema controlado por voz em frases muito simples comprava passagens aéreas, reservava hotéis e até pedia comida para o usuário. Mas o que mais me chamou a atenção foi que ele tomava decisões comerciais com base no que sabia do usuário, sem o consultar, como por exemplo, escolher em qual hotel faria a reserva e até pedir um sanduíche sem queijo, pois a pessoa era intolerante à lactose.

Perguntei na época qual a garantia que eu, como usuário, teria que essas decisões seriam as melhores para mim, e não para as empresas envolvidas. E isso toca em um ponto que deve nortear os sistemas com IA nos próximos anos: a ética! Questionei também quando poderíamos ter algo como aquilo disponível.

A resposta: por volta de 2024!

 

Máquinas éticas

“Haverá um encapsulado de gestão e governança muito mais forte do que vimos em 2023”, afirma Viola. Segundo o executivo, “será um ano que vai ter que realizar se preocupando com fatores éticos, de governança, de proteção da IA como um todo”.

Esse debate ganhou força em 2023 e deve se cristalizar em 2024. Não se quer uma tecnologia incrível que, para ser assim, passe por cima da privacidade ou ameace direitos e até o bem-estar das pessoas. A regulamentação da IA é um grande desafio, pois ela não deve coibir seu desenvolvimento, mas precisa encontrar maneiras de responsabilizar empresas e usuários por maus usos e descuidos na sua criação.

Esse cenário abre ótimas oportunidades a empresas e profissionais. “TI se transformou no grande divisor de águas de diferenciação das empresas”, explica Magalhães. “Se você tem uma boa TI, você se diferencia”, conclui.

Em uma vida cada vez mais digitalizada e dependente da IA para decisões pessoais e empresariais, essas equipes ficam ainda mais importantes. “A TI muda de papel: ao invés de receber requisitos para gerar soluções, vai fornecer, de uma maneira consultiva, recursos nas áreas de clientes”, explica Dreyfuss. Ciasca corrobora essa ideia: “isso não vai eliminar o emprego das pessoas, mas vai redirecionar muitos para que as pessoas tenham a capacidade de fazer isso de forma adequada.”

Não há dúvida de que será um ano estimulante e de desenvolvimentos exponenciais. Precisamos apenas nos manter atentos porque todas essas novidades galopantes, que tanto nos impressionam, acabam sendo difíceis de assimilar pela nossa humanidade (o que não deixa de ser emblemático). Não podemos achar que o fim justifica os meios e partir em uma corrida irresponsável, mas tampouco podemos ficar travados por temores de máquinas que nos dominem (ou coisas piores).

Cada vez mais, a inteligência artificial será nossa parceira pessoal e de negócios, e isso ficará mais consolidado e profissional em 2024. É hora de nos apropriarmos de todo esse poder, para nos beneficiarmos adequadamente do que bate a nossa porta!

 

O CEO da OpenAI, Sam Altman, que ganhou a briga contra o antigo conselho da empresa - Foto: Steve Jennings/Creative Commons

Esse foi o ano da inteligência artificial, sem dúvida

By | Tecnologia | No Comments

Todo ano uma tecnologia desponta como inovadora, capturando mentes e manchetes. Ao final de 2023, poucas pessoas destacariam outra coisa que não fosse a inteligência artificial. Ela deixou de existir apenas em debates acadêmicos e de especialistas para ocupar rodas de conversas de leigos em mesas de bar. Mas o que fez uma tecnologia septuagenária e que já integrava nosso cotidiano (ainda que a maioria não soubesse disso) ganhar tamanha importância?

A resposta passa pelo lançamento de um produto: o ChatGPT. Apesar de ter sido liberado em 30 de novembro de 2022, nesse ano se tornou o produto de mais rápida adoção da história (e não me restrinjo a produtos digitais), com 100 milhões de usuários em apenas quatro meses! Mas a despeito de suas qualidades, sua grande contribuição foi demonstrar ao cidadão comum o poder da IA. E isso detonou uma corrida frenética para inclusão dessa tecnologia em todo tipo de produtos.

O ChatGPT faz parte de uma categoria da inteligência artificial chamada “generativa”. Isso significa que ele é capaz de gerar conteúdos inéditos (no seu caso, textos) a partir do que sabe. Parece mágica para muita gente, mas uma outra característica sua talvez seja ainda mais emblemática: o domínio da linguagem humana, e não termos truncados ou computacionais. E uma linguagem complexa, estruturada e consciente nos diferenciava dos outros animais e das máquinas.

Agora não mais das máquinas! Ao dominar a linguagem humana, a IA praticamente “hackeou” o nosso “sistema operacional”. E essa é a verdadeira explicação para 2023 ter sido o ano da inteligência artificial.


Veja esse artigo em vídeo:


Como é preciso quebrar alguns ovos para fazer uma omelete, toda essa transformação trouxe algumas preocupações. Uma das primeiras veio da educação, com professores temendo que perderiam a capacidade de avaliar seus alunos, que passariam a usar o ChatGPT para fazer seus trabalhos. Alguns professores chegaram até a temer que fossem substituídos de vez por máquinas inteligentes. Felizmente nada disso aconteceu, mas o debate serviu para educadores perceberem que precisavam reciclar a maneira como ensinavam e avaliavam seus alunos.

O medo de ser substituído pela máquina também atingiu funções que antes se sentiam imunes a isso, por serem trabalhos criativos. E esse é um temor legítimo, pois muita gente já está perdendo mesmo o emprego para a IA. Mas há “esperança”!

A inteligência artificial realmente cria coisas incríveis depois de processar quantidades obscenas de informação, encontrando soluções que nem o mais experiente profissional conseguiria. Mas ela também erra, e erra muito! São as chamadas “alucinações”, termo que entrou em nosso cotidiano em 2023 com essa acepção.

Trata-se de informações incorretas (às vezes muito erradas) que as plataformas inventam e incluem em suas produções, para tentar atender aos pedidos dos usuários. Por conta delas, muita gente se deu mal em 2023, até perdendo o emprego, por apresentar trabalhos com esses erros grosseiros. Portanto, bons profissionais ainda são necessários, para verificar se a IA não está “mentindo” desbragadamente.

As big techs abraçaram a IA! Depois que o ChatGPT foi chamado inicialmente de “assassino de Google” (outra bobagem que não se concretizou), o próprio Google correu para lançar em fevereiro o seu produto, o Bard, tentando deixar para trás a sensação de que tinha perdido a corrida de algo que já pesquisava havia muitos anos. No segundo semestre, a Meta incorporou seu Llama 2 a suas plataformas.

Mas quem acabou aparecendo com força mesmo foi a Microsoft, que teria investido algo como US$ 12 bilhões na OpenAI, criadora do ChatGPT. Com isso, essa tecnologia foi incorporada em muitos de seus produtos, como o Bing e o Word.

A inteligência artificial parece estar em toda parte. Mas isso é só o começo!

 

“Com grandes poderes, vêm grandes responsabilidades”

A IA realmente deslumbrou todos. Não é exagero afirmar que, mesmo em seu estágio atual, para muitos ainda embrionário, ela já está transformando o mundo. Mas para muita gente, ela está indo rápido demais.

Hoje há um embate entre dois movimentos. De um lado, temos o “Altruísmo Eficaz”, que defende que o desenvolvimento da IA seja bem regulado, para evitar que ela se torne muito poderosa e destrua a humanidade. Do outro, há o “Aceleracionismo Eficaz”, que defende justamente o contrário: que seu desenvolvimento aconteça totalmente livre, sem regras. Para esses, os benefícios da IA superam eventuais riscos que traga, por isso deve acontecer o mais rapidamente possível.

Esse embate provocou um abalo sísmico no dia 17 de novembro, quando o conselho da OpenAI sumariamente demitiu Sam Altman, fundador e CEO da empresa. Os conselheiros alegaram que Altman não era mais “confiável”. Isso porque a OpenAI nasceu como uma organização sem fins lucrativos, para criar uma IA “que beneficiasse a humanidade”. Com o tempo, Altman percebeu que, se não criasse produtos comerciais para captar novos investimentos, a empresa não evoluiria. Foi quando se juntou à Microsoft!

O que se viu nos cinco dias seguintes foi uma reviravolta cinematográfica, com Altman recebendo apoio massivo dos funcionários da empresa e dos investidores, especialmente da Microsoft. Nesse curtíssimo tempo, reassumiu o cargo e o antigo conselho renunciou. No novo, a Microsoft ganhou um assento.

Por tudo isso, o ano que começou com uma mistura de deslumbramento e temor em torno da inteligência artificial termina com um debate fortíssimo em vários países, inclusive no Brasil, se essa tecnologia deve ser regulamentada. A preocupação é que, se empresas de redes sociais, que não respondem pelos problemas que causam, racharam sociedades ao meio, a IA poderia criar danos potencialmente muito maiores, se usada para o mal e sem nenhuma responsabilização dos usuários e das plataformas.

Com tudo isso, esse definitivamente não foi um ano típico na tecnologia! As mudanças promovidas pela inteligência artificial foram tantas e tão intensas que é como se todo esse debate estivesse acontecendo há muitos anos. Mas não: ele aconteceu todo em 2023. Portanto, não há como negar à inteligência artificial o título de tecnologia mais impactante do ano, para não dizer da década! Precisamos nos apropriar adequadamente dela!