ChatGPT

A cantora Taylor Swift, vítima de “deep nudes” que inundaram as redes sociais na semana passada – Foto: Paolo V/Creative Commons

Imagens geradas por IA podem agravar problemas de saúde mental

By | Tecnologia | No Comments

Na semana passada, as redes sociais foram inundadas com fotos de Taylor Swift nua. Não se tratava de algum vazamento de fotos íntimas da cantora, mas de imagens falsas criadas por inteligência artificial, uma técnica conhecida por “deep nude”. Apesar da compreensível revolta dos fãs pelo uso criminoso da sua imagem, o episódio não deve ter causado grandes transtornos para ela, que tem uma equipe multidisciplinar para ajudá-la a lidar com os problemas típicos da sua superexposição.

Infelizmente quase ninguém tem essa rede de proteção. Por isso, a explosão de imagens sintetizadas digitalmente vem provocando muitos danos à saúde mental de crianças, jovens e adultos, que não sabem como lidar com fotos e vídeos falsos de si mesmos ou de ideais inatingíveis de beleza ou sucesso.

Isso não é novo: surgiu na televisão, antes das mídias digitais. Mas elas potencializaram esse problema, que agora se agrava fortemente com recursos de inteligência artificial generativa usados inadequadamente.

Junte ao pacote a dificuldade que muitos têm de lidar com os efeitos nocivos da exposição que as redes sociais podem lhes conferir, ainda que de maneira fugaz. Não é algo pequeno, não é “frescura” ou uma bobagem. Família, amigos e as autoridades precisam aprender a lidar com esses quadros, oferecendo o apoio necessário para que o pior não aconteça.


Veja esse artigo em vídeo:


O youtuber PC Siqueira não teve esse apoio. Neste sábado (27), fez um mês que ele se suicidou em seu apartamento, na zona sul de São Paulo. Um dos primeiros influenciadores do país, quando o termo ainda nem era usado com essa acepção, ele surgiu no YouTube em 2010 e chegou a apresentar um programa na MTV Brasil.

PC Siqueira nunca escondeu que sofria de ansiedade e de depressão. Seu quadro se deteriorou à medida que sua audiência diminuiu com os anos. A situação piorou muito em junho de 2020, quando ele foi acusado de pedofilia. Sempre disse que estava sendo vítima de uma “armação” e, de fato, em fevereiro de 2021, a Polícia Civil concluiu que não havia qualquer indício de que ele tivesse cometido o crime. Ainda assim, nunca conseguiu se recuperar, chegando a essa ação extrema no fim de 2023.

Se PC Siqueira foi vítima de aspectos sórdidos da autoexposição, crescem os casos em que as vítimas são envolvidas de maneira totalmente involuntária. Foi o que aconteceu com um grupo de alunas do Ensino Fundamental II do colégio Santo Agostinho, um dos mais tradicionais do Rio de Janeiro, em outubro passado. Alguns de seus colegas usaram plataformas de criação de “deep nudes” para gerar imagens delas nuas, e as espalharam pelas redes sociais.

Para uma adolescente, isso é devastador! Subitamente elas se tornam o “assunto” da escola inteira, de amigos, de parentes e até nas redes sociais. As fotos passam a ser vistas como se elas as tivessem tirado de fato. Como enfrentar tanta pressão, ainda mais não tendo feito absolutamente nada de errado?

Outro fenômeno que não para de crescer com a IA são as “influenciadoras virtuais”. São imagens de mulheres “perfeitas” que atuam como influenciadoras digitais. Mas tanta beldade não existe: elas são sintetizadas por comandos que podem reforçar estereótipos e falta de diversidade. E isso cria padrões de beleza distorcidos e ainda mais inatingíveis, piorando as já conhecidas pressões por conformidade e empecilhos para aceitar o próprio corpo que afetam muitas mulheres, especialmente adolescentes.

O problema fica mais grave quando se observa que, por trás dessas criações, estão homens, o que reforça a visão masculina de como uma mulher deve ser. Tanto que muitas delas também possuem perfis em sites de imagens pornográficas, em que outros homens pagam para ver as avatares nuas, obviamente também sintetizadas.

 

Capturados pelos seguidores

Todas essas práticas podem impactar seriamente o equilíbrio emocional das pessoas. Apesar de já convivermos há duas décadas com as redes sociais, a verdade é que ainda não sabemos lidar adequadamente com a influência de seus algoritmos e a visibilidade que eventualmente recebemos graças a elas. A ascensão violenta da inteligência artificial generativa apenas está acelerando esses efeitos.

O artista americano Andy Warhol disse em 1968 que “no futuro, todos serão mundialmente famosos por 15 minutos”. Naturalmente ele não antecipava o fenômeno das redes sociais, mas foram elas que viabilizaram sua profecia. Porém, com raríssimas exceções, elas só oferecem mesmo “15 minutos de fama”: da mesma forma que podem alçar um anônimo ao estrelato instantâneo, podem devolvê-lo ao ostracismo com a mesma velocidade. E muita gente não suporta voltar ao lugar de onde veio.

Muitos querem ser famosos e as redes sociais parecem ser o caminho mais fácil para isso. Almejam dinheiro e outros benefícios da exposição, mas poucos estão realmente preparados para lidar com isso. Assim, enquanto poucos são capazes de “capturar sua audiência”, muitos são capturados por ela.

Em algum momento, todos nós ajustamos nossa personalidade para satisfazer expectativas alheias. Isso acontece com muita força na adolescência, no grupo de amigos. Mas com as redes sociais, agora potencializadas pela IA, muita gente se transforma em uma persona que não é, e eventualmente até em algo que lhe cause sofrimento, apenas para agradar seu público online: pessoas que nem conhecem e que, em muitos casos, têm um prazer mórbido de dar suas “curtidas” pelo nosso pior, desvalorizando o que temos de bom a oferecer em um mundo-cão.

Atire a primeira pedra quem nunca produziu uma foto pensando nas “curtidas” que ela geraria! O grande problema disso, para muitas pessoas, é que elas acabam se tornando reféns dessa persona. Para não perderem sua audiência, esquecem do que são e passam a viver uma caricatura de si mesmos, sem escapatória.

Como jornalista, aprendi desde cedo a não cair nessa arapuca. Claro que estou atento aos interesses de meu público, mas, para não entrar nesse “poço narcisista”, nunca esqueço quem sou ou sobre o que falo. Mas admito que essa é uma tarefa muito difícil em um mundo digital que vive de aparências distorcidas pela inteligência artificial.

Todos nós temos a obrigação de resistir aos padrões e pensamentos-únicos que nos são impostos pelas redes sociais e pela inteligência artificial. Isso vai desde não se encantar por influenciadoras virtuais até resistir ao apelo fácil do “copia-e-cola” dos textos desalmados do ChatGPT em nossos posts e trabalhos.

Talvez, se fizermos isso, tenhamos menos gente “gostando” de nós. Em compensação, além de paz de espírito e de uma saúde mental muito mais equilibrada, teremos as pessoas que gostam de nós pelo que genuinamente somos. Isso é essencial, até mesmo para fecharmos negócios sustentáveis e transparentes com o nosso público, e termos mais que os 15 minutos de fama de Andy Warhol.

 

Entregador dorme sobre seus jornais, em imagem tirada em 1935 – Foto: City of Toronto Archives/Creative Commons

Reação da mídia ao ChatGPT pode favorecer as fake news

By | Tecnologia | No Comments

Nas últimas semanas, diversas empresas de comunicação impediram que seus conteúdos continuassem sendo usados para alimentar o ChatGPT. Elas argumentam –com razão– que seus produtos têm valor e que não estão sendo remuneradas pela melhoria que proporcionam involuntariamente à plataforma geradora de textos por inteligência artificial da OpenAI.

Entre os que decidiram promover o bloqueio, estão os jornais americanos The New York Times e The Washington Post, o britânico The Guardian, a rede de TV CNN, as agências de notícias Reuters e Bloomberg, além de diversos veículos europeus. Até a gigante de e-commerce Amazon decidiu fechar a porta para esse robô.

Apesar de seus argumentos legítimos, essa decisão pode favorecer a desinformação em um futuro breve. Os sistemas de inteligência artificial generativa tornaram-se um enorme sucesso, e as pessoas devem usá-los cada vez mais. Em uma situação extrema em que todos os produtores de bons conteúdos os neguem a essas plataformas, elas poderiam ficar restritas a sites dedicados a fake news e outros tipos de conteúdo de baixa qualidade para “aprender o que dizer” aos seus usuários.

Nesse cenário, o público poderia passar a consumir e a replicar o lixo desinformativo, em uma escala ainda maior que a já vista nos últimos anos. Seria terrível para o jornalismo –que luta para combater isso– e para a sociedade como um todo.


Veja esse artigo em vídeo:


Eu já vi uma história parecida antes. Quando foi criado, em 2002, o Google Notícias gerou protestos entre veículos de comunicação do mundo todo, que acusavam a empresa de se apropriar de sua produção para criar um concorrente. O Google Notícias sempre se defendeu, dizendo que fazia um “uso justo” de pequenos trechos dos veículos e que sempre enviava os leitores que clicassem nos seus links para a fonte da notícia.

Diante das reclamações, o Google criou um recurso para que os veículos impedissem que seu conteúdo fosse usado no Notícias. O problema é que isso também tirava os veículos do buscador, o que não era nada interessante para eles. Eventualmente as partes chegaram a acordos que permitiram que esse conteúdo continuasse sendo usado, enquanto o Google criava mecanismos de apoio ao jornalismo no mundo. Movimentos semelhantes também aconteceram com as principais redes socais.

No caso atual, há algumas diferenças significativas. Pela natureza da inteligência artificial generativa, ela sempre cria textos inéditos, a cada pedido dos usuários. Não há remuneração, referência e sequer um link para as fontes que foram usadas para o sistema escrever aquilo. Consequentemente não há nenhum ganho para os autores.

“Certamente as inteligências artificiais não produziriam o conteúdo que elas são capazes sem serem alimentadas com o conteúdo criado por humanos, que não autorizaram isso e que não estão sendo remunerados por isso”, explica Marcelo Cárgano, advogado de Direito Digital e de Proteção de Dados do Abe Advogados. “A grande questão, no final, é essa!”

No dia 6, 26 organizações do mercado editorial, inclusive a brasileira ANJ (Associação Nacional de Jornais), publicaram o documento “Princípios Globais para a Inteligência Artificial”. Ele traz regras que consideram essenciais para a prática do jornalismo frente ao avanço da inteligência artificial, cobrando o desenvolvimento ético da tecnologia e o respeito às propriedades intelectuais dos veículos.

Outra fonte de informação ameaçada pela inteligência artificial é a enciclopédia digital Wikipedia. Pela natureza mais perene de seus milhões de verbetes, as pessoas poderiam fazer perguntas a plataformas de IA ao invés de consultar suas páginas, o que já vem preocupando seus editores. Suprema ironia, uma das maiores fontes para o ChatGPT é a própria Wikipedia.

 

Atualidade e ética

Além da questão da falta de remuneração pelo uso de conteúdos alheios, há ainda o temor de que as plataformas de inteligência artificial acabem substituindo a Wikipedia e o próprio jornalismo.

Esse questionamento surgiu, na quarta passada, em uma mesa de debates da qual participei na Semana da Imprensa, promovida pelo jornal Joca, na ESPM (Escola Superior de Propaganda e Marketing). O evento explica o jornalismo para crianças e adolescentes, o público do veículo.

Os participantes foram unânimes em negar essa possibilidade. O primeiro motivo é que esses sistemas, a despeito de seus melhores esforços, são imprecisos, cometendo muitos erros pela falta de uma verificação humana. Outro problema é que suas bases estão sempre desatualizadas (o ChatGPT só conhece fatos até setembro de 2021). Por fim, mas não menos importante, essas ferramentas não possuem qualquer iniciativa, ética ou transparência, essenciais a qualquer produto informativo.

“A função dos veículos de comunicação é particularmente importante para a democracia”, explica Cárgano, fazendo referência ao papel do jornalismo de promover debates críticos para a sociedade. “Mas eles também são empresas e têm que gerar lucro para sua própria viabilidade econômica”, acrescenta.

Toda essa confusão deriva do impacto que essa tecnologia já apresenta sobre pessoas e empresas. Ele é enorme, mas ainda pouco compreendido. Enquanto isso, todos buscam caminhos para aproveitar seus incríveis recursos, sem cair em possíveis armadilhas que podem surgir dela.

A decisão de impedir as plataformas de inteligência artificial de aprender com a sua produção pode ser ironicamente um “tiro no pé” do jornalismo. Se elas forem entregues a fontes de baixa qualidade, podem se tornar poderosas ferramentas de fake news, que fustigam os jornalistas e a própria imprensa como pilar que é de uma sociedade desenvolvida.

É preciso uma conscientização dos diferentes atores nesse processo. Do lado dos usuários, eles devem entender que a IA não é uma ferramenta que substitui o jornalismo ou mesmo um buscador, pois ela não garante a verdade no que produz. As empresas de inteligência artificial devem, por sua vez, melhorar ainda mais sua tecnologia, para corrigir as imperfeições existentes, e cuidar para não canibalizar suas próprias fontes, o que poderia, a médio prazo, inviabilizar seu próprio negócio.

As empresas de comunicação têm um papel fundamental na solução desse imbróglio. Obviamente elas precisam defender seus interesses comerciais, mas sem que isso crie riscos ainda inexistentes para o próprio negócio. Devem buscar uma compensação justa das plataformas de IA.

Vivemos em um mundo em que a verdade perde força diante de narrativas distorcidas por diferentes grupos de poder. Aqueles que a buscam deve se unir e somar as novas tecnologias às suas metodologias editoriais consagradas. Se forem bem-sucedidos nisso, todos ganharão!

 

Neo luta contra o Agente Smith em “Matrix Revolutions” (2003): mundo digital criado para iludir a humanidade - Foto: divulgação

Se deixarmos, a inteligência artificial escolherá o próximo presidente

By | Tecnologia | No Comments

Nas eleições de 2018, eu disse que o presidente eleito naquele ano seria o que usasse melhor as redes sociais, e isso aconteceu. Em 2022, antecipei a guerra das fake news, que iludiram o eleitorado. Para o pleito de 2026, receio que a tecnologia digital ocupe um espaço ainda maior em nossas decisões, dessa vez pelo uso irresponsável da inteligência artificial.

Não estou dizendo que a IA escolherá por sua conta qual é o melhor candidato. A despeito de um medo difuso de que máquinas inteligentes nos exterminem, isso não deve acontecer porque, pelo menos no seu estágio atual, elas não têm iniciativa ou vontade própria: fazem apenas o que lhes pedimos. Os processos não são iniciados por elas. Temos que cuidar para que isso continue dessa forma.

Ainda assim, a inteligência artificial generativa, que ganhou as ruas no ano passado e que tem no ChatGPT sua maior estrela, atingiu um feito memorável: dominou a linguagem, não apenas para nos entender, mas também para produzir textos, fotos, vídeos, músicas muito convincentes.

Tudo que fazemos passa pela linguagem! Não só para nos comunicar, mas nossa cultura e até nosso desenvolvimento como espécie depende dela. Se agora máquinas com capacidades super-humanas também dominam esse recurso, podemos ser obrigados a enfrentar pessoas inescrupulosas que as usem para atingir seus objetivos, a exemplo do que foi feito com as redes sociais e com as fake news.


Veja esse artigo em vídeo:


A inteligência artificial não sai das manchetes há seis meses. Mesmo com tanta informação, as pessoas ainda não sabem exatamente como funciona e o que pode ser feito com ela. E isso é um risco, pois se tornam presas daquele que entendem.

É aí que mora o perigo para as eleições (e muito mais), com o uso dessa tecnologia para iludir e convencer. “No Brasil, as próximas eleições presidenciais serão daqui a três anos, e a tecnologia estará ainda mais avançada”, afirma Diogo Cortiz, professor da PUC-SP e especialista em IA. “A gente vai partir para um discurso não só textual, mas também com vídeo, som, fotografias ultrarrealistas, que farão ser muito difícil separar o real do que é sintético”, explica.

Não nos iludamos: vai acontecer! Esse é o capítulo atual do jogo em que estamos há uma década, em que a tecnologia digital é usada como ferramenta de convencimento. E, como sempre, ela não é ruim intrinsicamente, mas, se não houver nenhuma forma de controle, pessoas, empresas, partidos políticos podem abusar desses recursos para atingir seus fins, até de maneira criminosa.

Entretanto, não somos vítimas indefesas. Da mesma que esses indivíduos não deveriam fazer esses usos indecentes da tecnologia para nos manipular, cabe a cada um de nós usá-la conscientemente. Por mais que pareça mágica ao responder a nossos anseios de maneira tão convincente, ela erra, e muito! Por isso, não podemos pautar decisões importantes no que a IA nos entrega sem verificar essas informações.

O ser humano sempre teve medo de ficar preso em um mundo de ilusões. O filósofo e matemático grego Platão (428 a.C. – 348 a.C.) antecipou isso em seu “Mito da Caverna”. Nos dias atuais, o assunto permeia a ficção, como na série de filmes “Matrix”, curiosamente um mundo falso criado por máquinas para iludir a humanidade.

 

Intimidade com a máquina

Há um outro aspecto que precisamos considerar. Assim como a IA primitiva das redes sociais identifica nossos gostos, desejos e medos para nos apresentar pessoas e conteúdos que nos mantenham em nossa zona de conforto, as plataformas atuais também podem coletar e usar essa informação para se tornarem ainda mais realistas.

Hoje vivemos no chamado “capitalismo de vigilância”, em que nossa atenção e nosso tempo são capturados pelas redes sociais, que os comercializa como forma eficientíssima de vender desde quinquilharias a políticos.

Com a inteligência artificial, a atenção pode ser substituída nessa função pela intimidade. “Eu vejo vários níveis de consequência disso: sociais, cognitivos e psicológicos”, afirma Cortiz, que tem nesse assunto um dos pontos centrais de suas pesquisas atuais. “Se a pessoa começar a projetar um valor muito grande para essa relação com a máquina e desvalorizar a relação com o humano, a gente tem um problema, porque essa intimidade é de uma via só: o laço não existe.”

“O cérebro funciona quimicamente, buscando o menor consumo com o maior benefício”, explica Victoria Martínez, gerente de negócios e data science da empresa de tecnologia Red Hat para a América Latina. Para ela, uma das coisas que nos define como humanos é nossa capacidade de pensar coisas distintas, e não podemos perder isso pela comodidade da IA. E alerta do perigo implícito de crianças e adolescentes usarem essa tecnologia na escola, entregando trabalhos sem saber como foram feitos. “É muito importante aprender o processo, pois, para automatizarmos algo, precisamos entender o que estamos fazendo”, acrescenta.

A qualidade do que a inteligência artificial nos entrega cresce de maneira exponencial. É difícil assimilarmos isso. Assim pode chegar um momento em que não saberemos se o que nos é apresentado é verdade ou mentira, e, no segundo caso, se isso aconteceu por uma falha dos algoritmos ou porque eles foram usados maliciosamente.

Isso explica, pelo menos em parte, tantos temores em torno do tema. Chegamos a ver em março mais de mil de pesquisadores, especialistas e até executivos de empresas do setor pedindo que essas pesquisas sejam desaceleradas.

É por isso que precisamos ampliar o debate em torno da regulação dessa tecnologia. Não como um cabresto que impedirá seu avanço, mas como mecanismos para, pelo menos, tentar garantir responsabilidade e transparência de quem desenvolve essas plataformas e direitos e segurança para quem as usa.

Isso deve ser feito logo, e não apenas depois que o caos se instale, como aconteceu com as redes sociais. Agora, no meio do turbilhão, vemos como está sendo difícil regulamentá-las, graças aos interesses dos que se beneficiam dessa situação.

“Por enquanto, nós temos o controle”, afirma Martínez. “Então espero que a democracia não seja dominada por uma máquina.”

É verdade, mas temos que nos mexer. E que isso seja feito pelas nossas aspirações, e não porque algo deu muito errado!

 

Os personagens Theodore e Samantha (no smartphone em seu bolso), no filme “Ela” (2013) - Foto: divulgação

Inteligência artificial começa a substituir pessoas com suas ideias, personalidades e vozes

By | Tecnologia | No Comments

Enquanto o mundo discute o impacto da inteligência artificial no mercado de trabalho, outra revolução, possivelmente mais profunda ainda, começa a tomar forma graças a essa tecnologia: pessoas estão criando representações digitais de si mesmas, simulando suas ideias, vozes e até suas personalidades.

O objetivo é usar esses avatares para conversar com muita gente, como se fossem o indivíduo em si. Isso é particularmente interessante para celebridades com enormes bases de fãs online, mas abre uma série de discussões éticas e até filosóficas sobre a substituição do ser humano por robôs.

Por um lado, eles podem representar um grande avanço no relacionamento com seguidores e clientes, criando uma experiência incrivelmente imersiva e convincente, o que pode ser ótimo para os negócios. Entretanto especialistas temem que esses chatbots hiper-realistas possam provocar estragos na saúde mental de algumas pessoas.


Veja esse artigo em vídeo:


No começo do mês, a influenciadora digital americana Caryn Marjorie, 23, que tem aproximadamente dois milhões de seguidores no Snapchat, lançou um desses avatares. Batizado de CarynAI, ele é construído sobre a tecnologia do GPT-4, motor do afamado ChatGPT.

Mas ele vai muito além de escrever textos a perguntas de seus fãs. O robô simula a voz, personalidade e até maneirismos de Caryn, conversando com os fãs sobre qualquer assunto. Para uma base de seguidores em que 98% são homens, ninguém se surpreendeu que muitas dessas conversas acabaram tendo cunho sexual, apesar de a influenciadora dizer que espera que esse não se torne o assunto principal.

Os fãs sabem que não estão falando com a verdadeira Caryn. Ainda assim não se importam de pagar US$ 1 por minuto de conversa. Não há limite de tempo, mas quando o papo se aproxima de uma hora, CarynAI sugere que o fã continue em outro momento.

Com isso, na primeira semana, o sistema rendeu nada menos que US$ 100 mil à influenciadora. Quando ela conseguir dar acesso a uma lista de espera de milhares de interessados, ela calcula que faturará algo como US$ 5 milhões por mês! Negócios à parte, Caryn disse que “espera curar a solidão de seus fãs” com a ajuda de seu avatar.

“Entrar na fantasia não é errado: isso nos proporciona criatividade, curiosidade, alegria”, explica Katty Zúñiga, psicóloga especializada em comportamento e tecnologia. “Mas, ao mesmo tempo, a gente precisa entrar em contato com nosso lado mais racional, mais consciente, para encontrar o equilíbrio, e não nos perdermos na fantasia, que é o que essa inteligência artificial está nos apresentando.”

 

Vencendo a morte?

CarynAI foi criada pela empresa Forever Voices. Seu CEO e fundador, John Meyer, disse ao The Washington Post que começou a desenvolver a plataforma no ano passado, para tentar “conversar” com seu pai, que faleceu em 2017. Segundo ele, conversar com o robô que tinha a voz e a personalidade do pai foi “uma experiência incrivelmente curativa”.

É inevitável lembrar do episódio “Volto Já” (2013), o primeiro da segunda temporada da série “Black Mirror”, conhecida por promover reflexões sobre usos questionáveis da tecnologia. Nessa história, a personagem Martha (Hayley Atwell) usa um serviço que cria um chatbot com informações, personalidade e trejeitos de seu recém-falecido marido, Ash (Domhnall Gleeson). Como aquilo parecia aplacar sua saudade e solidão, ela atualiza o serviço para uma versão em que o sistema conversa com ela com a voz dele.

Emocionada com os resultados, parte para um terceiro nível, em que compra um robô fisicamente idêntico a Ash, que passa a interagir com ela, até sexualmente. Claro que, nesse momento, a experiência desanda! Quanto mais ampla pretende ser a simulação, maior a chance de ela dar errado. Martha não consegue lidar com as diferenças, e decide tomar uma atitude extrema.

Impossível não pensar também no filme “Ela” (2013). Nele, Theodore (Joaquin Phoenix), um escritor deprimido, se apaixona por Samantha (Scarlett Johansson), a “personalidade” do novo sistema operacional de seu computador e smartphone. Se isso não fosse estranho o suficiente, ela corresponde a seu amor. Aqui também a história não termina bem, pois, apesar de Samantha agradar a Theodore em tudo, ela ainda não consegue ser humana.

As duas histórias são muito impactantes. No caso de Samantha, é muito fácil se apaixonar por ela, mesmo não sendo Theodore. Afinal, ela é dona de uma ternura rara, sempre “ao lado” de Theodore, disposta a dar a ele o que ele precisa. Mas isso é amor ou apenas as ações estatisticamente mais relevantes para cada momento, envelopadas com muito carinho?

É nessa hora que essas plataformas podem se tornar um problema psíquico. A vida real é composta de contraposições entre coisas positivas e negativas, alegrias e tristezas, tensões e distensões. Ao enfrentarmos isso, amadurecemos. Mas se começarmos a viver relacionamentos que nos “protegem” de dissabores, isso pode prejudicar nosso desenvolvimento.

“A gente está vivendo em um mundo de adultos imaturos, por isso as pessoas não aceitam o diferente”, explica Zúñiga. “É como a criança, que vive despreocupada momentos de prazer o tempo todo, porque tem um adulto por trás para cuidar dela”, acrescenta. Mas a vida não funciona dessa forma.

Meyer acredita que, em poucos anos, todos terão um “assistente humanizado por IA” em seu bolso, que poderá ser um parceiro romântico, um personal trainer ou um professor. Resta saber até onde eles poderão ir e como poderemos nos proteger de “abusos” da tecnologia.

No dia 18, Sam Altman, CEO da OpenAI, criadora do ChatGPT, deu uma palestra no Rio de Janeiro. Contrariando o que muito poderiam pensar, ele defende que a inteligência artificial seja regulamentada logo e, de preferência, de maneira única em todos os países.

Infelizmente a chance de isso acontecer é mínima. Afinal, não conseguimos chegar a um consenso nem com o “PL das Fake News”. De qualquer jeito, o debate não pode ficar restrito aos interesses dos fabricantes, ou correremos o risco de parar de nos apaixonar por humanos chatos, preferindo avatares hipersedutores.

 

Sam Altman, CEO da OpenAI, disse estar “um pouco assustado” com a inteligência artificial – Foto: Steve Jennings / Creative Commons

Como lidar com os algoritmos que se sobrepõem à verdade

By | Tecnologia | No Comments

Três acontecimentos da semana passada, que provavelmente passaram despercebidos da maioria da população, envolvem tecnologias de enorme impacto em nossas vidas. O primeiro foi uma audiência no STF (Supremo Tribunal Federal) que debateu, na terça, o Marco Civil da Internet. Na quarta, mais de mil pesquisadores, executivos e especialistas publicaram um manifesto solicitando que pesquisas de inteligência artificial diminuam o ritmo, por representarem “grandes riscos para a humanidade”. Por fim, na sexta, a Itália determinou que o ChatGPT, plataforma de produção de textos por inteligência artificial da OpenAI, fosse bloqueado no país.

Em comum, os três tratam de tecnologias existentes há anos, mas com as quais paradoxalmente ainda temos dificuldade de lidar: as redes sociais e a inteligência artificial. E ambas vêm se desenvolvendo exponencialmente em seu poder para distorcer a realidade a nossa volta, muitas vezes contra nossos interesses e a favor dos das empresas que criam essas plataformas.

Não é um exagero! As redes sociais, usadas por quase 5 bilhões de pessoas, definem como nos relacionamos, nos divertimos, conversamos e nos informamos, manipulando-nos para consumirmos o que os algoritmos consideram melhor (mesmo não sendo). A “inteligência artificial generativa”, que ganhou os holofotes no ano passado e tem no ChatGPT sua estrela, produz conteúdos incríveis, mas que podem embutir grandes imprecisões que as pessoas aceitam alegremente como fatos.

As preocupações que se impõem são como podemos aproveitar o lado bom desses serviços, enquanto nos protegemos de potenciais efeitos nocivos, além de como responsabilizar seus produtores, algo que não acontece hoje!


Veja esse artigo em vídeo:


As redes sociais já são nossas velhas conhecidas. Segundo o relatório “Digital 2023 Global Overview Report”, da consultoria americana We Are Social, os brasileiros passam uma média de 9 horas e 32 minutos na Internet por dia, das quais 3 horas e 46 minutos são em redes sociais. Nos dois casos, somos os vice-campeões mundiais.

Não é surpresa para ninguém que sejamos manipulados por elas, em maior ou menor escala. Segundo a mesma pesquisa, 65,2% dos brasileiros se dizem preocupados se o que veem na Internet é real ou falso. Nesse quesito, somos o quinto país no mundo.

Agora a inteligência artificial ganha um destaque sem precedentes nas discussões tecnológicas, pelo poder criativo das plataformas que elaboram conteúdo. Algumas pessoas acham isso a aurora de uma nova colaboração entre nós e as máquinas; outros veem como um risco considerável para a própria humanidade.

Mas ela já faz parte do nosso cotidiano profundamente. Basta ver que os principais recursos de nossos smartphones dependem da inteligência artificial. As próprias redes sociais fazem uso intensivo dela para nos convencer. E se considerarmos que isso provocou uma polarização social inédita, colocando em risco a própria sociedade, os temores dos pessimistas fazem algum sentido.

Essa amálgama de euforia e paranoia provoca decisões às vezes precipitadas, mesmo de pessoas qualificadas. Países do mundo todo, inclusive o Brasil, se debruçam sobre o tema, tentando encontrar mecanismos legais para organizá-lo.

 

Regular ou não regular?

No Brasil, o uso das redes é disciplinado pelo Marco Civil da Internet, de 2014. “Ele entrou em vigor quando discurso de ódio e fake news estavam em outro patamar”, afirma Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propaganda e Marketing). “Acredito que a revisão seja necessária, mas não com a simples declaração de inconstitucionalidade do artigo 19, e sim a partir de sistemas mais efetivos e transparentes de como as big techs fazem a gestão dos próprios termos de uso quando violados.”

“Hoje temos interações mais rápidas e intensas, que mudam a forma como vivemos em sociedade”, explica Carolina Giovanini, advogada especialista em direito digital do Prado Vidigal Advogados. “Porém isso não significa que o Marco Civil da Internet esteja ‘ultrapassado’, pelo contrário: é uma legislação que foi pensada levando em consideração o futuro da rede.”

O referido artigo 19 está no centro dessa discussão porque protege as plataformas digitais de serem responsabilizadas pelo conteúdo que os usuários publicam em suas páginas. Segundo o texto, elas só poderiam ser penalizadas se deixassem de retirar algo do ar após uma ordem judicial.

Como a Justiça não consegue analisar tudo que se publica nas redes, especialistas defendem que as plataformas sejam obrigadas a fazer isso por sua conta. A inteligência artificial seria fundamental para decidir o que seria apagado, mas a subjetividade de muitos conteúdos dificulta a definição inequívoca do que é desinformação, o que poderia levar a censura por falsos positivos.

“A própria ideia das redes sociais é ser um portal descentralizado, sem ‘pauta editorial’ ou viés socioeconômico, para que a sociedade pulverizada ganhe voz”, sugere Matheus Puppe, sócio da área de TMT, privacidade e proteção de dados do Maneira Advogados. “Responsabilizando as plataformas, todo o modelo de negócios e o propósito da informação descentralizada vai por água abaixo.”

Na prática, isso vem permitindo que as empresas que produzem essas tecnologias gozem de uma prerrogativa rara, que é responder pouco ou nada por danos que provoquem. Não se pode imaginar um mundo sem elas, mas o crescimento explosivo da desinformação e a consequente polarização social não podem ser vistos como meros “efeitos colaterais”. É como “perdoar” um remédio que mate 5.000 pessoas para curar outras 10.000: a cura é bem-vinda, mas não se pode tolerar tantas mortes.

“O ponto é que um novo regime de responsabilidade não é desejado pelas big techs”, afirma Crespo. “Elas têm até bons argumentos para manter como está, na medida em que elas mesmas removem alguns conteúdos ilícitos por vontade própria.”

Estamos em um impasse! Como canta Ney Matogrosso, “se correr o bicho pega; se ficar, o bicho come!” As redes sociais estão no centro da nossa vida. A inteligência artificial abre possibilidade incríveis e necessárias. Eliminá-las é impossível, desacelerá-las é improvável. Mas esses problemas aparecem cada vez com mais força.

Qualquer que seja o futuro, ele precisa ser criado com a participação ativa de todos os agentes da sociedade. Essas empresas não podem continuar dando as cartas baseadas apenas na sua busca pelo lucro, pois seus produtos estão muito além de qualquer outra coisa já feita, do ponto de vista de transformação social.

Os benefícios devem ser distribuídos para todos, assim como as responsabilidades e os riscos. O futuro não pode ser distópico!

 

A IA pode oferecer a atendentes dados para melhorarem o relacionamento com o público – Foto: Kampus Poduction - Creative Commons

“Humanidade aumentada” une inteligência artificial e pessoas para criar um atendimento superior

By | Tecnologia | No Comments

Em tempos em que o ChatGPT e outras plataformas de inteligência artificial parecem invadir e automatizar todo tipo de tarefa, essa tecnologia pode elevar o relacionamento entre empresas e seus clientes a um patamar inédito. Isso não se dará pela substituição de atendentes humanos, mas sim por potencializar suas habilidades de relacionamento interpessoal com informações que só a máquina pode lhes oferecer.

Essa colaboração entre computadores e indivíduos é uma vertente da “humanidade aumentada”. O termo, usado pela primeira vem em 2010 pelo então CEO do Google, Eric Schmidt, prevê o uso de tecnologias para ampliar capacidades humanas. Pode ser por equipamentos robóticos, assistentes virtuais, acesso a dados para tomada de decisões e muito mais. E a tecnologia evoluiu dramaticamente nesses 13 anos.

A inteligência artificial tornou-se muito eficiente em compreender pedidos das pessoas e gerar respostas adequadas para cada caso específico, e não mais tentar enquadrar as demandas em situações pré-definidas. Isso não é feito apenas a partir de dados históricos, mas da sua capacidade de tirar conclusões de padrões, por exemplo de consumo ou de comportamento. Para quem lida com o público, como atendentes ou vendedores, esse recurso é praticamente um superpoder.


Veja esse artigo em vídeo:


“Os sistemas automatizados alcançaram uma qualidade comparável à de um ser humano em muitos casos”, explica David Paulding, vice-presidente sênior da Talkdesk, multinacional portuguesa que desenvolve sistemas de atendimento. “A IA generativa está sendo aproveitada em um número cada vez maior de casos para melhorar a experiência do cliente e simplificar as interações”, acrescenta.

Ele explica que sistemas de atendimento com inteligência artificial podem reduzir a frustração de clientes por não terem suas necessidades resolvidas rapidamente, economizando o tempo deles e dos atendentes. Segundo o executivo, 69% das empresas já investiram em plataformas com essa tecnologia, que aumentam a chance de o cliente encontrar o que quer por conta própria e ajudam os atendentes a encontrar a solução certa em menos tempo.

Ironicamente, muitas empresas estão se interessando por soluções de inteligência artificial graças à grande visibilidade que a mídia vem dando ao tema nos últimos tempos. Mas é um erro pensar que ela é uma bala de prata que resolverá todas as dificuldades. Muitos negócios ainda têm problemas graves e básicos na experiência que oferecem a seus clientes, em nível conceitual.

“Você pode ter toda a tecnologia do mundo, mas, se você não mudar a maneira como você pensa, a tecnologia não resolve nada”, afirma Bart De Muynck, Chief Industry Officer da project44, empresa americana de sistemas de logística, que também adota a inteligência artificial em suas soluções. Ele explica que “a máquina pode ver, entender e calcular as coisas mais complexas, mas pode se perder diante de algo simples”.

Nessas horas, o ser humano é necessário, seja para melhorar um processo ruim, seja para corrigir uma conclusão errada da máquina.

 

Tempo é dinheiro

Dizem que o bem mais valioso da humanidade é o tempo, pois é a única coisa que não pode ser comprada. Portanto, se o dia continua tendo 24 horas para todos, o jeito é não desperdiçar nenhum minuto.

No caso de clientes, poucas coisas os aborrecem tanto quando ficar dando voltas por sistemas de autoatendimento ou tendo conversas infrutíferas com um atendente. Já em uma venda, o consumidor fica mais satisfeito quando lhe é oferecido o produto que realmente satisfaz suas necessidades. Aliás, no varejo, um dos maiores dramas é um estoque cheio, normalmente causado por decisões de compras no volume ou no tempo errados, que acabam forçando depois vendas com descontos.

A inteligência artificial brilha nisso. “Com ela, as empresas podem não apenas responder às necessidades e desejos do cliente de maneira integrada em todos os canais, com serviço personalizado, mas também prever e se preparar para suas necessidades e desejos futuros”, explica Paulding.

Há desafios para a implantação da inteligência artificial nesses processos. Além de entender como ela pode ajudar cada empresa, o executivo explica que há um grande trabalho para evitar que a tecnologia desenvolva vieses nas suas respostas e que elas sejam “explicáveis”, ou seja, que o usuário entenda por que aquilo lhe foi sugerido.

Os vieses merecem uma atenção especial, pois as plataformas podem efetivamente aprender respostas ruins dos próprios usuários. É por isso que elas precisam ser alimentadas com conjuntos de dados cuidadosamente selecionados, para que sejam representativas para seu uso e seu público. Além disso, especialistas na área da aplicação devem ser envolvidos ao longo do ciclo de vida da plataforma, para que seja continuamente avaliada e “limpa”.

Um outro ponto sempre destacado por aqueles que trabalham com o público é o risco de esses sistemas roubarem seus empregos. E, quando a tarefa for muito repetitiva, ele existe mesmo. “Quando combinados com a tecnologia avançada de conversão de texto em fala, esses modelos de linguagem poderão em breve assumir todo o processo de engajamento do cliente”, indica Paulding. A saída, segundo ele, é deixar a IA assumir as tarefas repetitivas enquanto dá mais poder aos atendentes humanos naquilo que eles são melhores, como desenvolver a empatia com seus consumidores.

“Nós ainda temos a pessoa como figura central, mas devemos usar a inteligência artificial para ajudá-la a fazer mais, melhor, além de fazer seu trabalho mais divertido”, explica De Muynck. Para ele, “não devem cuidar de coisas estúpidas que o computador pode fazer, concentrando-se no que realmente agrega valor”.

“Não faz sentido pensar na IA como forma de cortar equipes”, acrescenta Paulding . “As organizações devem entender que ela pode aumentar as capacidades dos atendentes com dados e insights, melhorando a satisfação do cliente”, acrescenta.

Essa é a versão atual da eterna luta entre homens e máquinas, começada na Revolução Industrial. Como sempre, o verdadeiro problema recai em capacitar as pessoas para usar bem as novas tecnologias e melhorar seu trabalho. Mas agora, pela primeira vez, podemos ver a própria tecnologia fazendo isso.

 

Cena do filme “Eu, Robô” (2004), baseado na obra de Isaac Asimov, em que as máquinas seguem as “Leis da Robótica”

ChatGPT põe fogo no debate sobre regulamentação da inteligência artificial

By | Tecnologia | No Comments

O sucesso explosivo do ChatGPT deu novos contornos à discussão se a inteligência artificial deve ser, de alguma forma, regulada. Com 100 milhões de usuários em apenas dois meses, a plataforma da OpenAI tornou-se o produto com adesão mais rápida da história. Sua capacidade de gerar textos convincentes sobre qualquer assunto a partir de comandos simples colocou, em polos opostos, especialistas com fortes argumentos favoráveis e contrários ao controle dessa tecnologia.

De um lado, a turma que defende a regulação aponta que tanto poder computacional poderia causar severos danos ao tomar decisões potencialmente erradas em áreas sensíveis e diversas, como a saúde, a segurança pública ou até na condução de carros autônomos. Do outro, há os que argumentam que leis assim, além de que seriam difíceis de definir e aplicar, inibiriam o desenvolvimento de uma tecnologia que pode levar os humanos a um novo patamar de produtividade. Afirmam ainda que se penalizaria os sistemas, ao invés de criminosos que fizessem maus usos deles.

O fato é que criar um regulamento para uma tecnologia tão inovadora, abrangente e poderosa quanto a inteligência artificial é mesmo um desafio. Ela se desenvolve em uma velocidade estonteante e fica difícil imaginar como qualquer legislação pode acompanhar esse ritmo e o que representaria em um futuro breve.


Veja esse artigo em vídeo:


O Senado já se debruçou sobre o tema. Entre março e dezembro de 2022, uma comissão de 18 juristas debateu o assunto com membros da academia, da sociedade civil e de empresas. Ao final, elaborou uma proposta com 45 artigos e um relatório com mais de 900 páginas, que sugere restrições ao uso de reconhecimento facial indiscriminado por câmeras e a proibição de um “ranqueamento social” com base nas ações de cada pessoa, como acontece na China. Indica ainda que fornecedores ou operadores de sistemas de “alto risco” respondam por eventuais danos que causem.

Foram analisadas legislações aprovadas entre os países da OCDE (Organização para a Cooperação e Desenvolvimento Econômico). A União Europeia pretende chegar a um consenso de projeto regulador até março. Nos Estados Unidos, um comitê consultivo, criado em abril de 2022, espera apresentar uma lei nesse ano.

Mas vale dizer que tudo isso aconteceu antes do lançamento do ChatGPT, no dia 30 de novembro. E ele jogou por terra o que se sabia sobre IA para as massas. “Quando a gente fala em inteligência artificial, um dos grandes pontos sempre é como conseguir dar transparência, sem você violar a propriedade industrial ou intelectual”, explica Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propaganda e Marketing).

Esse é um dos problemas das “inteligências artificias generativas”, como o ChatGPT. Elas produzem coisas incríveis, mas não contam de onde vieram as informações de que “aprenderam” cada tema. Também não fica claro o que acontece “debaixo do capô”, os mecanismos que lhes permitiram chegar a suas conclusões. Para Crespo, “ao invés de simplesmente dizer ‘regular’, deve ser ‘regular pensando no quê’”

Já Paulo de Oliveira Júnior, consultor de inovação e desenvolvimento do Machado Meyer Advogados, afirma que a regulamentação é essencial. “É importante para que a gente possa garantir que a tecnologia não venha a causar nenhum dano para a sociedade, seja ela no campo social, econômico ou político”, explica, concluindo que “é importante que se tenha mais previsibilidade, à medida que a tecnologia vai fazendo parte do nosso dia a dia.”

 

Prós e contras

Além dos motivos já citados, os defensores de uma regulamentação argumentam que ela é necessária para se ter uma garantia mínima de proteção aos dados pessoais usados pelas diferentes aplicações da inteligência artificial. Afinal, se as redes sociais já abusam de nossas informações para fazer dinheiro, com a inteligência artificial, isso ficaria ainda mais difícil de se compreender e controlar.

A legislação também seria necessária para minimizar um problema que vem incomodando em diferentes usos da IA há muitos anos: sistemas que desenvolvem vieses. Isso pode acontecer pelas informações que consome, ao incorporar preconceitos dos desenvolvedores e até aprendendo dos próprios usuários.

Curiosamente um dos argumentos daqueles que são contrários a uma regulação é que as plataformas não poderiam ser responsabilizadas por esse mau uso, e que as pessoas é que deveriam ser controladas e até punidas. Eles também afirmam que esse controle seria falho, pois suas definições seriam imprecisas, criando confusão ao invés de ajudar o mercado.

Esse é um ponto a se considerar. Diversos países do mundo, inclusive o Brasil, estão há uma década tentando regular as redes sociais, sem sucesso. Nós mesmos estamos passando por uma bem-vinda discussão sobre como minimizar os efeitos nocivos das fake news, mas ela falha no ponto essencial de definir o que é desinformação de maneira inequívoca. E isso pode, não apenas impedir os efeitos desejados, como ainda criar um mecanismo de censura.

De forma alguma, isso significa que uma regulamentação não deva ser avaliada. É exatamente o contrário: precisamos de muito debate, incluindo todos os diferentes atores da sociedade envolvidos, para que uma lei não seja criada de maneira enviesada ou incompleta. Isso, sim, seria péssimo!

Especialmente em um país como o Brasil, em que o tecido social foi esgarçado nos últimos anos pelo mau uso de plataformas digitais e onde a violência lidera as preocupações dos cidadãos, é fácil defender um discurso de “vigilantismo”. Não é disso que precisamos!

“A gente vai ter que caminhar para uma regulamentação mais abrangente, que garanta os preceitos éticos e seguros, e cada setor da economia vai ter que fazer sua regulamentação específica”, sugere Oliveira. Já Crespo traz a ideia de que cada produto de IA a ser lançado passe por uma espécie de “relatório de impacto”. “Ele incluiria o que é, quais os principais benefícios e quais os possíveis riscos embarcados, trazendo uma previsibilidade”, explica.

Talvez o melhor caminho seja algo assim mesmo. E a “lei geral da inteligência artificial” poderia ser as Leis da Robótica, propostas pelo escritor Isaac Asimov, em 1942. São elas: “um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal”, “um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que entrem em conflito com a Primeira Lei” e “um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.” Mais tarde, ele acrescentou a “Lei Zero”: “um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.”

Se conseguíssemos garantir que todas as plataformas de inteligência artificial cumprissem essas quatro diretrizes, já seria um bom começo!

 

“Medo do ChatGPT” não pode impedir o avanço tecnológico

By | Tecnologia | No Comments

Tecnologias muito inovadoras costumam gerar igualmente expectativa e temor, diante de suas possibilidades. Por ainda não dominarmos totalmente seus recursos, não temos real dimensão do que podem provocar em nossas vidas. Diante disso, há sempre o grupo dos “deslumbrados” –que abraçam o novo como se não houvesse amanhã– e o dos “resistentes” –que evitam seu uso tanto quanto possível.

Não dá para segurar o futuro, mas ele precisa ser bem compreendido!

A “bola da vez” nesse cenário é o ChatGPT. Desde que foi lançado, no dia 30 de novembro, a plataforma de inteligência artificial ocupa o centro do debate tecnológico. Sua incrível capacidade de produzir textos complexos a partir de comandos simples impressiona e vem provocando questionamentos até sobre o futuro de profissões que antes se sentiam “seguras” contra uma eventual substituição por máquinas.

O que o torna tão único é que sua automação avança sobre o campo cognitivo, capaz de criar conceitos e de responder de maneira convincente praticamente qualquer pergunta. Com isso, muitos temem que ele abra portas para um “emburrecimento” da humanidade, com pessoas preguiçosas demais para pensar, ficando ainda mais dependentes das máquinas.

Para muita gente, isso jamais acontecerá! Mas esse medo propõe um debate válido.


Veja esse artigo em vídeo:


Nessa hora, não dá para não lembrar da animação “Wall-E” (2008). Na história, a Terra se tornou inabitável no futuro pela quantidade de lixo que a humanidade produziu. As pessoas então abandonam o planeta, passando a viver em gigantescas espaçonaves, onde até suas mínimas necessidades eram atendidas por robôs. Nem andar precisavam, pois passavam o tempo todo sobre cadeiras móveis.

Tanta comodidade teve efeitos nefastos, porque várias gerações viveram nesses gigantescos “cruzeiros espaciais”. Sem perceberem, passaram aos poucos a serem dominadas pela inteligência artificial. Até andar ficava difícil, pois nunca abandonavam suas cadeiras, ganhando muito peso e ficando com músculos atrofiados.

Não é o que está acontecendo agora, naturalmente. Mas se passarmos a ter máquinas que façam tudo por nós (até “pensar”), isso pode, sim, levar a consequências indesejadas. Afinal, máquinas são ferramentas que devem nos ajudar a realizar nossas tarefas, e não que façam tudo por nós.

Por outro lado, essa hipótese indesejável não pode servir de motivo para “impedirmos o futuro”. Como cantava Elis Regina, “o novo sempre vem”. O que temos que fazer é entendermos tudo que chega com ele, para aproveitarmos o que traz de bom e contornarmos o que for indesejável.

“O ChatGPT ainda é um assunto muito novo, mas o medo das mudanças tecnológicas já é bem tratado”, explica Rodrigo Guerra, doutorando do Departamento de Políticas Científicas e Tecnológicas da Unicamp. “Ele deixou mais concreta a visão de que a inteligência artificial pode substituir o homem agora no trabalho cognitivo”, acrescenta.

Existe um fator ético associado a esse medo. Em muitas ocasiões, empresas como a OpenAI, criadora do ChatGPT, lançam produtos sem um debate com a sociedade e sem avaliar adequadamente possíveis consequências disso. Fazendo outro paralelo com “Wall-E”, o que tornou a Terra inabitável foi um consumismo desenfreado das pessoas, promovido pela megacorporação Buy-n-Large. Ironicamente, as naves que “salvaram” a humanidade (mas provocaram todos aqueles “efeitos colaterais”) também eram da empresa, indicando que o problema se perpetuava.

“Aí entra a importância do pensamento crítico e da capacidade do ser humano de gerar narrativas próprias para pensar eticamente essas tecnologias”, sugere Marina Martinelli, doutoranda em 5G pela Unicamp. Para ela, “temos que pensar nessas ferramentas disruptivas para que funcionem de forma que a sociedade evolua e caminhe para frente”.

 

A dor da mudança

Costumamos olhar para o lado bom de tecnologias estabelecidas, mas raramente pensamos nos problemas que muitas delas provocaram quando surgiram. O exemplo mais emblemático disso foi a Revolução Industrial, iniciada no século XVIII.

Ninguém sequer cogita um mundo sem indústrias. Mas quando as primeiras fábricas surgiram, elas levaram a dolorosas mudanças sociais, com artesãos ficando sem trabalho, enquanto multidões operavam as máquinas nas fábricas, com jornadas de trabalho extenuantes e sem qualquer cuidado.

Eventualmente a sociedade encontrou um equilíbrio para que aqueles problemas fossem controlados, restando benefícios cada vez mais para todos. “Depois que a transição acaba e entra na fase mais estável, todo mundo aproveita”, explica Guerra.

É natural que busquemos máquinas que tornem nossas vidas mais fáceis. Um carro permite que percorramos grandes distâncias rapidamente e com conforto, muito mais que a cavalo ou andando a pé. Mas não por isso deixamos totalmente de andar! Pelo contrário, hoje a sociedade combate conscientemente os riscos do sedentarismo.

Nesse sentido, o medo de tecnologias como o ChatGPT levarem pessoas a pensar menos não é de todo infundado. E, sendo claro, muitas pessoas farão isso tanto quanto puderem, assim como deixam de fazer contas quando têm acesso a uma calculadora.

Nosso papel é evitar que isso aconteça de maneira descontrolada, levando a esse temido “embrutecimento mental”. Essa e outras tecnologias continuarão chegando, cada vez mais fantásticas e cada vez mais acessíveis. Mas elas não podem deixar de ser vistas como ferramentas!

Ironicamente, a melhor maneira para isso é ampliar o uso dessas plataformas, ao invés de proibi-las, como algumas pessoas propõem. E isso deve ser feito com o apoio e, se possível, a supervisão de professores, que expliquem como usar tanto poder para expandir nossas possibilidades mentais, ao invés de comprometê-las.

Como seria a vida de alguém hoje, que não soubesse usar, ainda que minimamente, um computador ou um smartphone? Essa pessoa provavelmente teria até dificuldade para conseguir um emprego, mesmo básico!

Em muito pouco tempo, a inteligência artificial será tão popular em nosso cotidiano quanto esses equipamentos. Estamos naquele momento doloroso de mais uma transição tecnológica, mas para Martinelli, todo esse barulho em torno do ChatGPT “é muita fumaça e pouco fogo”.

Essa é a hora em que temos justamente que abraçar a novidade sem medo, mas também sem deslumbramento. Como na maioria das coisas da vida, o melhor caminho é aquele que se afasta de qualquer extremo. Não abrace nem os “deslumbrados” e nem os “resistentes”.

 

ChatGPT não ameaça educação, mas nos desafia a repensar como aprendemos e ensinamos

By | Educação | No Comments

Educadores estão em polvorosa, diante de uma nova plataforma de inteligência artificial. Apesar de ter sido liberada há apenas dois meses, o ChatGPT vem provocando discussões éticas, tecnológicas e profissionais sobre se o digital poderá substituir seres humanos em tarefas intelectuais em que ainda nos sentíamos “seguros”. Nas escolas, esse temor chegou quando estudantes começaram a apresentar trabalhos que haviam sido escritos pela máquina.

Diante da qualidade dos argumentos e da fluência da escrita naquelas tarefas, professores passaram a se perguntar se perderiam a capacidade de identificar “plágios” de seus alunos. Outros, mais fatalistas, já se questionam se a própria profissão poderia desaparecer, sendo substituídos pelas máquinas.

Essas perguntas estão erradas! E a escola, mais que ensinar boas respostas aos alunos, deve ensiná-los a fazer as perguntas certas na vida.

Entendo que professores estejam preocupados. Esse desafio não pode ser ignorado, mas ele não pode servir como motivo para bloquearem a entrada da inteligência artificial nas aulas. Isso, sim, seria uma ameaça à manutenção de seu ofício.


Veja esse artigo em vídeo:


O ChatGPT é uma plataforma criada pela empresa OpenAI capaz de escrever textos complexos a partir de comandos em linguagem natural. Ele simula uma conversa com uma pessoa, permitindo o encadeamento entre respostas e perguntas. Funciona em vários idiomas, inclusive no português, e suas produções vêm surpreendendo especialistas e o público, pela qualidade.

Os mais entusiasmados dizem que poderia até ameaçar a supremacia do Google como ferramenta de busca. Tanto que, no dia 23, a Microsoft fez um investimento bilionário na empresa (o mercado estima em algo como US$ 10 bilhões), para incluir essas funcionalidades em seus produtos, como o Office e o Bing.

“A tecnologia, desde a invenção de Gutenberg, entra cada vez mais no âmago do humano”, explica Lucia Santaella, professora-titular da PUC-SP. “Com a inteligência artificial, ela penetra nas questões que a gente considera o mais nobre do humano, que é a sua capacidade de pensar e de falar.”

De fato, essa interação como conversa é decisiva para seu sucesso. “Ele é baseado em perguntas, e é da natureza do humano a investigação, a pergunta, a exploração e a conversa”, afirma Ana Paula Gaspar, especialista em tecnologia e educação.

Para muitos, o ChatGPT pode vencer o “teste de Turing”, método criado há 70 anos para descobrir se uma máquina é inteligente. Ele prevê que uma pessoa tenha uma longa conversa por texto e, ao final, não consiga distinguir se falou com outra pessoa ou um robô.

“É uma visão totalmente equivocada achar que a tecnologia é uma mera ferramenta”, sugere Santaella. “Ela é linguagem!”

 

Ferramenta pedagógica

Tanto que o caminho para resolver os temores escolares já citados passa pelos professores se apropriarem da inteligência artificial, ao invés de tentar bloqueá-la.

“Toda tecnologia, quando aparece, muda comportamentos”, afirma Diogo Cortiz, professor da PUC e especialista em IA. “Isso causa medo, espanto, porque a gente não sabe muito bem o que vai acontecer.”

“A grande questão é de educação do humano para utilizar bem esse recurso”, propõe Ana Lúcia de Souza Lopes, professora da Universidade Presbiteriana Mackenzie. “E o que a escola faz? A escola se retira!”

Os entrevistados são unânimes ao afirmar que tentar impedir que os alunos usem a ferramenta é inócuo, pois encontrarão maneiras de burlar as restrições. Mas manter os processos atuais de aprendizagem e de avaliação é igualmente inadequado.

A tecnologia deve ser usada como aliada para alunos ganharem recursos para entender o porquê do que aprendem, abandonando o infame “decoreba”. “A partir do momento em que tem um desafio que o algoritmo vence, eu preciso liberar o estudante cognitivamente para tarefas mais complexas”, explica Gaspar.

Como exemplo, pode ser usada para uma produção colaborativa dos alunos, em que avaliem a qualidade e a precisão do que o robô gerou. Ela também pode ser usada como apoio para debates e até estudo de idiomas. “Devemos colocar os estudantes para usar essa ferramenta, mas sempre com um olhar muito crítico”, indica Cortiz.

A inteligência artificial faz parte do nosso cotidiano de maneiras que nem suspeitamos, como viabilizando, de maneira transparente, alguns dos recursos mais incríveis de nossos celulares. E ela cresce de maneira exponencial: o ChatGPT deu apenas mais visibilidade ao tema. Ainda assim, essas transformações têm acontecido sem debates com a sociedade sobre suas consequências.

As escolas –as universidades especialmente– têm um papel importantíssimo nesse processo. São elas que realizam as pesquisas sobre seus impactos sem um viés econômico. As empresas criadoras desses recursos deveriam, por sua vez, fazer o mesmo, mas nem sempre isso acontece, preferindo promover inconsequentemente seus lançamentos que podem lhes render bilhões em lucros. “A gente tem que entender qual é a responsabilidade que a gente tem quando a gente põe um conhecimento no mundo”, alerta Lopes.

É nas escolas também onde crianças e adultos precisam entender a se apropriar desses recursos para aprender mais e melhor. Um uso da inteligência artificial que respeite isso favorecerá nossa própria inteligência humana. Como explica Santaella, “a inteligência é metabólica, então ela cresce através do aprendizado.”

Por tudo isso, plataformas como o ChatGPT não podem ser temidas nas escolas. Pelo contrário, precisam ser abraçadas pelos educadores, para prepararem seus alunos para um mundo já inundado pelo digital. Precisamos reaprender a aprender diante de tantas e incríveis possibilidades. E quem melhor que os próprios professores para nos ensinar a fazer isso?

 

Imagens inéditas geradas pelo Lensa, que usa inteligência artificial para criá-las a partir de outras fotos do usuário

Como nos defender das armadilhas da inteligência artificial

By | Tecnologia | No Comments

Se alguém ainda tinha dúvida de como a IA (inteligência artificial) está disseminada em nossas vidas, dois sistemas movidos por essa tecnologia possivelmente acabaram com ela ao inundar as redes sociais nos últimos dias com conteúdo que produzem. O primeiro foi o Lensa e seus retratos estilizados de nossos amigos, e o outro foi o ChatGPT com textos incríveis que escreve a partir de simples comandos. De quebra, ambos escancararam como podemos pautar escolhas pessoais pelas sugestões da IA, às vezes sem ter plena noção disso. E essa nossa inocência esconde um grave problema, pois, apesar de os resultados dessa tecnologia parecerem incríveis, podem embutir falhas graves, que nós engoliremos alegremente.

Sou um entusiasta do que a inteligência artificial pode nos brindar nos diferentes campos do saber. Se bem utilizada, ela pode trazer ganhos que nos levarão a um nível de produtividade inédito. Mas precisamos dosar a euforia e entender que não existe almoço grátis.

Tudo porque a inteligência artificial não é inteligente de fato! Sim, esses sistemas efetivamente aprendem à medida que são usados e com seus próprios erros. Mas a qualidade de suas entregas depende do material usado para sua “educação” e até da índole de seus usuários. Assim como acontece com uma criança, se ela for mal instruída, repetirá tudo de ruim que tiver aprendido.

A diferença é que, ao contrário da criança com seu alcance limitado, plataformas com inteligência artificial mal instruídas podem influenciar negativamente milhões de pessoas com isso.


Veja esse artigo em vídeo:


Em setembro, a IBM divulgou um estudo global que indicou que 41% das empresas brasileiras já adotam IA. Ironicamente, muitas não sabem disso, porque ela está por trás de aplicações que se tornaram corriqueiras. E, da mesma forma que a inteligência artificial se presta a criar inocentes retratos a partir de outras fotos, pode ser o motor de sistemas empresariais para se tomar decisões de milhões de reais.

Há um outro aspecto que não pode ser ignorado: a IA também está no coração de incontáveis aplicativos em nossos smartphones e nas redes sociais. E, como já debatemos nesse espaço incontáveis vezes, essas plataformas têm um incrível poder de nos influenciar.

Em outras palavras, uma IA “mal orientada” pode não apenas nos fazer perder muito dinheiro, como ainda provocar diferentes danos no âmbito pessoal.

Não entendam isso como uma visão apocalíptica da tecnologia. Pelo contrário, a inteligência artificial quase nos dá “superpoderes”, ou pelo menos habilidades que nós eventualmente não tenhamos, como tirar uma foto incrível, escrever um texto brilhante ou evitar grandes riscos nos negócios. Entretanto, precisamos estar atentos para não achar que ela é infalível.

Há ainda um aspecto profissional a ser considerado. Com sistemas tão sofisticados cuspindo sensacionais fotos, textos ou contratos (só para ficar em alguns poucos exemplos), fotógrafos, escritores e advogados estão com seus empregos sob risco?

Por enquanto, isso não acontecerá por dois motivos. Em ambientes corporativos, essas plataformas acabam sendo usadas principalmente para mastigar grande quantidade de informações específicas para produzir um resultado de qualidade. Mas ainda é necessário um profissional que entenda do assunto para dar os comandos aos sistemas e confirmar suas entregas, fazendo eventuais correções de rumo. São necessárias ainda pessoas que produzam os conteúdos “originais” que os alimentarão.

Na verdade, uma nova profissão pode surgir disso: os “prompt designers”, capazes de extrair o melhor dessas plataformas. E eles também precisam de conhecimento na área do saber que o sistema trabalho. Fazendo uma analogia, é como comparar alguém que sempre consegue boas respostas do Google porque sabe fazer boas perguntas com a maioria dos usuários, que só recebem as páginas mais óbvias.

 

Máquinas preconceituosas

Há ainda um ponto de atenção central nessa tecnologia: os vieses que ela pode desenvolver. Sim, uma máquina pode verdadeiramente se tornar preconceituosa! Tanto que esse foi um dos temas centrais do World Summit AI Americas, um dos maiores eventos do setor no mundo, do qual participei em maio, em Montréal (Canadá).

Como disse anteriormente, para sistemas de IA oferecerem boas respostas, eles precisam ser ensinados com bons conteúdos e por bons usuários. Quanto pior qualquer um deles for, piores serão os resultados. E isso vale também para preconceitos.

Um exemplo clássico são sistemas de recrutamento profissional com inteligência artificial. Eles analisam milhares de currículos e escolhem poucos candidatos que seriam os mais adequados para que o RH os entreviste. Se, a cada contratação, o sistema identifica que os recrutadores humanos nunca escolhem alguém com mais de 40 anos, ele passará a indicar apenas candidatos até essa idade. Ou seja, o sistema terá incorporado o preconceito dos recrutadores contra profissionais mais velhos.

Outro tipo de viés desses sistemas pode ter efeitos nefastos na autoimagem das pessoas. Filtros do Instagram e do TikTok, e o próprio Lensa já foram acusados de gerar imagens com a pele mais clara e lisa do que as pessoas realmente têm, com rostos mais simétricos e magros, com narizes mais finos e lábios mais carnudos e até com aparência mais jovem. Dessa forma, reforçam ideais de beleza, às vezes inatingíveis.

Muitas pessoas, especialmente mulheres, têm pedido a cirurgiões plásticos para ficarem como vistas nesses aplicativos, mas isso não é possível, podendo causar enorme frustração com o próprio corpo. E isso dispara sinais de alerta e abre muitas reflexões.

Pode parecer irônico que uma tecnologia nos faça avaliar muito de nossa própria humanidade. Afinal, por que tanta gente criou suas imagens com o Lensa? Foi só um “efeito manada”? É um movimento egocêntrico ou narcisista? Foram mais uma vez controladas pelas redes sociais? Ou estão, de alguma forma, querendo “reescrever” sua própria realidade?

Qualquer que seja a resposta, a inteligência artificial ocupará um espaço cada vez maior em tudo que fizermos, conscientemente ou não. Ela realmente tem o potencial de fazer nossas vidas mais fáceis, divertidas, rápidas. Apenas não podemos usá-la para distorcer a realidade ou –pior ainda– sermos vítimas desses vieses e preconceitos. Precisamos conhecer e nos apropriar da tecnologia para algo bom, sem nos afastar do que somos!

Afinal, por mais que a realidade possa ser dura às vezes, é nela que temos nossas melhores experiências, que desencadeiam as verdadeiras transformações em nós mesmos. E é a partir delas que crescemos como indivíduos.