chatbot

Os personagens Theodore e Samantha (no smartphone em seu bolso), no filme “Ela” (2013) - Foto: divulgação

Inteligência artificial começa a substituir pessoas com suas ideias, personalidades e vozes

By | Tecnologia | No Comments

Enquanto o mundo discute o impacto da inteligência artificial no mercado de trabalho, outra revolução, possivelmente mais profunda ainda, começa a tomar forma graças a essa tecnologia: pessoas estão criando representações digitais de si mesmas, simulando suas ideias, vozes e até suas personalidades.

O objetivo é usar esses avatares para conversar com muita gente, como se fossem o indivíduo em si. Isso é particularmente interessante para celebridades com enormes bases de fãs online, mas abre uma série de discussões éticas e até filosóficas sobre a substituição do ser humano por robôs.

Por um lado, eles podem representar um grande avanço no relacionamento com seguidores e clientes, criando uma experiência incrivelmente imersiva e convincente, o que pode ser ótimo para os negócios. Entretanto especialistas temem que esses chatbots hiper-realistas possam provocar estragos na saúde mental de algumas pessoas.


Veja esse artigo em vídeo:


No começo do mês, a influenciadora digital americana Caryn Marjorie, 23, que tem aproximadamente dois milhões de seguidores no Snapchat, lançou um desses avatares. Batizado de CarynAI, ele é construído sobre a tecnologia do GPT-4, motor do afamado ChatGPT.

Mas ele vai muito além de escrever textos a perguntas de seus fãs. O robô simula a voz, personalidade e até maneirismos de Caryn, conversando com os fãs sobre qualquer assunto. Para uma base de seguidores em que 98% são homens, ninguém se surpreendeu que muitas dessas conversas acabaram tendo cunho sexual, apesar de a influenciadora dizer que espera que esse não se torne o assunto principal.

Os fãs sabem que não estão falando com a verdadeira Caryn. Ainda assim não se importam de pagar US$ 1 por minuto de conversa. Não há limite de tempo, mas quando o papo se aproxima de uma hora, CarynAI sugere que o fã continue em outro momento.

Com isso, na primeira semana, o sistema rendeu nada menos que US$ 100 mil à influenciadora. Quando ela conseguir dar acesso a uma lista de espera de milhares de interessados, ela calcula que faturará algo como US$ 5 milhões por mês! Negócios à parte, Caryn disse que “espera curar a solidão de seus fãs” com a ajuda de seu avatar.

“Entrar na fantasia não é errado: isso nos proporciona criatividade, curiosidade, alegria”, explica Katty Zúñiga, psicóloga especializada em comportamento e tecnologia. “Mas, ao mesmo tempo, a gente precisa entrar em contato com nosso lado mais racional, mais consciente, para encontrar o equilíbrio, e não nos perdermos na fantasia, que é o que essa inteligência artificial está nos apresentando.”

 

Vencendo a morte?

CarynAI foi criada pela empresa Forever Voices. Seu CEO e fundador, John Meyer, disse ao The Washington Post que começou a desenvolver a plataforma no ano passado, para tentar “conversar” com seu pai, que faleceu em 2017. Segundo ele, conversar com o robô que tinha a voz e a personalidade do pai foi “uma experiência incrivelmente curativa”.

É inevitável lembrar do episódio “Volto Já” (2013), o primeiro da segunda temporada da série “Black Mirror”, conhecida por promover reflexões sobre usos questionáveis da tecnologia. Nessa história, a personagem Martha (Hayley Atwell) usa um serviço que cria um chatbot com informações, personalidade e trejeitos de seu recém-falecido marido, Ash (Domhnall Gleeson). Como aquilo parecia aplacar sua saudade e solidão, ela atualiza o serviço para uma versão em que o sistema conversa com ela com a voz dele.

Emocionada com os resultados, parte para um terceiro nível, em que compra um robô fisicamente idêntico a Ash, que passa a interagir com ela, até sexualmente. Claro que, nesse momento, a experiência desanda! Quanto mais ampla pretende ser a simulação, maior a chance de ela dar errado. Martha não consegue lidar com as diferenças, e decide tomar uma atitude extrema.

Impossível não pensar também no filme “Ela” (2013). Nele, Theodore (Joaquin Phoenix), um escritor deprimido, se apaixona por Samantha (Scarlett Johansson), a “personalidade” do novo sistema operacional de seu computador e smartphone. Se isso não fosse estranho o suficiente, ela corresponde a seu amor. Aqui também a história não termina bem, pois, apesar de Samantha agradar a Theodore em tudo, ela ainda não consegue ser humana.

As duas histórias são muito impactantes. No caso de Samantha, é muito fácil se apaixonar por ela, mesmo não sendo Theodore. Afinal, ela é dona de uma ternura rara, sempre “ao lado” de Theodore, disposta a dar a ele o que ele precisa. Mas isso é amor ou apenas as ações estatisticamente mais relevantes para cada momento, envelopadas com muito carinho?

É nessa hora que essas plataformas podem se tornar um problema psíquico. A vida real é composta de contraposições entre coisas positivas e negativas, alegrias e tristezas, tensões e distensões. Ao enfrentarmos isso, amadurecemos. Mas se começarmos a viver relacionamentos que nos “protegem” de dissabores, isso pode prejudicar nosso desenvolvimento.

“A gente está vivendo em um mundo de adultos imaturos, por isso as pessoas não aceitam o diferente”, explica Zúñiga. “É como a criança, que vive despreocupada momentos de prazer o tempo todo, porque tem um adulto por trás para cuidar dela”, acrescenta. Mas a vida não funciona dessa forma.

Meyer acredita que, em poucos anos, todos terão um “assistente humanizado por IA” em seu bolso, que poderá ser um parceiro romântico, um personal trainer ou um professor. Resta saber até onde eles poderão ir e como poderemos nos proteger de “abusos” da tecnologia.

No dia 18, Sam Altman, CEO da OpenAI, criadora do ChatGPT, deu uma palestra no Rio de Janeiro. Contrariando o que muito poderiam pensar, ele defende que a inteligência artificial seja regulamentada logo e, de preferência, de maneira única em todos os países.

Infelizmente a chance de isso acontecer é mínima. Afinal, não conseguimos chegar a um consenso nem com o “PL das Fake News”. De qualquer jeito, o debate não pode ficar restrito aos interesses dos fabricantes, ou correremos o risco de parar de nos apaixonar por humanos chatos, preferindo avatares hipersedutores.

 

Quem assedia uma assistente virtual?

By | Tecnologia | No Comments

No dia 5, o Bradesco lançou uma nova campanha de marketing. O banco apresentou mudanças no algoritmo da BIA, sua assistente com inteligência artificial. As mudanças se concentram nas respostas que o sistema dá diante de diferentes formas de assédio que a assistente recebe de clientes, que vão desde insultos até importunações sexuais.

Esse comportamento bizarro não é novidade. Mas ainda me pego analisando o que leva alguém a assediar sexualmente um software.

Alguns dizem que se trata apenas de “brincadeira”. Afinal quem vai “passar uma cantada” em um bot? Mas as reações ao comercial do Bradesco mostram que o assunto é sério, problemático e está disseminado em nossa sociedade.

No momento em que estou escrevendo esse texto, a peça já passou de 105 milhões de visualizações no canal oficial do Bradesco no YouTube, em apenas seis dias no ar! Conquistou cerca de 7.000 “gostei” e 25 mil “não gostei”. E entre os mais de 13 mil comentários, a esmagadora maioria traz uma reprovação furiosa ao comercial.

E isso –pelo menos nessa quantidade– me surpreendeu.


Veja esse artigo em vídeo:


O polêmico comercial mostra algumas das cerca de 95 mil mensagens agressivas que a BIA recebeu no ano passado, segundo o Bradesco. Entre elas estão insultos como “BIA, sua imbecil” e “BIA, eu quero uma foto sua de agora” (sic).

Até então, o sistema identificava os comentários condenáveis e dava repostas leves, como “Não entendi, poderia repetir” ou “Foto? Apesar de falar como humana, sou uma inteligência artificial”. Essas respostas foram substituídas por outras, bem mais incisivas, como “Essas palavras são inadequadas, não devem ser usadas comigo e mais ninguém” ou “Para você, pode ser uma brincadeira; para mim, foi violento”.

A iniciativa do banco segue a campanha “Hey update my voice” (“Ei, atualize minha voz”), da Unesco (Organização das Nações Unidas para a Educação, a Ciência e a Cultura). Ela foi criada a partir do estudo “I’d blush if I could” (“Eu ficaria corada, se pudesse”), que descreve o assédio sofrido pelas assistentes virtuais. A partir disso, a Unesco recomenda às empresas atualizações nas respostas de suas assistentes para combater a violência e o preconceito, educando a população para o problema do assédio contra mulheres, muto além das assistentes virtuais.

Segundo a Unesco, 73% das mulheres no mundo já foram vítimas de algum assédio online. No Brasil, pesquisa Datafolha revelou que 42% das mulheres a partir de 16 anos já sofreu assédio sexual. Outro levantamento indicou que 97% já haviam sido vítimas de algum tipo de assédio dentro do transporte público ou privado.

 

Do amor à violência

Para entendermos a raiz do assédio contra assistentes virtuais, temos que voltar uma década no tempo. A Siri, assistente da Apple, lançada em 2011, foi o primeiro sistema do tipo a se tornar um grande sucesso de público. Ela surgiu como parte do iOS 5.0, que controlava o iPhone 4S. Até então, nenhum produto de massa tinha a capacidade de convincentemente entender comandos de voz e dar respostas também por voz.

Uma das diversões da época era “desafiar” o sistema com comandos inesperados. Um dos mais populares era dizer “Siri, eu te amo”. Ela dava respostas espirituosas como “eu aposto que você diz isso a todos os produtos da Apple.” A princípio, naquele momento embrionário da tecnologia, ninguém estava “cantando” a assistente, especialmente para quem sabe do relacionamento apaixonado entre os clientes da Apple e a marca e seus produtos.

Infelizmente, à medida que as assistentes se popularizaram em celulares e muitos outros dispositivos, melhorando também a sua capacidade de respostas, aqueles testes quase pueris evoluíram para mensagens agressivas e sexistas.

Isso foi reforçado pelo fato de quase todos esses sistemas incorporaram uma voz e até uma personalidade feminina. É o caso dos principais sistemas internacionais: Siri (Apple), Google Assistente, Cortana (Microsoft) e Alexa (Amazon). Isso se repete em sistemas brasileiros: além da própria BIA (Bradesco), outros exemplos são a Lu (Magazine Luiza) e a Nat (Natura).

Modismos à parte, a origem dessa escolha tem fundamento. Em 2005, Clifford Nass, professor de comunicação da Universidade Stanford (EUA), compilou dez anos de pesquisas psicológicas e de interface de voz, e concluiu que a voz sintética feminina é percebida como capaz de ajudar a resolver problemas, enquanto a masculina representa autoridade e dá respostas. Outro estudo, em 2008, de Karl MacDorman, da Universidade de Indiana (EUA), indicou que vozes sintetizadas femininas eram vistas como mais calorosas e agradáveis.

Segundo a Unesco, 90% da força de trabalho envolvida na criação dos assistentes é masculina. De acordo com o órgão, eles reforçam o imaginário popular de que a voz da mulher é dócil, acolhedora, subserviente e sempre pronta a ajudar. A prática tende a normalizar o assédio.

Seguindo as recomendações da Unesco, a Apple fará com que o usuário escolha o gênero da voz da Siri a partir do iOS 14.5. A voz masculina já está disponível, mas hoje o usuário precisa alterar o padrão feminino nas configurações do sistema.

 

“Mimimi”

Os detratores do novo comercial do Bradesco afirmam que ele exagera e que o banco se aproveita de uma pauta feminista para se promover. Mas muitos dos comentários acabam justamente reforçando os preconceitos e a violência contra mulheres, o que indica que a iniciativa está no caminho certo. Afinal, o debate levantado não é sobre o assédio contra a BIA e sim contra todas as mulheres.

Mas já que o assunto foi tocado, poderíamos debater também se seria legítimo agredir sexualmente um robô, apenas por ser uma máquina. O tema é recorrentemente explorado pela ficção, com sistemas inteligentes que desenvolvem sentimentos e até se apaixonam. Vimos isso, por exemplo, nos filmes “Ela” (2013), de Spike Jonze, e “Blade Runner” (1982), de Ridley Scott, ou no reboot da série “Battlestar Galactica” (2004 a 2010). Portanto, nem os robôs devem ser assediados.

Outra crítica recorrente contra o comercial é que o Bradesco se preocupa mais com a BIA que com as atendentes humanas do banco. Conversei com várias gestoras de call center sobre o caso. De fato, esse é um mercado conhecido por condições de trabalho ruins. Em alguns casos, se um atendente encerra uma ligação, mesmo após ter sido agredido por um cliente, ele pode ser punido administrativamente.

A política dos call centers refletem a da empresa que a contrata. A boa notícia é que, aos poucos, essas regras vêm evoluindo, para proteger esses profissionais contra violências de consumidores. Em muitos casos, os atendentes já são autorizados a reagir aos ataques e até a encerrar a ligação. Em casos menos comuns, a empresa envia uma notificação formal ao cliente, advertindo-o por seu comportamento. Isso acontece inclusive em alguns bancos.

A BIA também está pagando por diversos tipos de insatisfação de clientes com o Bradesco. Se a empresa comete erros (e todas as empresas cometem), eles precisam ser notificados pelo cliente e corrigidos. Mas isso deve ser feito de maneira apropriada, o que nos leva à questão original de combate ao assédio.

A frase de que “o cliente sempre tem razão” é uma falácia. Naturalmente ele deve ser bem atendido, sempre da melhor maneira possível. Mas infelizmente muitos clientes abusam dessa prerrogativa, sem falar daqueles que possuem sérios problemas sociais. A empresa e seus funcionários, mesmo os virtuais, não têm nenhuma obrigação de acolher quem os trata mal. Qualquer forma de relacionamento, mesmo comercial, deve ser pautada pelo respeito mútuo.

Por isso, a nova campanha do Bradesco é mais que oportuna: é necessária! O debato em torno da violência contra uma assistente virtual e a onda de ódio contra a peça explicitam como nossa sociedade ainda tem muito a evoluir.

Garry Kasparov enfrenta o supercomputador da IBM Deep Blue, em 1997 — Foto: reprodução

Até onde podemos ser iludidos pela Inteligência Artificial

By | Tecnologia | No Comments

Existe um ditado popular que diz, em tão jocoso, “me engana que eu gosto”. Ou seja, por qualquer tipo de conveniência, as pessoas podem acreditar em algo que sabem que não é verdadeiro. Entretanto, graças à Inteligência Artificial (IA), isso está ganhando novos contornos.

Com o avanço da tecnologia, sistemas hoje já conseguem se passar, de maneira convincente, por seres humanos, criando formas de interação bastante naturais com as pessoas oferecendo diferentes serviços. Entre os exemplos mais comuns estão os sistemas de atendimento ao público, os “chatbots”.


Vídeo relacionado:


Esqueçam as vozes metalizadas ou as interações do tipo “pressione 1 para cobrança; pressione 2 para crédito; pressiona 3 para falar com um de nossos atendentes”. Uma das características dos novos sistemas é a linguagem natural, que permite que os comandos sejam feitos em uma conversa livre, e as respostas sejam dadas da mesma forma: o sistema é capaz (ou pelo menos tenta) entender o que o cliente deseja, e busca lhe oferecer a melhor alternativa disponível, quaisquer que sejam as palavras usadas pela pessoa.

Em 2018, o Bradesco trouxe isso para um atendimento comercial de massa, com o lançamento da BIA, acrônimo para “Bradesco Inteligência Artificial”. Trata-se de um sistema de autoatendimento construindo a partir do Watson, da IBM, para atender, com linguagem natural, os clientes do banco. É possível até mesmo fazer perguntas que não têm a ver com transações bancárias (e algumas serão respondidas assim mesmo).

A equipe responsável levou três anos para “calibrar” a BIA, ou seja, oferecer a ela as informações e a capacidade de aprender suficientes para ser lançada comercialmente. E, graças à computação cognitiva da IBM, a BIA literalmente continua aprendendo, à medida que é usada pelos clientes do Bradesco.

Mas para se ter uma experiência bastante interessante disso, basta usar os assistentes virtuais de seu celular: a Siri (para iPhones) e o Google Now (para smartphones Android) já respondem a nossos pedidos em linguagem natural. E estão cada vez mais eficientes, tanto para entender o que queremos, quanto para nos responder.

Experimente dizer “eu te amo” à Siri ou perguntar “quando é o próximo jogo do Timão” ao Google Now.

De onde veio e para onde vai?

Os assistentes virtuais não são exatamente uma novidade. O primeiro deles data de 1966. Chamado de ELIZA, demorou dois anos para ser desenvolvido por Joseph Weizenbaum no laboratório de inteligência artificial do MIT (EUA), e buscava simular um psicólogo aconselhando seus pacientes por mensagens escritas. Apesar de bastante rudimentar, as pessoas necessitavam realizar várias trocas antes de perceber que não estavam conversando com outro ser humano.

De lá para cá, as pesquisas cresceram incrivelmente, seja por sistemas mais inteligentes, seja por equipamentos mais poderosos, que permitem a realização de milhões de combinações por segundo. E, como na maioria dos casos, o processamento se dá em servidores remotos e não no equipamento do usuário (como seus smartphones), o avanço das telecomunicações também é essencial.

Em maio de 2018, uma demonstração no Google I/O, congresso mundial de desenvolvedores da empresa, deixou muita gente de boca aberta. Tratava-se de uma evolução do Google Now, batizado de Google Duplex, que, por telefone e diante de todos, marcou um corte de cabelo e fez uma reserva em um restaurante, sem que os atendentes dos estabelecimentos se dessem conta que estavam falando com uma máquina. A linguagem natural usada pelo sistema era tão perfeita, que muitas pessoas duvidaram que aquilo seria real, apesar de a empresa afirmar categoricamente que sim. Em alguns casos, o sistema parecia falar melhor que os próprios interlocutores humanos com quem estava interagindo por telefone.

Em fevereiro de 2019, a IBM promoveu um debate público sobre educação entre seu sistema de IA Project Debater e o debatedor profissional Harish Natarajan. Apesar da natureza totalmente aberta do tema, para muita gente o sistema foi melhor que o ser humano.

A IBM, aliás, tem história em colocar seus sistemas de IA em confronto com pessoas. Nos anos 1990, seu supercomputador Deep Blue jogou xadrez com o então campeão mundial Garry Kasparov, em dois matches de seis partidas cada. O primeiro foi vencido por Kasparov e o segundo pelo Deep Blue. O campeão chegou a acusar a máquina de manipulação fraudulenta após ser derrotado.

A máquina tem ética?

O fato é que esses sistemas, cada vez mais parecidos com seres humanos em suas interações, são capazes de processar muito mais informações que nós, e têm acesso a muito mais dados do que qualquer ser humano. Isso levanta algumas questões éticas importantes: diante disso tudo, as máquinas poderiam se tornar capazes de nos convencer de qualquer coisa, muito além do que outra pessoa faria?

Afinal, se o nosso interlocutor parece ter o argumento definitivo para contrapor qualquer coisa que digamos, ele está em uma condição claramente vantajosa. Os computadores já têm isso há algum tempo, mas seu diferencial no convencimento desaparece diante do fato de que as interações não são naturais. Em outras palavras, subimos automaticamente nossas defesas para não sermos enganados por uma máquina.

Entretanto, diante dessa nova realidade em que nos encontramos, isso pode deixar de existir. O Google Duplex demonstrou que, por telefone, já não haveria como diferenciar as falas de uma máquina das de uma pessoa.  E quando isso acontecer também presencialmente, com robôs simulando convincentemente os corpos humanos?

O assunto é abordado exaustivamente pela ficção científica. Minha lembrança mais antiga disso é do primeiro “Blade Runner”, de 1982, com seus “replicantes”, robôs tão humanos que alguns nem sabiam da sua natureza artificial, achando que eram pessoas. Como dizia o slogan de seu fabricante, eram “mais humano(s) que o humano”.

Mais recentemente, o episódio “Volto Já”, o primeiro da segunda temporada (de 2013) da série “Black Mirror”, reacendeu o debate, quando a protagonista contrata o serviço de uma empresa que cria robôs capazes de simular o corpo e a mente de entes queridos falecidos. No caso da personagem, ela quase embarca na fantasia de que aquela máquina era seu marido morto. Só não fez isso porque o sistema, afinal, não conseguiu captar as sutilezas de sua personalidade.

Mas e se conseguisse? Ela teria se deixado enganar por aquela ilusão cibernética cuidadosamente elaborada? E, caso assim fizesse, ela poderia ser julgada por isso? Afinal, a máquina seria uma cópia praticamente fiel de seu finado esposo, e serviria para lhe aplacar a dor da perda.

O fato é que podemos estar muito perto de sistemas que sejam capazes de nos iludir e até mesmo manipular para atingir os objetivos de seus fabricantes, por terem sempre os melhores argumentos e se comportarem e parecerem com seres humanos. A máquina não tem ética e nem pode ser culpada se fizer algo que contrarie o que achemos correto. Quem precisa cuidar disso é seu fabricante.

Do nosso lado, precisamos ter esse debate sempre em dia, para que tenhamos esses recursos da tecnologia a nosso favor, tornando nossa vida mais produtiva, fácil, divertida. Podemos, sim, ser iludidos pelas máquinas, desde que seja o que deliberadamente queiramos, por mais que isso possa parecer paradoxal.


E aí? Vamos participar do debate? Role até o fim da página e deixe seu comentário. Essa troca é fundamental para a sociedade.


Artigos relacionados: