chatbot

Quem assedia uma assistente virtual?

By | Tecnologia | No Comments

No dia 5, o Bradesco lançou uma nova campanha de marketing. O banco apresentou mudanças no algoritmo da BIA, sua assistente com inteligência artificial. As mudanças se concentram nas respostas que o sistema dá diante de diferentes formas de assédio que a assistente recebe de clientes, que vão desde insultos até importunações sexuais.

Esse comportamento bizarro não é novidade. Mas ainda me pego analisando o que leva alguém a assediar sexualmente um software.

Alguns dizem que se trata apenas de “brincadeira”. Afinal quem vai “passar uma cantada” em um bot? Mas as reações ao comercial do Bradesco mostram que o assunto é sério, problemático e está disseminado em nossa sociedade.

No momento em que estou escrevendo esse texto, a peça já passou de 105 milhões de visualizações no canal oficial do Bradesco no YouTube, em apenas seis dias no ar! Conquistou cerca de 7.000 “gostei” e 25 mil “não gostei”. E entre os mais de 13 mil comentários, a esmagadora maioria traz uma reprovação furiosa ao comercial.

E isso –pelo menos nessa quantidade– me surpreendeu.


Veja esse artigo em vídeo:


O polêmico comercial mostra algumas das cerca de 95 mil mensagens agressivas que a BIA recebeu no ano passado, segundo o Bradesco. Entre elas estão insultos como “BIA, sua imbecil” e “BIA, eu quero uma foto sua de agora” (sic).

Até então, o sistema identificava os comentários condenáveis e dava repostas leves, como “Não entendi, poderia repetir” ou “Foto? Apesar de falar como humana, sou uma inteligência artificial”. Essas respostas foram substituídas por outras, bem mais incisivas, como “Essas palavras são inadequadas, não devem ser usadas comigo e mais ninguém” ou “Para você, pode ser uma brincadeira; para mim, foi violento”.

A iniciativa do banco segue a campanha “Hey update my voice” (“Ei, atualize minha voz”), da Unesco (Organização das Nações Unidas para a Educação, a Ciência e a Cultura). Ela foi criada a partir do estudo “I’d blush if I could” (“Eu ficaria corada, se pudesse”), que descreve o assédio sofrido pelas assistentes virtuais. A partir disso, a Unesco recomenda às empresas atualizações nas respostas de suas assistentes para combater a violência e o preconceito, educando a população para o problema do assédio contra mulheres, muto além das assistentes virtuais.

Segundo a Unesco, 73% das mulheres no mundo já foram vítimas de algum assédio online. No Brasil, pesquisa Datafolha revelou que 42% das mulheres a partir de 16 anos já sofreu assédio sexual. Outro levantamento indicou que 97% já haviam sido vítimas de algum tipo de assédio dentro do transporte público ou privado.

 

Do amor à violência

Para entendermos a raiz do assédio contra assistentes virtuais, temos que voltar uma década no tempo. A Siri, assistente da Apple, lançada em 2011, foi o primeiro sistema do tipo a se tornar um grande sucesso de público. Ela surgiu como parte do iOS 5.0, que controlava o iPhone 4S. Até então, nenhum produto de massa tinha a capacidade de convincentemente entender comandos de voz e dar respostas também por voz.

Uma das diversões da época era “desafiar” o sistema com comandos inesperados. Um dos mais populares era dizer “Siri, eu te amo”. Ela dava respostas espirituosas como “eu aposto que você diz isso a todos os produtos da Apple.” A princípio, naquele momento embrionário da tecnologia, ninguém estava “cantando” a assistente, especialmente para quem sabe do relacionamento apaixonado entre os clientes da Apple e a marca e seus produtos.

Infelizmente, à medida que as assistentes se popularizaram em celulares e muitos outros dispositivos, melhorando também a sua capacidade de respostas, aqueles testes quase pueris evoluíram para mensagens agressivas e sexistas.

Isso foi reforçado pelo fato de quase todos esses sistemas incorporaram uma voz e até uma personalidade feminina. É o caso dos principais sistemas internacionais: Siri (Apple), Google Assistente, Cortana (Microsoft) e Alexa (Amazon). Isso se repete em sistemas brasileiros: além da própria BIA (Bradesco), outros exemplos são a Lu (Magazine Luiza) e a Nat (Natura).

Modismos à parte, a origem dessa escolha tem fundamento. Em 2005, Clifford Nass, professor de comunicação da Universidade Stanford (EUA), compilou dez anos de pesquisas psicológicas e de interface de voz, e concluiu que a voz sintética feminina é percebida como capaz de ajudar a resolver problemas, enquanto a masculina representa autoridade e dá respostas. Outro estudo, em 2008, de Karl MacDorman, da Universidade de Indiana (EUA), indicou que vozes sintetizadas femininas eram vistas como mais calorosas e agradáveis.

Segundo a Unesco, 90% da força de trabalho envolvida na criação dos assistentes é masculina. De acordo com o órgão, eles reforçam o imaginário popular de que a voz da mulher é dócil, acolhedora, subserviente e sempre pronta a ajudar. A prática tende a normalizar o assédio.

Seguindo as recomendações da Unesco, a Apple fará com que o usuário escolha o gênero da voz da Siri a partir do iOS 14.5. A voz masculina já está disponível, mas hoje o usuário precisa alterar o padrão feminino nas configurações do sistema.

 

“Mimimi”

Os detratores do novo comercial do Bradesco afirmam que ele exagera e que o banco se aproveita de uma pauta feminista para se promover. Mas muitos dos comentários acabam justamente reforçando os preconceitos e a violência contra mulheres, o que indica que a iniciativa está no caminho certo. Afinal, o debate levantado não é sobre o assédio contra a BIA e sim contra todas as mulheres.

Mas já que o assunto foi tocado, poderíamos debater também se seria legítimo agredir sexualmente um robô, apenas por ser uma máquina. O tema é recorrentemente explorado pela ficção, com sistemas inteligentes que desenvolvem sentimentos e até se apaixonam. Vimos isso, por exemplo, nos filmes “Ela” (2013), de Spike Jonze, e “Blade Runner” (1982), de Ridley Scott, ou no reboot da série “Battlestar Galactica” (2004 a 2010). Portanto, nem os robôs devem ser assediados.

Outra crítica recorrente contra o comercial é que o Bradesco se preocupa mais com a BIA que com as atendentes humanas do banco. Conversei com várias gestoras de call center sobre o caso. De fato, esse é um mercado conhecido por condições de trabalho ruins. Em alguns casos, se um atendente encerra uma ligação, mesmo após ter sido agredido por um cliente, ele pode ser punido administrativamente.

A política dos call centers refletem a da empresa que a contrata. A boa notícia é que, aos poucos, essas regras vêm evoluindo, para proteger esses profissionais contra violências de consumidores. Em muitos casos, os atendentes já são autorizados a reagir aos ataques e até a encerrar a ligação. Em casos menos comuns, a empresa envia uma notificação formal ao cliente, advertindo-o por seu comportamento. Isso acontece inclusive em alguns bancos.

A BIA também está pagando por diversos tipos de insatisfação de clientes com o Bradesco. Se a empresa comete erros (e todas as empresas cometem), eles precisam ser notificados pelo cliente e corrigidos. Mas isso deve ser feito de maneira apropriada, o que nos leva à questão original de combate ao assédio.

A frase de que “o cliente sempre tem razão” é uma falácia. Naturalmente ele deve ser bem atendido, sempre da melhor maneira possível. Mas infelizmente muitos clientes abusam dessa prerrogativa, sem falar daqueles que possuem sérios problemas sociais. A empresa e seus funcionários, mesmo os virtuais, não têm nenhuma obrigação de acolher quem os trata mal. Qualquer forma de relacionamento, mesmo comercial, deve ser pautada pelo respeito mútuo.

Por isso, a nova campanha do Bradesco é mais que oportuna: é necessária! O debato em torno da violência contra uma assistente virtual e a onda de ódio contra a peça explicitam como nossa sociedade ainda tem muito a evoluir.

Garry Kasparov enfrenta o supercomputador da IBM Deep Blue, em 1997 — Foto: reprodução

Até onde podemos ser iludidos pela Inteligência Artificial

By | Tecnologia | No Comments

Existe um ditado popular que diz, em tão jocoso, “me engana que eu gosto”. Ou seja, por qualquer tipo de conveniência, as pessoas podem acreditar em algo que sabem que não é verdadeiro. Entretanto, graças à Inteligência Artificial (IA), isso está ganhando novos contornos.

Com o avanço da tecnologia, sistemas hoje já conseguem se passar, de maneira convincente, por seres humanos, criando formas de interação bastante naturais com as pessoas oferecendo diferentes serviços. Entre os exemplos mais comuns estão os sistemas de atendimento ao público, os “chatbots”.


Vídeo relacionado:


Esqueçam as vozes metalizadas ou as interações do tipo “pressione 1 para cobrança; pressione 2 para crédito; pressiona 3 para falar com um de nossos atendentes”. Uma das características dos novos sistemas é a linguagem natural, que permite que os comandos sejam feitos em uma conversa livre, e as respostas sejam dadas da mesma forma: o sistema é capaz (ou pelo menos tenta) entender o que o cliente deseja, e busca lhe oferecer a melhor alternativa disponível, quaisquer que sejam as palavras usadas pela pessoa.

Em 2018, o Bradesco trouxe isso para um atendimento comercial de massa, com o lançamento da BIA, acrônimo para “Bradesco Inteligência Artificial”. Trata-se de um sistema de autoatendimento construindo a partir do Watson, da IBM, para atender, com linguagem natural, os clientes do banco. É possível até mesmo fazer perguntas que não têm a ver com transações bancárias (e algumas serão respondidas assim mesmo).

A equipe responsável levou três anos para “calibrar” a BIA, ou seja, oferecer a ela as informações e a capacidade de aprender suficientes para ser lançada comercialmente. E, graças à computação cognitiva da IBM, a BIA literalmente continua aprendendo, à medida que é usada pelos clientes do Bradesco.

Mas para se ter uma experiência bastante interessante disso, basta usar os assistentes virtuais de seu celular: a Siri (para iPhones) e o Google Now (para smartphones Android) já respondem a nossos pedidos em linguagem natural. E estão cada vez mais eficientes, tanto para entender o que queremos, quanto para nos responder.

Experimente dizer “eu te amo” à Siri ou perguntar “quando é o próximo jogo do Timão” ao Google Now.

De onde veio e para onde vai?

Os assistentes virtuais não são exatamente uma novidade. O primeiro deles data de 1966. Chamado de ELIZA, demorou dois anos para ser desenvolvido por Joseph Weizenbaum no laboratório de inteligência artificial do MIT (EUA), e buscava simular um psicólogo aconselhando seus pacientes por mensagens escritas. Apesar de bastante rudimentar, as pessoas necessitavam realizar várias trocas antes de perceber que não estavam conversando com outro ser humano.

De lá para cá, as pesquisas cresceram incrivelmente, seja por sistemas mais inteligentes, seja por equipamentos mais poderosos, que permitem a realização de milhões de combinações por segundo. E, como na maioria dos casos, o processamento se dá em servidores remotos e não no equipamento do usuário (como seus smartphones), o avanço das telecomunicações também é essencial.

Em maio de 2018, uma demonstração no Google I/O, congresso mundial de desenvolvedores da empresa, deixou muita gente de boca aberta. Tratava-se de uma evolução do Google Now, batizado de Google Duplex, que, por telefone e diante de todos, marcou um corte de cabelo e fez uma reserva em um restaurante, sem que os atendentes dos estabelecimentos se dessem conta que estavam falando com uma máquina. A linguagem natural usada pelo sistema era tão perfeita, que muitas pessoas duvidaram que aquilo seria real, apesar de a empresa afirmar categoricamente que sim. Em alguns casos, o sistema parecia falar melhor que os próprios interlocutores humanos com quem estava interagindo por telefone.

Em fevereiro de 2019, a IBM promoveu um debate público sobre educação entre seu sistema de IA Project Debater e o debatedor profissional Harish Natarajan. Apesar da natureza totalmente aberta do tema, para muita gente o sistema foi melhor que o ser humano.

A IBM, aliás, tem história em colocar seus sistemas de IA em confronto com pessoas. Nos anos 1990, seu supercomputador Deep Blue jogou xadrez com o então campeão mundial Garry Kasparov, em dois matches de seis partidas cada. O primeiro foi vencido por Kasparov e o segundo pelo Deep Blue. O campeão chegou a acusar a máquina de manipulação fraudulenta após ser derrotado.

A máquina tem ética?

O fato é que esses sistemas, cada vez mais parecidos com seres humanos em suas interações, são capazes de processar muito mais informações que nós, e têm acesso a muito mais dados do que qualquer ser humano. Isso levanta algumas questões éticas importantes: diante disso tudo, as máquinas poderiam se tornar capazes de nos convencer de qualquer coisa, muito além do que outra pessoa faria?

Afinal, se o nosso interlocutor parece ter o argumento definitivo para contrapor qualquer coisa que digamos, ele está em uma condição claramente vantajosa. Os computadores já têm isso há algum tempo, mas seu diferencial no convencimento desaparece diante do fato de que as interações não são naturais. Em outras palavras, subimos automaticamente nossas defesas para não sermos enganados por uma máquina.

Entretanto, diante dessa nova realidade em que nos encontramos, isso pode deixar de existir. O Google Duplex demonstrou que, por telefone, já não haveria como diferenciar as falas de uma máquina das de uma pessoa.  E quando isso acontecer também presencialmente, com robôs simulando convincentemente os corpos humanos?

O assunto é abordado exaustivamente pela ficção científica. Minha lembrança mais antiga disso é do primeiro “Blade Runner”, de 1982, com seus “replicantes”, robôs tão humanos que alguns nem sabiam da sua natureza artificial, achando que eram pessoas. Como dizia o slogan de seu fabricante, eram “mais humano(s) que o humano”.

Mais recentemente, o episódio “Volto Já”, o primeiro da segunda temporada (de 2013) da série “Black Mirror”, reacendeu o debate, quando a protagonista contrata o serviço de uma empresa que cria robôs capazes de simular o corpo e a mente de entes queridos falecidos. No caso da personagem, ela quase embarca na fantasia de que aquela máquina era seu marido morto. Só não fez isso porque o sistema, afinal, não conseguiu captar as sutilezas de sua personalidade.

Mas e se conseguisse? Ela teria se deixado enganar por aquela ilusão cibernética cuidadosamente elaborada? E, caso assim fizesse, ela poderia ser julgada por isso? Afinal, a máquina seria uma cópia praticamente fiel de seu finado esposo, e serviria para lhe aplacar a dor da perda.

O fato é que podemos estar muito perto de sistemas que sejam capazes de nos iludir e até mesmo manipular para atingir os objetivos de seus fabricantes, por terem sempre os melhores argumentos e se comportarem e parecerem com seres humanos. A máquina não tem ética e nem pode ser culpada se fizer algo que contrarie o que achemos correto. Quem precisa cuidar disso é seu fabricante.

Do nosso lado, precisamos ter esse debate sempre em dia, para que tenhamos esses recursos da tecnologia a nosso favor, tornando nossa vida mais produtiva, fácil, divertida. Podemos, sim, ser iludidos pelas máquinas, desde que seja o que deliberadamente queiramos, por mais que isso possa parecer paradoxal.


E aí? Vamos participar do debate? Role até o fim da página e deixe seu comentário. Essa troca é fundamental para a sociedade.


Artigos relacionados: