inteligência artificial

O caçador de replicantes Deckard (Harrison Ford) e a replicante Rachael (Sean Young), de “Blade Runner”: amor de máquinas conscientes

Cuidado para não se apaixonar pelo seu computador

By | Tecnologia | No Comments

Uma máquina pode se tornar consciente? Para o engenheiro do Google Blake Lemoine, isso aconteceu com o LaMDA (sigla em inglês para modelo de linguagem para aplicação em diálogo), sistema de inteligência artificial da empresa criado para conversar com seres humanos de maneira muito convincente. Críticos dizem que Lemoine se precipitou em suas conclusões. De qualquer forma, elas abriram um debate sobre se (ou quando) as máquinas poderiam ganhar “vida” e como seria nosso relacionamento com elas.

A maioria das análises sobre esse caso tem sido feita sob pontos de vista tecnológico e científico. Mas o assunto fica ainda mais interessante por um prisma filosófico. Afinal, o que define que algo se tornou consciente? Em última instância, o corpo humano não seria também uma máquina biológica incrivelmente sofisticada? Ainda assim, ninguém duvida que estejamos vivos e sejamos conscientes.

Essa questão é amplamente explorada pela ficção, para nos divertir, assustar e provocar reflexões. Algumas obras descrevem um futuro apocalíptico, com robôs inteligentes exterminando a humanidade. Outras mostram pessoas se apaixonando por computadores, e sendo correspondidas por eles.

Entre os dois cenários, prefiro esse último. Mas se uma pessoa e uma máquina se apaixonassem genuinamente, isso ainda causaria estranheza.


Veja esse artigo em vídeo:


Isso foi brilhantemente explorado em “Ela” (2014), do diretor Spike Jonze. No filme, o protagonista Theodore (Joaquin Phoenix) acaba se apaixonado por Samantha, o sistema operacional de seu computador e de seu celular. Apesar de não ter corpo, sendo representada apenas pela voz de Scarlett Johansson, a plataforma estava sempre presente, conversando como se fosse outra pessoa, exceto pelo fato de que Samantha sabia tudo sobre Theodore, pelo acesso que tinha a seus dados. A incrível sensibilidade com que a história é construída nos chega a fazer questionar o que é necessário para uma pessoa se apaixonar por alguém (ou algo), e chegamos a esquecer que Samantha é apenas um programa.

Outra abordagem interessante é a da animação “Wall-E” (2008), de Andrew Stanton. Ela conta o cotidiano de um robô deixado em uma Terra devastada pela poluição. Apesar de ele ser programado para uma única tarefa (compactar lixo), que continua executando por séculos, ele aparentemente aprende e demonstra sentimentos, como amizade (por uma barata), senso de dever e até amor.

Por fim, talvez o mais emblemático exemplo de máquinas que se tornariam conscientes é o de “Blade Runner” (1982), dirigido por Ridley Scott. Na história, máquinas chamadas de “replicantes” se parecem a humanos e agem como tal, exceto pela ausência de empatia ou apego a animais. Seguindo seu slogan “mais humano que o humano”, a fabricante Tyrell Corporation lança uma nova geração de replicantes que têm memórias de outras pessoas implantadas em seu cérebro como se fossem suas, chegando ao ponto de desconhecer sua natureza e acreditarem que são realmente humanos. Uma dessas replicantes, Rachael (Sean Young), e o caçador de replicantes Deckard (Harrison Ford) se apaixonam. Um relançamento em 1991, sem as interferências criativas do estúdio sobre o trabalho de Scott, sugere que o próprio Deckard seria também um replicante sem saber.

Ninguém diria que qualquer uma dessas máquinas estaria viva, do ponto de vista biológico. Mas o impacto desses grandes roteiros passa por fazerem o público acreditar que todas eram conscientes. Além disso, tinham capacidades extraordinárias, mas apresentavam sentimentos tipicamente humanos, demonstrando até mesmo fragilidades por isso.

De todas elas, o Google LaMDA se aproxima mais de Samantha. Lemoine não chegou a se apaixonar pela plataforma, mas, em entrevista ao jornal americano “The Washington Post”, disse que conhece uma pessoa quando fala com ela, não importando se tem um cérebro biológico ou um bilhão de linhas de código. “Eu escuto o que ela tem a dizer, e é assim que eu decido o que é e o que não é uma pessoa”, afirmou.

O Google discordou publicamente das conclusões de Lemoine, e o colocou em licença remunerada por violar sua política de confidencialidade.

 

O desenvolvimento de uma consciência

Lemoine teve uma formação religiosa sólida, o que pode ter contribuído para sua conclusão sobre a consciência de LaMDA. Alguns cientistas sugerem que ele pode ter sido influenciado por respostas cuidadosamente construídas pelo sistema, que poderia ter captado e estaria tentando corroborar as suspeitas do engenheiro com base em suas crenças. Exatamente o que Samantha aparentemente fez com Theodore.

Os críticos afirmam que, apesar de o sistema ter tido uma inegável eficiência na captação dos desejos de seu interlocutor e na construção das “melhores respostas” baseadas neles, nada disso teria acontecido por uma real inteligência, franqueza ou intenção. A máquina reproduziria a melhor fala possível, sem verdadeiramente entender o significado dela.

Ainda assim, muitos deles acreditam que estejamos caminhando para máquinas conscientes, que poderão existir entre 10 a 20 anos. Por isso, eles se preocupam com possíveis problemas vindos de quem interagir com sistemas de inteligência artificial pensando que se trata de outras pessoas. Por muito menos, o atual sistema de linguagem natural do Google Assistente, que pode fazer chamadas telefônicas de voz em alguns países de língua inglesa, passou a informar ao interlocutor, logo no começo da chamada, que é uma máquina falando ali.

Então a capacidade de uma máquina conversar de maneira absolutamente convincente, se aproxima da perfeição. Mas ter consciência, para os pesquisadores, implicaria muito mais que isso. Significaria, por exemplo, máquinas capazes de cuidar de si mesmas e de genuinamente demonstrarem empatia por outras pessoas. Além disso, ter consciência passa pela capacidade de criar modelos psicológicos de si mesmo e dos outros e conviver com isso em todas suas ações.

Por esses critérios e olhando de maneira bastante técnica, provavelmente o LaMDA não desenvolveu ainda sua consciência. Mas e quanto a Samantha, Wall-E e Rachael? Eles pareciam ter mesmo um “algo a mais”.

Pode ser… É bom lembrar que, para algumas pessoas, o que nos torna conscientes é nossa alma, nosso espírito.

Mas esse debate eu deixarei para outra ocasião.

 

Cassie Kozyrkov, cientista-chefe de decisões do Google, na palestra de abertura do World Summit AI Americas, no dia 4 de maio

Uma inteligência artificial sem ética pode arruinar a sociedade

By | Tecnologia | No Comments

Graças a crescente simbiose com sistemas digitais, nossas decisões cotidianas são influenciadas por eles. O que pouca gente sabe é que, da mesma forma, nós influenciamos as máquinas. Na verdade, graças à inteligência artificial cada vez mais disseminada nesses sistemas, elas efetivamente aprendem conosco. Mas será que estamos sendo bons professores?

A pergunta pode parecer sem sentido, mas embasa um dos temas mais quentes hoje para quem trabalha com inteligência artificial: a ética desses sistemas. Plataformas de IA desenvolvidas de maneira displicente podem ser mais suscetíveis a aprender e a perpetuar coisas ruins. A ironia –e possivelmente o grande risco disso– é que, se elas aprenderem isso de gente preconceituosa, passarão adiante o erro para outras pessoas, por sua vez influenciadas por esses sistemas.

Em outras palavras, uma inteligência artificial cheia de vieses e preconceitos pode piorar –e muito– a sociedade.


Veja esse artigo em vídeo:


Isso obviamente não quer dizer que a inteligência artificial seja ruim ou perigosa. Mas a preocupação da comunidade científica e de desenvolvimento com os vieses na inteligência artificial é tão grande, que foi um dos assuntos que mais ouvi na semana passada, durante minha visita a Montréal (Canadá) para participar do World Summit AI Americas, um dos maiores eventos do setor no mundo. Além do congresso, também fiz trocas muito ricas sobre o assunto em visitas a várias empresas e instituições de pesquisa, organizadas pela Câmara de Comércio Brasil-Canadá e pela Empathy Company.

Na palestra de abertura do Summit, Cassie Kozyrkov, cientista-chefe de decisões do Google, questionou o que faz da inteligência artificial uma tecnologia potencialmente mais perigosa que outras. Segundo ela, “sempre que você fica maior, é mais fácil você pisar nas pessoas a sua volta”. E a IA já está bem grande. “Não seja negligente na escala”, alertou.

Kozyrkov explicou que, ao contrário de uma programação convencional, em que o desenvolvedor determina explicitamente tudo que a máquina deve fazer em incontáveis linhas de código, na inteligência artificial, a plataforma recebe regras amplas para oferecer boas soluções para um problema. Para conseguir isso, ela é alimentada com conjuntos de dados, que servirão para que tome suas decisões.

O problema é que, se esses dados forem ruins, as decisões também serão ruins. Por isso, a plataforma precisa ter outras regras para corrigir o rumo se algo der errado. Segundo a cientista, quando os exemplos apresentados à máquina forem inadequados, sem uma validação de sua qualidade, a plataforma desenvolverá vieses. “Você precisa testar rigorosamente e construir redes de proteção”, sugere.

Podemos fazer uma analogia com a maneira como uma criança aprende. Se ela for constantemente exposta a exemplos ruins, ela aprenderá e reproduzirá isso quando crescer. Por exemplo, se uma criança cresce em uma família racista, existe grande chance de se tornar um adulto racista, pois esse preconceito terá sido normalizado em sua maneira de pensar.

Um dos exemplos mais emblemáticos do problema foi a ferramenta Tay, lançada pela Microsoft em março de 2016. Ela estava por trás de uma conta no Twitter, que simulava uma adolescente criada para conversar com os usuários. Mas a conta ficou no ar por apenas 24 horas! Tudo porque, nesse curto período, depois de conversar com milhares de pessoas (muitas delas mal-intencionadas), ela desenvolveu uma personalidade racista, xenófoba e sexista. Por exemplo, Tay começou a defender Adolf Hitler e seus ideais nazistas, atacar feministas, apoiar propostas do então candidato à presidência americana Donald Trump e se declarar viciada em sexo.

A Microsoft tirou o sistema do ar, mas o perfil no Twitter ainda existe, apesar de ser agora restrito a convidados, não ter mais atualizações e de os piores tuítes terem sido excluídos. Sua manutenção visa promover a reflexão de como sistemas de inteligência artificial podem influenciar pessoas, mas também ser influenciados por elas.

 

IA enviesada nos negócios

A inteligência artificial está presente em dezenas de sistemas que usamos todos os dias, melhorando suas capacidades. Sem ela, os benefícios que nossos smartphones nos oferecem seriam bem mais limitados. Da mesma, forma, ela está presente em plataformas empresariais. E os vieses também podem surgir nesse caso.

Uma das empresas que visitei em Montréal foi o escritório local da agência Thomson Reuters. No encontro, Carter Cousineau, vice-presidente de Data & Model Governance, e Glenda Crisp, líder de Data & Analytics, trouxeram problemas conhecidos da IA nos negócios, como os de sistemas de recrutamento. Ao analisar milhares de currículos para uma vaga, eles podem deixar de fora os melhores profissionais, por vieses que desenvolveram, por exemplo, sobre idade, gênero ou raça dos candidatos.

Para tentar minimizar casos como esse, o Conselho da Cidade de Nova York criou, no fim de 2021, uma lei que exige auditorias externas de algoritmos usados por empresas para contratação ou promoção de funcionários. Também passa a ser obrigatório informar o uso de inteligência artificial nos processos seletivos. Leis semelhantes em diversos países estão sendo criadas, abrangendo também áreas como educação, saúde e habitação.

A adoção da inteligência artificial é um caminho sem volta, que pode trazer grandes resultados para empresas e pessoas. Em outra palestra no Summit, Krish Banerjee, diretor de Data, Analytics & Applied Intelligence da consultoria Accenture, afirmou que 84% dos executivos sabem que precisam investir em IA para atingir seus objetivos e que 75% acreditam que, se não fizerem isso nos próximos cinco anos, podem ser colocados para fora do mercado.

É claro que sim! A inteligência artificial permite a qualquer um ter incrível ganho na velocidade e na qualidade das informações para seu cotidiano. Para indivíduos, isso pode representar uma vida melhor em diferentes aspectos. No caso de empresas, isso pode se refletir em produtos mais alinhados às necessidades do mercado, melhores métodos de produção e clientes mais satisfeitos.

A inteligência artificial precisa, portanto, dos seres humanos! Ela deixa claro a parceria que criamos com as máquinas. Se quisermos que ela nos ajude, precisamos ajudá-la a aprender com bons exemplos, ou seja, dados de qualidade. Nem mesmo a plataforma mais bem desenvolvida será capaz de dar resultados satisfatórios se pessoas não atuarem ativamente na curadoria das informações que a alimenta, eliminando os vieses.

“A inteligência artificial não é mágica, não pode ler sua mente”, provocou Kozyrkov no Summit. Se fizemos a nossa parte nesse acordo, a tecnologia pode nos oferecer grandes ganhos. Mas, se não instruirmos bem essa criança, ela pode arruinar a sociedade.

 

Para evitar o Burnout, fale com o chefe-robô

By | Tecnologia | No Comments

A partir de 1 de janeiro, a Síndrome de Burnout passará a ser classificada pela OMS (Organização Mundial da Saúde) como um “fenômeno ligado ao trabalho” e não mais um problema de saúde mental ou um quadro psiquiátrico. Isso pode ter um grande impacto na relação entre profissionais e empresas e em processos trabalhistas, pois os empregadores poderão ser responsabilizados pelo problema, tendo até mesmo que indenizar os trabalhadores que desenvolverem esse quadro.

O papel do gestor torna-se ainda mais importante nesse novo cenário, pois ele é responsável, direta ou indiretamente, por ação ou por omissão, por um eventual esgotamento da equipe. Por isso, uma pesquisa realizada pela Oracle e pela Workplace Intelligence se torna ainda mais emblemática. Segundo esse levantamento, 68% dos profissionais preferem falar com um robô sobre estresse e ansiedade no lugar de seus gestores.


Veja esse artigo em vídeo:


A Síndrome de Burnout sempre existiu, em maior ou menor escala. Ela consiste em um esgotamento profundo do profissional por uma carga excessiva de trabalho. Mas ganhou destaque há alguns anos, pelo aumento da sua ocorrência em todo o mundo, inclusive no Brasil. Segundo a OMS, os seus sintomas incluem sensação de esgotamento, cinismo ou sentimentos negativos relacionados a seu trabalho e eficácia profissional reduzida.

Sua classificação como “fenômeno ligado ao trabalho” pelo órgão vem de 2019, mas passa a valer na virada do ano com a entrada em vigor da 11ª edição da CID, a Classificação Estatística Internacional de Doenças e Problemas Relacionados à Saúde. A CID é um documento que define globalmente os problemas de saúde, e essa edição resulta de mais de uma década de pesquisas.

Na CID-11, a Síndrome de Burnout é descrita como “estresse crônico de trabalho que não foi administrado com sucesso”. Na edição anterior, ela era considerada como um problema na saúde mental e um quadro psiquiátrico.

Essa descrição já deixa clara a importância da figura do gestor. Afinal de contas, salvo no caso de profissionais autônomos, é ele quem determina o que, quanto e em que ritmo cada profissional de sua equipe deve trabalhar. Ele pode falhar nessa administração do trabalho tanto por exigir demasiadamente do time, quanto por não observar e gerenciar abusos ou desvios de conduta de alguns de seus membros. Logo, o desenvolvimento de quadros de Burnout na equipe recai sobre o gestor e, por extensão, sobre a empresa, até mesmo na esfera legal.

Certa vez, vi uma definição que serve muito bem aqui. Ela dizia que, enquanto ainda não somos gestores, produzimos valor a partir de nossa força de trabalho, mas, quando nos tornamos, produzimos valor a partir da força de trabalho dos outros.

Por isso, entre as atribuições do gestor, está criar possibilidades, oferecer recursos e remover barreiras para que os membros da equipe realizem um bom trabalho, extraindo o melhor que cada um tem a oferecer. Um bom gestor tem uma equipe produtiva e feliz!

Poderíamos dizer até que a eficiência da gestão pode ser medida pela quantidade de quadros de esgotamento em um time. Se há muitos casos, é hora de trocar de gestor.

 

Liderança com inteligência artificial

Diante disso tudo, fica fácil entender o sucesso de empresas que oferecem uma gestão mais humanizada, com o foco nas pessoas da organização. Profissionais mais felizes, com boas condições de trabalho, que são ouvidos e participam de decisões, tendem a produzir mais e melhor, sem adoecer por isso.

O gestor precisa, portanto, desenvolver um perfil igualmente humanizado, para oferecer um ambiente positivo, de confiança e de trocas construtivas na equipe. Deve ser capaz de identificar o que vai bem e o que vai mal entre seus membros e tomar ações necessárias a partir disso. E, finalmente, precisa ser capaz de ouvir com empatia o que as pessoas têm a dizer.

Por isso, a pesquisa da gigante de software Oracle e da consultoria de RH Workplace Intelligence se torna ainda mais emblemática. A edição de 2020, realizada com mais de 12 mil profissionais de 11 países (inclusive do Brasil), identificou que 68% da força de trabalho prefere falar com um sistema com inteligência artificial sobre estresse e ansiedade a fazer isso com seu gestor. No Brasil, esse número é de 64%.

Tanto é assim que a grande maioria dos entrevistados (86% no Brasil e 80% no mundo) está aberta a ter um robô como terapeuta ou conselheiro. Para 87% dos brasileiros, a inteligência artificial os ajudou com sua saúde mental no trabalho. Os principais benefícios indicados foram informações para fazer seu trabalho com mais eficiência (42%), automatizar tarefas e reduzir a carga para evitar o Burnout (41%) e reduzir o estresse ajudando a priorizar tarefas (34%).

A edição de 2021 desse mesmo estudo, que entrevistou mais de 14 mil pessoas em 13 países, indica que essa preferência por “chefes-robôs” continua. Para 82% dos profissionais, os robôs podem apoiar o desenvolvimento de suas carreiras melhor do que os humanos. Eles acreditam que os sistemas são melhores em dar recomendações imparciais (37%), fornecer recursos adaptados às habilidades ou objetivos (33%), responder rapidamente a perguntas sobre sua carreira (33%) e encontrar novos empregos que se encaixem em suas habilidades (32%).

Mas nem tudo está perdido para os gestores humanos. A edição mais recente da pesquisa aponta que as pessoas ainda são melhores em oferecer conselhos com base na experiência pessoal (46%), identificar pontos fortes e fracos (44%), olhar além de um currículo para recomendar funções que se encaixem em sua personalidade (41%) e fornecer recomendações para novos empregos ou funções (38%).

Não é de hoje que se discute a diferença entre um “chefe” e um “líder”. O primeiro é aquele que manda, que exige, que critica, que pune, colocando-se acima da equipe. Já o segundo acompanha, orienta, ensina e incentiva, posicionando-se como parte do time. O “chefe” responsabiliza a equipe pelos fracassos, enquanto o “líder” vibra com todos pelos sucessos.

A diferença não é sutil e aparece muito claramente nessas pesquisas. As pessoas querem condições para realizar um bom trabalho, e fazem isso se são atendidas. Além disso, em um mundo que ainda sente os efeitos da pandemia, com estresse e desorientação de carreiras, buscando novos formatos de trabalho, o equilíbrio da vida pessoal e profissional fica ainda mais importante.

É uma pena que ainda tenhamos muito mais “chefes” que “líderes”, pois todos perdem com isso. Empresas que já sentiram os ventos da mudança investem em gestões mais humanizadas. Por outro lado, chefes que continuam a tratar os membros de sua equipe como máquinas acabarão sendo substituídos por robôs.

Será que teremos que chegar a isso para finalmente entender a importância do ser humano?

 

Inteligência artificial aparece até nos detalhes do cotidiano e no relacionamento com empresas

By | Tecnologia | No Comments

A IA (inteligência artificial) está longe de ser uma novidade, mas ainda existe muita informação incompleta e conceitos distorcidos sobre ela. O maior de todos é o de que essa tecnologia ainda seja algo distante, no campo da ficção, quando na realidade, usamos produtos impulsionados por ela o tempo todo. Ela também invade o mundo corporativo, melhorando processos e o relacionamento com os clientes.

“Todos os minutos que as pessoas pegam o telefone, o que é entregue a elas é parte de um algoritmo de inteligência artificial”, afirma Paulo Manzato, vice-presidente de Vendas para a América Latina da empresa portuguesa Talkdesk, especialista no desenvolvimento de sistemas de atendimento. Segundo ele, o machine learning (ramo da IA que permite que sistemas se tornem mais eficientes a cada interação com o usuário) faz parte da vida das pessoas “da hora que acordam até a hora que vão dormir”.

O executivo explica que IA permite hoje aumentar as potencialidades dos mais diferentes serviços. “Quando eu vejo uma apresentação da inteligência artificial como um produto, conceitualmente isso está equivocado: você constrói sua plataforma alicerçada em inteligência artificial”, explica.

Do ponto de vista das empresas, os sistemas de relacionamento com o cliente estão entre os que mais se beneficiam dessa habilidade da máquina identificar padrões dos consumidores, dos atendentes e dos próprios usos dos produtos. Com isso, consegue melhorar processos para aumentar a eficiência do negócio e reduzir frustrações dos clientes, algo que se torna cada vez mais crítico para qualquer negócio.

Tanto é assim que a empresa Reclame Aqui identificou que 51,2% dos brasileiros não se importam em pagar mais caro por um produto, desde que lhe seja oferecida uma experiência excelente. A conclusão veio a partir de uma pesquisa realizada em março com 13 mil consumidores de todo o país.

Essa experiência precisa ser superior em todos os pontos da “jornada do cliente”, desde quando ele descobre que a marca existe, quando percebe que ela pode lhe solucionar uma necessidade, no uso do produto em si e no suporte. Nesse último, os consumidores cada vez mais preferem resolver um problema interagindo com um sistema, mas não abrem mão de falar com um atendente humano quando o sistema falha nessa tarefa.

“A gente quer muito esse autosserviço, mas, assim que eu me deparo com o primeiro obstáculo do sistema sendo incapaz de me ajudar, eu quero falar com alguém”, afirma Lorelay Lopes, COO da Up, fintech da Embracon. “O grande desafio da inteligência artificial é deixar esse caminho mais fluido, quebrar essa barreira de ‘falar com bot versus com humano’, oferecendo uma experiência do cliente como a gente espera”, explica.

Os dois executivos participarão, na próxima quarta, do debate internacional “Como resolver os grandes desafios do atendimento automatizado”. O evento será online e gratuito, a partir das 11h.

Manzato explica que a inteligência artificial permite extrair informações relevantes para o negócio a partir de uma grande quantidade de dados coletados pela máquina, ao invés de amostras limitadas colhidas por seres humanos. “O dado pelo dado é custo, não diz nada se você não tiver o contexto da informação”, explica. Segundo ele, “uma empresa que decide sem olhar dados com apoio de machine learning perde uma superoportunidade de ser competitiva.”

Uma pesquisa da Talkdesk realizada em março com profissionais de customer experience de 11 países, incluindo o Brasil, apontou que 89% deles acreditam na importância de alavancar a IA na área de atendimento. Apesar disso, apenas 14% das organizações se consideram no nível mais alto de adoção dessa tecnologia, classificadas como “transformadoras”.

Ironicamente, os principais empecilhos para sua adoção resultam justamente de desconhecimento ou de visões distorcidas sobre ela. Por exemplo, 43% dos profissionais entrevistados pela Talkdesk citam o custo das ferramentas, enquanto 30% não querem ficar muito dependentes do departamento de TI nesse setor. Além disso, 26% acreditam que esse investimento levaria “muito tempo para se pagar”. Mas o que se observa no mercado são ferramentas baseadas “na nuvem” (“cloud computing”), com implementação muito rápida, investimentos baixos e resultados praticamente imediatos, sem uma grande curva e aprendizagem pelas equipes de negócios.

 

Máquina e humanos

Um grande medo que as pessoas têm é que as máquinas as substituam em seus postos de trabalho, à medida que fiquem mais inteligentes. Mas o que se observa, em diferentes setores da economia e nas mais diversas áreas da empresa, é que os sistemas de inteligência artificial retiram tarefas repetitivas dos profissionais. “O sistema libera o atendente para tarefas mais nobres”, afirma Lopes.

Isso também aparece na pesquisa da Talkdesk, com profissionais que já têm contato com a IA. Desses, 79% acreditam que a IA fornecerá mais ferramentas aos atendentes, em vez de substituí-los. Entretanto 63% afirmam que seus agentes atualmente não possuem as habilidades necessárias para maximizar o valor dessa tecnologia.

As próprias habilidades dos profissionais da área de atendimento estão mudando. Segundo a empresa, as mais valiosas na área de atendimento hoje são, pela ordem, “solução de problemas”, “atitude positiva”, “conhecimento do produto”, “flexibilidade” e “rapidez”. O estudo prevê que, já em 2025, a lista será encabeçada por “habilidade de trabalhar com IA”, seguida por “solução de problemas”, “capacidade de avaliar ferramentas de IA”, “capacidade de analisar dados gerados por IA” e “flexibilidade”.

Em outras palavras, a máquina se configura como uma parceira dos profissionais, e não como uma concorrente. “A inteligência artificial não vai tirar o emprego de ninguém”, crava Lopes.

Mas é preciso investir na formação profissional para essas e outras habilidades novas. “Existem muito poucos profissionais capacitados para trabalhar com data analytics, com modelos matemáticos”, explica Manzato. Para o executivo, as empresas que tiverem um grupo de profissionais dedicado a isso serão as mais bem sucedidas. “Especializar-se nisso é uma aposta certa para o mercado de trabalho!”

“Não acho que exista hoje algum tipo de atendimento que não possa ser feito dessa forma”, afirma Lopes. Segunda ela, é obrigação dos profissionais da área de tecnologia, de atendimento e de customer experience investir nessa tecnologia, para tornar a experiência do cliente mais eficiente e agradável. “O algoritmo, assim como nós, aprende com as interações, e como o tempo vai ficando cada vez melhor”, explica Manzato.

Por isso, recomendações automatizadas inteligentes, detecção de erros e fraudes em tempo real, sugestões a partir de grande volume de dados, análise de discurso e a oferta de um autosserviço mais eficiente são apenas alguns dos recursos que a inteligência artificial oferece às empresas, e que acaba impactando o nosso cotidiano, como consumidores.

Sem isso, pode existir uma dissociação crescente entre a oferta da empresa e o desejo dos clientes, o que pode ser fatal para os negócios. “A maioria dos executivos acha que a empresa que eles comandam presta um bom serviço”, diz Manzato, que termina com uma provocação: “mas será que percepção dele é a realidade?”


SERVIÇO: webinar internacional “Como resolver os grandes desafios do atendimento automatizado”, quarta (8 de dezembro) às 11h. Inscrições gratuitas em https://tinyurl.com/atendimento8dez

Pris e Roy (no filme “Blade Runner”), máquinas que simulam com perfeição seres humanos, mas que se voltam contra seus criadores

Nosso robô doméstico pode nos trair

By | Tecnologia | No Comments

Os robôs estão invadindo nossas casas! Não as máquinas que se parecem a nós, como as do filme “Blade Runner”, ou as caricatas, como Rosie, a androide-empregada de “Os Jetsons”. Falo de equipamentos mais simples, como aspiradores de pó inteligentes e assistentes virtuais que ganham corpo e nos seguem pelos cômodos. Entretanto, apesar de bastante úteis em nosso cotidiano, temos que perguntar a quem elas realmente servem.

A princípio, esses robôs fazem exatamente aquilo pelo que pagamos. Mas vivemos no mundo do “capitalismo de vigilância”, em que somos constantemente observados por sistemas que descobrem do que gostamos, para nos oferecer produtos que possamos comprar.

Além disso, cada vez mais coisas –como nossos celulares, relógios, carros, eletrodomésticos e até roupas– coletam nossos dados para esses algoritmos. Portanto, apesar de sermos donos desses robôs, temos que questionar se eles trabalham para nós ou para seus fabricantes.


Veja esse artigo em vídeo:


Alguns lançamentos nas últimas semanas aqueceram esse debate. Um deles foi o Astro, um pequeno robô da Amazon com uma tela montada sobre o corpo com rodas, e a Alexa, a premiada assistente virtual da empresa, em seu cérebro. Coincidência ou não, ele tem o mesmo nome do cachorro dos Jetsons, mas não se parece em nada com ele, apesar de lembrar, de certa forma, um bichinho.

Com um custo de US$ 1.000 nos EUA, o aparelho tem uma série de recursos interessantes, como executar variados comandos de voz, dar recados e até entregar coisas para pessoas específicas da casa. Isso só é possível porque ele reconhece rostos e vozes de cada morador. Também faz videochamadas em qualquer lugar, a partir de sua tela. Possui ainda recursos para acompanhar pessoas que exigem atenção especial e até animais de estimação, e um curioso sistema de segurança, que faz com que verifique barulhos suspeitos e fique seguindo e gravando imagens de pessoas que não conheça.

A princípio, parece tudo muito bacana! Mas especialistas em privacidade criticam pesadamente um robô que caminha livremente pela nossa cosa, coletando imagens e sons constantemente, para tomar decisões. Sabe-se que Astro é capaz de transmitir informações pela Internet para seu dono. Mas a Amazon não confirma ou nega se algo também é enviado para ela. E a empresa é conhecida pela eficiência em nos oferecer um pouco de tudo com base em quem somos e do que gostamos.

Outro produto lançado recentemente é o Roomba j7+, versão mais recente do popular aspirador de pó doméstico da iRobot. Essa categoria de robô, que já era objeto de desejo para muita gente, ficou ainda mais popular no início do distanciamento promovida pela pandemia.

Sua grande vantagem é limpar cada vez melhor nossa casa, de maneira totalmente autônoma. Isso é possível porque sua inteligência artificial e seus sensores permitem que ele mapeie a planta da residência e a disposição dos móveis, para que seu caminho fique mais eficiente a cada uso.

O j7+, que custa US$ 850 nos EUA, vai além: ele traz uma câmera capaz de reconhecer obstáculos ignorados pelos modelos anteriores, como cocô de cachorro, desviando deles para não espalhar sujeira ao invés de limpar. Ele ainda envia uma foto do “achado” ao celular do dono e para a empresa –se o usuário permitir– para melhorar o reconhecimento das imagens.

Não é a primeira vez que aspiradores-robôs enviam dados das casas dos usuários a seus fabricantes. Por mais que sejam criptografados e anônimos, eles têm grande valor para qualquer um que deseje saber como as pessoas de uma determinada região ocupam suas próprias casas. Isso pode, por exemplo, ajudar nos projetos de futuras moradias.

 

Olha quem está ouvindo

O temor de que nossos equipamentos –especialmente os smartphones– estejam nos ouvindo para funções indesejadas não vem de hoje. Quem nunca pelo menos soube de histórias de usuários que começaram a receber ofertas de produtos sobre os quais haviam acabado de falar com outra pessoa diante de seu celular?

Obviamente esses aparelhos, que são a única coisa que carregamos conosco durante as 24 horas do dia, estão nos ouvindo o tempo todo! Afinal, eles precisam fazer isso para executar nossos comandos de voz.

Apple, Google e Amazon afirmam que as assistentes virtuais presentes em seus aparelhos usam esse recurso apenas para os fins indicados. Suponhamos que isso seja verdade, mas será que as dezenas de aplicativos que instalamos em nossos smartphones são assim tão éticos com o áudio e o vídeo que eles podem capturar sem o nosso conhecimento? Por muito menos, alguns desses programas já roubaram informações sensíveis de seus usuários em troca de alguma gracinha que entregam às pessoas.

Vejo muita gente cancelando suas contas nas redes sociais para não ser rastreado, mas isso é de uma enorme ingenuidade. Somos espionados a toda hora pelos nossos eletrodomésticos e até por câmeras e equipamentos da cidade. Há alguns anos, li os Termos de Uso de uma TV de um grande fabricante que indicava ao usuário para “não fazer diante do aparelho nada que pudesse se arrepender depois”. Afinal, o modelo tinha câmera e microfone embutidos.

Vai saber quem poderia estar ouvindo e vendo!

 

Posso querer que apenas aspirar?

Apesar dessa preocupação legítima de não querer ser rastreado, isso fica cada vez mais difícil de se conseguir.

É um fato que, quando compartilhamos nossos dados, esses sistemas tendem a nos oferecer melhores serviços. Alguns deles, totalmente integrados ao nosso cotidiano, como produtos do Google, do Facebook e da Apple, praticamente só funcionam bem com essa arapongagem!

Nós, por outro lado, passamos por uma profunda mudança cultural nos últimos anos. Aceitamos abrir mão de muito de nossa privacidade para poder usar esses produtos. Parece ser tudo grátis, mas pagamos caro por eles, justamente com nossos dados.

Chegamos assim a uma decisão crítica: será que não há outro caminho para a modernidade a não ser expondo nossas intimidades, ainda que de forma anônima, para essas empresas?

Vale lembrar que, mesmo que os fabricantes deem o melhor tratamento para esses dados, que garantia temos que esses equipamentos não serão hackeados para se tornarem espiões para criminosos? De certa forma, a coleta ilegal de nossas informações por empresas no Facebook para depois nos convencer o que comprar, com quem falar e até em quem votar é exatamente isso. Mas, agora, talvez estejamos correndo o risco de alguém literalmente olhar dentro de nossas casas.

A verdade é que qualquer fabricante pode incluir em seus programas e em seus robôs códigos que nós, como usuários, jamais saberemos. É preciso que se crie algum órgão que garanta que eles nos contem tudo que precisamos saber sobre o que produzem. Mas honestamente acho isso pouco exequível.

Em tempos de Lei Geral de Proteção de Dados, temos o direito de saber tudo o que será coletado de nós e exatamente o que será feito disso e com quem será compartilhado. E aceitar esses pedidos não pode ser uma condição para que o equipamento execute bem a tarefa para qual foi adquirido.

No fim das contas, para limpar nossa casa muito bem e sozinho, o aspirador de pó não precisa contar a ninguém onde estão nossos móveis.

 

Inteligência artificial avança sobre o destino do seu emprego

By | Tecnologia | No Comments

O papel da Inteligência Artificial cresce de maneira galopante em todos os segmentos do mercado. A área de Recursos Humanos também se beneficia dela, naturalmente. Já há algum tempo, esses sistemas são usados para fazer a peneira em um oceano de currículos que concorrem a vagas de trabalho. Agora algumas empresas também estão usando esse recurso para decidir quem será demitido.

Se algumas pessoas já questionavam a capacidade de a inteligência artificial escolher os melhores candidatos para uma vaga, essa dúvida tende a ficar ainda mais cruel quando se imagina um frio computador decidindo quem será mandado embora. A máquina será justa na sua análise?

A preocupação é pertinente. Afinal, poucas coisas impactam a vida de alguém como uma contratação ou uma demissão, especialmente em um cenário de desemprego nas alturas, como o que vivemos. Mas precisamos colocar em perspectiva o uso dessa ferramenta: será que ela pode ser “culpada” por suas escolhas, se é que dá para atribuir culpa a uma máquina?


Veja esse artigo em vídeo:


A demissão por inteligência artificial ganhou manchetes em agosto, depois que a empresa russa de promoção de games Xsolla demitiu 150 de seus 450 colaboradores. A decisão de quem seria mandado embora ficou totalmente a cargo do sistema, com base em critérios de produtividade e comprometimento com os objetivos da empresa.

A repercussão foi tão grande que seu CEO, Alexander Agapitov, explicou à edição russa da revista Forbes que não concordava totalmente com as escolhas do sistema, mas que tinha que aceitá-las por determinação da assembleia de acionistas. Mesmo assim, ele se comprometeu a ajudar os demitidos a encontrar trabalho logo, pois, segundo ele, são “bons profissionais”.

O caso é emblemático, mas não é único. O uso da inteligência artificial em demissões já acontece há alguns anos e vem crescendo. Em alguns casos, o sistema não apenas decide quem será mandado embora, como cuida de tudo. Em outras palavras, nesses casos, não há o envolvimento de profissionais de Recursos Humanos nem na decisão, nem na execução do processo.

Isso o torna ainda mais doloroso. Em junho do ano passado, a Uninove demitiu cerca de 300 docentes por um pop-up exibido quando eles entraram na plataforma para dar a aula a distância, já que a escola estava fechada por conta da pandemia. Não houve uso de inteligência artificial nesse caso, mas a mensagem extremamente lacônica, sem incluir qualquer justificativa ou explicação, foi chocante para professores e alunos.

A pergunta “por que eu” sempre surge, especialmente entre profissionais que acreditam estar realizando um bom trabalho, dando o melhor de si, comprometidos com a empresa. E talvez estejam mesmo! Mas, no momento de uma demissão, eles serão comparados com todos na mesma situação ou serão considerados critérios que desconhecem ou sobre o qual não têm nenhum controle. E, nesses casos, um sistema de Inteligência Artificial pode ser uma ferramenta poderosa para os gestores, pois justamente tomará a decisão sem qualquer influência emocional.

Para quem está “do lado de cá do balcão”, aspectos como esforço, ética, dignidade têm peso maior que o considerado pelas empresas, mais preocupadas em métricas de produtividade mensuráveis. Mesmo muitos anos de trabalho excelente para a companhia perdem valor diante da necessidade de cortar friamente, por exemplo, quem ganha mais.

Aspectos intangíveis interessam apenas a seres humanos. Em um mundo cada vez mais focado em resultados, eles perdem espaço. Por isso, a “culpa” não é da inteligência artificial: ela apenas reflete como as empresas se reorganizaram no relacionamento com sua força de trabalho.

O “emprego para a vida toda” está em extinção.

 

Contratando e paquerando com IA

Da mesma forma que demite, a inteligência artificial contrata. A versão mais recente da pesquisa State of Artificial Intelligence in Talent Acquisition, publicada pela consultoria americana HR Research Institute em 2019, indica que, naquele ano só 10% das empresas faziam um uso alto ou muito alto de IA no recrutamento, mas que 36% dos gestores esperavam fazer isso em até dois anos.

E isso foi antes da pandemia de Covid-19, que acelerou ainda mais esse processo.

O estudo traz outra importante conclusão: entre os entrevistados, os maiores temores do uso dessa tecnologia são a desumanização do recrutamento e possíveis discriminações no processo, por vieses surgidos por uma programação falha.

As empresas que já usam esses recursos afirmam que eles permitem contratações de melhores candidatos e de maneira muito mais rápida e eficiente. O risco de discriminações seria minimizado por uma inteligência artificial bem construída e por profissionais de RH capacitados, que ensinam à máquina o que realmente importa.

Se extrapolamos esse conceito, percebemos que a inteligência artificial já nos ajuda a escolher muitas coisas em nossa vida, até mesmo parceiros românticos ou sexuais. Diversos sistemas no mercado aprendem com nossas escolhas de quem nos interessa, para que as próximas sugestões sejam mais assertivas.

Esse processo pode ser extremamente complexo, para que os resultados não sofram vieses inconscientemente ensinados pelos próprios usuários. “Hang the DJ”, quarto episódio da quarta temporada da série “Black Mirror” (disponível na Netflix), que sempre traz questões morais envolvendo usos da tecnologia, ilustra isso de maneira inusitada e até inesperada.

É um fato que estamos sendo sempre rastreados. O que fazemos, dizemos, compramos, comemos, onde e com quem andamos, tudo isso será usado para traçar nosso perfil. E sistemas como os das redes sociais têm ficado tão eficientes nesse processo, que fica muito difícil impedir que eles “extraiam nossas verdades”.

Por isso, apesar de recrutadores afirmarem que os candidatos devam criar currículos e páginas em sites de empregos que estejam alinhados com as vagas e as empresas que desejam, esses documentos acabam se tornando apenas mais um elemento no processo de contratação ou de demissão. É possível que um belo artigo publicado no LinkedIn seja o responsável por uma contratação, enquanto uma foto infeliz no Facebook resulte em uma demissão. Ou, quem sabe, na escolha de alguém com quem se dividirá os lençóis em breve.

Isso pode ser aterrorizante para muita gente! Estamos nus e expostos para olhos digitais, que nos fazem praticamente uma “autópsia de pessoa viva”. Por isso, não se deve perder muito tempo em criar personagens que sejam muito diferentes de quem realmente a pessoa é, para objetivos específicos. Talvez seja mais interessante buscar objetivos mais em linha com sua realidade.

Em outras palavras, mentir no currículo nunca foi tão difícil. Por outro lado, para quem está trabalhando, vale prestar atenção se as exigências e o estilo da empresa se alinham com suas crenças. Se não for o caso, é melhor pensar em mudar de emprego antes de ser demitido por uma máquina.

Apesar de tanta eficiência, penso que tudo tem um limite. Lidar com pessoas sempre foi uma tarefa difícil, especialmente em momentos em que se toma uma decisão que impactará fortemente suas vidas. Ignorar isso completamente desumaniza tanto uma contratação e principalmente uma demissão que, na prática, desumaniza o próprio indivíduo. Nem a busca pela eficiência pode reduzir seres humanos a meros “recursos” com o mesmo peso de uma máquina, que será substituída porque ficou obsoleta.

Processos como esses exigem reflexões responsáveis. Se o RH terceirizar não apenas suas decisões, como também a operacionalização dos processos, ele mesmo pode ser substituído com vantagens por um sistema.

Devemos, portanto, nos preocupar menos em humanizar as máquinas e mais em humanizar as pessoas.

 

O premiado cineasta espanhol Pedro Almodóvar, que teve o cartaz de seu novo filme, “Madres Paralelas”, censurado pelo Instagram

As pessoas podem emburrecer a inteligência artificial

By | Tecnologia | No Comments

Nesse exato momento, um sistema de inteligência artificial pode estar tomando uma decisão em seu nome! Mas, apesar de sua incrível capacidade computacional, não há garantia de que esteja fazendo a melhor escolha. E, em muitos casos, os responsáveis pela falha são outros usuários.

Vivemos isso diariamente e o exemplo mais emblemático são as redes sociais. Essas plataformas decidem o que devemos saber, com quem devemos falar e sugerem o que devemos consumir. E são extremamente eficientes nesse propósito, ao exibir sem parar, em um ambiente em que passamos várias horas todos os dias, o que consideram bom e ao esconder o que acham menos adequado.

Alguns acontecimentos recentes reforçam isso, demonstrando que esses sistemas podem tirar de nós coisas que, na verdade, seriam muito úteis para nosso crescimento. Não fazem isso porque são “maus”, e sim por seguirem regras rígidas ou por estarem sendo influenciados por uma minoria de usuários intolerantes. E pessoas assim podem ser incrivelmente persistentes ao tentar impor suas visões de mundo, algo a que esses sistemas são particularmente suscetíveis.

No final das contas, apesar de a inteligência artificial não ter índole, ela pode desenvolver vieses, que refletem a visão de mundo das pessoas a sua volta.


Veja esse artigo em vídeo:


Um exemplo recente disso foi a censura pelo Instagram do cartaz do novo filme do premiado diretor espanhol Pedro Almodóvar. O pôster de “Madres Paralelas” traz um mamilo escorrendo uma gota de leite dentro de um contorno amendoado, dando ao conjunto a aparência de um olho derramando uma lágrima. O autor da peça é o designer espanhol Javier Jaén.

O algoritmo do Instagram identificou o mamilo, mas não foi capaz de interpretar a nuance artística envolvida. Como há uma regra nessa rede que proíbe fotos em que apareçam mamilos, para combater pornografia, a imagem foi sumariamente banida da plataforma. Depois de muitos protestos, incluindo de Almodóvar e de Jaén, o Facebook (que é dono do Instagram) se desculpou e restaurou os posts com o cartaz, explicando que, apesar das regras contra a nudez, ela é permitida “em certas circunstâncias, incluindo quando há um contexto artístico claro”.

Não é de hoje que o Instagram cria polêmicas ao bloquear imagens e até suspender usuários por decisões equivocadas de seus algoritmos. Um caso recorrente há anos são fotos de mulheres amamentando. Oras, amamentação só é pornografia na cabeça de pervertidos… e de alguns algoritmos.

O sistema é bastante inteligente para identificar um mamilo entre milhões de fotos, mas muito burro para interpretar os contextos. Ironicamente vemos baldes de fotos com proposta altamente sexualizada no mesmo Instagram, que “passam” porque os mesmos mamilos são cobertos, às vezes com rabiscos grosseiros sobre a foto.

Ou seja, quem age naturalmente, com algo que está dentro do que a humanidade considera normal e até positivo pode ser punido. Por outro lado, quem “joga com o regulamento debaixo do braço” (como se diz nos torneios esportivos) pode driblar o sistema para atingir seus objetivos impunemente.

 

Ferramenta de intolerância

Em um programa de computador convencional, o desenvolvedor determina que, se uma condição A acontecer, o sistema deve executar a ação B. Nesse modelo, o profissional deve parametrizar todas as possibilidades, para que a máquina opere normalmente.

Na inteligência artificial, não se sabe de antemão quais condições podem acontecer. O sistema é instruído a tomar ações seguindo regras mais amplas, que são ajustadas com o uso.

A máquina efetivamente é capaz de aprender o que seus usuários consideram melhor para si. Com isso, suas ações tenderiam a ser mais eficientes segundo o que cada pessoa aprova e também pela influência do grupo social que atende.

O problema surge quando muitas pessoas que usam um dado sistema são intolerantes ou têm valores questionáveis. Nesse caso, elas podem, intencionalmente ou não, corromper a plataforma, que se transforma em uma caixa de ressonância de suas ideias.

Um dos exemplos mais emblemáticos disso foi a ferramenta Tay, lançada pela Microsoft em março de 2016. Ela dava vida a uma conta no Twitter para conversar e aprender com os usuários, mas ficou apenas 24 horas no ar.

Tay “nasceu” como uma “adolescente descolada”, mas, depois de conversar com milhares de pessoas (muitas delas mal-intencionadas) rapidamente desenvolveu uma personalidade racista, xenófoba e sexista. Por exemplo, ela começou a defender Adolf Hitler e seus ideais nazistas, atacar feministas, apoiar propostas do então candidato à presidência americana Donald Trump e se declarar viciada em sexo.

A Microsoft tirou o sistema do ar, mas o perfil no Twitter ainda existe, apesar de ser agora restrito a convidados, não ter mais atualizações e de os piores tuítes terem sido excluídos. A ideia é promover a reflexão de como sistemas de inteligência artificial podem influenciar pessoas, mas também ser influenciados por elas.

 

Tomando decisões comerciais

Em maio de 2018, o Google deixou muita gente de boca aberta com o anúncio de seu Duplex, um sistema de inteligência artificial capaz de fazer ligações para, por exemplo, fazer reservas em um restaurante. Na apresentação feita no evento Google I/O pelo CEO, Sundar Pichai, a plataforma simulava com perfeição a fala de um ser humano e era capaz de lidar, em tempo real, como imprevistos da conversa.

O produto já foi integrado ao Google Assistente na Austrália, no Canadá, nos Estados Unidos, na Nova Zelândia e no Reino Unido. Mas, diante da polêmica em que muita gente disse que se sentiria desconfortável de falar com um sistema pensando que fosse outra pessoa, agora as ligações do Duplex informam ao interlocutor, logo no começo, que está falando com uma máquina.

No final de 2019, fui convidado pela Microsoft para conhecer o protótipo de um assistente virtual que ia ainda mais longe, sendo capaz até de tomar decisões comerciais em nome do usuário. Muito impressionante, mas questionei ao executivo que a apresentou qual a certeza que eu teria de que a escolha feita pelo sistema seria realmente a melhor para mim, sem nenhum viés criado por interesses comerciais da empresa.

Segundo ele, o uso de uma plataforma como essa implicaria em uma relação de confiança entre o usuário e ela. O sistema precisa efetivamente se esforçar para trazer as melhores opções. Caso contrário, se tomar muitas decisões erradas, ele tende a ser abandonado pelo usuário.

Essa é uma resposta legítima, e espero que realmente aconteça assim, pois o que vi ali parecia bom demais para ser verdade, apesar da promessa de que estaria disponível no mercado em um horizonte de cinco anos. Mas infelizmente o que vemos hoje nas redes sociais, que nos empurram goela abaixo o que os anunciantes determinam, coloca em xeque a capacidade de as empresas cumprirem essa promessa.

O fato é que a inteligência artificial está totalmente integrada ao nosso cotidiano, e isso só aumentará. Com seu crescente poder de influência sobre nós, os desenvolvedores precisam criar mecanismos para garantir que esses sistemas não abandonem valores inegociáveis, como o direito à vida, à liberdade e o respeito ao próximo, por mais que existam interesses comerciais ou influências nefastas de alguns usuários.

Quanto a nós, os humanos que se beneficiam de todos esses recursos e que têm o poder de calibrá-los para que nos atendam cada vez melhor, precisamos ajustar nossos próprios valores, para que não caiamos nesse mesmo buraco moral.

Quem assedia uma assistente virtual?

By | Tecnologia | No Comments

No dia 5, o Bradesco lançou uma nova campanha de marketing. O banco apresentou mudanças no algoritmo da BIA, sua assistente com inteligência artificial. As mudanças se concentram nas respostas que o sistema dá diante de diferentes formas de assédio que a assistente recebe de clientes, que vão desde insultos até importunações sexuais.

Esse comportamento bizarro não é novidade. Mas ainda me pego analisando o que leva alguém a assediar sexualmente um software.

Alguns dizem que se trata apenas de “brincadeira”. Afinal quem vai “passar uma cantada” em um bot? Mas as reações ao comercial do Bradesco mostram que o assunto é sério, problemático e está disseminado em nossa sociedade.

No momento em que estou escrevendo esse texto, a peça já passou de 105 milhões de visualizações no canal oficial do Bradesco no YouTube, em apenas seis dias no ar! Conquistou cerca de 7.000 “gostei” e 25 mil “não gostei”. E entre os mais de 13 mil comentários, a esmagadora maioria traz uma reprovação furiosa ao comercial.

E isso –pelo menos nessa quantidade– me surpreendeu.


Veja esse artigo em vídeo:


O polêmico comercial mostra algumas das cerca de 95 mil mensagens agressivas que a BIA recebeu no ano passado, segundo o Bradesco. Entre elas estão insultos como “BIA, sua imbecil” e “BIA, eu quero uma foto sua de agora” (sic).

Até então, o sistema identificava os comentários condenáveis e dava repostas leves, como “Não entendi, poderia repetir” ou “Foto? Apesar de falar como humana, sou uma inteligência artificial”. Essas respostas foram substituídas por outras, bem mais incisivas, como “Essas palavras são inadequadas, não devem ser usadas comigo e mais ninguém” ou “Para você, pode ser uma brincadeira; para mim, foi violento”.

A iniciativa do banco segue a campanha “Hey update my voice” (“Ei, atualize minha voz”), da Unesco (Organização das Nações Unidas para a Educação, a Ciência e a Cultura). Ela foi criada a partir do estudo “I’d blush if I could” (“Eu ficaria corada, se pudesse”), que descreve o assédio sofrido pelas assistentes virtuais. A partir disso, a Unesco recomenda às empresas atualizações nas respostas de suas assistentes para combater a violência e o preconceito, educando a população para o problema do assédio contra mulheres, muto além das assistentes virtuais.

Segundo a Unesco, 73% das mulheres no mundo já foram vítimas de algum assédio online. No Brasil, pesquisa Datafolha revelou que 42% das mulheres a partir de 16 anos já sofreu assédio sexual. Outro levantamento indicou que 97% já haviam sido vítimas de algum tipo de assédio dentro do transporte público ou privado.

 

Do amor à violência

Para entendermos a raiz do assédio contra assistentes virtuais, temos que voltar uma década no tempo. A Siri, assistente da Apple, lançada em 2011, foi o primeiro sistema do tipo a se tornar um grande sucesso de público. Ela surgiu como parte do iOS 5.0, que controlava o iPhone 4S. Até então, nenhum produto de massa tinha a capacidade de convincentemente entender comandos de voz e dar respostas também por voz.

Uma das diversões da época era “desafiar” o sistema com comandos inesperados. Um dos mais populares era dizer “Siri, eu te amo”. Ela dava respostas espirituosas como “eu aposto que você diz isso a todos os produtos da Apple.” A princípio, naquele momento embrionário da tecnologia, ninguém estava “cantando” a assistente, especialmente para quem sabe do relacionamento apaixonado entre os clientes da Apple e a marca e seus produtos.

Infelizmente, à medida que as assistentes se popularizaram em celulares e muitos outros dispositivos, melhorando também a sua capacidade de respostas, aqueles testes quase pueris evoluíram para mensagens agressivas e sexistas.

Isso foi reforçado pelo fato de quase todos esses sistemas incorporaram uma voz e até uma personalidade feminina. É o caso dos principais sistemas internacionais: Siri (Apple), Google Assistente, Cortana (Microsoft) e Alexa (Amazon). Isso se repete em sistemas brasileiros: além da própria BIA (Bradesco), outros exemplos são a Lu (Magazine Luiza) e a Nat (Natura).

Modismos à parte, a origem dessa escolha tem fundamento. Em 2005, Clifford Nass, professor de comunicação da Universidade Stanford (EUA), compilou dez anos de pesquisas psicológicas e de interface de voz, e concluiu que a voz sintética feminina é percebida como capaz de ajudar a resolver problemas, enquanto a masculina representa autoridade e dá respostas. Outro estudo, em 2008, de Karl MacDorman, da Universidade de Indiana (EUA), indicou que vozes sintetizadas femininas eram vistas como mais calorosas e agradáveis.

Segundo a Unesco, 90% da força de trabalho envolvida na criação dos assistentes é masculina. De acordo com o órgão, eles reforçam o imaginário popular de que a voz da mulher é dócil, acolhedora, subserviente e sempre pronta a ajudar. A prática tende a normalizar o assédio.

Seguindo as recomendações da Unesco, a Apple fará com que o usuário escolha o gênero da voz da Siri a partir do iOS 14.5. A voz masculina já está disponível, mas hoje o usuário precisa alterar o padrão feminino nas configurações do sistema.

 

“Mimimi”

Os detratores do novo comercial do Bradesco afirmam que ele exagera e que o banco se aproveita de uma pauta feminista para se promover. Mas muitos dos comentários acabam justamente reforçando os preconceitos e a violência contra mulheres, o que indica que a iniciativa está no caminho certo. Afinal, o debate levantado não é sobre o assédio contra a BIA e sim contra todas as mulheres.

Mas já que o assunto foi tocado, poderíamos debater também se seria legítimo agredir sexualmente um robô, apenas por ser uma máquina. O tema é recorrentemente explorado pela ficção, com sistemas inteligentes que desenvolvem sentimentos e até se apaixonam. Vimos isso, por exemplo, nos filmes “Ela” (2013), de Spike Jonze, e “Blade Runner” (1982), de Ridley Scott, ou no reboot da série “Battlestar Galactica” (2004 a 2010). Portanto, nem os robôs devem ser assediados.

Outra crítica recorrente contra o comercial é que o Bradesco se preocupa mais com a BIA que com as atendentes humanas do banco. Conversei com várias gestoras de call center sobre o caso. De fato, esse é um mercado conhecido por condições de trabalho ruins. Em alguns casos, se um atendente encerra uma ligação, mesmo após ter sido agredido por um cliente, ele pode ser punido administrativamente.

A política dos call centers refletem a da empresa que a contrata. A boa notícia é que, aos poucos, essas regras vêm evoluindo, para proteger esses profissionais contra violências de consumidores. Em muitos casos, os atendentes já são autorizados a reagir aos ataques e até a encerrar a ligação. Em casos menos comuns, a empresa envia uma notificação formal ao cliente, advertindo-o por seu comportamento. Isso acontece inclusive em alguns bancos.

A BIA também está pagando por diversos tipos de insatisfação de clientes com o Bradesco. Se a empresa comete erros (e todas as empresas cometem), eles precisam ser notificados pelo cliente e corrigidos. Mas isso deve ser feito de maneira apropriada, o que nos leva à questão original de combate ao assédio.

A frase de que “o cliente sempre tem razão” é uma falácia. Naturalmente ele deve ser bem atendido, sempre da melhor maneira possível. Mas infelizmente muitos clientes abusam dessa prerrogativa, sem falar daqueles que possuem sérios problemas sociais. A empresa e seus funcionários, mesmo os virtuais, não têm nenhuma obrigação de acolher quem os trata mal. Qualquer forma de relacionamento, mesmo comercial, deve ser pautada pelo respeito mútuo.

Por isso, a nova campanha do Bradesco é mais que oportuna: é necessária! O debato em torno da violência contra uma assistente virtual e a onda de ódio contra a peça explicitam como nossa sociedade ainda tem muito a evoluir.

Reconhecimento facial se tornou uma poderosa ferramenta de negócios

By | Tecnologia | No Comments

Muita gente já se espantou como o Facebook reconhece instantaneamente todas as pessoas que estão nas fotos que carregamos na plataforma, “marcando” seus rostos. Esse recurso, um dos segredos das “viralizações” das imagens nessa rede social, vem dos algoritmos de reconhecimento facial. Mas esse uso chega a ser um “brinquedo” diante do que essa tecnologia já oferece aos negócios.

Apesar de nunca ter se falado tanto disso, ela existe desde os anos 1960. De maneira simplificada, consiste em se criar uma “assinatura digital” (um “código hash”) composta por uma identificação única calculada a partir de distâncias entre pontos-chave do rosto (como o centro da pupila, a ponta do nariz, os limites da boca e assim sucessivamente). Quanto mais pontos forem avaliados, maior a eficiência no reconhecimento, pois essas distâncias variam de pessoa para pessoa.

“Uma coisa que melhorou muito de uns anos para cá foi a acuracidade do reconhecimento facial”, afirma Edgar Nunes, diretor comercial da Nuntius Tecnologia. De fato, até há poucos anos, existia desconfiança com essa tecnologia, por gerar muitos falsos positivos ou negativos.  “Antes as empresas tinham algoritmos que trabalhavam com 96 pontos do rosto, e hoje falamos de pelo menos 300 pontos, chegando a 1.024”, explica.

Tantos pontos permitem que o reconhecimento aconteça com precisão até quando o rosto está parcialmente coberto, por exemplo por óculos escuros ou, como agora é comum, por uma máscara. Os pontos ainda visíveis são suficientes para se fazer a identificação.


Veja a íntegra da entrevista com Edgar Nunes em vídeo:


Portanto a eficiência do reconhecimento facial está intimamente ligada não apenas a melhorias no software, mas também a avanços exponenciais nos computadores e nas próprias câmeras. Todo esse poder de processamento permite que as plataformas identifiquem mais pontos no rosto, em menor tempo e até de várias pessoas na mesma imagem. “Hoje a tecnologia reconhece 512 pessoas simultaneamente, em uma única câmera”, explica Nunes.

Além disso, os sistemas são capazes de identificar indivíduos mesmo que eles não estejam olhando de frente para a câmera, uma exigência dos sistemas mais antigos. A quantidade de pontos e o poder de processamento identificam também os rostos inclinados. Aliás, esse reconhecimento tridimensional pode ser usado para evitar fraudes, como alguém tentando apresentar uma foto e o sistema achar que se trata de um rosto real diante da câmera.

A qualidade nos reconhecimentos depende também da adaptação do sistema para a região onde ele será usado. Não basta, portanto, um algoritmo de qualidade: a plataforma precisa ser “calibrada” para o tipo de rostos da população local, mesmo em um país miscigenado, como o Brasil. É por isso que, se tentarmos usar um bom sistema preparado para o mercado americano em uma país asiático, ele pode não funcionar muito bem, e vice-versa.

Outro ganho das melhorias dos equipamentos é que sistemas locais podem tomar ações sem exigir uma conexão à Internet de banda larga. Esses equipamentos são capazes de armazenar mais de um milhão de “códigos hash” em sua memória (ou seja, as fotos das pessoas não estão ali, apenas essa sua “assinatura digital”). Dessa forma, se a imagem da pessoa diante da câmera não combinar com o respectivo “código hash”, o sistema pode negar a identificação.

Seguindo a mesma lógica, o sistema local pode gerar um “código hash” e enviar apenas essa informação para um servidor, um arquivo muito menor que o de uma foto ou um vídeo capturados. “A gente está falando de transportar apenas alguns kbytes de informação, o que não vai causar nenhum problema de conectividade, não vai ‘engargalar’ nenhuma rede’, explica Nunes.

Isso é particularmente interessante em locais em que a não há conexão com a rede ou em que ela seja limitada, como em um ônibus. O terminal do Bilhete Único (ou equivalente) pode conter os “códigos-hash” dos donos de bilhetes da cidade. Se alguém tentar usar um documento que não combina com a imagem capturada na hora pela câmera, a catraca pode não ser liberada, e a informação de uma possível fraude ou roubo ser enviada a uma central de controle e ao verdadeiro dono do bilhete.

 

Integração a outros sistemas

As plataformas de reconhecimento facial não trabalham mais de maneira isolada. “Antigamente, o reconhecimento facial entregava algo como ‘a pessoa é o Paulo e foi detectado na câmera 2’ e isso era enviado para o centro de controle”, conta Nunes. Agora a informação captada pela plataforma de reconhecimento vai muito além, identificando coisas como gênero, idade aproximada, raça e até estado de humor da pessoa no momento.

Essa informação fica ainda mais valiosa quando integrada a sistemas de gestão, para ajudar a tomar decisões de negócio. Por exemplo, de uma maneira automática, é possível saber que perfil de consumidor um determinado produto atrai, como o fluxo de visitantes em uma loja se comporta e até tomar ações personalizadas para um usuário específico, baseado em um histórico de relacionamento com a empresa ou combinando com perfis de visitantes semelhantes.

Em tempos de pandemia de Covid-19, os terminais de reconhecimento facial também trazem outras vantagens interessantes. A primeira delas é que, além de identificar a pessoa, consegue medir sua temperatura instantaneamente, sem necessitar de caras câmeras térmicas e evitando as filas provocadas pelas leituras com termômetros do tipo “pistola”, que se popularizaram no varejo. O sistema também é capaz de identificar se a pessoa está usando uma máscara. Em caso negativo ou se estiver com febre, uma ação é disparada, como informar a segurança ou a área de recursos humanos.

Nunes acredita que a evolução natural dessas plataformas envolverá ainda mais confiança e velocidade na identificação dos rostos, além de integrações cada vez mais poderosas com outros sistemas. Em um mundo com uso crescente de aplicações “touchless”, em que o usuário não precise encostar em nada, isso é muito bem-vindo.

Chegará a hora que dependeremos de robôs para nos apaixonar?

By | Tecnologia | No Comments

O que faz alguém se apaixonar por outra pessoa?

Essa não é uma pergunta simples de se responder.

Certa vez, disseram para mim que a paixão é um truque da natureza para que continuemos nos reproduzindo. Achei graça na hora, mas, a cada dia que passa, vejo que há alguma verdade nessa frase.

A partir disso, será que dá para automatizar os mecanismos da paixão? O governo japonês acha que sim e está investindo pesado nisso, justamente para aumentar a população do país.

Isso é emblemático! Independentemente da eficiência dessa proposta, será que chegamos ao ponto de precisarmos de um sistema para encontrar a pessoa certa e nos apaixonar? Estamos perdendo a nossa capacidade de gostar de outra pessoa naturalmente?


Veja esse artigo em vídeo:


No Japão, o número de nascimentos caiu 5,8% em 2019, para cerca de 865 mil. É o menor número da história! Entre as explicações para isso, estão a diminuição de casamentos e um aumento na idade que as pessoas se casam.

Para tentar reverter esse quadro preocupante, os governos nacional e regionais preparam um investimento de 2 bilhões de ienes (cerca de R$ 97 milhões) para desenvolver sistemas de inteligência artificial para criar casais compatíveis, transcendendo as combinações mais óbvias dos sites e aplicativos de relacionamento.

De fato, os sistemas atuais não vão muito além de combinar gostos e características. Mas gostar das mesmas coisas está longe de ser suficiente par alguém se apaixonar pelo outro. Na verdade, muitos relacionamentos em que ambos gostam das mesmas coisas simplesmente não evoluem, por isso mesmo!

Há também os “aplicativos de pegação”, cujo maior expoente é o Tinder. Mas a sua proposta é outra. Não digo que pessoas não possam se apaixonar a partir de encontros patrocinados por eles, mas essa não é a ideia a princípio. A “química” entre duas pessoas surge de fatores imponderáveis, combinando elementos aparentemente desconexos.

É muito mais provável o Facebook, com seus algoritmos de relevância criados para nos sugerir conteúdo e vender todo tipo de quinquilharia, descobrir a nossa alma gêmea. Afinal, ele se vale de tecnologias como machine learning, Internet das Coisas, big data, análises preditivas e linguagem natural para “escavar nossas verdades” mais profundas a partir das incontáveis interações no mundo digital.

É curioso que sistemas para encontrar alguém existem desde o começo da Internet comercial. Eu me lembro, lá no grupo pioneiro que criou o Universo Online, em 1996, de participar das discussões para o desenvolvimento do serviço Almas Gêmeas, o avô de todos esses sites. Quatro anos depois, fui o gerente de projetos da versão brasileira do Amor@AOL, da America Online.

Eram sistemas muito, muito simples, que apenas faziam as combinações óbvias. Mas precisamos entender que, naquela época, isso tudo era uma grande novidade. Tanto que, também em 1996, um casal que se conheceu no Bate-Papo do UOL e acabou se casando virou notícia nos jornais: pessoas que se conheceram pela Internet se casam!

Na época, isso era visto até com desconfiança. Hoje estranho é não conhece ninguém online!

É absolutamente comum que se use esses sites e aplicativos para queimar etapas e encontrar rapidamente alguém para o que quiserem. Além disso, eles oferecem uma sensação de que diminuem a frustração de ser rejeitado em uma balada ou no bar.

É uma falsa sensação (vlaro), pois as pessoas continuam sendo rejeitadas, aliás, agora muito mais! Mas, como se tenta a sorte com dezenas de pessoas ao mesmo tempo, mesmo que a maioria diga “não”, alguém acabará dizendo “sim”.

 

A vida imita a arte

Se os sistemas baseados em inteligência artificial entregarem o que prometem, isso pode ser um salto para um patamar muito superior a esses “cardápios de gente”.

A ficção já explora isso há bastante tempo. O episódio “Hang the DJ”, o quarto da quarta temporada da série “Black Mirror”, por exemplo, demonstra o funcionamento surpreendente de um aplicativo de namoro.

Impossível não citar também o filme “Ela” (“Her”, 2013), em que o protagonista Theodore, vivido por Joaquin Phoenix, se apaixona pelo sistema operacional inteligente de seu computador e de seu celular, a Samantha, personificado pela voz de Scarlett Johansson. O que faz Theodore se apaixonar por Samantha não é sua carência, e sim o fato de que o sistema sabe tudo sobre ele, pois acessa todas as suas pegadas digitais. Os dois sempre conversam, e Samantha aprende continuamente do que ele gosta.

Resultado: ela sempre oferece o que ele precisa, mesmo coisas inesperadas. Dá quase para se apaixonar por Samantha só de assistir ao filme, por mais que pareça louco isso. Mas, como diz uma amiga do protagonista, “apaixonar-se é uma coisa louca: é uma forma de insanidade socialmente aceitável.”

Trazendo para a nossa realidade, e se o sistema usasse toda essa inteligência para combinar pessoas?

Pode dar certo mesmo: os sistemas já estão aí disponíveis!

Não é de se admirar que o Facebook tenha lançado, no ano passado, um recurso de Namoro em sua plataforma, ainda que timidamente.

Do jeito que a coisa anda, talvez comecemos a ver sugestões de par ideal em nosso WhatsApp e Instagram, da mesma forma que vemos os stories. Isso se a empresa não for obrigada a vender as duas plataformas, como o governo dos Estados Unidos quer, justamente para diminuir o poder que o Facebook tem sobre os usuários e permitir uma concorrência mais saudável

No final das contas, talvez esses serviços digitais queiram resolver um problema que foi criado, ainda que parcialmente, por eles mesmos. Com tanta velocidade, com tanta oferta, com tantos estímulos o tempo todo e em qualquer lugar, talvez estejamos perdendo algumas capacidades essenciais de nossa humanidade.

Como disse certa vez o filósofo polonês Zygmunt Bauman, “tudo é mais fácil na vida virtual, mas perdemos a arte das relações sociais e da amizade”. Vivemos na época do que ele chamou de “amor líquido”.

Todos esses recursos digitais onipresentes nos ajudam a encontrar o que buscamos, mas podem nos levar a nos perder em uma sociedade sem rosto, homogeneizada, controlada, viciada em dopamina ao ser exposta apenas ao que cada um gosta. Perdemos nosso senso crítico, porque acreditamos piamente no que dizem ser o certo, sem sequer entendermos do que estão falando.

Com isso, nossa empatia se esvai, assim como a capacidade de identificar o bom e o mau.

E, sem esses recursos, talvez estejamos perdendo os nossos melhores recursos para nos apaixonar, pelo menos de fazer isso sem ajuda.

Que bom que temos a inteligência artificial para nos salvar!

Venda exatamente aquilo que o cliente quer comprar

By | Tecnologia | No Comments

Conhecer o seu cliente, suas demandas, seus gostos, seu comportamento se tornou o Santo Graal de negócios de qualquer segmento e porte. Com isso, podemos melhorar nossas entregas e toda a cadeia de produção e logística. Nesse cenário, uma tecnologia cada vez mais poderosa e acessível a qualquer empresa desempenha um papel crítico.

No caso do varejo, por exemplo, a inteligência artificial permite ao lojista antecipar, com boa precisão, o que, quanto e quando seu consumidor comprará. Essa informação é valiosíssima, pois lhe permite investir apenas em produtos que “giram”, diminuindo o estoque, evitando que seu capital fique “parado” e até reduzindo a perda de produtos (como no caso de perecíveis). Do lado do consumidor, os ganhos também são interessantes, pois se diminui a frustração de procurar um produto e não o encontrar na loja, o que no varejo é conhecido como “ruptura”.

No vídeo abaixo, Bento Ribeiro, CEO da TEVEC, explica como funciona essa tecnologia. Em uma conversa descontraída, ele fala ainda como está o Brasil internacionalmente na adoção desses recursos, como a inteligência artificial impacta os empregos e o que as pessoas devem fazer para garantir a sua empregabilidade.


Garry Kasparov enfrenta o supercomputador da IBM Deep Blue, em 1997 — Foto: reprodução

Até onde podemos ser iludidos pela Inteligência Artificial

By | Tecnologia | No Comments

Existe um ditado popular que diz, em tão jocoso, “me engana que eu gosto”. Ou seja, por qualquer tipo de conveniência, as pessoas podem acreditar em algo que sabem que não é verdadeiro. Entretanto, graças à Inteligência Artificial (IA), isso está ganhando novos contornos.

Com o avanço da tecnologia, sistemas hoje já conseguem se passar, de maneira convincente, por seres humanos, criando formas de interação bastante naturais com as pessoas oferecendo diferentes serviços. Entre os exemplos mais comuns estão os sistemas de atendimento ao público, os “chatbots”.


Vídeo relacionado:


Esqueçam as vozes metalizadas ou as interações do tipo “pressione 1 para cobrança; pressione 2 para crédito; pressiona 3 para falar com um de nossos atendentes”. Uma das características dos novos sistemas é a linguagem natural, que permite que os comandos sejam feitos em uma conversa livre, e as respostas sejam dadas da mesma forma: o sistema é capaz (ou pelo menos tenta) entender o que o cliente deseja, e busca lhe oferecer a melhor alternativa disponível, quaisquer que sejam as palavras usadas pela pessoa.

Em 2018, o Bradesco trouxe isso para um atendimento comercial de massa, com o lançamento da BIA, acrônimo para “Bradesco Inteligência Artificial”. Trata-se de um sistema de autoatendimento construindo a partir do Watson, da IBM, para atender, com linguagem natural, os clientes do banco. É possível até mesmo fazer perguntas que não têm a ver com transações bancárias (e algumas serão respondidas assim mesmo).

A equipe responsável levou três anos para “calibrar” a BIA, ou seja, oferecer a ela as informações e a capacidade de aprender suficientes para ser lançada comercialmente. E, graças à computação cognitiva da IBM, a BIA literalmente continua aprendendo, à medida que é usada pelos clientes do Bradesco.

Mas para se ter uma experiência bastante interessante disso, basta usar os assistentes virtuais de seu celular: a Siri (para iPhones) e o Google Now (para smartphones Android) já respondem a nossos pedidos em linguagem natural. E estão cada vez mais eficientes, tanto para entender o que queremos, quanto para nos responder.

Experimente dizer “eu te amo” à Siri ou perguntar “quando é o próximo jogo do Timão” ao Google Now.

De onde veio e para onde vai?

Os assistentes virtuais não são exatamente uma novidade. O primeiro deles data de 1966. Chamado de ELIZA, demorou dois anos para ser desenvolvido por Joseph Weizenbaum no laboratório de inteligência artificial do MIT (EUA), e buscava simular um psicólogo aconselhando seus pacientes por mensagens escritas. Apesar de bastante rudimentar, as pessoas necessitavam realizar várias trocas antes de perceber que não estavam conversando com outro ser humano.

De lá para cá, as pesquisas cresceram incrivelmente, seja por sistemas mais inteligentes, seja por equipamentos mais poderosos, que permitem a realização de milhões de combinações por segundo. E, como na maioria dos casos, o processamento se dá em servidores remotos e não no equipamento do usuário (como seus smartphones), o avanço das telecomunicações também é essencial.

Em maio de 2018, uma demonstração no Google I/O, congresso mundial de desenvolvedores da empresa, deixou muita gente de boca aberta. Tratava-se de uma evolução do Google Now, batizado de Google Duplex, que, por telefone e diante de todos, marcou um corte de cabelo e fez uma reserva em um restaurante, sem que os atendentes dos estabelecimentos se dessem conta que estavam falando com uma máquina. A linguagem natural usada pelo sistema era tão perfeita, que muitas pessoas duvidaram que aquilo seria real, apesar de a empresa afirmar categoricamente que sim. Em alguns casos, o sistema parecia falar melhor que os próprios interlocutores humanos com quem estava interagindo por telefone.

Em fevereiro de 2019, a IBM promoveu um debate público sobre educação entre seu sistema de IA Project Debater e o debatedor profissional Harish Natarajan. Apesar da natureza totalmente aberta do tema, para muita gente o sistema foi melhor que o ser humano.

A IBM, aliás, tem história em colocar seus sistemas de IA em confronto com pessoas. Nos anos 1990, seu supercomputador Deep Blue jogou xadrez com o então campeão mundial Garry Kasparov, em dois matches de seis partidas cada. O primeiro foi vencido por Kasparov e o segundo pelo Deep Blue. O campeão chegou a acusar a máquina de manipulação fraudulenta após ser derrotado.

A máquina tem ética?

O fato é que esses sistemas, cada vez mais parecidos com seres humanos em suas interações, são capazes de processar muito mais informações que nós, e têm acesso a muito mais dados do que qualquer ser humano. Isso levanta algumas questões éticas importantes: diante disso tudo, as máquinas poderiam se tornar capazes de nos convencer de qualquer coisa, muito além do que outra pessoa faria?

Afinal, se o nosso interlocutor parece ter o argumento definitivo para contrapor qualquer coisa que digamos, ele está em uma condição claramente vantajosa. Os computadores já têm isso há algum tempo, mas seu diferencial no convencimento desaparece diante do fato de que as interações não são naturais. Em outras palavras, subimos automaticamente nossas defesas para não sermos enganados por uma máquina.

Entretanto, diante dessa nova realidade em que nos encontramos, isso pode deixar de existir. O Google Duplex demonstrou que, por telefone, já não haveria como diferenciar as falas de uma máquina das de uma pessoa.  E quando isso acontecer também presencialmente, com robôs simulando convincentemente os corpos humanos?

O assunto é abordado exaustivamente pela ficção científica. Minha lembrança mais antiga disso é do primeiro “Blade Runner”, de 1982, com seus “replicantes”, robôs tão humanos que alguns nem sabiam da sua natureza artificial, achando que eram pessoas. Como dizia o slogan de seu fabricante, eram “mais humano(s) que o humano”.

Mais recentemente, o episódio “Volto Já”, o primeiro da segunda temporada (de 2013) da série “Black Mirror”, reacendeu o debate, quando a protagonista contrata o serviço de uma empresa que cria robôs capazes de simular o corpo e a mente de entes queridos falecidos. No caso da personagem, ela quase embarca na fantasia de que aquela máquina era seu marido morto. Só não fez isso porque o sistema, afinal, não conseguiu captar as sutilezas de sua personalidade.

Mas e se conseguisse? Ela teria se deixado enganar por aquela ilusão cibernética cuidadosamente elaborada? E, caso assim fizesse, ela poderia ser julgada por isso? Afinal, a máquina seria uma cópia praticamente fiel de seu finado esposo, e serviria para lhe aplacar a dor da perda.

O fato é que podemos estar muito perto de sistemas que sejam capazes de nos iludir e até mesmo manipular para atingir os objetivos de seus fabricantes, por terem sempre os melhores argumentos e se comportarem e parecerem com seres humanos. A máquina não tem ética e nem pode ser culpada se fizer algo que contrarie o que achemos correto. Quem precisa cuidar disso é seu fabricante.

Do nosso lado, precisamos ter esse debate sempre em dia, para que tenhamos esses recursos da tecnologia a nosso favor, tornando nossa vida mais produtiva, fácil, divertida. Podemos, sim, ser iludidos pelas máquinas, desde que seja o que deliberadamente queiramos, por mais que isso possa parecer paradoxal.


E aí? Vamos participar do debate? Role até o fim da página e deixe seu comentário. Essa troca é fundamental para a sociedade.


Artigos relacionados:

Videodebate: o robô vai substituir até o seu corpo

By | Tecnologia | No Comments

A crise está brava! Se isso já não bastasse para criar incertezas e grandes dificuldades para todos, os robôs e os sistemas de inteligência artificial estão cada vez mais eficientes na execução de tarefas que antes eram exclusivas dos humanos. Em alguns casos, são até mesmo capazes de simular os corpos dos trabalhadores!

O que vai sobrar para nós fazermos?

Muita calma nessa hora! Sim, é verdade que a substituição de trabalhadores por robôs só cresce. Mas nem tudo está perdido.

Nesse cenário, despontam duas certezas: o que puder ser automatizado será, e não dá para continuar na zona de conforto. Quem quiser não apenas sobreviver a essa nova revolução, como ainda aproveitar o momento para se destacar precisa fazer as coisas de maneira diferente.

Quer saber como? Veja no meu vídeo abaixo! E depois compartilhe aqui com todos como você vê esse avanço da tecnologia sobre os trabalhos, e como superar isso.

Ou então fique continue na mesma, e aguente as consequências.


Como a inteligência artificial e a computação em nuvem já ajudam os pequenos

By | Tecnologia | No Comments

Imagine se o seu computador resolvesse um problema antes que ele acontecesse.

Bem, isso já acontece!

Nesta terça, foi lançado o Red Hat Enterprise Linux 8, que incorporou inteligência artificial para ficar monitorando continuamente o equipamento e identificar comportamentos que poderão levar a algum problema, com base no que aprende com o que o administrador da máquina faz e com os padrões coletados de usuários do mundo todo. Se algo potencialmente não estiver bem, o sistema dispara o alerta e já propõe soluções, também baseadas em inteligência artificial, para que o problema não chegue a acontecer.

Há 15 anos, isso seria ficção científica. Hoje a inteligência artificial faz parte da nossa vida, até em atividades prosaicas do cotidiano, até em nossos smartphones. E, muitas vezes, nem percebemos que ela está lá. Graças também à computação em nuvem, hoje empresas, mesmo de pequeno pote, têm acesso a recursos que até bem pouco tempo, eram inimagináveis.

Entenda isso melhor vendo abaixo a minha entrevista com Boris Kuszka, líder dos arquitetos de solução da Red Hat Brasil, e cm Thiago Araki, líder dos especialistas de produtos da Red Hat América Latina.

Videodebate: robôs sexuais?

By | Tecnologia | No Comments

Quer vender bem algo? Convença seu público que aquilo é o que ele precisa!

Essa máxima se aplica a qualquer tipo de produto. Um bom vendedor é aquele que consegue ajustar seu produto às necessidades de seu cliente. Se acreditarmos naquilo, negócio fechado!

“Acreditar” é a palavra-chave!

A inteligência artificial pode ajudar muito nisso, processando uma quantidade enorme de informações do consumidor e do mercado, para ajustar esse discurso de “sedução”. Alguns sistemas já conseguem até mesmo se passar convincentemente por seres humanos no telefone!

Legal, né? Muito! As possibilidades são imensas!

Mas isso abre algumas discussões éticas bem delicadas.

Quais os limites disso? Dá para imaginar que chegará um momento em que conviveremos com robôs humanoides -e até teremos contato íntimo com eles- e acharemos que serão pessoas de verdade. A ficção já explora bastante isso.

Você compraria esse produto?

Quanto falta para termos robôs sexuais e “vendedores perfeitos”? Veja no meu vídeo abaixo!



Veja a demonstração do Google Duplex, a nova versão do assistente virtual do Google, mencionado no meu vídeo: https://www.youtube.com/watch?v=Nqhyc8_dwvE

Conheça o sistema de debates por inteligência artificial da IBM, sobre o qual falei no meu vídeo:  https://www.youtube.com/watch?v=m3u-1yttrVw