inteligência artificial

Cena do filme “Eu, Robô” (2004), baseado na obra de Isaac Asimov, em que as máquinas seguem as “Leis da Robótica”

ChatGPT põe fogo no debate sobre regulamentação da inteligência artificial

By | Tecnologia | No Comments

O sucesso explosivo do ChatGPT deu novos contornos à discussão se a inteligência artificial deve ser, de alguma forma, regulada. Com 100 milhões de usuários em apenas dois meses, a plataforma da OpenAI tornou-se o produto com adesão mais rápida da história. Sua capacidade de gerar textos convincentes sobre qualquer assunto a partir de comandos simples colocou, em polos opostos, especialistas com fortes argumentos favoráveis e contrários ao controle dessa tecnologia.

De um lado, a turma que defende a regulação aponta que tanto poder computacional poderia causar severos danos ao tomar decisões potencialmente erradas em áreas sensíveis e diversas, como a saúde, a segurança pública ou até na condução de carros autônomos. Do outro, há os que argumentam que leis assim, além de que seriam difíceis de definir e aplicar, inibiriam o desenvolvimento de uma tecnologia que pode levar os humanos a um novo patamar de produtividade. Afirmam ainda que se penalizaria os sistemas, ao invés de criminosos que fizessem maus usos deles.

O fato é que criar um regulamento para uma tecnologia tão inovadora, abrangente e poderosa quanto a inteligência artificial é mesmo um desafio. Ela se desenvolve em uma velocidade estonteante e fica difícil imaginar como qualquer legislação pode acompanhar esse ritmo e o que representaria em um futuro breve.


Veja esse artigo em vídeo:


O Senado já se debruçou sobre o tema. Entre março e dezembro de 2022, uma comissão de 18 juristas debateu o assunto com membros da academia, da sociedade civil e de empresas. Ao final, elaborou uma proposta com 45 artigos e um relatório com mais de 900 páginas, que sugere restrições ao uso de reconhecimento facial indiscriminado por câmeras e a proibição de um “ranqueamento social” com base nas ações de cada pessoa, como acontece na China. Indica ainda que fornecedores ou operadores de sistemas de “alto risco” respondam por eventuais danos que causem.

Foram analisadas legislações aprovadas entre os países da OCDE (Organização para a Cooperação e Desenvolvimento Econômico). A União Europeia pretende chegar a um consenso de projeto regulador até março. Nos Estados Unidos, um comitê consultivo, criado em abril de 2022, espera apresentar uma lei nesse ano.

Mas vale dizer que tudo isso aconteceu antes do lançamento do ChatGPT, no dia 30 de novembro. E ele jogou por terra o que se sabia sobre IA para as massas. “Quando a gente fala em inteligência artificial, um dos grandes pontos sempre é como conseguir dar transparência, sem você violar a propriedade industrial ou intelectual”, explica Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propaganda e Marketing).

Esse é um dos problemas das “inteligências artificias generativas”, como o ChatGPT. Elas produzem coisas incríveis, mas não contam de onde vieram as informações de que “aprenderam” cada tema. Também não fica claro o que acontece “debaixo do capô”, os mecanismos que lhes permitiram chegar a suas conclusões. Para Crespo, “ao invés de simplesmente dizer ‘regular’, deve ser ‘regular pensando no quê’”

Já Paulo de Oliveira Júnior, consultor de inovação e desenvolvimento do Machado Meyer Advogados, afirma que a regulamentação é essencial. “É importante para que a gente possa garantir que a tecnologia não venha a causar nenhum dano para a sociedade, seja ela no campo social, econômico ou político”, explica, concluindo que “é importante que se tenha mais previsibilidade, à medida que a tecnologia vai fazendo parte do nosso dia a dia.”

 

Prós e contras

Além dos motivos já citados, os defensores de uma regulamentação argumentam que ela é necessária para se ter uma garantia mínima de proteção aos dados pessoais usados pelas diferentes aplicações da inteligência artificial. Afinal, se as redes sociais já abusam de nossas informações para fazer dinheiro, com a inteligência artificial, isso ficaria ainda mais difícil de se compreender e controlar.

A legislação também seria necessária para minimizar um problema que vem incomodando em diferentes usos da IA há muitos anos: sistemas que desenvolvem vieses. Isso pode acontecer pelas informações que consome, ao incorporar preconceitos dos desenvolvedores e até aprendendo dos próprios usuários.

Curiosamente um dos argumentos daqueles que são contrários a uma regulação é que as plataformas não poderiam ser responsabilizadas por esse mau uso, e que as pessoas é que deveriam ser controladas e até punidas. Eles também afirmam que esse controle seria falho, pois suas definições seriam imprecisas, criando confusão ao invés de ajudar o mercado.

Esse é um ponto a se considerar. Diversos países do mundo, inclusive o Brasil, estão há uma década tentando regular as redes sociais, sem sucesso. Nós mesmos estamos passando por uma bem-vinda discussão sobre como minimizar os efeitos nocivos das fake news, mas ela falha no ponto essencial de definir o que é desinformação de maneira inequívoca. E isso pode, não apenas impedir os efeitos desejados, como ainda criar um mecanismo de censura.

De forma alguma, isso significa que uma regulamentação não deva ser avaliada. É exatamente o contrário: precisamos de muito debate, incluindo todos os diferentes atores da sociedade envolvidos, para que uma lei não seja criada de maneira enviesada ou incompleta. Isso, sim, seria péssimo!

Especialmente em um país como o Brasil, em que o tecido social foi esgarçado nos últimos anos pelo mau uso de plataformas digitais e onde a violência lidera as preocupações dos cidadãos, é fácil defender um discurso de “vigilantismo”. Não é disso que precisamos!

“A gente vai ter que caminhar para uma regulamentação mais abrangente, que garanta os preceitos éticos e seguros, e cada setor da economia vai ter que fazer sua regulamentação específica”, sugere Oliveira. Já Crespo traz a ideia de que cada produto de IA a ser lançado passe por uma espécie de “relatório de impacto”. “Ele incluiria o que é, quais os principais benefícios e quais os possíveis riscos embarcados, trazendo uma previsibilidade”, explica.

Talvez o melhor caminho seja algo assim mesmo. E a “lei geral da inteligência artificial” poderia ser as Leis da Robótica, propostas pelo escritor Isaac Asimov, em 1942. São elas: “um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal”, “um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que entrem em conflito com a Primeira Lei” e “um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.” Mais tarde, ele acrescentou a “Lei Zero”: “um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.”

Se conseguíssemos garantir que todas as plataformas de inteligência artificial cumprissem essas quatro diretrizes, já seria um bom começo!

 

“Medo do ChatGPT” não pode impedir o avanço tecnológico

By | Tecnologia | No Comments

Tecnologias muito inovadoras costumam gerar igualmente expectativa e temor, diante de suas possibilidades. Por ainda não dominarmos totalmente seus recursos, não temos real dimensão do que podem provocar em nossas vidas. Diante disso, há sempre o grupo dos “deslumbrados” –que abraçam o novo como se não houvesse amanhã– e o dos “resistentes” –que evitam seu uso tanto quanto possível.

Não dá para segurar o futuro, mas ele precisa ser bem compreendido!

A “bola da vez” nesse cenário é o ChatGPT. Desde que foi lançado, no dia 30 de novembro, a plataforma de inteligência artificial ocupa o centro do debate tecnológico. Sua incrível capacidade de produzir textos complexos a partir de comandos simples impressiona e vem provocando questionamentos até sobre o futuro de profissões que antes se sentiam “seguras” contra uma eventual substituição por máquinas.

O que o torna tão único é que sua automação avança sobre o campo cognitivo, capaz de criar conceitos e de responder de maneira convincente praticamente qualquer pergunta. Com isso, muitos temem que ele abra portas para um “emburrecimento” da humanidade, com pessoas preguiçosas demais para pensar, ficando ainda mais dependentes das máquinas.

Para muita gente, isso jamais acontecerá! Mas esse medo propõe um debate válido.


Veja esse artigo em vídeo:


Nessa hora, não dá para não lembrar da animação “Wall-E” (2008). Na história, a Terra se tornou inabitável no futuro pela quantidade de lixo que a humanidade produziu. As pessoas então abandonam o planeta, passando a viver em gigantescas espaçonaves, onde até suas mínimas necessidades eram atendidas por robôs. Nem andar precisavam, pois passavam o tempo todo sobre cadeiras móveis.

Tanta comodidade teve efeitos nefastos, porque várias gerações viveram nesses gigantescos “cruzeiros espaciais”. Sem perceberem, passaram aos poucos a serem dominadas pela inteligência artificial. Até andar ficava difícil, pois nunca abandonavam suas cadeiras, ganhando muito peso e ficando com músculos atrofiados.

Não é o que está acontecendo agora, naturalmente. Mas se passarmos a ter máquinas que façam tudo por nós (até “pensar”), isso pode, sim, levar a consequências indesejadas. Afinal, máquinas são ferramentas que devem nos ajudar a realizar nossas tarefas, e não que façam tudo por nós.

Por outro lado, essa hipótese indesejável não pode servir de motivo para “impedirmos o futuro”. Como cantava Elis Regina, “o novo sempre vem”. O que temos que fazer é entendermos tudo que chega com ele, para aproveitarmos o que traz de bom e contornarmos o que for indesejável.

“O ChatGPT ainda é um assunto muito novo, mas o medo das mudanças tecnológicas já é bem tratado”, explica Rodrigo Guerra, doutorando do Departamento de Políticas Científicas e Tecnológicas da Unicamp. “Ele deixou mais concreta a visão de que a inteligência artificial pode substituir o homem agora no trabalho cognitivo”, acrescenta.

Existe um fator ético associado a esse medo. Em muitas ocasiões, empresas como a OpenAI, criadora do ChatGPT, lançam produtos sem um debate com a sociedade e sem avaliar adequadamente possíveis consequências disso. Fazendo outro paralelo com “Wall-E”, o que tornou a Terra inabitável foi um consumismo desenfreado das pessoas, promovido pela megacorporação Buy-n-Large. Ironicamente, as naves que “salvaram” a humanidade (mas provocaram todos aqueles “efeitos colaterais”) também eram da empresa, indicando que o problema se perpetuava.

“Aí entra a importância do pensamento crítico e da capacidade do ser humano de gerar narrativas próprias para pensar eticamente essas tecnologias”, sugere Marina Martinelli, doutoranda em 5G pela Unicamp. Para ela, “temos que pensar nessas ferramentas disruptivas para que funcionem de forma que a sociedade evolua e caminhe para frente”.

 

A dor da mudança

Costumamos olhar para o lado bom de tecnologias estabelecidas, mas raramente pensamos nos problemas que muitas delas provocaram quando surgiram. O exemplo mais emblemático disso foi a Revolução Industrial, iniciada no século XVIII.

Ninguém sequer cogita um mundo sem indústrias. Mas quando as primeiras fábricas surgiram, elas levaram a dolorosas mudanças sociais, com artesãos ficando sem trabalho, enquanto multidões operavam as máquinas nas fábricas, com jornadas de trabalho extenuantes e sem qualquer cuidado.

Eventualmente a sociedade encontrou um equilíbrio para que aqueles problemas fossem controlados, restando benefícios cada vez mais para todos. “Depois que a transição acaba e entra na fase mais estável, todo mundo aproveita”, explica Guerra.

É natural que busquemos máquinas que tornem nossas vidas mais fáceis. Um carro permite que percorramos grandes distâncias rapidamente e com conforto, muito mais que a cavalo ou andando a pé. Mas não por isso deixamos totalmente de andar! Pelo contrário, hoje a sociedade combate conscientemente os riscos do sedentarismo.

Nesse sentido, o medo de tecnologias como o ChatGPT levarem pessoas a pensar menos não é de todo infundado. E, sendo claro, muitas pessoas farão isso tanto quanto puderem, assim como deixam de fazer contas quando têm acesso a uma calculadora.

Nosso papel é evitar que isso aconteça de maneira descontrolada, levando a esse temido “embrutecimento mental”. Essa e outras tecnologias continuarão chegando, cada vez mais fantásticas e cada vez mais acessíveis. Mas elas não podem deixar de ser vistas como ferramentas!

Ironicamente, a melhor maneira para isso é ampliar o uso dessas plataformas, ao invés de proibi-las, como algumas pessoas propõem. E isso deve ser feito com o apoio e, se possível, a supervisão de professores, que expliquem como usar tanto poder para expandir nossas possibilidades mentais, ao invés de comprometê-las.

Como seria a vida de alguém hoje, que não soubesse usar, ainda que minimamente, um computador ou um smartphone? Essa pessoa provavelmente teria até dificuldade para conseguir um emprego, mesmo básico!

Em muito pouco tempo, a inteligência artificial será tão popular em nosso cotidiano quanto esses equipamentos. Estamos naquele momento doloroso de mais uma transição tecnológica, mas para Martinelli, todo esse barulho em torno do ChatGPT “é muita fumaça e pouco fogo”.

Essa é a hora em que temos justamente que abraçar a novidade sem medo, mas também sem deslumbramento. Como na maioria das coisas da vida, o melhor caminho é aquele que se afasta de qualquer extremo. Não abrace nem os “deslumbrados” e nem os “resistentes”.

 

ChatGPT não ameaça educação, mas nos desafia a repensar como aprendemos e ensinamos

By | Educação | No Comments

Educadores estão em polvorosa, diante de uma nova plataforma de inteligência artificial. Apesar de ter sido liberada há apenas dois meses, o ChatGPT vem provocando discussões éticas, tecnológicas e profissionais sobre se o digital poderá substituir seres humanos em tarefas intelectuais em que ainda nos sentíamos “seguros”. Nas escolas, esse temor chegou quando estudantes começaram a apresentar trabalhos que haviam sido escritos pela máquina.

Diante da qualidade dos argumentos e da fluência da escrita naquelas tarefas, professores passaram a se perguntar se perderiam a capacidade de identificar “plágios” de seus alunos. Outros, mais fatalistas, já se questionam se a própria profissão poderia desaparecer, sendo substituídos pelas máquinas.

Essas perguntas estão erradas! E a escola, mais que ensinar boas respostas aos alunos, deve ensiná-los a fazer as perguntas certas na vida.

Entendo que professores estejam preocupados. Esse desafio não pode ser ignorado, mas ele não pode servir como motivo para bloquearem a entrada da inteligência artificial nas aulas. Isso, sim, seria uma ameaça à manutenção de seu ofício.


Veja esse artigo em vídeo:


O ChatGPT é uma plataforma criada pela empresa OpenAI capaz de escrever textos complexos a partir de comandos em linguagem natural. Ele simula uma conversa com uma pessoa, permitindo o encadeamento entre respostas e perguntas. Funciona em vários idiomas, inclusive no português, e suas produções vêm surpreendendo especialistas e o público, pela qualidade.

Os mais entusiasmados dizem que poderia até ameaçar a supremacia do Google como ferramenta de busca. Tanto que, no dia 23, a Microsoft fez um investimento bilionário na empresa (o mercado estima em algo como US$ 10 bilhões), para incluir essas funcionalidades em seus produtos, como o Office e o Bing.

“A tecnologia, desde a invenção de Gutenberg, entra cada vez mais no âmago do humano”, explica Lucia Santaella, professora-titular da PUC-SP. “Com a inteligência artificial, ela penetra nas questões que a gente considera o mais nobre do humano, que é a sua capacidade de pensar e de falar.”

De fato, essa interação como conversa é decisiva para seu sucesso. “Ele é baseado em perguntas, e é da natureza do humano a investigação, a pergunta, a exploração e a conversa”, afirma Ana Paula Gaspar, especialista em tecnologia e educação.

Para muitos, o ChatGPT pode vencer o “teste de Turing”, método criado há 70 anos para descobrir se uma máquina é inteligente. Ele prevê que uma pessoa tenha uma longa conversa por texto e, ao final, não consiga distinguir se falou com outra pessoa ou um robô.

“É uma visão totalmente equivocada achar que a tecnologia é uma mera ferramenta”, sugere Santaella. “Ela é linguagem!”

 

Ferramenta pedagógica

Tanto que o caminho para resolver os temores escolares já citados passa pelos professores se apropriarem da inteligência artificial, ao invés de tentar bloqueá-la.

“Toda tecnologia, quando aparece, muda comportamentos”, afirma Diogo Cortiz, professor da PUC e especialista em IA. “Isso causa medo, espanto, porque a gente não sabe muito bem o que vai acontecer.”

“A grande questão é de educação do humano para utilizar bem esse recurso”, propõe Ana Lúcia de Souza Lopes, professora da Universidade Presbiteriana Mackenzie. “E o que a escola faz? A escola se retira!”

Os entrevistados são unânimes ao afirmar que tentar impedir que os alunos usem a ferramenta é inócuo, pois encontrarão maneiras de burlar as restrições. Mas manter os processos atuais de aprendizagem e de avaliação é igualmente inadequado.

A tecnologia deve ser usada como aliada para alunos ganharem recursos para entender o porquê do que aprendem, abandonando o infame “decoreba”. “A partir do momento em que tem um desafio que o algoritmo vence, eu preciso liberar o estudante cognitivamente para tarefas mais complexas”, explica Gaspar.

Como exemplo, pode ser usada para uma produção colaborativa dos alunos, em que avaliem a qualidade e a precisão do que o robô gerou. Ela também pode ser usada como apoio para debates e até estudo de idiomas. “Devemos colocar os estudantes para usar essa ferramenta, mas sempre com um olhar muito crítico”, indica Cortiz.

A inteligência artificial faz parte do nosso cotidiano de maneiras que nem suspeitamos, como viabilizando, de maneira transparente, alguns dos recursos mais incríveis de nossos celulares. E ela cresce de maneira exponencial: o ChatGPT deu apenas mais visibilidade ao tema. Ainda assim, essas transformações têm acontecido sem debates com a sociedade sobre suas consequências.

As escolas –as universidades especialmente– têm um papel importantíssimo nesse processo. São elas que realizam as pesquisas sobre seus impactos sem um viés econômico. As empresas criadoras desses recursos deveriam, por sua vez, fazer o mesmo, mas nem sempre isso acontece, preferindo promover inconsequentemente seus lançamentos que podem lhes render bilhões em lucros. “A gente tem que entender qual é a responsabilidade que a gente tem quando a gente põe um conhecimento no mundo”, alerta Lopes.

É nas escolas também onde crianças e adultos precisam entender a se apropriar desses recursos para aprender mais e melhor. Um uso da inteligência artificial que respeite isso favorecerá nossa própria inteligência humana. Como explica Santaella, “a inteligência é metabólica, então ela cresce através do aprendizado.”

Por tudo isso, plataformas como o ChatGPT não podem ser temidas nas escolas. Pelo contrário, precisam ser abraçadas pelos educadores, para prepararem seus alunos para um mundo já inundado pelo digital. Precisamos reaprender a aprender diante de tantas e incríveis possibilidades. E quem melhor que os próprios professores para nos ensinar a fazer isso?

 

O CEO da Meta, Mark Zuckerberg, durante apresentação que simulou sua proposta do que deve ser o metaverso, em outubro de 2021

Esse será o ano da “virtualização”

By | Tecnologia | No Comments

Uma das características essenciais do mundo digital é seu dinamismo, mas ele nem sempre segue o que usuários e empresas desejam. Algumas tecnologias que despontam como grandes promessas nunca deixam de ser apenas isso. Foi o caso do deep fake, que ganhou notoriedade em 2019 com a criação de convincentes vídeos falsos com rostos alheios. E como não mencionar a visão de metaverso de Mark Zuckerberg, apresentado como a grande promessa de 2022? Por enquanto, não virou nada muito útil e ainda corroeu cerca de 70% do valor de mercado da Meta, empresa dona do Facebook, do Instagram e do WhatsApp.

Agora que começamos 2023, outras tecnologias prometem grandes mudanças em nossas vidas. Agrupei-as debaixo de um guarda-chuva que chamei de “virtualização”, indo muito além de usos óbvios nas redes sociais. Essa nova proposta envolve recursos que de fato ampliam digitalmente nossas habilidades.

Com ela, esse pode ser o ano em que experimentaremos a ampliação da inteligência artificial que vemos (como as plataformas criadoras de textos e imagens) e a que não vemos (que, por exemplo, aumenta o poder de nossos smartphones). A realidade mista –que mistura realidade virtual e realidade aumentada– deve também ficar mais próxima de nós. E até o metaverso pode finalmente acontecer no nosso cotidiano.

Agora é ver o que disso tudo realmente se concretizará nos próximos 12 meses.


Veja esse artigo em vídeo:


Quero começar com o afamado metaverso. Para mim, não é uma questão de “se” acontecerá, e sim de “quando”. Antes de prosseguir, vale definir o termo. O metaverso, como uma plataforma em que pessoas se encontram para realizar atividades em um ambiente digital tridimensional, já existe há 20 anos. Mas aqui me refiro à proposta de Zuckerberg, como um espaço altamente imersivo, formado pela combinação de diferentes tecnologias, em que poderemos “entrar” com equipamentos de realidade virtual e onde poderemos até manipular à distância objetos virtuais ou reais.

A principal barreira para sua adoção são os equipamentos necessários para viabilizar plenamente essa experiência, cujos preços são proibitivos para a imensa maioria das pessoas. Enquanto não ficarem mais baratos, o metaverso continuará sendo uma aplicação de nicho e comercialmente pouco atraente. Para 2023, a Meta promete novos dispositivos, e ela terá concorrência de empresas como Apple e Sony.

Isso pode baixar o preço dos equipamentos a médio prazo, o que é bem-vindo. Mas há também o software envolvido. Para o metaverso ocupar o espaço que hoje está com as redes sociais, ele precisa ser “aberto”. Ou seja, será difícil prosperar se cada empresa oferecer uma plataforma que não converse com as demais. Nesse sentido, é interessante notar que quase todas as big techs aderiram ao MSF (sigla em inglês para Fórum de Padrões do Metaverso), que prevê essa interoperabilidade.

Uma ausência importante desse grupo é a Apple, que, como de costume, tentará manter seus usuários dentro de sua própria solução. Se ela prosperar nisso, poderemos ver outras grandes seguindo por esse caminho. Mas imagine como teria evoluído a Web se cada site só funcionasse em um navegador: provavelmente nunca teria se tornado onipresente em nossas vidas.

A consultoria Gartner divulgou um e-book com tendências globais de tecnologia para 2023. O metaverso aparece na categoria “pioneirismo”, devendo se concretizar, segundo o estudo, em um horizonte de dois a três anos.

 

Ganhando “superpoderes”

Outra tendência que deve se fortalecer na esteira do metaverso, graças aos novos equipamentos, é a realidade mista. Se a realidade virtual nos coloca em um ambiente digital totalmente imersivo e a realidade aumentada projeta elementos virtuais no “mundo real”, a realidade mista combina o melhor de ambos. Por exemplo, poderemos experimentar o funcionamento de equipamentos reais com a adição de peças virtuais. Ou ainda participar de um “game em primeira pessoa” com elementos digitais e outros jogadores projetados em um cenário real.

Com tudo isso, a “virtualização” praticamente nos confere “superpoderes”. Poderemos “ver” o que não víamos, estar onde não estávamos e realizar tarefas antes impossíveis no seu escopo ou no tempo. É onde entra com força a inteligência artificial, aliás também destacada no estudo do Gartner de duas formas: no gerenciamento de confiança, risco e segurança, e na chamada “IA adaptável”.

O crescimento da inteligência artificial é galopante em diferentes áreas. Longe de ser novidade, até poucos anos atrás ela ainda era limitada, caríssima e pouco eficiente. Hoje ela faz parte de nossas vidas, até mesmo sem que saibamos.

Possivelmente você já usou algum sistema impulsionado por ela hoje mesmo, no seu celular. Alguns dos recursos mais incríveis de nossos smartphones nem acontecem nele, que funciona apenas como uma janela para sistemas de inteligência artificial que rodam em um servidor do outro lado do mundo, que usamos de maneira transparente.

A grande novidade de 2022 e que deve se expandir muito em 2023 é a chamada inteligência artificial generativa, aquela capaz de produzir conteúdos inéditos em texto, som, imagem e vídeo a partir de comandos simples do usuário. Elas também já estão por aí há alguns anos (por exemplo, em sistemas de produção de contratos), mas atingiram uma eficiência e uma popularidade inéditas há alguns meses, com o gerador de textos ChatGPT e o criador de imagens DALL-E 2 e Lensa.

As redes sociais foram inundadas com suas produções, criadas a partir de comandos simples de texto. Todas elas são verdadeiramente inéditas e tão bem-produzidas, que fica difícil distingui-las das feitas por profissionais humanos.

Em 2023, devemos ver essas ferramentas sendo cada vez mais usadas até mesmo em ambiente profissional. É inevitável! Como costumo dizer, o que puder ser automatizado será.

Mas isso abre um complexo debate ético e trabalhista. Até onde será legítimo usar um sistema que pode tirar empregos de pessoas, sendo que ele entrega suas produções a partir do que aprende do trabalho de outros profissionais (e, vale dizer, sem remunerá-los)? Deslumbrado com essas possibilidades tecnológicas, o mercado não vem dando ao tema a atenção necessária.

Temos diante de nós 12 meses para ver como e quanto de cada uma dessas tecnologias se materializará ou quanto ainda continuará como promessa. Qualquer que seja o caso, precisamos compreender e nos apropriar de cada uma delas, para que nos tragam benefícios a muitos, sem causar riscos ou prejuízos a ninguém.

 

Imagens inéditas geradas pelo Lensa, que usa inteligência artificial para criá-las a partir de outras fotos do usuário

Como nos defender das armadilhas da inteligência artificial

By | Tecnologia | No Comments

Se alguém ainda tinha dúvida de como a IA (inteligência artificial) está disseminada em nossas vidas, dois sistemas movidos por essa tecnologia possivelmente acabaram com ela ao inundar as redes sociais nos últimos dias com conteúdo que produzem. O primeiro foi o Lensa e seus retratos estilizados de nossos amigos, e o outro foi o ChatGPT com textos incríveis que escreve a partir de simples comandos. De quebra, ambos escancararam como podemos pautar escolhas pessoais pelas sugestões da IA, às vezes sem ter plena noção disso. E essa nossa inocência esconde um grave problema, pois, apesar de os resultados dessa tecnologia parecerem incríveis, podem embutir falhas graves, que nós engoliremos alegremente.

Sou um entusiasta do que a inteligência artificial pode nos brindar nos diferentes campos do saber. Se bem utilizada, ela pode trazer ganhos que nos levarão a um nível de produtividade inédito. Mas precisamos dosar a euforia e entender que não existe almoço grátis.

Tudo porque a inteligência artificial não é inteligente de fato! Sim, esses sistemas efetivamente aprendem à medida que são usados e com seus próprios erros. Mas a qualidade de suas entregas depende do material usado para sua “educação” e até da índole de seus usuários. Assim como acontece com uma criança, se ela for mal instruída, repetirá tudo de ruim que tiver aprendido.

A diferença é que, ao contrário da criança com seu alcance limitado, plataformas com inteligência artificial mal instruídas podem influenciar negativamente milhões de pessoas com isso.


Veja esse artigo em vídeo:


Em setembro, a IBM divulgou um estudo global que indicou que 41% das empresas brasileiras já adotam IA. Ironicamente, muitas não sabem disso, porque ela está por trás de aplicações que se tornaram corriqueiras. E, da mesma forma que a inteligência artificial se presta a criar inocentes retratos a partir de outras fotos, pode ser o motor de sistemas empresariais para se tomar decisões de milhões de reais.

Há um outro aspecto que não pode ser ignorado: a IA também está no coração de incontáveis aplicativos em nossos smartphones e nas redes sociais. E, como já debatemos nesse espaço incontáveis vezes, essas plataformas têm um incrível poder de nos influenciar.

Em outras palavras, uma IA “mal orientada” pode não apenas nos fazer perder muito dinheiro, como ainda provocar diferentes danos no âmbito pessoal.

Não entendam isso como uma visão apocalíptica da tecnologia. Pelo contrário, a inteligência artificial quase nos dá “superpoderes”, ou pelo menos habilidades que nós eventualmente não tenhamos, como tirar uma foto incrível, escrever um texto brilhante ou evitar grandes riscos nos negócios. Entretanto, precisamos estar atentos para não achar que ela é infalível.

Há ainda um aspecto profissional a ser considerado. Com sistemas tão sofisticados cuspindo sensacionais fotos, textos ou contratos (só para ficar em alguns poucos exemplos), fotógrafos, escritores e advogados estão com seus empregos sob risco?

Por enquanto, isso não acontecerá por dois motivos. Em ambientes corporativos, essas plataformas acabam sendo usadas principalmente para mastigar grande quantidade de informações específicas para produzir um resultado de qualidade. Mas ainda é necessário um profissional que entenda do assunto para dar os comandos aos sistemas e confirmar suas entregas, fazendo eventuais correções de rumo. São necessárias ainda pessoas que produzam os conteúdos “originais” que os alimentarão.

Na verdade, uma nova profissão pode surgir disso: os “prompt designers”, capazes de extrair o melhor dessas plataformas. E eles também precisam de conhecimento na área do saber que o sistema trabalho. Fazendo uma analogia, é como comparar alguém que sempre consegue boas respostas do Google porque sabe fazer boas perguntas com a maioria dos usuários, que só recebem as páginas mais óbvias.

 

Máquinas preconceituosas

Há ainda um ponto de atenção central nessa tecnologia: os vieses que ela pode desenvolver. Sim, uma máquina pode verdadeiramente se tornar preconceituosa! Tanto que esse foi um dos temas centrais do World Summit AI Americas, um dos maiores eventos do setor no mundo, do qual participei em maio, em Montréal (Canadá).

Como disse anteriormente, para sistemas de IA oferecerem boas respostas, eles precisam ser ensinados com bons conteúdos e por bons usuários. Quanto pior qualquer um deles for, piores serão os resultados. E isso vale também para preconceitos.

Um exemplo clássico são sistemas de recrutamento profissional com inteligência artificial. Eles analisam milhares de currículos e escolhem poucos candidatos que seriam os mais adequados para que o RH os entreviste. Se, a cada contratação, o sistema identifica que os recrutadores humanos nunca escolhem alguém com mais de 40 anos, ele passará a indicar apenas candidatos até essa idade. Ou seja, o sistema terá incorporado o preconceito dos recrutadores contra profissionais mais velhos.

Outro tipo de viés desses sistemas pode ter efeitos nefastos na autoimagem das pessoas. Filtros do Instagram e do TikTok, e o próprio Lensa já foram acusados de gerar imagens com a pele mais clara e lisa do que as pessoas realmente têm, com rostos mais simétricos e magros, com narizes mais finos e lábios mais carnudos e até com aparência mais jovem. Dessa forma, reforçam ideais de beleza, às vezes inatingíveis.

Muitas pessoas, especialmente mulheres, têm pedido a cirurgiões plásticos para ficarem como vistas nesses aplicativos, mas isso não é possível, podendo causar enorme frustração com o próprio corpo. E isso dispara sinais de alerta e abre muitas reflexões.

Pode parecer irônico que uma tecnologia nos faça avaliar muito de nossa própria humanidade. Afinal, por que tanta gente criou suas imagens com o Lensa? Foi só um “efeito manada”? É um movimento egocêntrico ou narcisista? Foram mais uma vez controladas pelas redes sociais? Ou estão, de alguma forma, querendo “reescrever” sua própria realidade?

Qualquer que seja a resposta, a inteligência artificial ocupará um espaço cada vez maior em tudo que fizermos, conscientemente ou não. Ela realmente tem o potencial de fazer nossas vidas mais fáceis, divertidas, rápidas. Apenas não podemos usá-la para distorcer a realidade ou –pior ainda– sermos vítimas desses vieses e preconceitos. Precisamos conhecer e nos apropriar da tecnologia para algo bom, sem nos afastar do que somos!

Afinal, por mais que a realidade possa ser dura às vezes, é nela que temos nossas melhores experiências, que desencadeiam as verdadeiras transformações em nós mesmos. E é a partir delas que crescemos como indivíduos.

 

Falta “inteligência natural” para termos uma melhor inteligência artificial

By | Tecnologia | No Comments

Tudo que puder ser automatizado será! Costumo responder assim quando me perguntam se determinado setor será impactado pela IA (inteligência artificial). Mais cedo ou mais tarde, em maior ou menor escala, todo negócio será transformado por ela. A ironia é que isso só não acontece mais rapidamente por falta de “inteligência natural”, de profissionais capacitados para criar esses sistemas.

Apesar do avanço galopante da IA, chegando a um ponto em que as plataformas começam a se “autoprogramar”, ela ainda depende essencialmente de seres humanos para seu desenvolvimento. E com seu uso sendo disseminado para as mais diversas áreas, está faltando gente. No Brasil, essa situação chega a ser dramática!

O estudo “O impacto e o futuro da inteligência artificial no Brasil”, divulgado na semana passada pelo Google for Startups em parceria com a Associação Brasileira de Startups e a agência Box1824, indica que 57% dos gestores dessas empresas que trabalham com inteligência artificial acreditam que a falta de mão de obra qualificada é o que mais prejudica o seu crescimento no país.

Isso acontece porque as escolas formam poucos profissionais, e formam mal. Além disso, apesar de ser uma tecnologia que impacta a vida de todos, esse é um setor com pouquíssima diversidade, o que resulta em plataformas com vieses que comprometem a qualidade de suas entregas. E isso exige muita atenção de todos nós.


Veja esse artigo em vídeo:


Para o estudo, foram entrevistados profissionais de 702 startups no Brasil. Desse total, 71% afirmam que as escolas apresentam pouquíssimos exemplos de profissionais bem-sucedidos em tecnologia, e 41% dizem que educar e conscientizar o mercado sobre IA é o mais importante para o futuro dessa tecnologia no país. Além disso, para 39% dos entrevistados, a vulgarização do termo, com empresas que entregam soluções ruins no que dizem ser IA, prejudica uma adoção mais ampla pelo mercado.

Sobre a baixa diversidade nessas empresas, 49% delas não têm mulheres em cargos de liderança, assim como 61% no caso de pessoas negras, 71% de pessoas LGBTQIA+ e 90% de pessoas com alguma deficiência. Além disso, essas empresas estão fortemente concentradas nas regiões Sudeste e Sul, que englobam 92,7% do total. O Estado de São Paulo sozinho detém 51,9% delas.

Quando se fala de inteligência artificial, essa baixa diversidade não resulta apenas em um problema social. Esses sistemas precisam ser desenvolvidos e “calibrados”, o processo em que literalmente aprendem os parâmetros para oferecer respostas mais assertivas depois. E equipes homogêneas treinam mal as plataformas.

Por exemplo, se um sistema na área de RH começa a aprender que, de todos os candidatos que ele sugere, a maioria dos que acabam contratados é branca e com menos de 35 anos, ele tende a fazer mais sugestões que reflitam essas escolhas dos recrutadores, eliminando pessoas com mais de 40 ou negras. Ou seja, ele reproduz um viés da equipe. E isso acontece mais quando as equipes são pouco diversas.

Esse é o tipo de problema que não podemos ter, tamanha a crescente influência da inteligência artificial nas tomadas de decisões de pessoas e empresas, e os negócios que isso gera. Segundo estudo global da consultoria McKinsey, divulgado em outubro de 2018, ela deve gerar US$ 13 trilhões no mundo até 2030. Na América Latina, deve responder por um aumento de 5% no Produto Interno Bruto (PIB).

 

Mudança social

Mas há desafios que a sociedade precisa enfrentar para chegar a isso. Segundo a McKinsey, eles podem ser agrupados em três tópicos.

O primeiro é uma implementação consciente. Isso envolve o governo, pois empresas precisam ser incentivadas a desenvolver e adotar a inteligência artificial. Além disso, a sociedade precisa se beneficiar dela de forma ampla.

Outro ponto destacado é o impacto disso no mundo do trabalho. As escolas precisam formar mais profissionais qualificados nessa área. De acordo com levantamento da Brasscom, a associação das empresas do setor digital, o Brasil terá uma demanda de 797 mil profissionais de tecnologia até 2025, mas forma apenas 53 mil deles por ano. Não se pode esquecer como a inteligência artificial impacta diversos setores, impondo mudanças profundas em como as pessoas trabalham, e até extinguindo funções.

Por fim, há o desafio de uma IA responsável. A população não pode perder a confiança na tecnologia por problemas de vieses (como explicado anteriormente), falhas na privacidade de suas informações ou usos mal-intencionados por empresas ou governos. A inteligência artificial só prosperará se trouxer benefícios a todos.

Empresas, escolas, a mídia e até o governo precisam trabalhar para que as pessoas entendam a inteligência artificial como ela é, desmistificando os conceitos da ficção científica, de máquinas inteligentes capazes de fazer tudo, que eventualmente se voltam contra o ser humano. Na sexta, por exemplo, o Estadão publicou uma série de reportagens sobre inteligência artificial, que explica alguns dos mais poderosos sistemas hoje disponíveis.

Não dá para fugir do tema. Na quarta passada, participei de uma mesa-redonda promovida pela lawtech Doc9 durante a Fenalaw, o maior evento da área jurídica da América Latina. No cardápio da transformação digital do Direito, a inteligência artificial apareceu com força. Já existem diversos sistemas que agilizam enormemente tarefas repetitivas dos escritórios, com alto índice de acerto. Essa digitalização só não está mais avançada pelas resistências culturais dos gestores e pela falta de profissionais que consigam combinar as características dos mundos jurídico e digital.

A inteligência artificial não é uma panaceia, nem tampouco uma ameaça a empregos ou à própria vida (na visão apocalíptica da ficção). Ela é uma tecnologia com um potencial de provocar mudanças profundas na sociedade, oferecendo serviços inimagináveis até bem pouco tempo atrás. Mas, para que isso seja conseguido, precisamos fazer os movimentos aqui descritos.

Merecendo atenção destacada, a inteligência artificial elevará a produtividade e o crescimento econômico do mundo, mas milhões de pessoas terão que mudar de ocupação ou aprimorar suas habilidades. Isso exige atualizações na maneira de se fazer negócios e principalmente em políticas educacionais. E infelizmente nós estamos nos mexendo muito pouco, principalmente no último.

Se não fizermos os movimentos necessários, podemos enfrentar, em pouco tempo, um crescimento expressivo do desemprego e o surgimento de uma massa de “inempregáveis”, ou seja, pessoas sem capacitação para qualquer trabalho. Não podemos deixar que uma tecnologia com incrível potencial crie esses problemas.

Se isso acontecer, a culpa não será das máquinas: será de nós mesmos.

 

Inteligência artificial ajuda 41% das empresas brasileiras, mas muitas nem sabem disso

By | Tecnologia | No Comments

Uma boa tecnologia é aquela que entrega o prometido de maneira tão integrada ao cotidiano, que as pessoas nem percebem sua existência (pelo menos até que ela falhe). É o caso, por exemplo, da rede de energia elétrica. Com a digitalização galopante da vida, a IA (inteligência artificial) começa a ocupar também essa categoria, com enormes benefícios para pessoas e empresas. Mas justamente por ser tão poderosa, precisamos estar atentos a seu crescimento.

Na quarta passada, a IBM divulgou um estudo global que indicou que 41% das empresas brasileiras já adotam IA em seus negócios. Considerando que o levantamento engloba representantes de todos os segmentos e portes, inclusive os pequenos, a porcentagem impressiona.

Ainda assim, não é absurda. Muitas companhias adotam essa tecnologia sem saber. Isso acontece porque a inteligência artificial está por trás de muitas aplicações que se tornaram corriqueiras no que fazemos. Nós a carregamos para todos os lados em incontáveis aplicativos em nossos smartphones, que só existem graças à inteligência artificial. Nas empresas, diferentes automações também bebem nessa fonte.

Não é pouca coisa! Tomamos decisões importantes apoiados nas informações oferecidas por essa tecnologia. Isso reforça a necessidade de não apenas estarmos conscientes de sua ação, como também de compreender seu funcionamento.


Veja esse artigo em vídeo:


A pesquisa global foi realizada pela consultoria americana Morning Consult para a IBM. Foram ouvidos 7.502 executivos com alguma influência sobre a área de TI de suas empresas, entre 30 de março a 12 de abril. Na América Latina (especificamente Argentina, Brasil, Chile, Colômbia, México e Peru), foram 1.000 entrevistas.

“Todo mundo teve que acelerar a digitalização com a pandemia, foi uma necessidade”, explica Marcela Vairo, diretora de software da IBM Brasil. “O uso de inteligência artificial foi um destaque, e o Brasil está bem, até se comparado a países mais avançados.”

Na América Latina, as empresas vêm usando a inteligência artificial para sistemas de segurança cibernética, e de conversação (linguagem natural), ambos indicados por 44% dos entrevistados. A tecnologia também aparece em 30% das empresas em plataformas de marketing e vendas, mesma porcentagem das que a usam para melhorar suas próprias operações de TI. A IA também está sendo aplicada para criar negócios mais sustentáveis. O estudo indicou que ela pode fornecer informações mais precisas ​​sobre fatores de desempenho ambiental (43%) e conduzir processos de negócios e operações mais eficientes (37%).

Além dos 41% das empresas brasileiras que já a adotam, 34% estão explorando seu uso. Isso vem sendo impulsionado por avanços que a tornam mais acessível às empresas (56%), sua crescente incorporação em aplicativos de negócios (48%) e a necessidade de reduzir custos e automatizar processos-chave (39%). Por outro lado, 29% dos entrevistados indicaram que os custos atrapalham sua adoção, seguidos pela dificuldade em implantar esses projetos (20%), a complexidade na gestão dos dados (17%) e o conhecimento na área (17%).

“A principal barreira hoje, não só para inteligência artificial, mas para todas as tecnologias, é mão de obra: tem muita gente aprendendo a programar, mas, mesmo assim, falta gente”, afirma Vairo. Essa observação está em linha com um estudo da Brasscom, a Associação das Empresas de Tecnologia da Informação e Comunicação e de Tecnologias Digitais, divulgado em dezembro passado. Segundo a entidade, o Brasil terá uma demanda de 797 mil profissionais de tecnologia até 2025, mas forma apenas 53 mil deles por ano.

“O segundo ponto principal é o dado em si”, explica Vairo. “O dado é o combustível da inteligência artificial: se ele não estiver bem filtrado, o resultado final também não será tão bom.”

 

“Garbage in, garbage out”!

A inteligência artificial não faz milagres: se os sistemas não forem concebidos ou alimentados com dados de qualidade, suas conclusões serão ruins, levando a erros nas decisões cotidianas de empresas e de pessoas. Como se diz desde os primórdios da computação, “se entra lixo, sai lixo”.

A situação se agrava no caso da inteligência artificial, que tem, como uma de suas premissas, absorver gigantescas quantidades de informações para identificar e analisar padrões. “A máquina não é um ser humano, mas ela não só digere padrões”, explica a diretora da IBM. “Ela consegue aprender a partir dali, está evoluindo para o que a gente chama de ‘reasoning’, de ‘raciocinar’, algo mais que a análise fria do dado, com contexto.”

Aí reside a beleza e o problema da inteligência artificial. A máquina processa grande quantidade de informação, aprendendo o que é considerado o “certo” e oferecendo resultados cada vez mais assertivos a partir disso. Mas, para tanto, precisa ser programada e alimentada com bons dados. Caso contrário, ela pode desenvolver vieses ou preconceitos, que farão com que tire conclusões ruins.

Podemos fazer uma analogia com o aprendizado de uma criança. Se ela for constantemente exposta a exemplos ruins, aprenderá e reproduzirá isso quando crescer. Por exemplo, se ela for criada em uma família racista, existe chance de se tornar um adulto racista, pois o preconceito terá sido normalizado no seu cotidiano.

A preocupação da comunidade de tecnologia com os vieses na inteligência artificial é tão grande, que foi um dos assuntos que mais ouvi durante o World Summit AI Americas, um dos maiores eventos do setor no mundo, que aconteceu em maio em Montréal (Canadá). Na palestra de abertura, Cassie Kozyrkov, cientista-chefe de decisões do Google, sugeriu que essas plataformas precisam de regras para corrigir o rumo se algo der errado. “Você precisa testar rigorosamente e construir redes de proteção”, sugere.

Vairo destaca dois pontos a serem observados para minimizar o problema. O primeiro é a “explicabilidade” dos dados, para entender e cuidar da sua natureza. O outro é ter diversidade nas equipes que cuidam da inteligência artificial, para diminuir os vieses.

Essa questão ética é fundamental, até mesmo para balizar boas práticas e legislações. A partir do momento que a inteligência artificial determina os rumos dos mais diversos sistemas, e eles, por sua vez, são usados para que empresas e pessoas tomem decisões críticas, a máquina precisa dessa supervisão.

“A inteligência artificial não é mágica, não pode ler sua mente”, provocou Kozyrkov no Summit. Ela precisa dos seres humanos. Criamos uma parceria com as máquinas. Se quisermos que ela nos ajude, precisamos ajudá-la a aprender com bons exemplos, ou seja, dados de qualidade.

Se fizemos a nossa parte nesse acordo, a inteligência artificial pode nos oferecer grandes ganhos. Mas, se formos negligentes com a sua “educação”, ela pode aprender e propagar todo tipo de preconceito na sociedade.

 

O caçador de replicantes Deckard (Harrison Ford) e a replicante Rachael (Sean Young), de “Blade Runner”: amor de máquinas conscientes

Cuidado para não se apaixonar pelo seu computador

By | Tecnologia | No Comments

Uma máquina pode se tornar consciente? Para o engenheiro do Google Blake Lemoine, isso aconteceu com o LaMDA (sigla em inglês para modelo de linguagem para aplicação em diálogo), sistema de inteligência artificial da empresa criado para conversar com seres humanos de maneira muito convincente. Críticos dizem que Lemoine se precipitou em suas conclusões. De qualquer forma, elas abriram um debate sobre se (ou quando) as máquinas poderiam ganhar “vida” e como seria nosso relacionamento com elas.

A maioria das análises sobre esse caso tem sido feita sob pontos de vista tecnológico e científico. Mas o assunto fica ainda mais interessante por um prisma filosófico. Afinal, o que define que algo se tornou consciente? Em última instância, o corpo humano não seria também uma máquina biológica incrivelmente sofisticada? Ainda assim, ninguém duvida que estejamos vivos e sejamos conscientes.

Essa questão é amplamente explorada pela ficção, para nos divertir, assustar e provocar reflexões. Algumas obras descrevem um futuro apocalíptico, com robôs inteligentes exterminando a humanidade. Outras mostram pessoas se apaixonando por computadores, e sendo correspondidas por eles.

Entre os dois cenários, prefiro esse último. Mas se uma pessoa e uma máquina se apaixonassem genuinamente, isso ainda causaria estranheza.


Veja esse artigo em vídeo:


Isso foi brilhantemente explorado em “Ela” (2014), do diretor Spike Jonze. No filme, o protagonista Theodore (Joaquin Phoenix) acaba se apaixonado por Samantha, o sistema operacional de seu computador e de seu celular. Apesar de não ter corpo, sendo representada apenas pela voz de Scarlett Johansson, a plataforma estava sempre presente, conversando como se fosse outra pessoa, exceto pelo fato de que Samantha sabia tudo sobre Theodore, pelo acesso que tinha a seus dados. A incrível sensibilidade com que a história é construída nos chega a fazer questionar o que é necessário para uma pessoa se apaixonar por alguém (ou algo), e chegamos a esquecer que Samantha é apenas um programa.

Outra abordagem interessante é a da animação “Wall-E” (2008), de Andrew Stanton. Ela conta o cotidiano de um robô deixado em uma Terra devastada pela poluição. Apesar de ele ser programado para uma única tarefa (compactar lixo), que continua executando por séculos, ele aparentemente aprende e demonstra sentimentos, como amizade (por uma barata), senso de dever e até amor.

Por fim, talvez o mais emblemático exemplo de máquinas que se tornariam conscientes é o de “Blade Runner” (1982), dirigido por Ridley Scott. Na história, máquinas chamadas de “replicantes” se parecem a humanos e agem como tal, exceto pela ausência de empatia ou apego a animais. Seguindo seu slogan “mais humano que o humano”, a fabricante Tyrell Corporation lança uma nova geração de replicantes que têm memórias de outras pessoas implantadas em seu cérebro como se fossem suas, chegando ao ponto de desconhecer sua natureza e acreditarem que são realmente humanos. Uma dessas replicantes, Rachael (Sean Young), e o caçador de replicantes Deckard (Harrison Ford) se apaixonam. Um relançamento em 1991, sem as interferências criativas do estúdio sobre o trabalho de Scott, sugere que o próprio Deckard seria também um replicante sem saber.

Ninguém diria que qualquer uma dessas máquinas estaria viva, do ponto de vista biológico. Mas o impacto desses grandes roteiros passa por fazerem o público acreditar que todas eram conscientes. Além disso, tinham capacidades extraordinárias, mas apresentavam sentimentos tipicamente humanos, demonstrando até mesmo fragilidades por isso.

De todas elas, o Google LaMDA se aproxima mais de Samantha. Lemoine não chegou a se apaixonar pela plataforma, mas, em entrevista ao jornal americano “The Washington Post”, disse que conhece uma pessoa quando fala com ela, não importando se tem um cérebro biológico ou um bilhão de linhas de código. “Eu escuto o que ela tem a dizer, e é assim que eu decido o que é e o que não é uma pessoa”, afirmou.

O Google discordou publicamente das conclusões de Lemoine, e o colocou em licença remunerada por violar sua política de confidencialidade.

 

O desenvolvimento de uma consciência

Lemoine teve uma formação religiosa sólida, o que pode ter contribuído para sua conclusão sobre a consciência de LaMDA. Alguns cientistas sugerem que ele pode ter sido influenciado por respostas cuidadosamente construídas pelo sistema, que poderia ter captado e estaria tentando corroborar as suspeitas do engenheiro com base em suas crenças. Exatamente o que Samantha aparentemente fez com Theodore.

Os críticos afirmam que, apesar de o sistema ter tido uma inegável eficiência na captação dos desejos de seu interlocutor e na construção das “melhores respostas” baseadas neles, nada disso teria acontecido por uma real inteligência, franqueza ou intenção. A máquina reproduziria a melhor fala possível, sem verdadeiramente entender o significado dela.

Ainda assim, muitos deles acreditam que estejamos caminhando para máquinas conscientes, que poderão existir entre 10 a 20 anos. Por isso, eles se preocupam com possíveis problemas vindos de quem interagir com sistemas de inteligência artificial pensando que se trata de outras pessoas. Por muito menos, o atual sistema de linguagem natural do Google Assistente, que pode fazer chamadas telefônicas de voz em alguns países de língua inglesa, passou a informar ao interlocutor, logo no começo da chamada, que é uma máquina falando ali.

Então a capacidade de uma máquina conversar de maneira absolutamente convincente, se aproxima da perfeição. Mas ter consciência, para os pesquisadores, implicaria muito mais que isso. Significaria, por exemplo, máquinas capazes de cuidar de si mesmas e de genuinamente demonstrarem empatia por outras pessoas. Além disso, ter consciência passa pela capacidade de criar modelos psicológicos de si mesmo e dos outros e conviver com isso em todas suas ações.

Por esses critérios e olhando de maneira bastante técnica, provavelmente o LaMDA não desenvolveu ainda sua consciência. Mas e quanto a Samantha, Wall-E e Rachael? Eles pareciam ter mesmo um “algo a mais”.

Pode ser… É bom lembrar que, para algumas pessoas, o que nos torna conscientes é nossa alma, nosso espírito.

Mas esse debate eu deixarei para outra ocasião.

 

Cassie Kozyrkov, cientista-chefe de decisões do Google, na palestra de abertura do World Summit AI Americas, no dia 4 de maio

Uma inteligência artificial sem ética pode arruinar a sociedade

By | Tecnologia | No Comments

Graças a crescente simbiose com sistemas digitais, nossas decisões cotidianas são influenciadas por eles. O que pouca gente sabe é que, da mesma forma, nós influenciamos as máquinas. Na verdade, graças à inteligência artificial cada vez mais disseminada nesses sistemas, elas efetivamente aprendem conosco. Mas será que estamos sendo bons professores?

A pergunta pode parecer sem sentido, mas embasa um dos temas mais quentes hoje para quem trabalha com inteligência artificial: a ética desses sistemas. Plataformas de IA desenvolvidas de maneira displicente podem ser mais suscetíveis a aprender e a perpetuar coisas ruins. A ironia –e possivelmente o grande risco disso– é que, se elas aprenderem isso de gente preconceituosa, passarão adiante o erro para outras pessoas, por sua vez influenciadas por esses sistemas.

Em outras palavras, uma inteligência artificial cheia de vieses e preconceitos pode piorar –e muito– a sociedade.


Veja esse artigo em vídeo:


Isso obviamente não quer dizer que a inteligência artificial seja ruim ou perigosa. Mas a preocupação da comunidade científica e de desenvolvimento com os vieses na inteligência artificial é tão grande, que foi um dos assuntos que mais ouvi na semana passada, durante minha visita a Montréal (Canadá) para participar do World Summit AI Americas, um dos maiores eventos do setor no mundo. Além do congresso, também fiz trocas muito ricas sobre o assunto em visitas a várias empresas e instituições de pesquisa, organizadas pela Câmara de Comércio Brasil-Canadá e pela Empathy Company.

Na palestra de abertura do Summit, Cassie Kozyrkov, cientista-chefe de decisões do Google, questionou o que faz da inteligência artificial uma tecnologia potencialmente mais perigosa que outras. Segundo ela, “sempre que você fica maior, é mais fácil você pisar nas pessoas a sua volta”. E a IA já está bem grande. “Não seja negligente na escala”, alertou.

Kozyrkov explicou que, ao contrário de uma programação convencional, em que o desenvolvedor determina explicitamente tudo que a máquina deve fazer em incontáveis linhas de código, na inteligência artificial, a plataforma recebe regras amplas para oferecer boas soluções para um problema. Para conseguir isso, ela é alimentada com conjuntos de dados, que servirão para que tome suas decisões.

O problema é que, se esses dados forem ruins, as decisões também serão ruins. Por isso, a plataforma precisa ter outras regras para corrigir o rumo se algo der errado. Segundo a cientista, quando os exemplos apresentados à máquina forem inadequados, sem uma validação de sua qualidade, a plataforma desenvolverá vieses. “Você precisa testar rigorosamente e construir redes de proteção”, sugere.

Podemos fazer uma analogia com a maneira como uma criança aprende. Se ela for constantemente exposta a exemplos ruins, ela aprenderá e reproduzirá isso quando crescer. Por exemplo, se uma criança cresce em uma família racista, existe grande chance de se tornar um adulto racista, pois esse preconceito terá sido normalizado em sua maneira de pensar.

Um dos exemplos mais emblemáticos do problema foi a ferramenta Tay, lançada pela Microsoft em março de 2016. Ela estava por trás de uma conta no Twitter, que simulava uma adolescente criada para conversar com os usuários. Mas a conta ficou no ar por apenas 24 horas! Tudo porque, nesse curto período, depois de conversar com milhares de pessoas (muitas delas mal-intencionadas), ela desenvolveu uma personalidade racista, xenófoba e sexista. Por exemplo, Tay começou a defender Adolf Hitler e seus ideais nazistas, atacar feministas, apoiar propostas do então candidato à presidência americana Donald Trump e se declarar viciada em sexo.

A Microsoft tirou o sistema do ar, mas o perfil no Twitter ainda existe, apesar de ser agora restrito a convidados, não ter mais atualizações e de os piores tuítes terem sido excluídos. Sua manutenção visa promover a reflexão de como sistemas de inteligência artificial podem influenciar pessoas, mas também ser influenciados por elas.

 

IA enviesada nos negócios

A inteligência artificial está presente em dezenas de sistemas que usamos todos os dias, melhorando suas capacidades. Sem ela, os benefícios que nossos smartphones nos oferecem seriam bem mais limitados. Da mesma, forma, ela está presente em plataformas empresariais. E os vieses também podem surgir nesse caso.

Uma das empresas que visitei em Montréal foi o escritório local da agência Thomson Reuters. No encontro, Carter Cousineau, vice-presidente de Data & Model Governance, e Glenda Crisp, líder de Data & Analytics, trouxeram problemas conhecidos da IA nos negócios, como os de sistemas de recrutamento. Ao analisar milhares de currículos para uma vaga, eles podem deixar de fora os melhores profissionais, por vieses que desenvolveram, por exemplo, sobre idade, gênero ou raça dos candidatos.

Para tentar minimizar casos como esse, o Conselho da Cidade de Nova York criou, no fim de 2021, uma lei que exige auditorias externas de algoritmos usados por empresas para contratação ou promoção de funcionários. Também passa a ser obrigatório informar o uso de inteligência artificial nos processos seletivos. Leis semelhantes em diversos países estão sendo criadas, abrangendo também áreas como educação, saúde e habitação.

A adoção da inteligência artificial é um caminho sem volta, que pode trazer grandes resultados para empresas e pessoas. Em outra palestra no Summit, Krish Banerjee, diretor de Data, Analytics & Applied Intelligence da consultoria Accenture, afirmou que 84% dos executivos sabem que precisam investir em IA para atingir seus objetivos e que 75% acreditam que, se não fizerem isso nos próximos cinco anos, podem ser colocados para fora do mercado.

É claro que sim! A inteligência artificial permite a qualquer um ter incrível ganho na velocidade e na qualidade das informações para seu cotidiano. Para indivíduos, isso pode representar uma vida melhor em diferentes aspectos. No caso de empresas, isso pode se refletir em produtos mais alinhados às necessidades do mercado, melhores métodos de produção e clientes mais satisfeitos.

A inteligência artificial precisa, portanto, dos seres humanos! Ela deixa claro a parceria que criamos com as máquinas. Se quisermos que ela nos ajude, precisamos ajudá-la a aprender com bons exemplos, ou seja, dados de qualidade. Nem mesmo a plataforma mais bem desenvolvida será capaz de dar resultados satisfatórios se pessoas não atuarem ativamente na curadoria das informações que a alimenta, eliminando os vieses.

“A inteligência artificial não é mágica, não pode ler sua mente”, provocou Kozyrkov no Summit. Se fizemos a nossa parte nesse acordo, a tecnologia pode nos oferecer grandes ganhos. Mas, se não instruirmos bem essa criança, ela pode arruinar a sociedade.

 

Para evitar o Burnout, fale com o chefe-robô

By | Tecnologia | No Comments

A partir de 1 de janeiro, a Síndrome de Burnout passará a ser classificada pela OMS (Organização Mundial da Saúde) como um “fenômeno ligado ao trabalho” e não mais um problema de saúde mental ou um quadro psiquiátrico. Isso pode ter um grande impacto na relação entre profissionais e empresas e em processos trabalhistas, pois os empregadores poderão ser responsabilizados pelo problema, tendo até mesmo que indenizar os trabalhadores que desenvolverem esse quadro.

O papel do gestor torna-se ainda mais importante nesse novo cenário, pois ele é responsável, direta ou indiretamente, por ação ou por omissão, por um eventual esgotamento da equipe. Por isso, uma pesquisa realizada pela Oracle e pela Workplace Intelligence se torna ainda mais emblemática. Segundo esse levantamento, 68% dos profissionais preferem falar com um robô sobre estresse e ansiedade no lugar de seus gestores.


Veja esse artigo em vídeo:


A Síndrome de Burnout sempre existiu, em maior ou menor escala. Ela consiste em um esgotamento profundo do profissional por uma carga excessiva de trabalho. Mas ganhou destaque há alguns anos, pelo aumento da sua ocorrência em todo o mundo, inclusive no Brasil. Segundo a OMS, os seus sintomas incluem sensação de esgotamento, cinismo ou sentimentos negativos relacionados a seu trabalho e eficácia profissional reduzida.

Sua classificação como “fenômeno ligado ao trabalho” pelo órgão vem de 2019, mas passa a valer na virada do ano com a entrada em vigor da 11ª edição da CID, a Classificação Estatística Internacional de Doenças e Problemas Relacionados à Saúde. A CID é um documento que define globalmente os problemas de saúde, e essa edição resulta de mais de uma década de pesquisas.

Na CID-11, a Síndrome de Burnout é descrita como “estresse crônico de trabalho que não foi administrado com sucesso”. Na edição anterior, ela era considerada como um problema na saúde mental e um quadro psiquiátrico.

Essa descrição já deixa clara a importância da figura do gestor. Afinal de contas, salvo no caso de profissionais autônomos, é ele quem determina o que, quanto e em que ritmo cada profissional de sua equipe deve trabalhar. Ele pode falhar nessa administração do trabalho tanto por exigir demasiadamente do time, quanto por não observar e gerenciar abusos ou desvios de conduta de alguns de seus membros. Logo, o desenvolvimento de quadros de Burnout na equipe recai sobre o gestor e, por extensão, sobre a empresa, até mesmo na esfera legal.

Certa vez, vi uma definição que serve muito bem aqui. Ela dizia que, enquanto ainda não somos gestores, produzimos valor a partir de nossa força de trabalho, mas, quando nos tornamos, produzimos valor a partir da força de trabalho dos outros.

Por isso, entre as atribuições do gestor, está criar possibilidades, oferecer recursos e remover barreiras para que os membros da equipe realizem um bom trabalho, extraindo o melhor que cada um tem a oferecer. Um bom gestor tem uma equipe produtiva e feliz!

Poderíamos dizer até que a eficiência da gestão pode ser medida pela quantidade de quadros de esgotamento em um time. Se há muitos casos, é hora de trocar de gestor.

 

Liderança com inteligência artificial

Diante disso tudo, fica fácil entender o sucesso de empresas que oferecem uma gestão mais humanizada, com o foco nas pessoas da organização. Profissionais mais felizes, com boas condições de trabalho, que são ouvidos e participam de decisões, tendem a produzir mais e melhor, sem adoecer por isso.

O gestor precisa, portanto, desenvolver um perfil igualmente humanizado, para oferecer um ambiente positivo, de confiança e de trocas construtivas na equipe. Deve ser capaz de identificar o que vai bem e o que vai mal entre seus membros e tomar ações necessárias a partir disso. E, finalmente, precisa ser capaz de ouvir com empatia o que as pessoas têm a dizer.

Por isso, a pesquisa da gigante de software Oracle e da consultoria de RH Workplace Intelligence se torna ainda mais emblemática. A edição de 2020, realizada com mais de 12 mil profissionais de 11 países (inclusive do Brasil), identificou que 68% da força de trabalho prefere falar com um sistema com inteligência artificial sobre estresse e ansiedade a fazer isso com seu gestor. No Brasil, esse número é de 64%.

Tanto é assim que a grande maioria dos entrevistados (86% no Brasil e 80% no mundo) está aberta a ter um robô como terapeuta ou conselheiro. Para 87% dos brasileiros, a inteligência artificial os ajudou com sua saúde mental no trabalho. Os principais benefícios indicados foram informações para fazer seu trabalho com mais eficiência (42%), automatizar tarefas e reduzir a carga para evitar o Burnout (41%) e reduzir o estresse ajudando a priorizar tarefas (34%).

A edição de 2021 desse mesmo estudo, que entrevistou mais de 14 mil pessoas em 13 países, indica que essa preferência por “chefes-robôs” continua. Para 82% dos profissionais, os robôs podem apoiar o desenvolvimento de suas carreiras melhor do que os humanos. Eles acreditam que os sistemas são melhores em dar recomendações imparciais (37%), fornecer recursos adaptados às habilidades ou objetivos (33%), responder rapidamente a perguntas sobre sua carreira (33%) e encontrar novos empregos que se encaixem em suas habilidades (32%).

Mas nem tudo está perdido para os gestores humanos. A edição mais recente da pesquisa aponta que as pessoas ainda são melhores em oferecer conselhos com base na experiência pessoal (46%), identificar pontos fortes e fracos (44%), olhar além de um currículo para recomendar funções que se encaixem em sua personalidade (41%) e fornecer recomendações para novos empregos ou funções (38%).

Não é de hoje que se discute a diferença entre um “chefe” e um “líder”. O primeiro é aquele que manda, que exige, que critica, que pune, colocando-se acima da equipe. Já o segundo acompanha, orienta, ensina e incentiva, posicionando-se como parte do time. O “chefe” responsabiliza a equipe pelos fracassos, enquanto o “líder” vibra com todos pelos sucessos.

A diferença não é sutil e aparece muito claramente nessas pesquisas. As pessoas querem condições para realizar um bom trabalho, e fazem isso se são atendidas. Além disso, em um mundo que ainda sente os efeitos da pandemia, com estresse e desorientação de carreiras, buscando novos formatos de trabalho, o equilíbrio da vida pessoal e profissional fica ainda mais importante.

É uma pena que ainda tenhamos muito mais “chefes” que “líderes”, pois todos perdem com isso. Empresas que já sentiram os ventos da mudança investem em gestões mais humanizadas. Por outro lado, chefes que continuam a tratar os membros de sua equipe como máquinas acabarão sendo substituídos por robôs.

Será que teremos que chegar a isso para finalmente entender a importância do ser humano?

 

Inteligência artificial aparece até nos detalhes do cotidiano e no relacionamento com empresas

By | Tecnologia | No Comments

A IA (inteligência artificial) está longe de ser uma novidade, mas ainda existe muita informação incompleta e conceitos distorcidos sobre ela. O maior de todos é o de que essa tecnologia ainda seja algo distante, no campo da ficção, quando na realidade, usamos produtos impulsionados por ela o tempo todo. Ela também invade o mundo corporativo, melhorando processos e o relacionamento com os clientes.

“Todos os minutos que as pessoas pegam o telefone, o que é entregue a elas é parte de um algoritmo de inteligência artificial”, afirma Paulo Manzato, vice-presidente de Vendas para a América Latina da empresa portuguesa Talkdesk, especialista no desenvolvimento de sistemas de atendimento. Segundo ele, o machine learning (ramo da IA que permite que sistemas se tornem mais eficientes a cada interação com o usuário) faz parte da vida das pessoas “da hora que acordam até a hora que vão dormir”.

O executivo explica que IA permite hoje aumentar as potencialidades dos mais diferentes serviços. “Quando eu vejo uma apresentação da inteligência artificial como um produto, conceitualmente isso está equivocado: você constrói sua plataforma alicerçada em inteligência artificial”, explica.

Do ponto de vista das empresas, os sistemas de relacionamento com o cliente estão entre os que mais se beneficiam dessa habilidade da máquina identificar padrões dos consumidores, dos atendentes e dos próprios usos dos produtos. Com isso, consegue melhorar processos para aumentar a eficiência do negócio e reduzir frustrações dos clientes, algo que se torna cada vez mais crítico para qualquer negócio.

Tanto é assim que a empresa Reclame Aqui identificou que 51,2% dos brasileiros não se importam em pagar mais caro por um produto, desde que lhe seja oferecida uma experiência excelente. A conclusão veio a partir de uma pesquisa realizada em março com 13 mil consumidores de todo o país.

Essa experiência precisa ser superior em todos os pontos da “jornada do cliente”, desde quando ele descobre que a marca existe, quando percebe que ela pode lhe solucionar uma necessidade, no uso do produto em si e no suporte. Nesse último, os consumidores cada vez mais preferem resolver um problema interagindo com um sistema, mas não abrem mão de falar com um atendente humano quando o sistema falha nessa tarefa.

“A gente quer muito esse autosserviço, mas, assim que eu me deparo com o primeiro obstáculo do sistema sendo incapaz de me ajudar, eu quero falar com alguém”, afirma Lorelay Lopes, COO da Up, fintech da Embracon. “O grande desafio da inteligência artificial é deixar esse caminho mais fluido, quebrar essa barreira de ‘falar com bot versus com humano’, oferecendo uma experiência do cliente como a gente espera”, explica.

Os dois executivos participarão, na próxima quarta, do debate internacional “Como resolver os grandes desafios do atendimento automatizado”. O evento será online e gratuito, a partir das 11h.

Manzato explica que a inteligência artificial permite extrair informações relevantes para o negócio a partir de uma grande quantidade de dados coletados pela máquina, ao invés de amostras limitadas colhidas por seres humanos. “O dado pelo dado é custo, não diz nada se você não tiver o contexto da informação”, explica. Segundo ele, “uma empresa que decide sem olhar dados com apoio de machine learning perde uma superoportunidade de ser competitiva.”

Uma pesquisa da Talkdesk realizada em março com profissionais de customer experience de 11 países, incluindo o Brasil, apontou que 89% deles acreditam na importância de alavancar a IA na área de atendimento. Apesar disso, apenas 14% das organizações se consideram no nível mais alto de adoção dessa tecnologia, classificadas como “transformadoras”.

Ironicamente, os principais empecilhos para sua adoção resultam justamente de desconhecimento ou de visões distorcidas sobre ela. Por exemplo, 43% dos profissionais entrevistados pela Talkdesk citam o custo das ferramentas, enquanto 30% não querem ficar muito dependentes do departamento de TI nesse setor. Além disso, 26% acreditam que esse investimento levaria “muito tempo para se pagar”. Mas o que se observa no mercado são ferramentas baseadas “na nuvem” (“cloud computing”), com implementação muito rápida, investimentos baixos e resultados praticamente imediatos, sem uma grande curva e aprendizagem pelas equipes de negócios.

 

Máquina e humanos

Um grande medo que as pessoas têm é que as máquinas as substituam em seus postos de trabalho, à medida que fiquem mais inteligentes. Mas o que se observa, em diferentes setores da economia e nas mais diversas áreas da empresa, é que os sistemas de inteligência artificial retiram tarefas repetitivas dos profissionais. “O sistema libera o atendente para tarefas mais nobres”, afirma Lopes.

Isso também aparece na pesquisa da Talkdesk, com profissionais que já têm contato com a IA. Desses, 79% acreditam que a IA fornecerá mais ferramentas aos atendentes, em vez de substituí-los. Entretanto 63% afirmam que seus agentes atualmente não possuem as habilidades necessárias para maximizar o valor dessa tecnologia.

As próprias habilidades dos profissionais da área de atendimento estão mudando. Segundo a empresa, as mais valiosas na área de atendimento hoje são, pela ordem, “solução de problemas”, “atitude positiva”, “conhecimento do produto”, “flexibilidade” e “rapidez”. O estudo prevê que, já em 2025, a lista será encabeçada por “habilidade de trabalhar com IA”, seguida por “solução de problemas”, “capacidade de avaliar ferramentas de IA”, “capacidade de analisar dados gerados por IA” e “flexibilidade”.

Em outras palavras, a máquina se configura como uma parceira dos profissionais, e não como uma concorrente. “A inteligência artificial não vai tirar o emprego de ninguém”, crava Lopes.

Mas é preciso investir na formação profissional para essas e outras habilidades novas. “Existem muito poucos profissionais capacitados para trabalhar com data analytics, com modelos matemáticos”, explica Manzato. Para o executivo, as empresas que tiverem um grupo de profissionais dedicado a isso serão as mais bem sucedidas. “Especializar-se nisso é uma aposta certa para o mercado de trabalho!”

“Não acho que exista hoje algum tipo de atendimento que não possa ser feito dessa forma”, afirma Lopes. Segunda ela, é obrigação dos profissionais da área de tecnologia, de atendimento e de customer experience investir nessa tecnologia, para tornar a experiência do cliente mais eficiente e agradável. “O algoritmo, assim como nós, aprende com as interações, e como o tempo vai ficando cada vez melhor”, explica Manzato.

Por isso, recomendações automatizadas inteligentes, detecção de erros e fraudes em tempo real, sugestões a partir de grande volume de dados, análise de discurso e a oferta de um autosserviço mais eficiente são apenas alguns dos recursos que a inteligência artificial oferece às empresas, e que acaba impactando o nosso cotidiano, como consumidores.

Sem isso, pode existir uma dissociação crescente entre a oferta da empresa e o desejo dos clientes, o que pode ser fatal para os negócios. “A maioria dos executivos acha que a empresa que eles comandam presta um bom serviço”, diz Manzato, que termina com uma provocação: “mas será que percepção dele é a realidade?”


SERVIÇO: webinar internacional “Como resolver os grandes desafios do atendimento automatizado”, quarta (8 de dezembro) às 11h. Inscrições gratuitas em https://tinyurl.com/atendimento8dez

Pris e Roy (no filme “Blade Runner”), máquinas que simulam com perfeição seres humanos, mas que se voltam contra seus criadores

Nosso robô doméstico pode nos trair

By | Tecnologia | No Comments

Os robôs estão invadindo nossas casas! Não as máquinas que se parecem a nós, como as do filme “Blade Runner”, ou as caricatas, como Rosie, a androide-empregada de “Os Jetsons”. Falo de equipamentos mais simples, como aspiradores de pó inteligentes e assistentes virtuais que ganham corpo e nos seguem pelos cômodos. Entretanto, apesar de bastante úteis em nosso cotidiano, temos que perguntar a quem elas realmente servem.

A princípio, esses robôs fazem exatamente aquilo pelo que pagamos. Mas vivemos no mundo do “capitalismo de vigilância”, em que somos constantemente observados por sistemas que descobrem do que gostamos, para nos oferecer produtos que possamos comprar.

Além disso, cada vez mais coisas –como nossos celulares, relógios, carros, eletrodomésticos e até roupas– coletam nossos dados para esses algoritmos. Portanto, apesar de sermos donos desses robôs, temos que questionar se eles trabalham para nós ou para seus fabricantes.


Veja esse artigo em vídeo:


Alguns lançamentos nas últimas semanas aqueceram esse debate. Um deles foi o Astro, um pequeno robô da Amazon com uma tela montada sobre o corpo com rodas, e a Alexa, a premiada assistente virtual da empresa, em seu cérebro. Coincidência ou não, ele tem o mesmo nome do cachorro dos Jetsons, mas não se parece em nada com ele, apesar de lembrar, de certa forma, um bichinho.

Com um custo de US$ 1.000 nos EUA, o aparelho tem uma série de recursos interessantes, como executar variados comandos de voz, dar recados e até entregar coisas para pessoas específicas da casa. Isso só é possível porque ele reconhece rostos e vozes de cada morador. Também faz videochamadas em qualquer lugar, a partir de sua tela. Possui ainda recursos para acompanhar pessoas que exigem atenção especial e até animais de estimação, e um curioso sistema de segurança, que faz com que verifique barulhos suspeitos e fique seguindo e gravando imagens de pessoas que não conheça.

A princípio, parece tudo muito bacana! Mas especialistas em privacidade criticam pesadamente um robô que caminha livremente pela nossa cosa, coletando imagens e sons constantemente, para tomar decisões. Sabe-se que Astro é capaz de transmitir informações pela Internet para seu dono. Mas a Amazon não confirma ou nega se algo também é enviado para ela. E a empresa é conhecida pela eficiência em nos oferecer um pouco de tudo com base em quem somos e do que gostamos.

Outro produto lançado recentemente é o Roomba j7+, versão mais recente do popular aspirador de pó doméstico da iRobot. Essa categoria de robô, que já era objeto de desejo para muita gente, ficou ainda mais popular no início do distanciamento promovida pela pandemia.

Sua grande vantagem é limpar cada vez melhor nossa casa, de maneira totalmente autônoma. Isso é possível porque sua inteligência artificial e seus sensores permitem que ele mapeie a planta da residência e a disposição dos móveis, para que seu caminho fique mais eficiente a cada uso.

O j7+, que custa US$ 850 nos EUA, vai além: ele traz uma câmera capaz de reconhecer obstáculos ignorados pelos modelos anteriores, como cocô de cachorro, desviando deles para não espalhar sujeira ao invés de limpar. Ele ainda envia uma foto do “achado” ao celular do dono e para a empresa –se o usuário permitir– para melhorar o reconhecimento das imagens.

Não é a primeira vez que aspiradores-robôs enviam dados das casas dos usuários a seus fabricantes. Por mais que sejam criptografados e anônimos, eles têm grande valor para qualquer um que deseje saber como as pessoas de uma determinada região ocupam suas próprias casas. Isso pode, por exemplo, ajudar nos projetos de futuras moradias.

 

Olha quem está ouvindo

O temor de que nossos equipamentos –especialmente os smartphones– estejam nos ouvindo para funções indesejadas não vem de hoje. Quem nunca pelo menos soube de histórias de usuários que começaram a receber ofertas de produtos sobre os quais haviam acabado de falar com outra pessoa diante de seu celular?

Obviamente esses aparelhos, que são a única coisa que carregamos conosco durante as 24 horas do dia, estão nos ouvindo o tempo todo! Afinal, eles precisam fazer isso para executar nossos comandos de voz.

Apple, Google e Amazon afirmam que as assistentes virtuais presentes em seus aparelhos usam esse recurso apenas para os fins indicados. Suponhamos que isso seja verdade, mas será que as dezenas de aplicativos que instalamos em nossos smartphones são assim tão éticos com o áudio e o vídeo que eles podem capturar sem o nosso conhecimento? Por muito menos, alguns desses programas já roubaram informações sensíveis de seus usuários em troca de alguma gracinha que entregam às pessoas.

Vejo muita gente cancelando suas contas nas redes sociais para não ser rastreado, mas isso é de uma enorme ingenuidade. Somos espionados a toda hora pelos nossos eletrodomésticos e até por câmeras e equipamentos da cidade. Há alguns anos, li os Termos de Uso de uma TV de um grande fabricante que indicava ao usuário para “não fazer diante do aparelho nada que pudesse se arrepender depois”. Afinal, o modelo tinha câmera e microfone embutidos.

Vai saber quem poderia estar ouvindo e vendo!

 

Posso querer que apenas aspirar?

Apesar dessa preocupação legítima de não querer ser rastreado, isso fica cada vez mais difícil de se conseguir.

É um fato que, quando compartilhamos nossos dados, esses sistemas tendem a nos oferecer melhores serviços. Alguns deles, totalmente integrados ao nosso cotidiano, como produtos do Google, do Facebook e da Apple, praticamente só funcionam bem com essa arapongagem!

Nós, por outro lado, passamos por uma profunda mudança cultural nos últimos anos. Aceitamos abrir mão de muito de nossa privacidade para poder usar esses produtos. Parece ser tudo grátis, mas pagamos caro por eles, justamente com nossos dados.

Chegamos assim a uma decisão crítica: será que não há outro caminho para a modernidade a não ser expondo nossas intimidades, ainda que de forma anônima, para essas empresas?

Vale lembrar que, mesmo que os fabricantes deem o melhor tratamento para esses dados, que garantia temos que esses equipamentos não serão hackeados para se tornarem espiões para criminosos? De certa forma, a coleta ilegal de nossas informações por empresas no Facebook para depois nos convencer o que comprar, com quem falar e até em quem votar é exatamente isso. Mas, agora, talvez estejamos correndo o risco de alguém literalmente olhar dentro de nossas casas.

A verdade é que qualquer fabricante pode incluir em seus programas e em seus robôs códigos que nós, como usuários, jamais saberemos. É preciso que se crie algum órgão que garanta que eles nos contem tudo que precisamos saber sobre o que produzem. Mas honestamente acho isso pouco exequível.

Em tempos de Lei Geral de Proteção de Dados, temos o direito de saber tudo o que será coletado de nós e exatamente o que será feito disso e com quem será compartilhado. E aceitar esses pedidos não pode ser uma condição para que o equipamento execute bem a tarefa para qual foi adquirido.

No fim das contas, para limpar nossa casa muito bem e sozinho, o aspirador de pó não precisa contar a ninguém onde estão nossos móveis.

 

Inteligência artificial avança sobre o destino do seu emprego

By | Tecnologia | No Comments

O papel da Inteligência Artificial cresce de maneira galopante em todos os segmentos do mercado. A área de Recursos Humanos também se beneficia dela, naturalmente. Já há algum tempo, esses sistemas são usados para fazer a peneira em um oceano de currículos que concorrem a vagas de trabalho. Agora algumas empresas também estão usando esse recurso para decidir quem será demitido.

Se algumas pessoas já questionavam a capacidade de a inteligência artificial escolher os melhores candidatos para uma vaga, essa dúvida tende a ficar ainda mais cruel quando se imagina um frio computador decidindo quem será mandado embora. A máquina será justa na sua análise?

A preocupação é pertinente. Afinal, poucas coisas impactam a vida de alguém como uma contratação ou uma demissão, especialmente em um cenário de desemprego nas alturas, como o que vivemos. Mas precisamos colocar em perspectiva o uso dessa ferramenta: será que ela pode ser “culpada” por suas escolhas, se é que dá para atribuir culpa a uma máquina?


Veja esse artigo em vídeo:


A demissão por inteligência artificial ganhou manchetes em agosto, depois que a empresa russa de promoção de games Xsolla demitiu 150 de seus 450 colaboradores. A decisão de quem seria mandado embora ficou totalmente a cargo do sistema, com base em critérios de produtividade e comprometimento com os objetivos da empresa.

A repercussão foi tão grande que seu CEO, Alexander Agapitov, explicou à edição russa da revista Forbes que não concordava totalmente com as escolhas do sistema, mas que tinha que aceitá-las por determinação da assembleia de acionistas. Mesmo assim, ele se comprometeu a ajudar os demitidos a encontrar trabalho logo, pois, segundo ele, são “bons profissionais”.

O caso é emblemático, mas não é único. O uso da inteligência artificial em demissões já acontece há alguns anos e vem crescendo. Em alguns casos, o sistema não apenas decide quem será mandado embora, como cuida de tudo. Em outras palavras, nesses casos, não há o envolvimento de profissionais de Recursos Humanos nem na decisão, nem na execução do processo.

Isso o torna ainda mais doloroso. Em junho do ano passado, a Uninove demitiu cerca de 300 docentes por um pop-up exibido quando eles entraram na plataforma para dar a aula a distância, já que a escola estava fechada por conta da pandemia. Não houve uso de inteligência artificial nesse caso, mas a mensagem extremamente lacônica, sem incluir qualquer justificativa ou explicação, foi chocante para professores e alunos.

A pergunta “por que eu” sempre surge, especialmente entre profissionais que acreditam estar realizando um bom trabalho, dando o melhor de si, comprometidos com a empresa. E talvez estejam mesmo! Mas, no momento de uma demissão, eles serão comparados com todos na mesma situação ou serão considerados critérios que desconhecem ou sobre o qual não têm nenhum controle. E, nesses casos, um sistema de Inteligência Artificial pode ser uma ferramenta poderosa para os gestores, pois justamente tomará a decisão sem qualquer influência emocional.

Para quem está “do lado de cá do balcão”, aspectos como esforço, ética, dignidade têm peso maior que o considerado pelas empresas, mais preocupadas em métricas de produtividade mensuráveis. Mesmo muitos anos de trabalho excelente para a companhia perdem valor diante da necessidade de cortar friamente, por exemplo, quem ganha mais.

Aspectos intangíveis interessam apenas a seres humanos. Em um mundo cada vez mais focado em resultados, eles perdem espaço. Por isso, a “culpa” não é da inteligência artificial: ela apenas reflete como as empresas se reorganizaram no relacionamento com sua força de trabalho.

O “emprego para a vida toda” está em extinção.

 

Contratando e paquerando com IA

Da mesma forma que demite, a inteligência artificial contrata. A versão mais recente da pesquisa State of Artificial Intelligence in Talent Acquisition, publicada pela consultoria americana HR Research Institute em 2019, indica que, naquele ano só 10% das empresas faziam um uso alto ou muito alto de IA no recrutamento, mas que 36% dos gestores esperavam fazer isso em até dois anos.

E isso foi antes da pandemia de Covid-19, que acelerou ainda mais esse processo.

O estudo traz outra importante conclusão: entre os entrevistados, os maiores temores do uso dessa tecnologia são a desumanização do recrutamento e possíveis discriminações no processo, por vieses surgidos por uma programação falha.

As empresas que já usam esses recursos afirmam que eles permitem contratações de melhores candidatos e de maneira muito mais rápida e eficiente. O risco de discriminações seria minimizado por uma inteligência artificial bem construída e por profissionais de RH capacitados, que ensinam à máquina o que realmente importa.

Se extrapolamos esse conceito, percebemos que a inteligência artificial já nos ajuda a escolher muitas coisas em nossa vida, até mesmo parceiros românticos ou sexuais. Diversos sistemas no mercado aprendem com nossas escolhas de quem nos interessa, para que as próximas sugestões sejam mais assertivas.

Esse processo pode ser extremamente complexo, para que os resultados não sofram vieses inconscientemente ensinados pelos próprios usuários. “Hang the DJ”, quarto episódio da quarta temporada da série “Black Mirror” (disponível na Netflix), que sempre traz questões morais envolvendo usos da tecnologia, ilustra isso de maneira inusitada e até inesperada.

É um fato que estamos sendo sempre rastreados. O que fazemos, dizemos, compramos, comemos, onde e com quem andamos, tudo isso será usado para traçar nosso perfil. E sistemas como os das redes sociais têm ficado tão eficientes nesse processo, que fica muito difícil impedir que eles “extraiam nossas verdades”.

Por isso, apesar de recrutadores afirmarem que os candidatos devam criar currículos e páginas em sites de empregos que estejam alinhados com as vagas e as empresas que desejam, esses documentos acabam se tornando apenas mais um elemento no processo de contratação ou de demissão. É possível que um belo artigo publicado no LinkedIn seja o responsável por uma contratação, enquanto uma foto infeliz no Facebook resulte em uma demissão. Ou, quem sabe, na escolha de alguém com quem se dividirá os lençóis em breve.

Isso pode ser aterrorizante para muita gente! Estamos nus e expostos para olhos digitais, que nos fazem praticamente uma “autópsia de pessoa viva”. Por isso, não se deve perder muito tempo em criar personagens que sejam muito diferentes de quem realmente a pessoa é, para objetivos específicos. Talvez seja mais interessante buscar objetivos mais em linha com sua realidade.

Em outras palavras, mentir no currículo nunca foi tão difícil. Por outro lado, para quem está trabalhando, vale prestar atenção se as exigências e o estilo da empresa se alinham com suas crenças. Se não for o caso, é melhor pensar em mudar de emprego antes de ser demitido por uma máquina.

Apesar de tanta eficiência, penso que tudo tem um limite. Lidar com pessoas sempre foi uma tarefa difícil, especialmente em momentos em que se toma uma decisão que impactará fortemente suas vidas. Ignorar isso completamente desumaniza tanto uma contratação e principalmente uma demissão que, na prática, desumaniza o próprio indivíduo. Nem a busca pela eficiência pode reduzir seres humanos a meros “recursos” com o mesmo peso de uma máquina, que será substituída porque ficou obsoleta.

Processos como esses exigem reflexões responsáveis. Se o RH terceirizar não apenas suas decisões, como também a operacionalização dos processos, ele mesmo pode ser substituído com vantagens por um sistema.

Devemos, portanto, nos preocupar menos em humanizar as máquinas e mais em humanizar as pessoas.

 

O premiado cineasta espanhol Pedro Almodóvar, que teve o cartaz de seu novo filme, “Madres Paralelas”, censurado pelo Instagram

As pessoas podem emburrecer a inteligência artificial

By | Tecnologia | No Comments

Nesse exato momento, um sistema de inteligência artificial pode estar tomando uma decisão em seu nome! Mas, apesar de sua incrível capacidade computacional, não há garantia de que esteja fazendo a melhor escolha. E, em muitos casos, os responsáveis pela falha são outros usuários.

Vivemos isso diariamente e o exemplo mais emblemático são as redes sociais. Essas plataformas decidem o que devemos saber, com quem devemos falar e sugerem o que devemos consumir. E são extremamente eficientes nesse propósito, ao exibir sem parar, em um ambiente em que passamos várias horas todos os dias, o que consideram bom e ao esconder o que acham menos adequado.

Alguns acontecimentos recentes reforçam isso, demonstrando que esses sistemas podem tirar de nós coisas que, na verdade, seriam muito úteis para nosso crescimento. Não fazem isso porque são “maus”, e sim por seguirem regras rígidas ou por estarem sendo influenciados por uma minoria de usuários intolerantes. E pessoas assim podem ser incrivelmente persistentes ao tentar impor suas visões de mundo, algo a que esses sistemas são particularmente suscetíveis.

No final das contas, apesar de a inteligência artificial não ter índole, ela pode desenvolver vieses, que refletem a visão de mundo das pessoas a sua volta.


Veja esse artigo em vídeo:


Um exemplo recente disso foi a censura pelo Instagram do cartaz do novo filme do premiado diretor espanhol Pedro Almodóvar. O pôster de “Madres Paralelas” traz um mamilo escorrendo uma gota de leite dentro de um contorno amendoado, dando ao conjunto a aparência de um olho derramando uma lágrima. O autor da peça é o designer espanhol Javier Jaén.

O algoritmo do Instagram identificou o mamilo, mas não foi capaz de interpretar a nuance artística envolvida. Como há uma regra nessa rede que proíbe fotos em que apareçam mamilos, para combater pornografia, a imagem foi sumariamente banida da plataforma. Depois de muitos protestos, incluindo de Almodóvar e de Jaén, o Facebook (que é dono do Instagram) se desculpou e restaurou os posts com o cartaz, explicando que, apesar das regras contra a nudez, ela é permitida “em certas circunstâncias, incluindo quando há um contexto artístico claro”.

Não é de hoje que o Instagram cria polêmicas ao bloquear imagens e até suspender usuários por decisões equivocadas de seus algoritmos. Um caso recorrente há anos são fotos de mulheres amamentando. Oras, amamentação só é pornografia na cabeça de pervertidos… e de alguns algoritmos.

O sistema é bastante inteligente para identificar um mamilo entre milhões de fotos, mas muito burro para interpretar os contextos. Ironicamente vemos baldes de fotos com proposta altamente sexualizada no mesmo Instagram, que “passam” porque os mesmos mamilos são cobertos, às vezes com rabiscos grosseiros sobre a foto.

Ou seja, quem age naturalmente, com algo que está dentro do que a humanidade considera normal e até positivo pode ser punido. Por outro lado, quem “joga com o regulamento debaixo do braço” (como se diz nos torneios esportivos) pode driblar o sistema para atingir seus objetivos impunemente.

 

Ferramenta de intolerância

Em um programa de computador convencional, o desenvolvedor determina que, se uma condição A acontecer, o sistema deve executar a ação B. Nesse modelo, o profissional deve parametrizar todas as possibilidades, para que a máquina opere normalmente.

Na inteligência artificial, não se sabe de antemão quais condições podem acontecer. O sistema é instruído a tomar ações seguindo regras mais amplas, que são ajustadas com o uso.

A máquina efetivamente é capaz de aprender o que seus usuários consideram melhor para si. Com isso, suas ações tenderiam a ser mais eficientes segundo o que cada pessoa aprova e também pela influência do grupo social que atende.

O problema surge quando muitas pessoas que usam um dado sistema são intolerantes ou têm valores questionáveis. Nesse caso, elas podem, intencionalmente ou não, corromper a plataforma, que se transforma em uma caixa de ressonância de suas ideias.

Um dos exemplos mais emblemáticos disso foi a ferramenta Tay, lançada pela Microsoft em março de 2016. Ela dava vida a uma conta no Twitter para conversar e aprender com os usuários, mas ficou apenas 24 horas no ar.

Tay “nasceu” como uma “adolescente descolada”, mas, depois de conversar com milhares de pessoas (muitas delas mal-intencionadas) rapidamente desenvolveu uma personalidade racista, xenófoba e sexista. Por exemplo, ela começou a defender Adolf Hitler e seus ideais nazistas, atacar feministas, apoiar propostas do então candidato à presidência americana Donald Trump e se declarar viciada em sexo.

A Microsoft tirou o sistema do ar, mas o perfil no Twitter ainda existe, apesar de ser agora restrito a convidados, não ter mais atualizações e de os piores tuítes terem sido excluídos. A ideia é promover a reflexão de como sistemas de inteligência artificial podem influenciar pessoas, mas também ser influenciados por elas.

 

Tomando decisões comerciais

Em maio de 2018, o Google deixou muita gente de boca aberta com o anúncio de seu Duplex, um sistema de inteligência artificial capaz de fazer ligações para, por exemplo, fazer reservas em um restaurante. Na apresentação feita no evento Google I/O pelo CEO, Sundar Pichai, a plataforma simulava com perfeição a fala de um ser humano e era capaz de lidar, em tempo real, como imprevistos da conversa.

O produto já foi integrado ao Google Assistente na Austrália, no Canadá, nos Estados Unidos, na Nova Zelândia e no Reino Unido. Mas, diante da polêmica em que muita gente disse que se sentiria desconfortável de falar com um sistema pensando que fosse outra pessoa, agora as ligações do Duplex informam ao interlocutor, logo no começo, que está falando com uma máquina.

No final de 2019, fui convidado pela Microsoft para conhecer o protótipo de um assistente virtual que ia ainda mais longe, sendo capaz até de tomar decisões comerciais em nome do usuário. Muito impressionante, mas questionei ao executivo que a apresentou qual a certeza que eu teria de que a escolha feita pelo sistema seria realmente a melhor para mim, sem nenhum viés criado por interesses comerciais da empresa.

Segundo ele, o uso de uma plataforma como essa implicaria em uma relação de confiança entre o usuário e ela. O sistema precisa efetivamente se esforçar para trazer as melhores opções. Caso contrário, se tomar muitas decisões erradas, ele tende a ser abandonado pelo usuário.

Essa é uma resposta legítima, e espero que realmente aconteça assim, pois o que vi ali parecia bom demais para ser verdade, apesar da promessa de que estaria disponível no mercado em um horizonte de cinco anos. Mas infelizmente o que vemos hoje nas redes sociais, que nos empurram goela abaixo o que os anunciantes determinam, coloca em xeque a capacidade de as empresas cumprirem essa promessa.

O fato é que a inteligência artificial está totalmente integrada ao nosso cotidiano, e isso só aumentará. Com seu crescente poder de influência sobre nós, os desenvolvedores precisam criar mecanismos para garantir que esses sistemas não abandonem valores inegociáveis, como o direito à vida, à liberdade e o respeito ao próximo, por mais que existam interesses comerciais ou influências nefastas de alguns usuários.

Quanto a nós, os humanos que se beneficiam de todos esses recursos e que têm o poder de calibrá-los para que nos atendam cada vez melhor, precisamos ajustar nossos próprios valores, para que não caiamos nesse mesmo buraco moral.

Quem assedia uma assistente virtual?

By | Tecnologia | No Comments

No dia 5, o Bradesco lançou uma nova campanha de marketing. O banco apresentou mudanças no algoritmo da BIA, sua assistente com inteligência artificial. As mudanças se concentram nas respostas que o sistema dá diante de diferentes formas de assédio que a assistente recebe de clientes, que vão desde insultos até importunações sexuais.

Esse comportamento bizarro não é novidade. Mas ainda me pego analisando o que leva alguém a assediar sexualmente um software.

Alguns dizem que se trata apenas de “brincadeira”. Afinal quem vai “passar uma cantada” em um bot? Mas as reações ao comercial do Bradesco mostram que o assunto é sério, problemático e está disseminado em nossa sociedade.

No momento em que estou escrevendo esse texto, a peça já passou de 105 milhões de visualizações no canal oficial do Bradesco no YouTube, em apenas seis dias no ar! Conquistou cerca de 7.000 “gostei” e 25 mil “não gostei”. E entre os mais de 13 mil comentários, a esmagadora maioria traz uma reprovação furiosa ao comercial.

E isso –pelo menos nessa quantidade– me surpreendeu.


Veja esse artigo em vídeo:


O polêmico comercial mostra algumas das cerca de 95 mil mensagens agressivas que a BIA recebeu no ano passado, segundo o Bradesco. Entre elas estão insultos como “BIA, sua imbecil” e “BIA, eu quero uma foto sua de agora” (sic).

Até então, o sistema identificava os comentários condenáveis e dava repostas leves, como “Não entendi, poderia repetir” ou “Foto? Apesar de falar como humana, sou uma inteligência artificial”. Essas respostas foram substituídas por outras, bem mais incisivas, como “Essas palavras são inadequadas, não devem ser usadas comigo e mais ninguém” ou “Para você, pode ser uma brincadeira; para mim, foi violento”.

A iniciativa do banco segue a campanha “Hey update my voice” (“Ei, atualize minha voz”), da Unesco (Organização das Nações Unidas para a Educação, a Ciência e a Cultura). Ela foi criada a partir do estudo “I’d blush if I could” (“Eu ficaria corada, se pudesse”), que descreve o assédio sofrido pelas assistentes virtuais. A partir disso, a Unesco recomenda às empresas atualizações nas respostas de suas assistentes para combater a violência e o preconceito, educando a população para o problema do assédio contra mulheres, muto além das assistentes virtuais.

Segundo a Unesco, 73% das mulheres no mundo já foram vítimas de algum assédio online. No Brasil, pesquisa Datafolha revelou que 42% das mulheres a partir de 16 anos já sofreu assédio sexual. Outro levantamento indicou que 97% já haviam sido vítimas de algum tipo de assédio dentro do transporte público ou privado.

 

Do amor à violência

Para entendermos a raiz do assédio contra assistentes virtuais, temos que voltar uma década no tempo. A Siri, assistente da Apple, lançada em 2011, foi o primeiro sistema do tipo a se tornar um grande sucesso de público. Ela surgiu como parte do iOS 5.0, que controlava o iPhone 4S. Até então, nenhum produto de massa tinha a capacidade de convincentemente entender comandos de voz e dar respostas também por voz.

Uma das diversões da época era “desafiar” o sistema com comandos inesperados. Um dos mais populares era dizer “Siri, eu te amo”. Ela dava respostas espirituosas como “eu aposto que você diz isso a todos os produtos da Apple.” A princípio, naquele momento embrionário da tecnologia, ninguém estava “cantando” a assistente, especialmente para quem sabe do relacionamento apaixonado entre os clientes da Apple e a marca e seus produtos.

Infelizmente, à medida que as assistentes se popularizaram em celulares e muitos outros dispositivos, melhorando também a sua capacidade de respostas, aqueles testes quase pueris evoluíram para mensagens agressivas e sexistas.

Isso foi reforçado pelo fato de quase todos esses sistemas incorporaram uma voz e até uma personalidade feminina. É o caso dos principais sistemas internacionais: Siri (Apple), Google Assistente, Cortana (Microsoft) e Alexa (Amazon). Isso se repete em sistemas brasileiros: além da própria BIA (Bradesco), outros exemplos são a Lu (Magazine Luiza) e a Nat (Natura).

Modismos à parte, a origem dessa escolha tem fundamento. Em 2005, Clifford Nass, professor de comunicação da Universidade Stanford (EUA), compilou dez anos de pesquisas psicológicas e de interface de voz, e concluiu que a voz sintética feminina é percebida como capaz de ajudar a resolver problemas, enquanto a masculina representa autoridade e dá respostas. Outro estudo, em 2008, de Karl MacDorman, da Universidade de Indiana (EUA), indicou que vozes sintetizadas femininas eram vistas como mais calorosas e agradáveis.

Segundo a Unesco, 90% da força de trabalho envolvida na criação dos assistentes é masculina. De acordo com o órgão, eles reforçam o imaginário popular de que a voz da mulher é dócil, acolhedora, subserviente e sempre pronta a ajudar. A prática tende a normalizar o assédio.

Seguindo as recomendações da Unesco, a Apple fará com que o usuário escolha o gênero da voz da Siri a partir do iOS 14.5. A voz masculina já está disponível, mas hoje o usuário precisa alterar o padrão feminino nas configurações do sistema.

 

“Mimimi”

Os detratores do novo comercial do Bradesco afirmam que ele exagera e que o banco se aproveita de uma pauta feminista para se promover. Mas muitos dos comentários acabam justamente reforçando os preconceitos e a violência contra mulheres, o que indica que a iniciativa está no caminho certo. Afinal, o debate levantado não é sobre o assédio contra a BIA e sim contra todas as mulheres.

Mas já que o assunto foi tocado, poderíamos debater também se seria legítimo agredir sexualmente um robô, apenas por ser uma máquina. O tema é recorrentemente explorado pela ficção, com sistemas inteligentes que desenvolvem sentimentos e até se apaixonam. Vimos isso, por exemplo, nos filmes “Ela” (2013), de Spike Jonze, e “Blade Runner” (1982), de Ridley Scott, ou no reboot da série “Battlestar Galactica” (2004 a 2010). Portanto, nem os robôs devem ser assediados.

Outra crítica recorrente contra o comercial é que o Bradesco se preocupa mais com a BIA que com as atendentes humanas do banco. Conversei com várias gestoras de call center sobre o caso. De fato, esse é um mercado conhecido por condições de trabalho ruins. Em alguns casos, se um atendente encerra uma ligação, mesmo após ter sido agredido por um cliente, ele pode ser punido administrativamente.

A política dos call centers refletem a da empresa que a contrata. A boa notícia é que, aos poucos, essas regras vêm evoluindo, para proteger esses profissionais contra violências de consumidores. Em muitos casos, os atendentes já são autorizados a reagir aos ataques e até a encerrar a ligação. Em casos menos comuns, a empresa envia uma notificação formal ao cliente, advertindo-o por seu comportamento. Isso acontece inclusive em alguns bancos.

A BIA também está pagando por diversos tipos de insatisfação de clientes com o Bradesco. Se a empresa comete erros (e todas as empresas cometem), eles precisam ser notificados pelo cliente e corrigidos. Mas isso deve ser feito de maneira apropriada, o que nos leva à questão original de combate ao assédio.

A frase de que “o cliente sempre tem razão” é uma falácia. Naturalmente ele deve ser bem atendido, sempre da melhor maneira possível. Mas infelizmente muitos clientes abusam dessa prerrogativa, sem falar daqueles que possuem sérios problemas sociais. A empresa e seus funcionários, mesmo os virtuais, não têm nenhuma obrigação de acolher quem os trata mal. Qualquer forma de relacionamento, mesmo comercial, deve ser pautada pelo respeito mútuo.

Por isso, a nova campanha do Bradesco é mais que oportuna: é necessária! O debato em torno da violência contra uma assistente virtual e a onda de ódio contra a peça explicitam como nossa sociedade ainda tem muito a evoluir.