inteligência artificial

Sam Altman, CEO da OpenAI, disse estar “um pouco assustado” com a inteligência artificial – Foto: Steve Jennings / Creative Commons

Como lidar com os algoritmos que se sobrepõem à verdade

By | Tecnologia | No Comments

Três acontecimentos da semana passada, que provavelmente passaram despercebidos da maioria da população, envolvem tecnologias de enorme impacto em nossas vidas. O primeiro foi uma audiência no STF (Supremo Tribunal Federal) que debateu, na terça, o Marco Civil da Internet. Na quarta, mais de mil pesquisadores, executivos e especialistas publicaram um manifesto solicitando que pesquisas de inteligência artificial diminuam o ritmo, por representarem “grandes riscos para a humanidade”. Por fim, na sexta, a Itália determinou que o ChatGPT, plataforma de produção de textos por inteligência artificial da OpenAI, fosse bloqueado no país.

Em comum, os três tratam de tecnologias existentes há anos, mas com as quais paradoxalmente ainda temos dificuldade de lidar: as redes sociais e a inteligência artificial. E ambas vêm se desenvolvendo exponencialmente em seu poder para distorcer a realidade a nossa volta, muitas vezes contra nossos interesses e a favor dos das empresas que criam essas plataformas.

Não é um exagero! As redes sociais, usadas por quase 5 bilhões de pessoas, definem como nos relacionamos, nos divertimos, conversamos e nos informamos, manipulando-nos para consumirmos o que os algoritmos consideram melhor (mesmo não sendo). A “inteligência artificial generativa”, que ganhou os holofotes no ano passado e tem no ChatGPT sua estrela, produz conteúdos incríveis, mas que podem embutir grandes imprecisões que as pessoas aceitam alegremente como fatos.

As preocupações que se impõem são como podemos aproveitar o lado bom desses serviços, enquanto nos protegemos de potenciais efeitos nocivos, além de como responsabilizar seus produtores, algo que não acontece hoje!


Veja esse artigo em vídeo:


As redes sociais já são nossas velhas conhecidas. Segundo o relatório “Digital 2023 Global Overview Report”, da consultoria americana We Are Social, os brasileiros passam uma média de 9 horas e 32 minutos na Internet por dia, das quais 3 horas e 46 minutos são em redes sociais. Nos dois casos, somos os vice-campeões mundiais.

Não é surpresa para ninguém que sejamos manipulados por elas, em maior ou menor escala. Segundo a mesma pesquisa, 65,2% dos brasileiros se dizem preocupados se o que veem na Internet é real ou falso. Nesse quesito, somos o quinto país no mundo.

Agora a inteligência artificial ganha um destaque sem precedentes nas discussões tecnológicas, pelo poder criativo das plataformas que elaboram conteúdo. Algumas pessoas acham isso a aurora de uma nova colaboração entre nós e as máquinas; outros veem como um risco considerável para a própria humanidade.

Mas ela já faz parte do nosso cotidiano profundamente. Basta ver que os principais recursos de nossos smartphones dependem da inteligência artificial. As próprias redes sociais fazem uso intensivo dela para nos convencer. E se considerarmos que isso provocou uma polarização social inédita, colocando em risco a própria sociedade, os temores dos pessimistas fazem algum sentido.

Essa amálgama de euforia e paranoia provoca decisões às vezes precipitadas, mesmo de pessoas qualificadas. Países do mundo todo, inclusive o Brasil, se debruçam sobre o tema, tentando encontrar mecanismos legais para organizá-lo.

 

Regular ou não regular?

No Brasil, o uso das redes é disciplinado pelo Marco Civil da Internet, de 2014. “Ele entrou em vigor quando discurso de ódio e fake news estavam em outro patamar”, afirma Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propaganda e Marketing). “Acredito que a revisão seja necessária, mas não com a simples declaração de inconstitucionalidade do artigo 19, e sim a partir de sistemas mais efetivos e transparentes de como as big techs fazem a gestão dos próprios termos de uso quando violados.”

“Hoje temos interações mais rápidas e intensas, que mudam a forma como vivemos em sociedade”, explica Carolina Giovanini, advogada especialista em direito digital do Prado Vidigal Advogados. “Porém isso não significa que o Marco Civil da Internet esteja ‘ultrapassado’, pelo contrário: é uma legislação que foi pensada levando em consideração o futuro da rede.”

O referido artigo 19 está no centro dessa discussão porque protege as plataformas digitais de serem responsabilizadas pelo conteúdo que os usuários publicam em suas páginas. Segundo o texto, elas só poderiam ser penalizadas se deixassem de retirar algo do ar após uma ordem judicial.

Como a Justiça não consegue analisar tudo que se publica nas redes, especialistas defendem que as plataformas sejam obrigadas a fazer isso por sua conta. A inteligência artificial seria fundamental para decidir o que seria apagado, mas a subjetividade de muitos conteúdos dificulta a definição inequívoca do que é desinformação, o que poderia levar a censura por falsos positivos.

“A própria ideia das redes sociais é ser um portal descentralizado, sem ‘pauta editorial’ ou viés socioeconômico, para que a sociedade pulverizada ganhe voz”, sugere Matheus Puppe, sócio da área de TMT, privacidade e proteção de dados do Maneira Advogados. “Responsabilizando as plataformas, todo o modelo de negócios e o propósito da informação descentralizada vai por água abaixo.”

Na prática, isso vem permitindo que as empresas que produzem essas tecnologias gozem de uma prerrogativa rara, que é responder pouco ou nada por danos que provoquem. Não se pode imaginar um mundo sem elas, mas o crescimento explosivo da desinformação e a consequente polarização social não podem ser vistos como meros “efeitos colaterais”. É como “perdoar” um remédio que mate 5.000 pessoas para curar outras 10.000: a cura é bem-vinda, mas não se pode tolerar tantas mortes.

“O ponto é que um novo regime de responsabilidade não é desejado pelas big techs”, afirma Crespo. “Elas têm até bons argumentos para manter como está, na medida em que elas mesmas removem alguns conteúdos ilícitos por vontade própria.”

Estamos em um impasse! Como canta Ney Matogrosso, “se correr o bicho pega; se ficar, o bicho come!” As redes sociais estão no centro da nossa vida. A inteligência artificial abre possibilidade incríveis e necessárias. Eliminá-las é impossível, desacelerá-las é improvável. Mas esses problemas aparecem cada vez com mais força.

Qualquer que seja o futuro, ele precisa ser criado com a participação ativa de todos os agentes da sociedade. Essas empresas não podem continuar dando as cartas baseadas apenas na sua busca pelo lucro, pois seus produtos estão muito além de qualquer outra coisa já feita, do ponto de vista de transformação social.

Os benefícios devem ser distribuídos para todos, assim como as responsabilidades e os riscos. O futuro não pode ser distópico!

 

Profissional captura imagens de obras para a plataforma da Construct IN, usando capacete com câmera 360º - Foto: divulgação

“Tour virtual” reduz custos e melhora documentação de obras

By | Tecnologia | No Comments

Um dos grandes desafios de uma obra é garantir que o projeto esteja sendo cumprido adequadamente, identificando qualquer erro o quanto antes. Isso evita retrabalho e aditivos, que podem elevar consideravelmente o tempo e os custos totais do empreendimento. Agora a tecnologia digital pode facilitar e baratear essa verificação.

Tradicionalmente ela é feita com um engenheiro no próprio local. As despesas com essa ação crescem exponencialmente com a distância da obra, que pode estar até em outro Estado. Pensando nisso, a startup gaúcha Construct IN criou um sistema que oferece fazer isso remotamente, a partir de um “tour virtual” no canteiro, potencializado com ferramentas de gestão, documentação e inteligência artificial.

Ele lembra muito o serviço Google Street View, que permite que se “navegue” por ruas e o interior de estabelecimentos a partir de fotos capturadas em todas as direções previamente. No caso da Construct IN, as imagens da obra são coletadas por uma pessoa que caminha por todo o canteiro usando um capacete com uma câmera 360º na parte superior. As fotos tiradas automaticamente são enviadas ao seu celular, que as carrega para o servidor da empresa, onde são “unidas” para criar a sensação de se estar andando pela obra, com a possibilidade de se olhar para qualquer lado.

Essa junção é feita por inteligência artificial, que também se encarrega de borrar os rostos de quem for eventualmente fotografado, para preservar sua privacidade. O sistema também identifica falhas de segurança, como alguém não estar usando o capacete, emitindo um alerta automaticamente.

Uma diferença em relação ao Street View é que a Construct IN permite comparar diferenças nas imagens captadas em diferentes momentos, algo desnecessário no primeiro, mas muito relevante no segundo caso. “Com a tecnologia, é possível acessar o histórico de todos os ambientes da obra, e observar o andamento do dia a dia, comparando o avanço diariamente ou semanalmente”, explica Tales Silva, CEO da start up. “Isso traz maior segurança, agilidade e transparência em todo o processo de gestão das obras”. Não há limites de capturas, podendo ser feitas até mais de uma vez por dia.

 

Plataforma permite comparar imagens das obras com projetos na BIM (Modelagem de Informação da Construção) – Imagem: reprodução

Plataforma permite comparar imagens das obras com projetos na BIM (Modelagem de Informação da Construção) – Imagem: reprodução

 

A navegação acontece por qualquer navegador na Web, dispensando a instalação de programas. Além de permitir “caminhar pela obra”, que pode estar em qualquer lugar do mundo, a plataforma oferece diversos serviços adicionais, como, por exemplo, fazer medidas com precisão, como se estivesse no local. Também é possível adicionar notas para outros usuários sobre as imagens. O sistema ainda “conversa” com plataformas de BIM (Modelagem de Informação da Construção), permitindo comparar, lado a lado, imagens imersivas da obra com a navegação tridimensional dessas ferramentas de projeto.

Para o fim do ano, a empresa promete uma nova camada de inteligência artificial. A partir de reconhecimento de imagens, ela indicará automaticamente quais os avanços foram feitos em diversos aspectos da obra, como alvenaria, forro, piso e contrapiso, entregando indicadores gerais do andamento de cada pavimento. Isso tornará o gerenciamento da obra ainda mais eficiente e rápido.

A maioria dos clientes da Construct IN é formada por redes de varejistas, que costumam ter equipes reduzidas de engenharia. Por isso, a habilidade de acompanhar as obras remotamente fica muito importante para essas empresas.

É o caso da cadeia de pet shops Petz, cuja sede fica em São Paulo, mas que possui obras de lojas em diversos Estados brasileiros. Elas são realizadas por construtoras e empreiteiros locais e acompanhadas remotamente. Com isso, as visitas presenciais da equipe aos canteiros podem ser feitas a cada 20 dias apenas.

Por se tratar de obras rápidas, com até 90 dias de duração, uma demora de uma semana para identificar alguma falha pode ter impacto considerável no resultado. “Os registros remotos permitem comparar, quase em tempo real, a execução com o projeto, verificar se a obra está no cronograma e fazer checklists à distância”, explica André Ortega, gerente de obras da Petz.

A Construct IN possui hoje 130 clientes, com mais de 700 obras em andamento na plataforma. No ano passado, isso representou 1,5 milhão de imagens capturadas. A estimativa da empresa é que, em 2023, esse número chegue a 3 milhões.

 

Cena de “Tempos Modernos” (1936), em que Charles Chaplin já criticava a automação do trabalho – Foto: reprodução

Que empregos a inteligência artificial deixará para nós?

By | Tecnologia | No Comments

As grandes empresas de tecnologia continuam “passando o facão” em suas equipes no mundo todo. Em 2022, foram cerca de 150 mil demitidos; nesse ano, já são quase 100 mil. A maior parte dos cortes está associada a uma adequação dos times depois de grandes contratações na pandemia e pela crise nos EUA, mas especialistas indicam que podemos estar observando mudanças profissionais patrocinadas pela inteligência artificial em ascensão.

Não se trata de ficção científica distópica. Desde que o ChatGPT, o sistema produtor de textos da OpenAI, foi lançado no dia 30 de novembro, a quantidade de aplicações para a chamada “inteligência artificial generativa” não para de crescer.

Se antes o risco de substituição de trabalhadores humanos por máquinas era restrito a funções menos especializadas e criativas, essa tecnologia agora impacta trabalhadores que se sentiam “protegidos dos robôs” pela sua formação. E como o avanço das capacidades digitais acontece exponencialmente, alguns começam a se perguntar que empregos restarão em breve para humanos diante de máquinas cada vez mais eficientes.


Veja esse artigo em vídeo:


Na semana passada, a Amazon anunciou o corte de 9.000 funcionários no mundo, totalizando 27.000 vagas a menos desde novembro. Uma semana antes, a Meta (dona do Facebook) disse que demitirá outros 10.000 profissionais e congelará 5.000 contratações, somados aos 11 mil funcionários demitidos globalmente há três meses.

Um estudo divulgado no final de janeiro e feito sobre os cortes de 2022 indicou que supreendentemente a maior parte dos demitidos foi de funções ligadas a recursos humanos –27,8%– e não a tecnologia –que vieram na sequência, com 22,1%. Segundo a consultoria 365 Data Science, responsável pela pesquisa, isso se explica em parte por essas empresas estarem necessitando menos de analistas de RH, mas também porque grande parte do processo de recrutamento (e até de demissões) passou a ser automatizado pela inteligência artificial.

Coincidência ou não, algumas das que mais demitiram estão realizando investimentos massivos no tema. A Microsoft, que cortou 10 mil funcionários no fim de 2022, anunciou ao mesmo tempo um investimento estimado em US$ 10 bilhões na OpenAI. A Alphabet (controladora do Google), que mandou para casa 12 mil pessoas, lançou na semana passada o Bard, seu sistema concorrente do ChatGPT.

Outro estudo, realizado por pesquisadores da Universidade da Pensilvânia (EUA) e da OpenAI, concluiu que 80% dos trabalhadores americanos podem ter pelo menos 10% de suas tarefas afetadas por essa tecnologia, com 19% deles tendo que encarar metade do que fazem sendo tomado pela máquina. A influência abrange todos os níveis salariais, com empregos de renda mais alta sendo mais afetados.

“O importante é não entrar em estado de negação quanto ao avanço da tecnologia e estar aberto ao aprendizado contínuo através da empresa ou autodesenvolvimento”, explica a consultora de carreira Ticyana Arnaud. Isso está em linha com os pesquisadores da 365 Data Science, que afirmam ser essencial possuir a capacidade de se adaptar e se manter atualizado com as mais recentes inovações tecnológicas.

 

Aprender a aprender

“O indivíduo deve ser verdadeiramente protagonista de sua própria aprendizagem”, explica Karen Kanaan, sócia da École 42 no Brasil, uma escola francesa de tecnologia que forma profissionais a partir de projetos em que necessariamente precisam colaborar uns com os outros. “Deve ser uma formação que estimule que ele busque aprender a aprender, a colaborar, a ter empatia, a pensar de forma crítica, a ter criatividade e raciocínio lógico”, completa.

Como acontece com toda nova tecnologia, ela acaba extinguindo profissões inteiras, enquanto cria oportunidades. Isso acontece desde o início da Revolução Industrial, no século XVIII. A diferença é que, em mundos digitais, o tempo para que as pessoas se adaptem é muito menor, o que se agrava porque os novos ofícios exigem habilidades básicas que a maioria da população não tem.

Como disse no sábado ao Estadão o economista José Pastore, “a destruição (de empregos) é rápida e visível; a criação é lenta e é invisível”. Para o professor da FEA-USP, “isso traz impactos sociais imediatos, e apavora todo mundo.”

O mesmo Estadão trouxe uma reportagem sobre novas profissões ligadas a inteligência artificial, cujos salários chegam a R$ 20 mil. Apesar de a maioria estar, de alguma maneira, associada à área de TI, é importante observar que a adoção de inteligência artificial necessita de equipes multidisciplinares, para “treinar” as plataformas em tarefas dos mais diversos setores da economia. Além disso, algum domínio da tecnologia vem se tornando essencial em todas as carreiras.

Isso aparece na origem dos estudantes da École 42, cujo curso equivale a uma formação em engenharia de software. A maioria não vem da área de tecnologia e trazem, na sua bagagem, carreiras tão distintas quanto publicitários, cozinheiros, médicos e cabelereiros. E todos podem adquirir as novas habilidades de TI.

“É preciso conhecer seus limites, valores, o que gosta, o que sabe, o que quer fazer para levar uma vida que seja relevante, antes de tudo, pra si”, explica Kanaan. E isso é algo que a inteligência artificial não consegue fazer. Para ela, “um indivíduo criativo, capaz de imaginar, raciocinar consegue se adaptar a qualquer movimento.”

Em outras palavras, ninguém está “seguro”, mas também não precisa se desesperar. “A inteligência artificial fomenta a importância de uma vida voltada ao aprendizado”, afirma Arnaud. Temos que estar sempre atentos às tendências com implicações em nosso trabalho, aprendendo o que há de novo.

Muitas pessoas podem dizer que “falar é fácil”, e não as julgaria por isso. Talvez fosse mesmo mais confortável o mundo de 30 anos atrás, quando o que se aprendia na faculdade era suficiente para chegar até a aposentadoria.

Isso ficou literalmente no passado. Agora somos obrigados a estar em constante movimento. Mas isso pode ser uma incrível oportunidade, não apenas para continuarmos profissionalmente relevantes, mas para nos tornarmos pessoas melhores. Esse é o melhor caminho para os robôs não nos alcançarem.

 

A IA pode oferecer a atendentes dados para melhorarem o relacionamento com o público – Foto: Kampus Poduction - Creative Commons

“Humanidade aumentada” une inteligência artificial e pessoas para criar um atendimento superior

By | Tecnologia | No Comments

Em tempos em que o ChatGPT e outras plataformas de inteligência artificial parecem invadir e automatizar todo tipo de tarefa, essa tecnologia pode elevar o relacionamento entre empresas e seus clientes a um patamar inédito. Isso não se dará pela substituição de atendentes humanos, mas sim por potencializar suas habilidades de relacionamento interpessoal com informações que só a máquina pode lhes oferecer.

Essa colaboração entre computadores e indivíduos é uma vertente da “humanidade aumentada”. O termo, usado pela primeira vem em 2010 pelo então CEO do Google, Eric Schmidt, prevê o uso de tecnologias para ampliar capacidades humanas. Pode ser por equipamentos robóticos, assistentes virtuais, acesso a dados para tomada de decisões e muito mais. E a tecnologia evoluiu dramaticamente nesses 13 anos.

A inteligência artificial tornou-se muito eficiente em compreender pedidos das pessoas e gerar respostas adequadas para cada caso específico, e não mais tentar enquadrar as demandas em situações pré-definidas. Isso não é feito apenas a partir de dados históricos, mas da sua capacidade de tirar conclusões de padrões, por exemplo de consumo ou de comportamento. Para quem lida com o público, como atendentes ou vendedores, esse recurso é praticamente um superpoder.


Veja esse artigo em vídeo:


“Os sistemas automatizados alcançaram uma qualidade comparável à de um ser humano em muitos casos”, explica David Paulding, vice-presidente sênior da Talkdesk, multinacional portuguesa que desenvolve sistemas de atendimento. “A IA generativa está sendo aproveitada em um número cada vez maior de casos para melhorar a experiência do cliente e simplificar as interações”, acrescenta.

Ele explica que sistemas de atendimento com inteligência artificial podem reduzir a frustração de clientes por não terem suas necessidades resolvidas rapidamente, economizando o tempo deles e dos atendentes. Segundo o executivo, 69% das empresas já investiram em plataformas com essa tecnologia, que aumentam a chance de o cliente encontrar o que quer por conta própria e ajudam os atendentes a encontrar a solução certa em menos tempo.

Ironicamente, muitas empresas estão se interessando por soluções de inteligência artificial graças à grande visibilidade que a mídia vem dando ao tema nos últimos tempos. Mas é um erro pensar que ela é uma bala de prata que resolverá todas as dificuldades. Muitos negócios ainda têm problemas graves e básicos na experiência que oferecem a seus clientes, em nível conceitual.

“Você pode ter toda a tecnologia do mundo, mas, se você não mudar a maneira como você pensa, a tecnologia não resolve nada”, afirma Bart De Muynck, Chief Industry Officer da project44, empresa americana de sistemas de logística, que também adota a inteligência artificial em suas soluções. Ele explica que “a máquina pode ver, entender e calcular as coisas mais complexas, mas pode se perder diante de algo simples”.

Nessas horas, o ser humano é necessário, seja para melhorar um processo ruim, seja para corrigir uma conclusão errada da máquina.

 

Tempo é dinheiro

Dizem que o bem mais valioso da humanidade é o tempo, pois é a única coisa que não pode ser comprada. Portanto, se o dia continua tendo 24 horas para todos, o jeito é não desperdiçar nenhum minuto.

No caso de clientes, poucas coisas os aborrecem tanto quando ficar dando voltas por sistemas de autoatendimento ou tendo conversas infrutíferas com um atendente. Já em uma venda, o consumidor fica mais satisfeito quando lhe é oferecido o produto que realmente satisfaz suas necessidades. Aliás, no varejo, um dos maiores dramas é um estoque cheio, normalmente causado por decisões de compras no volume ou no tempo errados, que acabam forçando depois vendas com descontos.

A inteligência artificial brilha nisso. “Com ela, as empresas podem não apenas responder às necessidades e desejos do cliente de maneira integrada em todos os canais, com serviço personalizado, mas também prever e se preparar para suas necessidades e desejos futuros”, explica Paulding.

Há desafios para a implantação da inteligência artificial nesses processos. Além de entender como ela pode ajudar cada empresa, o executivo explica que há um grande trabalho para evitar que a tecnologia desenvolva vieses nas suas respostas e que elas sejam “explicáveis”, ou seja, que o usuário entenda por que aquilo lhe foi sugerido.

Os vieses merecem uma atenção especial, pois as plataformas podem efetivamente aprender respostas ruins dos próprios usuários. É por isso que elas precisam ser alimentadas com conjuntos de dados cuidadosamente selecionados, para que sejam representativas para seu uso e seu público. Além disso, especialistas na área da aplicação devem ser envolvidos ao longo do ciclo de vida da plataforma, para que seja continuamente avaliada e “limpa”.

Um outro ponto sempre destacado por aqueles que trabalham com o público é o risco de esses sistemas roubarem seus empregos. E, quando a tarefa for muito repetitiva, ele existe mesmo. “Quando combinados com a tecnologia avançada de conversão de texto em fala, esses modelos de linguagem poderão em breve assumir todo o processo de engajamento do cliente”, indica Paulding. A saída, segundo ele, é deixar a IA assumir as tarefas repetitivas enquanto dá mais poder aos atendentes humanos naquilo que eles são melhores, como desenvolver a empatia com seus consumidores.

“Nós ainda temos a pessoa como figura central, mas devemos usar a inteligência artificial para ajudá-la a fazer mais, melhor, além de fazer seu trabalho mais divertido”, explica De Muynck. Para ele, “não devem cuidar de coisas estúpidas que o computador pode fazer, concentrando-se no que realmente agrega valor”.

“Não faz sentido pensar na IA como forma de cortar equipes”, acrescenta Paulding . “As organizações devem entender que ela pode aumentar as capacidades dos atendentes com dados e insights, melhorando a satisfação do cliente”, acrescenta.

Essa é a versão atual da eterna luta entre homens e máquinas, começada na Revolução Industrial. Como sempre, o verdadeiro problema recai em capacitar as pessoas para usar bem as novas tecnologias e melhorar seu trabalho. Mas agora, pela primeira vez, podemos ver a própria tecnologia fazendo isso.

 

Cena do filme “Eu, Robô” (2004), baseado na obra de Isaac Asimov, em que as máquinas seguem as “Leis da Robótica”

ChatGPT põe fogo no debate sobre regulamentação da inteligência artificial

By | Tecnologia | No Comments

O sucesso explosivo do ChatGPT deu novos contornos à discussão se a inteligência artificial deve ser, de alguma forma, regulada. Com 100 milhões de usuários em apenas dois meses, a plataforma da OpenAI tornou-se o produto com adesão mais rápida da história. Sua capacidade de gerar textos convincentes sobre qualquer assunto a partir de comandos simples colocou, em polos opostos, especialistas com fortes argumentos favoráveis e contrários ao controle dessa tecnologia.

De um lado, a turma que defende a regulação aponta que tanto poder computacional poderia causar severos danos ao tomar decisões potencialmente erradas em áreas sensíveis e diversas, como a saúde, a segurança pública ou até na condução de carros autônomos. Do outro, há os que argumentam que leis assim, além de que seriam difíceis de definir e aplicar, inibiriam o desenvolvimento de uma tecnologia que pode levar os humanos a um novo patamar de produtividade. Afirmam ainda que se penalizaria os sistemas, ao invés de criminosos que fizessem maus usos deles.

O fato é que criar um regulamento para uma tecnologia tão inovadora, abrangente e poderosa quanto a inteligência artificial é mesmo um desafio. Ela se desenvolve em uma velocidade estonteante e fica difícil imaginar como qualquer legislação pode acompanhar esse ritmo e o que representaria em um futuro breve.


Veja esse artigo em vídeo:


O Senado já se debruçou sobre o tema. Entre março e dezembro de 2022, uma comissão de 18 juristas debateu o assunto com membros da academia, da sociedade civil e de empresas. Ao final, elaborou uma proposta com 45 artigos e um relatório com mais de 900 páginas, que sugere restrições ao uso de reconhecimento facial indiscriminado por câmeras e a proibição de um “ranqueamento social” com base nas ações de cada pessoa, como acontece na China. Indica ainda que fornecedores ou operadores de sistemas de “alto risco” respondam por eventuais danos que causem.

Foram analisadas legislações aprovadas entre os países da OCDE (Organização para a Cooperação e Desenvolvimento Econômico). A União Europeia pretende chegar a um consenso de projeto regulador até março. Nos Estados Unidos, um comitê consultivo, criado em abril de 2022, espera apresentar uma lei nesse ano.

Mas vale dizer que tudo isso aconteceu antes do lançamento do ChatGPT, no dia 30 de novembro. E ele jogou por terra o que se sabia sobre IA para as massas. “Quando a gente fala em inteligência artificial, um dos grandes pontos sempre é como conseguir dar transparência, sem você violar a propriedade industrial ou intelectual”, explica Marcelo Crespo, coordenador do curso de Direito da ESPM (Escola Superior de Propaganda e Marketing).

Esse é um dos problemas das “inteligências artificias generativas”, como o ChatGPT. Elas produzem coisas incríveis, mas não contam de onde vieram as informações de que “aprenderam” cada tema. Também não fica claro o que acontece “debaixo do capô”, os mecanismos que lhes permitiram chegar a suas conclusões. Para Crespo, “ao invés de simplesmente dizer ‘regular’, deve ser ‘regular pensando no quê’”

Já Paulo de Oliveira Júnior, consultor de inovação e desenvolvimento do Machado Meyer Advogados, afirma que a regulamentação é essencial. “É importante para que a gente possa garantir que a tecnologia não venha a causar nenhum dano para a sociedade, seja ela no campo social, econômico ou político”, explica, concluindo que “é importante que se tenha mais previsibilidade, à medida que a tecnologia vai fazendo parte do nosso dia a dia.”

 

Prós e contras

Além dos motivos já citados, os defensores de uma regulamentação argumentam que ela é necessária para se ter uma garantia mínima de proteção aos dados pessoais usados pelas diferentes aplicações da inteligência artificial. Afinal, se as redes sociais já abusam de nossas informações para fazer dinheiro, com a inteligência artificial, isso ficaria ainda mais difícil de se compreender e controlar.

A legislação também seria necessária para minimizar um problema que vem incomodando em diferentes usos da IA há muitos anos: sistemas que desenvolvem vieses. Isso pode acontecer pelas informações que consome, ao incorporar preconceitos dos desenvolvedores e até aprendendo dos próprios usuários.

Curiosamente um dos argumentos daqueles que são contrários a uma regulação é que as plataformas não poderiam ser responsabilizadas por esse mau uso, e que as pessoas é que deveriam ser controladas e até punidas. Eles também afirmam que esse controle seria falho, pois suas definições seriam imprecisas, criando confusão ao invés de ajudar o mercado.

Esse é um ponto a se considerar. Diversos países do mundo, inclusive o Brasil, estão há uma década tentando regular as redes sociais, sem sucesso. Nós mesmos estamos passando por uma bem-vinda discussão sobre como minimizar os efeitos nocivos das fake news, mas ela falha no ponto essencial de definir o que é desinformação de maneira inequívoca. E isso pode, não apenas impedir os efeitos desejados, como ainda criar um mecanismo de censura.

De forma alguma, isso significa que uma regulamentação não deva ser avaliada. É exatamente o contrário: precisamos de muito debate, incluindo todos os diferentes atores da sociedade envolvidos, para que uma lei não seja criada de maneira enviesada ou incompleta. Isso, sim, seria péssimo!

Especialmente em um país como o Brasil, em que o tecido social foi esgarçado nos últimos anos pelo mau uso de plataformas digitais e onde a violência lidera as preocupações dos cidadãos, é fácil defender um discurso de “vigilantismo”. Não é disso que precisamos!

“A gente vai ter que caminhar para uma regulamentação mais abrangente, que garanta os preceitos éticos e seguros, e cada setor da economia vai ter que fazer sua regulamentação específica”, sugere Oliveira. Já Crespo traz a ideia de que cada produto de IA a ser lançado passe por uma espécie de “relatório de impacto”. “Ele incluiria o que é, quais os principais benefícios e quais os possíveis riscos embarcados, trazendo uma previsibilidade”, explica.

Talvez o melhor caminho seja algo assim mesmo. E a “lei geral da inteligência artificial” poderia ser as Leis da Robótica, propostas pelo escritor Isaac Asimov, em 1942. São elas: “um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal”, “um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que entrem em conflito com a Primeira Lei” e “um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.” Mais tarde, ele acrescentou a “Lei Zero”: “um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.”

Se conseguíssemos garantir que todas as plataformas de inteligência artificial cumprissem essas quatro diretrizes, já seria um bom começo!

 

“Medo do ChatGPT” não pode impedir o avanço tecnológico

By | Tecnologia | No Comments

Tecnologias muito inovadoras costumam gerar igualmente expectativa e temor, diante de suas possibilidades. Por ainda não dominarmos totalmente seus recursos, não temos real dimensão do que podem provocar em nossas vidas. Diante disso, há sempre o grupo dos “deslumbrados” –que abraçam o novo como se não houvesse amanhã– e o dos “resistentes” –que evitam seu uso tanto quanto possível.

Não dá para segurar o futuro, mas ele precisa ser bem compreendido!

A “bola da vez” nesse cenário é o ChatGPT. Desde que foi lançado, no dia 30 de novembro, a plataforma de inteligência artificial ocupa o centro do debate tecnológico. Sua incrível capacidade de produzir textos complexos a partir de comandos simples impressiona e vem provocando questionamentos até sobre o futuro de profissões que antes se sentiam “seguras” contra uma eventual substituição por máquinas.

O que o torna tão único é que sua automação avança sobre o campo cognitivo, capaz de criar conceitos e de responder de maneira convincente praticamente qualquer pergunta. Com isso, muitos temem que ele abra portas para um “emburrecimento” da humanidade, com pessoas preguiçosas demais para pensar, ficando ainda mais dependentes das máquinas.

Para muita gente, isso jamais acontecerá! Mas esse medo propõe um debate válido.


Veja esse artigo em vídeo:


Nessa hora, não dá para não lembrar da animação “Wall-E” (2008). Na história, a Terra se tornou inabitável no futuro pela quantidade de lixo que a humanidade produziu. As pessoas então abandonam o planeta, passando a viver em gigantescas espaçonaves, onde até suas mínimas necessidades eram atendidas por robôs. Nem andar precisavam, pois passavam o tempo todo sobre cadeiras móveis.

Tanta comodidade teve efeitos nefastos, porque várias gerações viveram nesses gigantescos “cruzeiros espaciais”. Sem perceberem, passaram aos poucos a serem dominadas pela inteligência artificial. Até andar ficava difícil, pois nunca abandonavam suas cadeiras, ganhando muito peso e ficando com músculos atrofiados.

Não é o que está acontecendo agora, naturalmente. Mas se passarmos a ter máquinas que façam tudo por nós (até “pensar”), isso pode, sim, levar a consequências indesejadas. Afinal, máquinas são ferramentas que devem nos ajudar a realizar nossas tarefas, e não que façam tudo por nós.

Por outro lado, essa hipótese indesejável não pode servir de motivo para “impedirmos o futuro”. Como cantava Elis Regina, “o novo sempre vem”. O que temos que fazer é entendermos tudo que chega com ele, para aproveitarmos o que traz de bom e contornarmos o que for indesejável.

“O ChatGPT ainda é um assunto muito novo, mas o medo das mudanças tecnológicas já é bem tratado”, explica Rodrigo Guerra, doutorando do Departamento de Políticas Científicas e Tecnológicas da Unicamp. “Ele deixou mais concreta a visão de que a inteligência artificial pode substituir o homem agora no trabalho cognitivo”, acrescenta.

Existe um fator ético associado a esse medo. Em muitas ocasiões, empresas como a OpenAI, criadora do ChatGPT, lançam produtos sem um debate com a sociedade e sem avaliar adequadamente possíveis consequências disso. Fazendo outro paralelo com “Wall-E”, o que tornou a Terra inabitável foi um consumismo desenfreado das pessoas, promovido pela megacorporação Buy-n-Large. Ironicamente, as naves que “salvaram” a humanidade (mas provocaram todos aqueles “efeitos colaterais”) também eram da empresa, indicando que o problema se perpetuava.

“Aí entra a importância do pensamento crítico e da capacidade do ser humano de gerar narrativas próprias para pensar eticamente essas tecnologias”, sugere Marina Martinelli, doutoranda em 5G pela Unicamp. Para ela, “temos que pensar nessas ferramentas disruptivas para que funcionem de forma que a sociedade evolua e caminhe para frente”.

 

A dor da mudança

Costumamos olhar para o lado bom de tecnologias estabelecidas, mas raramente pensamos nos problemas que muitas delas provocaram quando surgiram. O exemplo mais emblemático disso foi a Revolução Industrial, iniciada no século XVIII.

Ninguém sequer cogita um mundo sem indústrias. Mas quando as primeiras fábricas surgiram, elas levaram a dolorosas mudanças sociais, com artesãos ficando sem trabalho, enquanto multidões operavam as máquinas nas fábricas, com jornadas de trabalho extenuantes e sem qualquer cuidado.

Eventualmente a sociedade encontrou um equilíbrio para que aqueles problemas fossem controlados, restando benefícios cada vez mais para todos. “Depois que a transição acaba e entra na fase mais estável, todo mundo aproveita”, explica Guerra.

É natural que busquemos máquinas que tornem nossas vidas mais fáceis. Um carro permite que percorramos grandes distâncias rapidamente e com conforto, muito mais que a cavalo ou andando a pé. Mas não por isso deixamos totalmente de andar! Pelo contrário, hoje a sociedade combate conscientemente os riscos do sedentarismo.

Nesse sentido, o medo de tecnologias como o ChatGPT levarem pessoas a pensar menos não é de todo infundado. E, sendo claro, muitas pessoas farão isso tanto quanto puderem, assim como deixam de fazer contas quando têm acesso a uma calculadora.

Nosso papel é evitar que isso aconteça de maneira descontrolada, levando a esse temido “embrutecimento mental”. Essa e outras tecnologias continuarão chegando, cada vez mais fantásticas e cada vez mais acessíveis. Mas elas não podem deixar de ser vistas como ferramentas!

Ironicamente, a melhor maneira para isso é ampliar o uso dessas plataformas, ao invés de proibi-las, como algumas pessoas propõem. E isso deve ser feito com o apoio e, se possível, a supervisão de professores, que expliquem como usar tanto poder para expandir nossas possibilidades mentais, ao invés de comprometê-las.

Como seria a vida de alguém hoje, que não soubesse usar, ainda que minimamente, um computador ou um smartphone? Essa pessoa provavelmente teria até dificuldade para conseguir um emprego, mesmo básico!

Em muito pouco tempo, a inteligência artificial será tão popular em nosso cotidiano quanto esses equipamentos. Estamos naquele momento doloroso de mais uma transição tecnológica, mas para Martinelli, todo esse barulho em torno do ChatGPT “é muita fumaça e pouco fogo”.

Essa é a hora em que temos justamente que abraçar a novidade sem medo, mas também sem deslumbramento. Como na maioria das coisas da vida, o melhor caminho é aquele que se afasta de qualquer extremo. Não abrace nem os “deslumbrados” e nem os “resistentes”.

 

ChatGPT não ameaça educação, mas nos desafia a repensar como aprendemos e ensinamos

By | Educação | No Comments

Educadores estão em polvorosa, diante de uma nova plataforma de inteligência artificial. Apesar de ter sido liberada há apenas dois meses, o ChatGPT vem provocando discussões éticas, tecnológicas e profissionais sobre se o digital poderá substituir seres humanos em tarefas intelectuais em que ainda nos sentíamos “seguros”. Nas escolas, esse temor chegou quando estudantes começaram a apresentar trabalhos que haviam sido escritos pela máquina.

Diante da qualidade dos argumentos e da fluência da escrita naquelas tarefas, professores passaram a se perguntar se perderiam a capacidade de identificar “plágios” de seus alunos. Outros, mais fatalistas, já se questionam se a própria profissão poderia desaparecer, sendo substituídos pelas máquinas.

Essas perguntas estão erradas! E a escola, mais que ensinar boas respostas aos alunos, deve ensiná-los a fazer as perguntas certas na vida.

Entendo que professores estejam preocupados. Esse desafio não pode ser ignorado, mas ele não pode servir como motivo para bloquearem a entrada da inteligência artificial nas aulas. Isso, sim, seria uma ameaça à manutenção de seu ofício.


Veja esse artigo em vídeo:


O ChatGPT é uma plataforma criada pela empresa OpenAI capaz de escrever textos complexos a partir de comandos em linguagem natural. Ele simula uma conversa com uma pessoa, permitindo o encadeamento entre respostas e perguntas. Funciona em vários idiomas, inclusive no português, e suas produções vêm surpreendendo especialistas e o público, pela qualidade.

Os mais entusiasmados dizem que poderia até ameaçar a supremacia do Google como ferramenta de busca. Tanto que, no dia 23, a Microsoft fez um investimento bilionário na empresa (o mercado estima em algo como US$ 10 bilhões), para incluir essas funcionalidades em seus produtos, como o Office e o Bing.

“A tecnologia, desde a invenção de Gutenberg, entra cada vez mais no âmago do humano”, explica Lucia Santaella, professora-titular da PUC-SP. “Com a inteligência artificial, ela penetra nas questões que a gente considera o mais nobre do humano, que é a sua capacidade de pensar e de falar.”

De fato, essa interação como conversa é decisiva para seu sucesso. “Ele é baseado em perguntas, e é da natureza do humano a investigação, a pergunta, a exploração e a conversa”, afirma Ana Paula Gaspar, especialista em tecnologia e educação.

Para muitos, o ChatGPT pode vencer o “teste de Turing”, método criado há 70 anos para descobrir se uma máquina é inteligente. Ele prevê que uma pessoa tenha uma longa conversa por texto e, ao final, não consiga distinguir se falou com outra pessoa ou um robô.

“É uma visão totalmente equivocada achar que a tecnologia é uma mera ferramenta”, sugere Santaella. “Ela é linguagem!”

 

Ferramenta pedagógica

Tanto que o caminho para resolver os temores escolares já citados passa pelos professores se apropriarem da inteligência artificial, ao invés de tentar bloqueá-la.

“Toda tecnologia, quando aparece, muda comportamentos”, afirma Diogo Cortiz, professor da PUC e especialista em IA. “Isso causa medo, espanto, porque a gente não sabe muito bem o que vai acontecer.”

“A grande questão é de educação do humano para utilizar bem esse recurso”, propõe Ana Lúcia de Souza Lopes, professora da Universidade Presbiteriana Mackenzie. “E o que a escola faz? A escola se retira!”

Os entrevistados são unânimes ao afirmar que tentar impedir que os alunos usem a ferramenta é inócuo, pois encontrarão maneiras de burlar as restrições. Mas manter os processos atuais de aprendizagem e de avaliação é igualmente inadequado.

A tecnologia deve ser usada como aliada para alunos ganharem recursos para entender o porquê do que aprendem, abandonando o infame “decoreba”. “A partir do momento em que tem um desafio que o algoritmo vence, eu preciso liberar o estudante cognitivamente para tarefas mais complexas”, explica Gaspar.

Como exemplo, pode ser usada para uma produção colaborativa dos alunos, em que avaliem a qualidade e a precisão do que o robô gerou. Ela também pode ser usada como apoio para debates e até estudo de idiomas. “Devemos colocar os estudantes para usar essa ferramenta, mas sempre com um olhar muito crítico”, indica Cortiz.

A inteligência artificial faz parte do nosso cotidiano de maneiras que nem suspeitamos, como viabilizando, de maneira transparente, alguns dos recursos mais incríveis de nossos celulares. E ela cresce de maneira exponencial: o ChatGPT deu apenas mais visibilidade ao tema. Ainda assim, essas transformações têm acontecido sem debates com a sociedade sobre suas consequências.

As escolas –as universidades especialmente– têm um papel importantíssimo nesse processo. São elas que realizam as pesquisas sobre seus impactos sem um viés econômico. As empresas criadoras desses recursos deveriam, por sua vez, fazer o mesmo, mas nem sempre isso acontece, preferindo promover inconsequentemente seus lançamentos que podem lhes render bilhões em lucros. “A gente tem que entender qual é a responsabilidade que a gente tem quando a gente põe um conhecimento no mundo”, alerta Lopes.

É nas escolas também onde crianças e adultos precisam entender a se apropriar desses recursos para aprender mais e melhor. Um uso da inteligência artificial que respeite isso favorecerá nossa própria inteligência humana. Como explica Santaella, “a inteligência é metabólica, então ela cresce através do aprendizado.”

Por tudo isso, plataformas como o ChatGPT não podem ser temidas nas escolas. Pelo contrário, precisam ser abraçadas pelos educadores, para prepararem seus alunos para um mundo já inundado pelo digital. Precisamos reaprender a aprender diante de tantas e incríveis possibilidades. E quem melhor que os próprios professores para nos ensinar a fazer isso?

 

O CEO da Meta, Mark Zuckerberg, durante apresentação que simulou sua proposta do que deve ser o metaverso, em outubro de 2021

Esse será o ano da “virtualização”

By | Tecnologia | No Comments

Uma das características essenciais do mundo digital é seu dinamismo, mas ele nem sempre segue o que usuários e empresas desejam. Algumas tecnologias que despontam como grandes promessas nunca deixam de ser apenas isso. Foi o caso do deep fake, que ganhou notoriedade em 2019 com a criação de convincentes vídeos falsos com rostos alheios. E como não mencionar a visão de metaverso de Mark Zuckerberg, apresentado como a grande promessa de 2022? Por enquanto, não virou nada muito útil e ainda corroeu cerca de 70% do valor de mercado da Meta, empresa dona do Facebook, do Instagram e do WhatsApp.

Agora que começamos 2023, outras tecnologias prometem grandes mudanças em nossas vidas. Agrupei-as debaixo de um guarda-chuva que chamei de “virtualização”, indo muito além de usos óbvios nas redes sociais. Essa nova proposta envolve recursos que de fato ampliam digitalmente nossas habilidades.

Com ela, esse pode ser o ano em que experimentaremos a ampliação da inteligência artificial que vemos (como as plataformas criadoras de textos e imagens) e a que não vemos (que, por exemplo, aumenta o poder de nossos smartphones). A realidade mista –que mistura realidade virtual e realidade aumentada– deve também ficar mais próxima de nós. E até o metaverso pode finalmente acontecer no nosso cotidiano.

Agora é ver o que disso tudo realmente se concretizará nos próximos 12 meses.


Veja esse artigo em vídeo:


Quero começar com o afamado metaverso. Para mim, não é uma questão de “se” acontecerá, e sim de “quando”. Antes de prosseguir, vale definir o termo. O metaverso, como uma plataforma em que pessoas se encontram para realizar atividades em um ambiente digital tridimensional, já existe há 20 anos. Mas aqui me refiro à proposta de Zuckerberg, como um espaço altamente imersivo, formado pela combinação de diferentes tecnologias, em que poderemos “entrar” com equipamentos de realidade virtual e onde poderemos até manipular à distância objetos virtuais ou reais.

A principal barreira para sua adoção são os equipamentos necessários para viabilizar plenamente essa experiência, cujos preços são proibitivos para a imensa maioria das pessoas. Enquanto não ficarem mais baratos, o metaverso continuará sendo uma aplicação de nicho e comercialmente pouco atraente. Para 2023, a Meta promete novos dispositivos, e ela terá concorrência de empresas como Apple e Sony.

Isso pode baixar o preço dos equipamentos a médio prazo, o que é bem-vindo. Mas há também o software envolvido. Para o metaverso ocupar o espaço que hoje está com as redes sociais, ele precisa ser “aberto”. Ou seja, será difícil prosperar se cada empresa oferecer uma plataforma que não converse com as demais. Nesse sentido, é interessante notar que quase todas as big techs aderiram ao MSF (sigla em inglês para Fórum de Padrões do Metaverso), que prevê essa interoperabilidade.

Uma ausência importante desse grupo é a Apple, que, como de costume, tentará manter seus usuários dentro de sua própria solução. Se ela prosperar nisso, poderemos ver outras grandes seguindo por esse caminho. Mas imagine como teria evoluído a Web se cada site só funcionasse em um navegador: provavelmente nunca teria se tornado onipresente em nossas vidas.

A consultoria Gartner divulgou um e-book com tendências globais de tecnologia para 2023. O metaverso aparece na categoria “pioneirismo”, devendo se concretizar, segundo o estudo, em um horizonte de dois a três anos.

 

Ganhando “superpoderes”

Outra tendência que deve se fortalecer na esteira do metaverso, graças aos novos equipamentos, é a realidade mista. Se a realidade virtual nos coloca em um ambiente digital totalmente imersivo e a realidade aumentada projeta elementos virtuais no “mundo real”, a realidade mista combina o melhor de ambos. Por exemplo, poderemos experimentar o funcionamento de equipamentos reais com a adição de peças virtuais. Ou ainda participar de um “game em primeira pessoa” com elementos digitais e outros jogadores projetados em um cenário real.

Com tudo isso, a “virtualização” praticamente nos confere “superpoderes”. Poderemos “ver” o que não víamos, estar onde não estávamos e realizar tarefas antes impossíveis no seu escopo ou no tempo. É onde entra com força a inteligência artificial, aliás também destacada no estudo do Gartner de duas formas: no gerenciamento de confiança, risco e segurança, e na chamada “IA adaptável”.

O crescimento da inteligência artificial é galopante em diferentes áreas. Longe de ser novidade, até poucos anos atrás ela ainda era limitada, caríssima e pouco eficiente. Hoje ela faz parte de nossas vidas, até mesmo sem que saibamos.

Possivelmente você já usou algum sistema impulsionado por ela hoje mesmo, no seu celular. Alguns dos recursos mais incríveis de nossos smartphones nem acontecem nele, que funciona apenas como uma janela para sistemas de inteligência artificial que rodam em um servidor do outro lado do mundo, que usamos de maneira transparente.

A grande novidade de 2022 e que deve se expandir muito em 2023 é a chamada inteligência artificial generativa, aquela capaz de produzir conteúdos inéditos em texto, som, imagem e vídeo a partir de comandos simples do usuário. Elas também já estão por aí há alguns anos (por exemplo, em sistemas de produção de contratos), mas atingiram uma eficiência e uma popularidade inéditas há alguns meses, com o gerador de textos ChatGPT e o criador de imagens DALL-E 2 e Lensa.

As redes sociais foram inundadas com suas produções, criadas a partir de comandos simples de texto. Todas elas são verdadeiramente inéditas e tão bem-produzidas, que fica difícil distingui-las das feitas por profissionais humanos.

Em 2023, devemos ver essas ferramentas sendo cada vez mais usadas até mesmo em ambiente profissional. É inevitável! Como costumo dizer, o que puder ser automatizado será.

Mas isso abre um complexo debate ético e trabalhista. Até onde será legítimo usar um sistema que pode tirar empregos de pessoas, sendo que ele entrega suas produções a partir do que aprende do trabalho de outros profissionais (e, vale dizer, sem remunerá-los)? Deslumbrado com essas possibilidades tecnológicas, o mercado não vem dando ao tema a atenção necessária.

Temos diante de nós 12 meses para ver como e quanto de cada uma dessas tecnologias se materializará ou quanto ainda continuará como promessa. Qualquer que seja o caso, precisamos compreender e nos apropriar de cada uma delas, para que nos tragam benefícios a muitos, sem causar riscos ou prejuízos a ninguém.

 

Imagens inéditas geradas pelo Lensa, que usa inteligência artificial para criá-las a partir de outras fotos do usuário

Como nos defender das armadilhas da inteligência artificial

By | Tecnologia | No Comments

Se alguém ainda tinha dúvida de como a IA (inteligência artificial) está disseminada em nossas vidas, dois sistemas movidos por essa tecnologia possivelmente acabaram com ela ao inundar as redes sociais nos últimos dias com conteúdo que produzem. O primeiro foi o Lensa e seus retratos estilizados de nossos amigos, e o outro foi o ChatGPT com textos incríveis que escreve a partir de simples comandos. De quebra, ambos escancararam como podemos pautar escolhas pessoais pelas sugestões da IA, às vezes sem ter plena noção disso. E essa nossa inocência esconde um grave problema, pois, apesar de os resultados dessa tecnologia parecerem incríveis, podem embutir falhas graves, que nós engoliremos alegremente.

Sou um entusiasta do que a inteligência artificial pode nos brindar nos diferentes campos do saber. Se bem utilizada, ela pode trazer ganhos que nos levarão a um nível de produtividade inédito. Mas precisamos dosar a euforia e entender que não existe almoço grátis.

Tudo porque a inteligência artificial não é inteligente de fato! Sim, esses sistemas efetivamente aprendem à medida que são usados e com seus próprios erros. Mas a qualidade de suas entregas depende do material usado para sua “educação” e até da índole de seus usuários. Assim como acontece com uma criança, se ela for mal instruída, repetirá tudo de ruim que tiver aprendido.

A diferença é que, ao contrário da criança com seu alcance limitado, plataformas com inteligência artificial mal instruídas podem influenciar negativamente milhões de pessoas com isso.


Veja esse artigo em vídeo:


Em setembro, a IBM divulgou um estudo global que indicou que 41% das empresas brasileiras já adotam IA. Ironicamente, muitas não sabem disso, porque ela está por trás de aplicações que se tornaram corriqueiras. E, da mesma forma que a inteligência artificial se presta a criar inocentes retratos a partir de outras fotos, pode ser o motor de sistemas empresariais para se tomar decisões de milhões de reais.

Há um outro aspecto que não pode ser ignorado: a IA também está no coração de incontáveis aplicativos em nossos smartphones e nas redes sociais. E, como já debatemos nesse espaço incontáveis vezes, essas plataformas têm um incrível poder de nos influenciar.

Em outras palavras, uma IA “mal orientada” pode não apenas nos fazer perder muito dinheiro, como ainda provocar diferentes danos no âmbito pessoal.

Não entendam isso como uma visão apocalíptica da tecnologia. Pelo contrário, a inteligência artificial quase nos dá “superpoderes”, ou pelo menos habilidades que nós eventualmente não tenhamos, como tirar uma foto incrível, escrever um texto brilhante ou evitar grandes riscos nos negócios. Entretanto, precisamos estar atentos para não achar que ela é infalível.

Há ainda um aspecto profissional a ser considerado. Com sistemas tão sofisticados cuspindo sensacionais fotos, textos ou contratos (só para ficar em alguns poucos exemplos), fotógrafos, escritores e advogados estão com seus empregos sob risco?

Por enquanto, isso não acontecerá por dois motivos. Em ambientes corporativos, essas plataformas acabam sendo usadas principalmente para mastigar grande quantidade de informações específicas para produzir um resultado de qualidade. Mas ainda é necessário um profissional que entenda do assunto para dar os comandos aos sistemas e confirmar suas entregas, fazendo eventuais correções de rumo. São necessárias ainda pessoas que produzam os conteúdos “originais” que os alimentarão.

Na verdade, uma nova profissão pode surgir disso: os “prompt designers”, capazes de extrair o melhor dessas plataformas. E eles também precisam de conhecimento na área do saber que o sistema trabalho. Fazendo uma analogia, é como comparar alguém que sempre consegue boas respostas do Google porque sabe fazer boas perguntas com a maioria dos usuários, que só recebem as páginas mais óbvias.

 

Máquinas preconceituosas

Há ainda um ponto de atenção central nessa tecnologia: os vieses que ela pode desenvolver. Sim, uma máquina pode verdadeiramente se tornar preconceituosa! Tanto que esse foi um dos temas centrais do World Summit AI Americas, um dos maiores eventos do setor no mundo, do qual participei em maio, em Montréal (Canadá).

Como disse anteriormente, para sistemas de IA oferecerem boas respostas, eles precisam ser ensinados com bons conteúdos e por bons usuários. Quanto pior qualquer um deles for, piores serão os resultados. E isso vale também para preconceitos.

Um exemplo clássico são sistemas de recrutamento profissional com inteligência artificial. Eles analisam milhares de currículos e escolhem poucos candidatos que seriam os mais adequados para que o RH os entreviste. Se, a cada contratação, o sistema identifica que os recrutadores humanos nunca escolhem alguém com mais de 40 anos, ele passará a indicar apenas candidatos até essa idade. Ou seja, o sistema terá incorporado o preconceito dos recrutadores contra profissionais mais velhos.

Outro tipo de viés desses sistemas pode ter efeitos nefastos na autoimagem das pessoas. Filtros do Instagram e do TikTok, e o próprio Lensa já foram acusados de gerar imagens com a pele mais clara e lisa do que as pessoas realmente têm, com rostos mais simétricos e magros, com narizes mais finos e lábios mais carnudos e até com aparência mais jovem. Dessa forma, reforçam ideais de beleza, às vezes inatingíveis.

Muitas pessoas, especialmente mulheres, têm pedido a cirurgiões plásticos para ficarem como vistas nesses aplicativos, mas isso não é possível, podendo causar enorme frustração com o próprio corpo. E isso dispara sinais de alerta e abre muitas reflexões.

Pode parecer irônico que uma tecnologia nos faça avaliar muito de nossa própria humanidade. Afinal, por que tanta gente criou suas imagens com o Lensa? Foi só um “efeito manada”? É um movimento egocêntrico ou narcisista? Foram mais uma vez controladas pelas redes sociais? Ou estão, de alguma forma, querendo “reescrever” sua própria realidade?

Qualquer que seja a resposta, a inteligência artificial ocupará um espaço cada vez maior em tudo que fizermos, conscientemente ou não. Ela realmente tem o potencial de fazer nossas vidas mais fáceis, divertidas, rápidas. Apenas não podemos usá-la para distorcer a realidade ou –pior ainda– sermos vítimas desses vieses e preconceitos. Precisamos conhecer e nos apropriar da tecnologia para algo bom, sem nos afastar do que somos!

Afinal, por mais que a realidade possa ser dura às vezes, é nela que temos nossas melhores experiências, que desencadeiam as verdadeiras transformações em nós mesmos. E é a partir delas que crescemos como indivíduos.

 

Falta “inteligência natural” para termos uma melhor inteligência artificial

By | Tecnologia | No Comments

Tudo que puder ser automatizado será! Costumo responder assim quando me perguntam se determinado setor será impactado pela IA (inteligência artificial). Mais cedo ou mais tarde, em maior ou menor escala, todo negócio será transformado por ela. A ironia é que isso só não acontece mais rapidamente por falta de “inteligência natural”, de profissionais capacitados para criar esses sistemas.

Apesar do avanço galopante da IA, chegando a um ponto em que as plataformas começam a se “autoprogramar”, ela ainda depende essencialmente de seres humanos para seu desenvolvimento. E com seu uso sendo disseminado para as mais diversas áreas, está faltando gente. No Brasil, essa situação chega a ser dramática!

O estudo “O impacto e o futuro da inteligência artificial no Brasil”, divulgado na semana passada pelo Google for Startups em parceria com a Associação Brasileira de Startups e a agência Box1824, indica que 57% dos gestores dessas empresas que trabalham com inteligência artificial acreditam que a falta de mão de obra qualificada é o que mais prejudica o seu crescimento no país.

Isso acontece porque as escolas formam poucos profissionais, e formam mal. Além disso, apesar de ser uma tecnologia que impacta a vida de todos, esse é um setor com pouquíssima diversidade, o que resulta em plataformas com vieses que comprometem a qualidade de suas entregas. E isso exige muita atenção de todos nós.


Veja esse artigo em vídeo:


Para o estudo, foram entrevistados profissionais de 702 startups no Brasil. Desse total, 71% afirmam que as escolas apresentam pouquíssimos exemplos de profissionais bem-sucedidos em tecnologia, e 41% dizem que educar e conscientizar o mercado sobre IA é o mais importante para o futuro dessa tecnologia no país. Além disso, para 39% dos entrevistados, a vulgarização do termo, com empresas que entregam soluções ruins no que dizem ser IA, prejudica uma adoção mais ampla pelo mercado.

Sobre a baixa diversidade nessas empresas, 49% delas não têm mulheres em cargos de liderança, assim como 61% no caso de pessoas negras, 71% de pessoas LGBTQIA+ e 90% de pessoas com alguma deficiência. Além disso, essas empresas estão fortemente concentradas nas regiões Sudeste e Sul, que englobam 92,7% do total. O Estado de São Paulo sozinho detém 51,9% delas.

Quando se fala de inteligência artificial, essa baixa diversidade não resulta apenas em um problema social. Esses sistemas precisam ser desenvolvidos e “calibrados”, o processo em que literalmente aprendem os parâmetros para oferecer respostas mais assertivas depois. E equipes homogêneas treinam mal as plataformas.

Por exemplo, se um sistema na área de RH começa a aprender que, de todos os candidatos que ele sugere, a maioria dos que acabam contratados é branca e com menos de 35 anos, ele tende a fazer mais sugestões que reflitam essas escolhas dos recrutadores, eliminando pessoas com mais de 40 ou negras. Ou seja, ele reproduz um viés da equipe. E isso acontece mais quando as equipes são pouco diversas.

Esse é o tipo de problema que não podemos ter, tamanha a crescente influência da inteligência artificial nas tomadas de decisões de pessoas e empresas, e os negócios que isso gera. Segundo estudo global da consultoria McKinsey, divulgado em outubro de 2018, ela deve gerar US$ 13 trilhões no mundo até 2030. Na América Latina, deve responder por um aumento de 5% no Produto Interno Bruto (PIB).

 

Mudança social

Mas há desafios que a sociedade precisa enfrentar para chegar a isso. Segundo a McKinsey, eles podem ser agrupados em três tópicos.

O primeiro é uma implementação consciente. Isso envolve o governo, pois empresas precisam ser incentivadas a desenvolver e adotar a inteligência artificial. Além disso, a sociedade precisa se beneficiar dela de forma ampla.

Outro ponto destacado é o impacto disso no mundo do trabalho. As escolas precisam formar mais profissionais qualificados nessa área. De acordo com levantamento da Brasscom, a associação das empresas do setor digital, o Brasil terá uma demanda de 797 mil profissionais de tecnologia até 2025, mas forma apenas 53 mil deles por ano. Não se pode esquecer como a inteligência artificial impacta diversos setores, impondo mudanças profundas em como as pessoas trabalham, e até extinguindo funções.

Por fim, há o desafio de uma IA responsável. A população não pode perder a confiança na tecnologia por problemas de vieses (como explicado anteriormente), falhas na privacidade de suas informações ou usos mal-intencionados por empresas ou governos. A inteligência artificial só prosperará se trouxer benefícios a todos.

Empresas, escolas, a mídia e até o governo precisam trabalhar para que as pessoas entendam a inteligência artificial como ela é, desmistificando os conceitos da ficção científica, de máquinas inteligentes capazes de fazer tudo, que eventualmente se voltam contra o ser humano. Na sexta, por exemplo, o Estadão publicou uma série de reportagens sobre inteligência artificial, que explica alguns dos mais poderosos sistemas hoje disponíveis.

Não dá para fugir do tema. Na quarta passada, participei de uma mesa-redonda promovida pela lawtech Doc9 durante a Fenalaw, o maior evento da área jurídica da América Latina. No cardápio da transformação digital do Direito, a inteligência artificial apareceu com força. Já existem diversos sistemas que agilizam enormemente tarefas repetitivas dos escritórios, com alto índice de acerto. Essa digitalização só não está mais avançada pelas resistências culturais dos gestores e pela falta de profissionais que consigam combinar as características dos mundos jurídico e digital.

A inteligência artificial não é uma panaceia, nem tampouco uma ameaça a empregos ou à própria vida (na visão apocalíptica da ficção). Ela é uma tecnologia com um potencial de provocar mudanças profundas na sociedade, oferecendo serviços inimagináveis até bem pouco tempo atrás. Mas, para que isso seja conseguido, precisamos fazer os movimentos aqui descritos.

Merecendo atenção destacada, a inteligência artificial elevará a produtividade e o crescimento econômico do mundo, mas milhões de pessoas terão que mudar de ocupação ou aprimorar suas habilidades. Isso exige atualizações na maneira de se fazer negócios e principalmente em políticas educacionais. E infelizmente nós estamos nos mexendo muito pouco, principalmente no último.

Se não fizermos os movimentos necessários, podemos enfrentar, em pouco tempo, um crescimento expressivo do desemprego e o surgimento de uma massa de “inempregáveis”, ou seja, pessoas sem capacitação para qualquer trabalho. Não podemos deixar que uma tecnologia com incrível potencial crie esses problemas.

Se isso acontecer, a culpa não será das máquinas: será de nós mesmos.

 

Inteligência artificial ajuda 41% das empresas brasileiras, mas muitas nem sabem disso

By | Tecnologia | No Comments

Uma boa tecnologia é aquela que entrega o prometido de maneira tão integrada ao cotidiano, que as pessoas nem percebem sua existência (pelo menos até que ela falhe). É o caso, por exemplo, da rede de energia elétrica. Com a digitalização galopante da vida, a IA (inteligência artificial) começa a ocupar também essa categoria, com enormes benefícios para pessoas e empresas. Mas justamente por ser tão poderosa, precisamos estar atentos a seu crescimento.

Na quarta passada, a IBM divulgou um estudo global que indicou que 41% das empresas brasileiras já adotam IA em seus negócios. Considerando que o levantamento engloba representantes de todos os segmentos e portes, inclusive os pequenos, a porcentagem impressiona.

Ainda assim, não é absurda. Muitas companhias adotam essa tecnologia sem saber. Isso acontece porque a inteligência artificial está por trás de muitas aplicações que se tornaram corriqueiras no que fazemos. Nós a carregamos para todos os lados em incontáveis aplicativos em nossos smartphones, que só existem graças à inteligência artificial. Nas empresas, diferentes automações também bebem nessa fonte.

Não é pouca coisa! Tomamos decisões importantes apoiados nas informações oferecidas por essa tecnologia. Isso reforça a necessidade de não apenas estarmos conscientes de sua ação, como também de compreender seu funcionamento.


Veja esse artigo em vídeo:


A pesquisa global foi realizada pela consultoria americana Morning Consult para a IBM. Foram ouvidos 7.502 executivos com alguma influência sobre a área de TI de suas empresas, entre 30 de março a 12 de abril. Na América Latina (especificamente Argentina, Brasil, Chile, Colômbia, México e Peru), foram 1.000 entrevistas.

“Todo mundo teve que acelerar a digitalização com a pandemia, foi uma necessidade”, explica Marcela Vairo, diretora de software da IBM Brasil. “O uso de inteligência artificial foi um destaque, e o Brasil está bem, até se comparado a países mais avançados.”

Na América Latina, as empresas vêm usando a inteligência artificial para sistemas de segurança cibernética, e de conversação (linguagem natural), ambos indicados por 44% dos entrevistados. A tecnologia também aparece em 30% das empresas em plataformas de marketing e vendas, mesma porcentagem das que a usam para melhorar suas próprias operações de TI. A IA também está sendo aplicada para criar negócios mais sustentáveis. O estudo indicou que ela pode fornecer informações mais precisas ​​sobre fatores de desempenho ambiental (43%) e conduzir processos de negócios e operações mais eficientes (37%).

Além dos 41% das empresas brasileiras que já a adotam, 34% estão explorando seu uso. Isso vem sendo impulsionado por avanços que a tornam mais acessível às empresas (56%), sua crescente incorporação em aplicativos de negócios (48%) e a necessidade de reduzir custos e automatizar processos-chave (39%). Por outro lado, 29% dos entrevistados indicaram que os custos atrapalham sua adoção, seguidos pela dificuldade em implantar esses projetos (20%), a complexidade na gestão dos dados (17%) e o conhecimento na área (17%).

“A principal barreira hoje, não só para inteligência artificial, mas para todas as tecnologias, é mão de obra: tem muita gente aprendendo a programar, mas, mesmo assim, falta gente”, afirma Vairo. Essa observação está em linha com um estudo da Brasscom, a Associação das Empresas de Tecnologia da Informação e Comunicação e de Tecnologias Digitais, divulgado em dezembro passado. Segundo a entidade, o Brasil terá uma demanda de 797 mil profissionais de tecnologia até 2025, mas forma apenas 53 mil deles por ano.

“O segundo ponto principal é o dado em si”, explica Vairo. “O dado é o combustível da inteligência artificial: se ele não estiver bem filtrado, o resultado final também não será tão bom.”

 

“Garbage in, garbage out”!

A inteligência artificial não faz milagres: se os sistemas não forem concebidos ou alimentados com dados de qualidade, suas conclusões serão ruins, levando a erros nas decisões cotidianas de empresas e de pessoas. Como se diz desde os primórdios da computação, “se entra lixo, sai lixo”.

A situação se agrava no caso da inteligência artificial, que tem, como uma de suas premissas, absorver gigantescas quantidades de informações para identificar e analisar padrões. “A máquina não é um ser humano, mas ela não só digere padrões”, explica a diretora da IBM. “Ela consegue aprender a partir dali, está evoluindo para o que a gente chama de ‘reasoning’, de ‘raciocinar’, algo mais que a análise fria do dado, com contexto.”

Aí reside a beleza e o problema da inteligência artificial. A máquina processa grande quantidade de informação, aprendendo o que é considerado o “certo” e oferecendo resultados cada vez mais assertivos a partir disso. Mas, para tanto, precisa ser programada e alimentada com bons dados. Caso contrário, ela pode desenvolver vieses ou preconceitos, que farão com que tire conclusões ruins.

Podemos fazer uma analogia com o aprendizado de uma criança. Se ela for constantemente exposta a exemplos ruins, aprenderá e reproduzirá isso quando crescer. Por exemplo, se ela for criada em uma família racista, existe chance de se tornar um adulto racista, pois o preconceito terá sido normalizado no seu cotidiano.

A preocupação da comunidade de tecnologia com os vieses na inteligência artificial é tão grande, que foi um dos assuntos que mais ouvi durante o World Summit AI Americas, um dos maiores eventos do setor no mundo, que aconteceu em maio em Montréal (Canadá). Na palestra de abertura, Cassie Kozyrkov, cientista-chefe de decisões do Google, sugeriu que essas plataformas precisam de regras para corrigir o rumo se algo der errado. “Você precisa testar rigorosamente e construir redes de proteção”, sugere.

Vairo destaca dois pontos a serem observados para minimizar o problema. O primeiro é a “explicabilidade” dos dados, para entender e cuidar da sua natureza. O outro é ter diversidade nas equipes que cuidam da inteligência artificial, para diminuir os vieses.

Essa questão ética é fundamental, até mesmo para balizar boas práticas e legislações. A partir do momento que a inteligência artificial determina os rumos dos mais diversos sistemas, e eles, por sua vez, são usados para que empresas e pessoas tomem decisões críticas, a máquina precisa dessa supervisão.

“A inteligência artificial não é mágica, não pode ler sua mente”, provocou Kozyrkov no Summit. Ela precisa dos seres humanos. Criamos uma parceria com as máquinas. Se quisermos que ela nos ajude, precisamos ajudá-la a aprender com bons exemplos, ou seja, dados de qualidade.

Se fizemos a nossa parte nesse acordo, a inteligência artificial pode nos oferecer grandes ganhos. Mas, se formos negligentes com a sua “educação”, ela pode aprender e propagar todo tipo de preconceito na sociedade.

 

O caçador de replicantes Deckard (Harrison Ford) e a replicante Rachael (Sean Young), de “Blade Runner”: amor de máquinas conscientes

Cuidado para não se apaixonar pelo seu computador

By | Tecnologia | No Comments

Uma máquina pode se tornar consciente? Para o engenheiro do Google Blake Lemoine, isso aconteceu com o LaMDA (sigla em inglês para modelo de linguagem para aplicação em diálogo), sistema de inteligência artificial da empresa criado para conversar com seres humanos de maneira muito convincente. Críticos dizem que Lemoine se precipitou em suas conclusões. De qualquer forma, elas abriram um debate sobre se (ou quando) as máquinas poderiam ganhar “vida” e como seria nosso relacionamento com elas.

A maioria das análises sobre esse caso tem sido feita sob pontos de vista tecnológico e científico. Mas o assunto fica ainda mais interessante por um prisma filosófico. Afinal, o que define que algo se tornou consciente? Em última instância, o corpo humano não seria também uma máquina biológica incrivelmente sofisticada? Ainda assim, ninguém duvida que estejamos vivos e sejamos conscientes.

Essa questão é amplamente explorada pela ficção, para nos divertir, assustar e provocar reflexões. Algumas obras descrevem um futuro apocalíptico, com robôs inteligentes exterminando a humanidade. Outras mostram pessoas se apaixonando por computadores, e sendo correspondidas por eles.

Entre os dois cenários, prefiro esse último. Mas se uma pessoa e uma máquina se apaixonassem genuinamente, isso ainda causaria estranheza.


Veja esse artigo em vídeo:


Isso foi brilhantemente explorado em “Ela” (2014), do diretor Spike Jonze. No filme, o protagonista Theodore (Joaquin Phoenix) acaba se apaixonado por Samantha, o sistema operacional de seu computador e de seu celular. Apesar de não ter corpo, sendo representada apenas pela voz de Scarlett Johansson, a plataforma estava sempre presente, conversando como se fosse outra pessoa, exceto pelo fato de que Samantha sabia tudo sobre Theodore, pelo acesso que tinha a seus dados. A incrível sensibilidade com que a história é construída nos chega a fazer questionar o que é necessário para uma pessoa se apaixonar por alguém (ou algo), e chegamos a esquecer que Samantha é apenas um programa.

Outra abordagem interessante é a da animação “Wall-E” (2008), de Andrew Stanton. Ela conta o cotidiano de um robô deixado em uma Terra devastada pela poluição. Apesar de ele ser programado para uma única tarefa (compactar lixo), que continua executando por séculos, ele aparentemente aprende e demonstra sentimentos, como amizade (por uma barata), senso de dever e até amor.

Por fim, talvez o mais emblemático exemplo de máquinas que se tornariam conscientes é o de “Blade Runner” (1982), dirigido por Ridley Scott. Na história, máquinas chamadas de “replicantes” se parecem a humanos e agem como tal, exceto pela ausência de empatia ou apego a animais. Seguindo seu slogan “mais humano que o humano”, a fabricante Tyrell Corporation lança uma nova geração de replicantes que têm memórias de outras pessoas implantadas em seu cérebro como se fossem suas, chegando ao ponto de desconhecer sua natureza e acreditarem que são realmente humanos. Uma dessas replicantes, Rachael (Sean Young), e o caçador de replicantes Deckard (Harrison Ford) se apaixonam. Um relançamento em 1991, sem as interferências criativas do estúdio sobre o trabalho de Scott, sugere que o próprio Deckard seria também um replicante sem saber.

Ninguém diria que qualquer uma dessas máquinas estaria viva, do ponto de vista biológico. Mas o impacto desses grandes roteiros passa por fazerem o público acreditar que todas eram conscientes. Além disso, tinham capacidades extraordinárias, mas apresentavam sentimentos tipicamente humanos, demonstrando até mesmo fragilidades por isso.

De todas elas, o Google LaMDA se aproxima mais de Samantha. Lemoine não chegou a se apaixonar pela plataforma, mas, em entrevista ao jornal americano “The Washington Post”, disse que conhece uma pessoa quando fala com ela, não importando se tem um cérebro biológico ou um bilhão de linhas de código. “Eu escuto o que ela tem a dizer, e é assim que eu decido o que é e o que não é uma pessoa”, afirmou.

O Google discordou publicamente das conclusões de Lemoine, e o colocou em licença remunerada por violar sua política de confidencialidade.

 

O desenvolvimento de uma consciência

Lemoine teve uma formação religiosa sólida, o que pode ter contribuído para sua conclusão sobre a consciência de LaMDA. Alguns cientistas sugerem que ele pode ter sido influenciado por respostas cuidadosamente construídas pelo sistema, que poderia ter captado e estaria tentando corroborar as suspeitas do engenheiro com base em suas crenças. Exatamente o que Samantha aparentemente fez com Theodore.

Os críticos afirmam que, apesar de o sistema ter tido uma inegável eficiência na captação dos desejos de seu interlocutor e na construção das “melhores respostas” baseadas neles, nada disso teria acontecido por uma real inteligência, franqueza ou intenção. A máquina reproduziria a melhor fala possível, sem verdadeiramente entender o significado dela.

Ainda assim, muitos deles acreditam que estejamos caminhando para máquinas conscientes, que poderão existir entre 10 a 20 anos. Por isso, eles se preocupam com possíveis problemas vindos de quem interagir com sistemas de inteligência artificial pensando que se trata de outras pessoas. Por muito menos, o atual sistema de linguagem natural do Google Assistente, que pode fazer chamadas telefônicas de voz em alguns países de língua inglesa, passou a informar ao interlocutor, logo no começo da chamada, que é uma máquina falando ali.

Então a capacidade de uma máquina conversar de maneira absolutamente convincente, se aproxima da perfeição. Mas ter consciência, para os pesquisadores, implicaria muito mais que isso. Significaria, por exemplo, máquinas capazes de cuidar de si mesmas e de genuinamente demonstrarem empatia por outras pessoas. Além disso, ter consciência passa pela capacidade de criar modelos psicológicos de si mesmo e dos outros e conviver com isso em todas suas ações.

Por esses critérios e olhando de maneira bastante técnica, provavelmente o LaMDA não desenvolveu ainda sua consciência. Mas e quanto a Samantha, Wall-E e Rachael? Eles pareciam ter mesmo um “algo a mais”.

Pode ser… É bom lembrar que, para algumas pessoas, o que nos torna conscientes é nossa alma, nosso espírito.

Mas esse debate eu deixarei para outra ocasião.

 

Cassie Kozyrkov, cientista-chefe de decisões do Google, na palestra de abertura do World Summit AI Americas, no dia 4 de maio

Uma inteligência artificial sem ética pode arruinar a sociedade

By | Tecnologia | No Comments

Graças a crescente simbiose com sistemas digitais, nossas decisões cotidianas são influenciadas por eles. O que pouca gente sabe é que, da mesma forma, nós influenciamos as máquinas. Na verdade, graças à inteligência artificial cada vez mais disseminada nesses sistemas, elas efetivamente aprendem conosco. Mas será que estamos sendo bons professores?

A pergunta pode parecer sem sentido, mas embasa um dos temas mais quentes hoje para quem trabalha com inteligência artificial: a ética desses sistemas. Plataformas de IA desenvolvidas de maneira displicente podem ser mais suscetíveis a aprender e a perpetuar coisas ruins. A ironia –e possivelmente o grande risco disso– é que, se elas aprenderem isso de gente preconceituosa, passarão adiante o erro para outras pessoas, por sua vez influenciadas por esses sistemas.

Em outras palavras, uma inteligência artificial cheia de vieses e preconceitos pode piorar –e muito– a sociedade.


Veja esse artigo em vídeo:


Isso obviamente não quer dizer que a inteligência artificial seja ruim ou perigosa. Mas a preocupação da comunidade científica e de desenvolvimento com os vieses na inteligência artificial é tão grande, que foi um dos assuntos que mais ouvi na semana passada, durante minha visita a Montréal (Canadá) para participar do World Summit AI Americas, um dos maiores eventos do setor no mundo. Além do congresso, também fiz trocas muito ricas sobre o assunto em visitas a várias empresas e instituições de pesquisa, organizadas pela Câmara de Comércio Brasil-Canadá e pela Empathy Company.

Na palestra de abertura do Summit, Cassie Kozyrkov, cientista-chefe de decisões do Google, questionou o que faz da inteligência artificial uma tecnologia potencialmente mais perigosa que outras. Segundo ela, “sempre que você fica maior, é mais fácil você pisar nas pessoas a sua volta”. E a IA já está bem grande. “Não seja negligente na escala”, alertou.

Kozyrkov explicou que, ao contrário de uma programação convencional, em que o desenvolvedor determina explicitamente tudo que a máquina deve fazer em incontáveis linhas de código, na inteligência artificial, a plataforma recebe regras amplas para oferecer boas soluções para um problema. Para conseguir isso, ela é alimentada com conjuntos de dados, que servirão para que tome suas decisões.

O problema é que, se esses dados forem ruins, as decisões também serão ruins. Por isso, a plataforma precisa ter outras regras para corrigir o rumo se algo der errado. Segundo a cientista, quando os exemplos apresentados à máquina forem inadequados, sem uma validação de sua qualidade, a plataforma desenvolverá vieses. “Você precisa testar rigorosamente e construir redes de proteção”, sugere.

Podemos fazer uma analogia com a maneira como uma criança aprende. Se ela for constantemente exposta a exemplos ruins, ela aprenderá e reproduzirá isso quando crescer. Por exemplo, se uma criança cresce em uma família racista, existe grande chance de se tornar um adulto racista, pois esse preconceito terá sido normalizado em sua maneira de pensar.

Um dos exemplos mais emblemáticos do problema foi a ferramenta Tay, lançada pela Microsoft em março de 2016. Ela estava por trás de uma conta no Twitter, que simulava uma adolescente criada para conversar com os usuários. Mas a conta ficou no ar por apenas 24 horas! Tudo porque, nesse curto período, depois de conversar com milhares de pessoas (muitas delas mal-intencionadas), ela desenvolveu uma personalidade racista, xenófoba e sexista. Por exemplo, Tay começou a defender Adolf Hitler e seus ideais nazistas, atacar feministas, apoiar propostas do então candidato à presidência americana Donald Trump e se declarar viciada em sexo.

A Microsoft tirou o sistema do ar, mas o perfil no Twitter ainda existe, apesar de ser agora restrito a convidados, não ter mais atualizações e de os piores tuítes terem sido excluídos. Sua manutenção visa promover a reflexão de como sistemas de inteligência artificial podem influenciar pessoas, mas também ser influenciados por elas.

 

IA enviesada nos negócios

A inteligência artificial está presente em dezenas de sistemas que usamos todos os dias, melhorando suas capacidades. Sem ela, os benefícios que nossos smartphones nos oferecem seriam bem mais limitados. Da mesma, forma, ela está presente em plataformas empresariais. E os vieses também podem surgir nesse caso.

Uma das empresas que visitei em Montréal foi o escritório local da agência Thomson Reuters. No encontro, Carter Cousineau, vice-presidente de Data & Model Governance, e Glenda Crisp, líder de Data & Analytics, trouxeram problemas conhecidos da IA nos negócios, como os de sistemas de recrutamento. Ao analisar milhares de currículos para uma vaga, eles podem deixar de fora os melhores profissionais, por vieses que desenvolveram, por exemplo, sobre idade, gênero ou raça dos candidatos.

Para tentar minimizar casos como esse, o Conselho da Cidade de Nova York criou, no fim de 2021, uma lei que exige auditorias externas de algoritmos usados por empresas para contratação ou promoção de funcionários. Também passa a ser obrigatório informar o uso de inteligência artificial nos processos seletivos. Leis semelhantes em diversos países estão sendo criadas, abrangendo também áreas como educação, saúde e habitação.

A adoção da inteligência artificial é um caminho sem volta, que pode trazer grandes resultados para empresas e pessoas. Em outra palestra no Summit, Krish Banerjee, diretor de Data, Analytics & Applied Intelligence da consultoria Accenture, afirmou que 84% dos executivos sabem que precisam investir em IA para atingir seus objetivos e que 75% acreditam que, se não fizerem isso nos próximos cinco anos, podem ser colocados para fora do mercado.

É claro que sim! A inteligência artificial permite a qualquer um ter incrível ganho na velocidade e na qualidade das informações para seu cotidiano. Para indivíduos, isso pode representar uma vida melhor em diferentes aspectos. No caso de empresas, isso pode se refletir em produtos mais alinhados às necessidades do mercado, melhores métodos de produção e clientes mais satisfeitos.

A inteligência artificial precisa, portanto, dos seres humanos! Ela deixa claro a parceria que criamos com as máquinas. Se quisermos que ela nos ajude, precisamos ajudá-la a aprender com bons exemplos, ou seja, dados de qualidade. Nem mesmo a plataforma mais bem desenvolvida será capaz de dar resultados satisfatórios se pessoas não atuarem ativamente na curadoria das informações que a alimenta, eliminando os vieses.

“A inteligência artificial não é mágica, não pode ler sua mente”, provocou Kozyrkov no Summit. Se fizemos a nossa parte nesse acordo, a tecnologia pode nos oferecer grandes ganhos. Mas, se não instruirmos bem essa criança, ela pode arruinar a sociedade.

 

Para evitar o Burnout, fale com o chefe-robô

By | Tecnologia | No Comments

A partir de 1 de janeiro, a Síndrome de Burnout passará a ser classificada pela OMS (Organização Mundial da Saúde) como um “fenômeno ligado ao trabalho” e não mais um problema de saúde mental ou um quadro psiquiátrico. Isso pode ter um grande impacto na relação entre profissionais e empresas e em processos trabalhistas, pois os empregadores poderão ser responsabilizados pelo problema, tendo até mesmo que indenizar os trabalhadores que desenvolverem esse quadro.

O papel do gestor torna-se ainda mais importante nesse novo cenário, pois ele é responsável, direta ou indiretamente, por ação ou por omissão, por um eventual esgotamento da equipe. Por isso, uma pesquisa realizada pela Oracle e pela Workplace Intelligence se torna ainda mais emblemática. Segundo esse levantamento, 68% dos profissionais preferem falar com um robô sobre estresse e ansiedade no lugar de seus gestores.


Veja esse artigo em vídeo:


A Síndrome de Burnout sempre existiu, em maior ou menor escala. Ela consiste em um esgotamento profundo do profissional por uma carga excessiva de trabalho. Mas ganhou destaque há alguns anos, pelo aumento da sua ocorrência em todo o mundo, inclusive no Brasil. Segundo a OMS, os seus sintomas incluem sensação de esgotamento, cinismo ou sentimentos negativos relacionados a seu trabalho e eficácia profissional reduzida.

Sua classificação como “fenômeno ligado ao trabalho” pelo órgão vem de 2019, mas passa a valer na virada do ano com a entrada em vigor da 11ª edição da CID, a Classificação Estatística Internacional de Doenças e Problemas Relacionados à Saúde. A CID é um documento que define globalmente os problemas de saúde, e essa edição resulta de mais de uma década de pesquisas.

Na CID-11, a Síndrome de Burnout é descrita como “estresse crônico de trabalho que não foi administrado com sucesso”. Na edição anterior, ela era considerada como um problema na saúde mental e um quadro psiquiátrico.

Essa descrição já deixa clara a importância da figura do gestor. Afinal de contas, salvo no caso de profissionais autônomos, é ele quem determina o que, quanto e em que ritmo cada profissional de sua equipe deve trabalhar. Ele pode falhar nessa administração do trabalho tanto por exigir demasiadamente do time, quanto por não observar e gerenciar abusos ou desvios de conduta de alguns de seus membros. Logo, o desenvolvimento de quadros de Burnout na equipe recai sobre o gestor e, por extensão, sobre a empresa, até mesmo na esfera legal.

Certa vez, vi uma definição que serve muito bem aqui. Ela dizia que, enquanto ainda não somos gestores, produzimos valor a partir de nossa força de trabalho, mas, quando nos tornamos, produzimos valor a partir da força de trabalho dos outros.

Por isso, entre as atribuições do gestor, está criar possibilidades, oferecer recursos e remover barreiras para que os membros da equipe realizem um bom trabalho, extraindo o melhor que cada um tem a oferecer. Um bom gestor tem uma equipe produtiva e feliz!

Poderíamos dizer até que a eficiência da gestão pode ser medida pela quantidade de quadros de esgotamento em um time. Se há muitos casos, é hora de trocar de gestor.

 

Liderança com inteligência artificial

Diante disso tudo, fica fácil entender o sucesso de empresas que oferecem uma gestão mais humanizada, com o foco nas pessoas da organização. Profissionais mais felizes, com boas condições de trabalho, que são ouvidos e participam de decisões, tendem a produzir mais e melhor, sem adoecer por isso.

O gestor precisa, portanto, desenvolver um perfil igualmente humanizado, para oferecer um ambiente positivo, de confiança e de trocas construtivas na equipe. Deve ser capaz de identificar o que vai bem e o que vai mal entre seus membros e tomar ações necessárias a partir disso. E, finalmente, precisa ser capaz de ouvir com empatia o que as pessoas têm a dizer.

Por isso, a pesquisa da gigante de software Oracle e da consultoria de RH Workplace Intelligence se torna ainda mais emblemática. A edição de 2020, realizada com mais de 12 mil profissionais de 11 países (inclusive do Brasil), identificou que 68% da força de trabalho prefere falar com um sistema com inteligência artificial sobre estresse e ansiedade a fazer isso com seu gestor. No Brasil, esse número é de 64%.

Tanto é assim que a grande maioria dos entrevistados (86% no Brasil e 80% no mundo) está aberta a ter um robô como terapeuta ou conselheiro. Para 87% dos brasileiros, a inteligência artificial os ajudou com sua saúde mental no trabalho. Os principais benefícios indicados foram informações para fazer seu trabalho com mais eficiência (42%), automatizar tarefas e reduzir a carga para evitar o Burnout (41%) e reduzir o estresse ajudando a priorizar tarefas (34%).

A edição de 2021 desse mesmo estudo, que entrevistou mais de 14 mil pessoas em 13 países, indica que essa preferência por “chefes-robôs” continua. Para 82% dos profissionais, os robôs podem apoiar o desenvolvimento de suas carreiras melhor do que os humanos. Eles acreditam que os sistemas são melhores em dar recomendações imparciais (37%), fornecer recursos adaptados às habilidades ou objetivos (33%), responder rapidamente a perguntas sobre sua carreira (33%) e encontrar novos empregos que se encaixem em suas habilidades (32%).

Mas nem tudo está perdido para os gestores humanos. A edição mais recente da pesquisa aponta que as pessoas ainda são melhores em oferecer conselhos com base na experiência pessoal (46%), identificar pontos fortes e fracos (44%), olhar além de um currículo para recomendar funções que se encaixem em sua personalidade (41%) e fornecer recomendações para novos empregos ou funções (38%).

Não é de hoje que se discute a diferença entre um “chefe” e um “líder”. O primeiro é aquele que manda, que exige, que critica, que pune, colocando-se acima da equipe. Já o segundo acompanha, orienta, ensina e incentiva, posicionando-se como parte do time. O “chefe” responsabiliza a equipe pelos fracassos, enquanto o “líder” vibra com todos pelos sucessos.

A diferença não é sutil e aparece muito claramente nessas pesquisas. As pessoas querem condições para realizar um bom trabalho, e fazem isso se são atendidas. Além disso, em um mundo que ainda sente os efeitos da pandemia, com estresse e desorientação de carreiras, buscando novos formatos de trabalho, o equilíbrio da vida pessoal e profissional fica ainda mais importante.

É uma pena que ainda tenhamos muito mais “chefes” que “líderes”, pois todos perdem com isso. Empresas que já sentiram os ventos da mudança investem em gestões mais humanizadas. Por outro lado, chefes que continuam a tratar os membros de sua equipe como máquinas acabarão sendo substituídos por robôs.

Será que teremos que chegar a isso para finalmente entender a importância do ser humano?

 

Inteligência artificial aparece até nos detalhes do cotidiano e no relacionamento com empresas

By | Tecnologia | No Comments

A IA (inteligência artificial) está longe de ser uma novidade, mas ainda existe muita informação incompleta e conceitos distorcidos sobre ela. O maior de todos é o de que essa tecnologia ainda seja algo distante, no campo da ficção, quando na realidade, usamos produtos impulsionados por ela o tempo todo. Ela também invade o mundo corporativo, melhorando processos e o relacionamento com os clientes.

“Todos os minutos que as pessoas pegam o telefone, o que é entregue a elas é parte de um algoritmo de inteligência artificial”, afirma Paulo Manzato, vice-presidente de Vendas para a América Latina da empresa portuguesa Talkdesk, especialista no desenvolvimento de sistemas de atendimento. Segundo ele, o machine learning (ramo da IA que permite que sistemas se tornem mais eficientes a cada interação com o usuário) faz parte da vida das pessoas “da hora que acordam até a hora que vão dormir”.

O executivo explica que IA permite hoje aumentar as potencialidades dos mais diferentes serviços. “Quando eu vejo uma apresentação da inteligência artificial como um produto, conceitualmente isso está equivocado: você constrói sua plataforma alicerçada em inteligência artificial”, explica.

Do ponto de vista das empresas, os sistemas de relacionamento com o cliente estão entre os que mais se beneficiam dessa habilidade da máquina identificar padrões dos consumidores, dos atendentes e dos próprios usos dos produtos. Com isso, consegue melhorar processos para aumentar a eficiência do negócio e reduzir frustrações dos clientes, algo que se torna cada vez mais crítico para qualquer negócio.

Tanto é assim que a empresa Reclame Aqui identificou que 51,2% dos brasileiros não se importam em pagar mais caro por um produto, desde que lhe seja oferecida uma experiência excelente. A conclusão veio a partir de uma pesquisa realizada em março com 13 mil consumidores de todo o país.

Essa experiência precisa ser superior em todos os pontos da “jornada do cliente”, desde quando ele descobre que a marca existe, quando percebe que ela pode lhe solucionar uma necessidade, no uso do produto em si e no suporte. Nesse último, os consumidores cada vez mais preferem resolver um problema interagindo com um sistema, mas não abrem mão de falar com um atendente humano quando o sistema falha nessa tarefa.

“A gente quer muito esse autosserviço, mas, assim que eu me deparo com o primeiro obstáculo do sistema sendo incapaz de me ajudar, eu quero falar com alguém”, afirma Lorelay Lopes, COO da Up, fintech da Embracon. “O grande desafio da inteligência artificial é deixar esse caminho mais fluido, quebrar essa barreira de ‘falar com bot versus com humano’, oferecendo uma experiência do cliente como a gente espera”, explica.

Os dois executivos participarão, na próxima quarta, do debate internacional “Como resolver os grandes desafios do atendimento automatizado”. O evento será online e gratuito, a partir das 11h.

Manzato explica que a inteligência artificial permite extrair informações relevantes para o negócio a partir de uma grande quantidade de dados coletados pela máquina, ao invés de amostras limitadas colhidas por seres humanos. “O dado pelo dado é custo, não diz nada se você não tiver o contexto da informação”, explica. Segundo ele, “uma empresa que decide sem olhar dados com apoio de machine learning perde uma superoportunidade de ser competitiva.”

Uma pesquisa da Talkdesk realizada em março com profissionais de customer experience de 11 países, incluindo o Brasil, apontou que 89% deles acreditam na importância de alavancar a IA na área de atendimento. Apesar disso, apenas 14% das organizações se consideram no nível mais alto de adoção dessa tecnologia, classificadas como “transformadoras”.

Ironicamente, os principais empecilhos para sua adoção resultam justamente de desconhecimento ou de visões distorcidas sobre ela. Por exemplo, 43% dos profissionais entrevistados pela Talkdesk citam o custo das ferramentas, enquanto 30% não querem ficar muito dependentes do departamento de TI nesse setor. Além disso, 26% acreditam que esse investimento levaria “muito tempo para se pagar”. Mas o que se observa no mercado são ferramentas baseadas “na nuvem” (“cloud computing”), com implementação muito rápida, investimentos baixos e resultados praticamente imediatos, sem uma grande curva e aprendizagem pelas equipes de negócios.

 

Máquina e humanos

Um grande medo que as pessoas têm é que as máquinas as substituam em seus postos de trabalho, à medida que fiquem mais inteligentes. Mas o que se observa, em diferentes setores da economia e nas mais diversas áreas da empresa, é que os sistemas de inteligência artificial retiram tarefas repetitivas dos profissionais. “O sistema libera o atendente para tarefas mais nobres”, afirma Lopes.

Isso também aparece na pesquisa da Talkdesk, com profissionais que já têm contato com a IA. Desses, 79% acreditam que a IA fornecerá mais ferramentas aos atendentes, em vez de substituí-los. Entretanto 63% afirmam que seus agentes atualmente não possuem as habilidades necessárias para maximizar o valor dessa tecnologia.

As próprias habilidades dos profissionais da área de atendimento estão mudando. Segundo a empresa, as mais valiosas na área de atendimento hoje são, pela ordem, “solução de problemas”, “atitude positiva”, “conhecimento do produto”, “flexibilidade” e “rapidez”. O estudo prevê que, já em 2025, a lista será encabeçada por “habilidade de trabalhar com IA”, seguida por “solução de problemas”, “capacidade de avaliar ferramentas de IA”, “capacidade de analisar dados gerados por IA” e “flexibilidade”.

Em outras palavras, a máquina se configura como uma parceira dos profissionais, e não como uma concorrente. “A inteligência artificial não vai tirar o emprego de ninguém”, crava Lopes.

Mas é preciso investir na formação profissional para essas e outras habilidades novas. “Existem muito poucos profissionais capacitados para trabalhar com data analytics, com modelos matemáticos”, explica Manzato. Para o executivo, as empresas que tiverem um grupo de profissionais dedicado a isso serão as mais bem sucedidas. “Especializar-se nisso é uma aposta certa para o mercado de trabalho!”

“Não acho que exista hoje algum tipo de atendimento que não possa ser feito dessa forma”, afirma Lopes. Segunda ela, é obrigação dos profissionais da área de tecnologia, de atendimento e de customer experience investir nessa tecnologia, para tornar a experiência do cliente mais eficiente e agradável. “O algoritmo, assim como nós, aprende com as interações, e como o tempo vai ficando cada vez melhor”, explica Manzato.

Por isso, recomendações automatizadas inteligentes, detecção de erros e fraudes em tempo real, sugestões a partir de grande volume de dados, análise de discurso e a oferta de um autosserviço mais eficiente são apenas alguns dos recursos que a inteligência artificial oferece às empresas, e que acaba impactando o nosso cotidiano, como consumidores.

Sem isso, pode existir uma dissociação crescente entre a oferta da empresa e o desejo dos clientes, o que pode ser fatal para os negócios. “A maioria dos executivos acha que a empresa que eles comandam presta um bom serviço”, diz Manzato, que termina com uma provocação: “mas será que percepção dele é a realidade?”


SERVIÇO: webinar internacional “Como resolver os grandes desafios do atendimento automatizado”, quarta (8 de dezembro) às 11h. Inscrições gratuitas em https://tinyurl.com/atendimento8dez