reconhecimento facial

Policial espanhola atende mulher no programa VioGén, que calcula o risco de ocorrências de violência de gênero - Foto: reprodução

O que acontecerá quando alguém morrer por um erro de inteligência artificial

By | Tecnologia | No Comments

O uso da inteligência artificial continua avançando nas mais diversas atividades, trazendo sensíveis ganhos de produtividade em automação de tarefas e no apoio à tomada de decisões. Ainda assim, ela está longe de ser perfeita, mas muitos usuários parecem não se preocupar com isso, pois seus eventuais erros causam prejuízos mínimos. Em algumas funções, entretanto, essas falhas podem levar a enormes transtornos, até mesmo à morte de alguém.

Duas perguntas surgem imediatamente disso: como evitar que uma tragédia dessas aconteça, e quem responderá por isso nesse caso.

A inteligência artificial é fabulosa para encontrar padrões, que permitem que ela tome suas decisões. Esses padrões dependem, entretanto, da qualidade dos dados usados para seu treinamento. Se os dados forem limitados ou cheios de viés, isso comprometerá seriamente a eficiência da plataforma.

Esse é um dos motivos por que a tomada de decisões críticas, por mais que seja auxiliada pela inteligência artificial, deve continuar em mãos humanas, pelo menos no estágio atual da tecnologia.

Algumas pessoas argumentam que isso contrariaria o próprio propósito de se usar a IA. Mas ignorar essa responsabilidade é como entregar uma decisão de vida ou morte para um estagiário eficiente. Talvez algum dia ele tenha estofo para algo tão sério e possa responder por isso, mas, por enquanto, não está preparado para tal.

Nada disso é especulação: já está acontecendo!


Veja esse artigo em vídeo:


Por exemplo, a polícia espanhola usa um sistema chamado VioGén para determinar estatisticamente riscos de ocorrência de violência de gênero. Em 2022, Lobna Hemid foi morta em casa pelo seu marido, depois de dar queixa na delegacia por ter sido insultada e surrada por ele com um pedaço de madeira, diante dos quatro filhos de 6 a 12 anos. Toda a vizinhança tinha ouvido seus gritos.

Não havia sido a primeira vez que o marido, Bouthaer el Banaisati, a havia espancado nos dez anos de casamento. Ainda assim, o VioGén calculou que ela corria pouco risco. O policial aceitou a decisão da máquina e a mandou para casa. Sete semanas depois, Bouthaer a esfaqueou várias vezes no peito e depois se suicidou.

Segundo o Ministério do Interior da Espanha, há 92 mil casos ativos de violência contra mulher no país. O VioGén calculou que 83% dessas vítimas tinham risco baixo ou insignificante de serem atacadas novamente pelo agressor. E o caso de Lobna não é único: desde 2007, 247 mulheres foram mortas depois de serem analisadas pelo sistema, 55 delas com riscos classificados como insignificantes ou baixos.

Os policiais têm autonomia de ignorar a sugestão da plataforma, devido a indícios que observem. Mas em 95% dos casos, eles apenas aceitam a sugestão.

A máquina não pode ser responsabilizada pelo erro de julgamento, por mais que esteja diretamente ligada a essas mortes. Mas então quem reponde por isso? Os policiais que acreditaram no VioGén? O fabricante da plataforma?

No momento, ninguém! As autoridades argumentam que, apesar de imperfeito, o VioGén efetivamente diminuiu a violência contra mulheres. Mas isso não importa para Lobna, que engrossou as estatísticas de agressões fatais contra mulheres e de erros policiais grosseiros causados por decisões auxiliadas por uma máquina.

 

No Brasil

Oficialmente, não há casos assim no Brasil, mas diferentes sistemas de IA já causam severos erros policiais e jurídicos no país.

Assim como acontece em outras nações, muitas pessoas já foram presas por aqui por erros em sistemas de reconhecimento facial por câmeras públicas ou de policiais. A maioria das vítimas são pessoas negras e mulheres, pois as bases de dados usadas para seu treinamento têm muito mais fotos de homens brancos.

Isso reforça ainda mais a já conhecida e aviltante discriminação policial contra negros. E por mais que essas vítimas acabem sendo soltas quando o erro é descoberto, passar alguns dias “gratuitamente” na cadeia é inadmissível!

E nem estou falando nos casos em que a polícia já chega atirando no “suspeito”.

Em outro caso, há o sistema de vigilância pública da prefeitura de São Paulo, o Smart Sampa, que usa IA para evitar crimes. Sua proposta original, que previa “rastrear uma pessoa suspeita, monitorando todos os seus movimentos e atividades, por características como cor, face, roupas, forma do corpo, aspectos físicos etc.”, teve que ser alterada, pois monitorar alguém pela cor é ilegal. Mas a redação era emblemática!

A Justiça também tenta encontrar caminhos seguros para um uso produtivo da IA. Mas casos de erros graves dificultam essa aprovação.

Por exemplo, o Conselho Nacional de Justiça (CNJ) investiga o caso do juiz Jefferson Ferreira Rodrigues, que negou indenização a uma servidora pública, quando era titular da 2ª Vara Cível e Criminal de Montes Claros (MG). Sua sentença incluía jurisprudências inexistentes criadas pelo ChatGPT. Ele admitiu o erro, mas o classificou como um “mero equívoco” devido à “sobrecarga de trabalho que recai sobre os ombros dos juízes”. Ele ainda atribuiu o erro a um “assessor de confiança”.

Esses são apenas exemplos de por que não se pode confiar cegamente nas decisões de plataformas de inteligência artificial. É muito diferente de dizer que elas não devem ser usadas, pois devem: podem trazer grandes benefícios aos nosso cotidiano!

A decisão sempre deve ser de humanos, que são responsáveis por qualquer falha da plataforma, especialmente em casos críticos. E mesmo que um sistema evite 100 mortes, não é aceitável que 10 inocentes sejam condenados ou mortos por erros da plataforma. Se houver um único erro assim, ela não é boa o suficiente para uso!

Por fim, é preciso criar legislações que também responsabilizem os fabricantes por essas falhas. Caso contrário, seu marketing continuará “batendo o bumbo” quando algo dá muito certo, e “tirando o corpo fora” se algo der errado, jogando a culpa aos seres humanos. A inteligência artificial deve trabalhar para nós, e não o contrário!

 

Cena do filme “RoboCop” (1987), em que um policial dado como morto ganha um corpo e uma consciência digitais - Foto: reprodução

IA pode brilhar na segurança, mas suas falhas podem ser catastróficas

By | Tecnologia | No Comments

Pegue qualquer lista dos maiores problemas das grandes cidades e a segurança sempre estará nas primeiras posições. Não é para menos: nos últimos anos, a escalada da violência chegou a níveis insustentáveis em todo Brasil. Diante disso, precisamos usar os recursos disponíveis para tentar resolver o problema. A digitalização de nossas vidas e a inteligência artificial podem ajudar muito nisso, mas precisamos estar preparados para lidar com as consequências de suas imprecisões.

Quanto mais crítica for uma aplicação, menos tolerante a falhas ela é. Isso quer dizer que o sistema não pode sair do ar nunca e as informações oferecidas por ele ou suas decisões devem ser precisas. E infelizmente a tecnologia não chegou a esse nível de excelência inquestionável.

Uma coisa é alguém fazer um trabalho escolar ou um relatório profissional com erros grosseiros por ter acreditado cegamente em alguma bobagem dita pelo ChatGPT. É verdade que podem acabar reprovando na disciplina ou perdendo o emprego por isso, duas coisas ruins. Mas isso não se compara a ser confundido pela máquina com um criminoso, e assim acabar sendo preso ou –pior– morto.

Por isso, apesar de a tecnologia ser muito bem-vinda no combate à criminalidade, os agentes de segurança pública precisam estar preparados para lidar com os resultados dessa colaboração e seus potenciais erros.


Veja esse artigo em vídeo:


Nesse cenário, é bastante ilustrativo o projeto da Prefeitura de São Paulo de unir diversos serviços municipais que hoje não trabalham integrados, como a Defesa Civil, o SAMU, a CET e a Guarda Civil Metropolitana, além das polícias Civil e Militar, Metrô e CPTM. Batizado de Smart Sampa, ele prevê ainda a adição de 20 mil câmeras na cidade, especialmente em pontos sensíveis e de maior criminalidade, que se somarão a outras 20 mil já existentes.

A princípio, a ideia parece muito boa, especialmente porque os diferentes órgãos da administração podem funcionar melhor ao compartilharem suas informações. A exemplo de outras grandes cidades no mundo, como Nova York, a tecnologia desempenha papel central nesse processo. Ironicamente aí começam a surgir os problemas.

O ponto mais delicado da proposta é o uso de reconhecimento facial. Essa tecnologia tem avançado incrivelmente, mas não o suficiente para evitar uma quantidade inaceitável de erros, particularmente entre pessoas negras. Isso acontece porque a inteligência artificial aprende a diferenciar rostos a partir de uma enorme quantidade de fotografias, mas proporcionalmente há muito mais amostras de brancos que de negros nesse “treinamento”. Diferentes estudos apontam que os erros de reconhecimento de pessoas brancas giram em torno de 1%, enquanto de negras ultrapassa os 30%, especialmente mulheres negras.

Por isso, a proposta original do Smart Sampa, que previa “rastrear uma pessoa suspeita, monitorando todos os seus movimentos e atividades, por características como cor, face, roupas, forma do corpo, aspectos físicos etc.”, precisou ser alterada. Monitorar alguém pela sua cor é ilegal!

O projeto prevê que qualquer problema identificado pela plataforma seja confirmado por um agente humano treinado antes de emitir qualquer alerta, o que é, sem dúvida, um ponto positivo para minimizar injustiças. Mas a ideia de rastrear alguém que o algoritmo ache suspeito, ainda cruzando com dados de redes sociais dos cidadãos, lembra algumas das piores sociedades da ficção científica.

 

Sem escapatória

No filme “Minority Report: a Nova Lei” (2002), as autoridades sabiam continuamente onde cada cidadão estava. Além disso, um sistema que combinava tecnologia com aspectos místicos, conseguia prever assassinatos antes que acontecessem. Dessa forma, a polícia prendia os “prováveis criminosos” antes de cometerem o crime.

Sim, as pessoas eram presas antes de terem cometido qualquer crime, apenas porque a plataforma tinha convicção de que o cometeriam! E para a polícia isso era suficiente.

O sistema parecia infalível e, de fato, os assassinatos acabaram. Os “prováveis criminosos” eram condenados a viver o resto de seus dias em uma espécie de coma induzido. O problema é que o sistema não só era falho, como ainda podia ser manipulado para “tirar de circulação” pessoas indesejáveis para os poderosos. Quando isso é revelado, o sistema é desativado e todos os condenados são libertados.

Como se pode ver, quando uma tecnologia tem o poder de levar alguém à prisão ou decidir sobre sua vida ou morte, nenhuma falha é aceitável. Ainda aproveitando a ficção para ilustrar o caso, temos a cena de RoboCop (1987) em que o robô de segurança ED-209, durante uma demonstração, identifica corretamente que um voluntário lhe apontava uma arma. Mas ele falha em reconhecer que a pessoa a joga ao chão logo depois, e acaba metralhando a vítima diante dos presentes.

Por isso, é assustador ver os motivos que desclassificaram a empresa vencedora do primeiro pregão do Smart Sampa. No dia 7 de junho, técnicos da Prefeitura foram verificar se ela estava apta ao serviço. Pelas regras, deveria ter mil câmeras operando com reconhecimento facial, mas só havia 347, das quais apenas 147 estavam online. Segundo o relatório dos técnicos, o responsável argumentou que “todo mundo tem problemas de Internet” e que “horário de almoço é complicado, muita gente fazendo download impacta no link de Internet mesmo”.

Esse amadorismo e falta de comprometimento é algo que jamais poderia pairar sobre um sistema de segurança pública, podendo colocar em xeque toda sua credibilidade! É por essas e outras que cidades importantes ao redor do mundo, como San Francisco (EUA), baniram o uso de reconhecimento facial em plataformas assim.

Alguns grupos querem reduzir esse debate a uma questão ideológica, como vem se tornando um padrão no Brasil há alguns anos. Mas essa não é uma questão ideológica e sim tecnológica!

Em um famoso artigo de 2018, Brad Smith, presidente da Microsoft, questionou qual papel esse tipo de tecnologia deve ter na sociedade, a despeito de todos os benefícios que traga. Segundo ele, “parece mais sensato pedir a um governo eleito que regule as empresas do que pedir a empresas não eleitas que regulem tal governo”.

Como em um bom episódio da série “Black Mirror”, o problema não está necessariamente na tecnologia em si, mas em usos errados dela. Câmeras e inteligência artificial darão poderes sobre-humanos às forças de segurança, com enorme poder de detecção de crimes e contravenções. Mas ela também pode maximizar vieses e falhas humanas da força policial, como o racismo.

Sem dúvida, podem ser ferramentas valiosíssimas no combate à criminalidade galopante. Mas em uma sociedade assustada e que clama por segurança rápida, despontam como soluções “mágicas” para políticos que buscam votos fáceis. Mas a coisa não funciona assim e, se não for implantada com cuidados técnicos e éticos, pode ainda ampliar outros problemas sociais existentes.

É necessário entender que, mesmo que o sistema evite 100 mortes, não é aceitável que 10 vítimas inocentes sejam condenadas ou mortas por erros da plataforma. Se houver um único erro, o sistema não é bom o suficiente para ser usado! Mas parece que pouca gente se preocupa com isso, no melhor estilo de “o fim justifica os meios”.

No final, a solução recai sobre o ser humano. Os agentes de segurança precisam ser treinados para lidar com possíveis falhas técnicas. Precisam aprender a dosar suas ações e abordagens feitas a partir de informações que podem estar erradas.

Resta saber se esses profissionais estão preparados para isso. Diante de diversas ações desastrosas e mortíferas que vemos nas ruas brasileiras o tempo todo, não estão! A solução desse outro problema é essencial e deveria acontecer antes da implantação da tecnologia. Mas isso, por si só, já renderia outro artigo.

 

Reconhecimento facial se tornou uma poderosa ferramenta de negócios

By | Tecnologia | No Comments

Muita gente já se espantou como o Facebook reconhece instantaneamente todas as pessoas que estão nas fotos que carregamos na plataforma, “marcando” seus rostos. Esse recurso, um dos segredos das “viralizações” das imagens nessa rede social, vem dos algoritmos de reconhecimento facial. Mas esse uso chega a ser um “brinquedo” diante do que essa tecnologia já oferece aos negócios.

Apesar de nunca ter se falado tanto disso, ela existe desde os anos 1960. De maneira simplificada, consiste em se criar uma “assinatura digital” (um “código hash”) composta por uma identificação única calculada a partir de distâncias entre pontos-chave do rosto (como o centro da pupila, a ponta do nariz, os limites da boca e assim sucessivamente). Quanto mais pontos forem avaliados, maior a eficiência no reconhecimento, pois essas distâncias variam de pessoa para pessoa.

“Uma coisa que melhorou muito de uns anos para cá foi a acuracidade do reconhecimento facial”, afirma Edgar Nunes, diretor comercial da Nuntius Tecnologia. De fato, até há poucos anos, existia desconfiança com essa tecnologia, por gerar muitos falsos positivos ou negativos.  “Antes as empresas tinham algoritmos que trabalhavam com 96 pontos do rosto, e hoje falamos de pelo menos 300 pontos, chegando a 1.024”, explica.

Tantos pontos permitem que o reconhecimento aconteça com precisão até quando o rosto está parcialmente coberto, por exemplo por óculos escuros ou, como agora é comum, por uma máscara. Os pontos ainda visíveis são suficientes para se fazer a identificação.


Veja a íntegra da entrevista com Edgar Nunes em vídeo:


Portanto a eficiência do reconhecimento facial está intimamente ligada não apenas a melhorias no software, mas também a avanços exponenciais nos computadores e nas próprias câmeras. Todo esse poder de processamento permite que as plataformas identifiquem mais pontos no rosto, em menor tempo e até de várias pessoas na mesma imagem. “Hoje a tecnologia reconhece 512 pessoas simultaneamente, em uma única câmera”, explica Nunes.

Além disso, os sistemas são capazes de identificar indivíduos mesmo que eles não estejam olhando de frente para a câmera, uma exigência dos sistemas mais antigos. A quantidade de pontos e o poder de processamento identificam também os rostos inclinados. Aliás, esse reconhecimento tridimensional pode ser usado para evitar fraudes, como alguém tentando apresentar uma foto e o sistema achar que se trata de um rosto real diante da câmera.

A qualidade nos reconhecimentos depende também da adaptação do sistema para a região onde ele será usado. Não basta, portanto, um algoritmo de qualidade: a plataforma precisa ser “calibrada” para o tipo de rostos da população local, mesmo em um país miscigenado, como o Brasil. É por isso que, se tentarmos usar um bom sistema preparado para o mercado americano em uma país asiático, ele pode não funcionar muito bem, e vice-versa.

Outro ganho das melhorias dos equipamentos é que sistemas locais podem tomar ações sem exigir uma conexão à Internet de banda larga. Esses equipamentos são capazes de armazenar mais de um milhão de “códigos hash” em sua memória (ou seja, as fotos das pessoas não estão ali, apenas essa sua “assinatura digital”). Dessa forma, se a imagem da pessoa diante da câmera não combinar com o respectivo “código hash”, o sistema pode negar a identificação.

Seguindo a mesma lógica, o sistema local pode gerar um “código hash” e enviar apenas essa informação para um servidor, um arquivo muito menor que o de uma foto ou um vídeo capturados. “A gente está falando de transportar apenas alguns kbytes de informação, o que não vai causar nenhum problema de conectividade, não vai ‘engargalar’ nenhuma rede’, explica Nunes.

Isso é particularmente interessante em locais em que a não há conexão com a rede ou em que ela seja limitada, como em um ônibus. O terminal do Bilhete Único (ou equivalente) pode conter os “códigos-hash” dos donos de bilhetes da cidade. Se alguém tentar usar um documento que não combina com a imagem capturada na hora pela câmera, a catraca pode não ser liberada, e a informação de uma possível fraude ou roubo ser enviada a uma central de controle e ao verdadeiro dono do bilhete.

 

Integração a outros sistemas

As plataformas de reconhecimento facial não trabalham mais de maneira isolada. “Antigamente, o reconhecimento facial entregava algo como ‘a pessoa é o Paulo e foi detectado na câmera 2’ e isso era enviado para o centro de controle”, conta Nunes. Agora a informação captada pela plataforma de reconhecimento vai muito além, identificando coisas como gênero, idade aproximada, raça e até estado de humor da pessoa no momento.

Essa informação fica ainda mais valiosa quando integrada a sistemas de gestão, para ajudar a tomar decisões de negócio. Por exemplo, de uma maneira automática, é possível saber que perfil de consumidor um determinado produto atrai, como o fluxo de visitantes em uma loja se comporta e até tomar ações personalizadas para um usuário específico, baseado em um histórico de relacionamento com a empresa ou combinando com perfis de visitantes semelhantes.

Em tempos de pandemia de Covid-19, os terminais de reconhecimento facial também trazem outras vantagens interessantes. A primeira delas é que, além de identificar a pessoa, consegue medir sua temperatura instantaneamente, sem necessitar de caras câmeras térmicas e evitando as filas provocadas pelas leituras com termômetros do tipo “pistola”, que se popularizaram no varejo. O sistema também é capaz de identificar se a pessoa está usando uma máscara. Em caso negativo ou se estiver com febre, uma ação é disparada, como informar a segurança ou a área de recursos humanos.

Nunes acredita que a evolução natural dessas plataformas envolverá ainda mais confiança e velocidade na identificação dos rostos, além de integrações cada vez mais poderosas com outros sistemas. Em um mundo com uso crescente de aplicações “touchless”, em que o usuário não precise encostar em nada, isso é muito bem-vindo.

Videodebate: brincadeira perigosa?

By | Tecnologia | No Comments

Primeira teoria da conspiração do ano!

Você já participou do “Desafio dos 10 Anos”, o “10 Years Challenge”? Tem muita gente boa dizendo que aquilo pode ser um esquema para enganaras pessoas e usar suas fotos para calibrar algoritmos.

Talvez seja exagero. Mas isso levantou dois temas que merecem ser muito debatidos.

O primeiro é sobre reconhecimento facial. Essa tecnologia já está bastante avançada e traz enormes benefícios. Mas há o temor de que ela passe a ser usada para espionar os cidadãos, acabando com a privacidade.

O outro assunto é a maneira como nós mesmos cuidamos de nossas informações. Estamos mal-acostumados a entregar nossos dados em troca de bobagens, muitas vezes plantadas por criminosos.

Entenda como tudo isso funciona no meu vídeo abaixo. E depois vamos debater nos comentários.

Não podemos deixar que nos façam de otários!

 


Quer ler a reportagem do Independent que mencionei no vídeo, sobre como a polícia da Índia encontrou 3.000 crianças perdidas em apenas quatro dias, graças à tecnologia de reconhecimento facial e envelhecimento? É só clicar em https://www.independent.co.uk/life-style/gadgets-and-tech/news/india-police-missing-children-facial-recognition-tech-trace-find-reunite-a8320406.html