reconhecimento facial

Em conferência da Meta 2019, seu CEO, Mark Zuckerberg, anunciava que “o futuro é privado” - Foto: Anthony Quintano/Creative Commons

Decisões da Meta reabrem debates sobre uso da IA para identificação de pessoas

By | Tecnologia | No Comments

Quem garante que nós somos quem dizemos ser? Essa provocação faz sentido em um tempo em que a inteligência artificial ajuda a identificar pessoas (incluindo criminosos), mas ainda erra muito nessa tarefa, com resultados indesejáveis, como mandar inocentes para a cadeia. Decisões recentes da Meta esquentam esse debate sobre como equilibrar os benefícios e os riscos dessa tecnologia.

A empresa, que é dona do Facebook, do Instagram e do WhatsApp, anunciou recentemente duas medidas bem-vindas nesse campo. A primeira mapeará rostos de celebridades para evitar que suas imagens sejam usadas em vídeos falsos, em que normalmente aparecem vendendo produtos. Em outra iniciativa, a IA será usada para tentar identificar a idade de usuários, em um movimento para prevenir que crianças e adolescentes sejam expostos a conteúdos inadequados.

Os anúncios, especialmente o primeiro, desfazem uma reviravolta na postura da companhia nessa área: em 2021, o reconhecimento facial dos seus produtos, que já funcionava havia uma década, foi desativado diante da pressão da sociedade, problemas regulatórios e investigações em diferentes países. Agora, ele está de volta, como resposta à demanda pelo combate à usurpação de imagens alheias.

Essas ações da Meta são emblemáticas pela enorme importância de seus produtos na vida de bilhões de pessoas, mas estão longe de serem únicas nessa polêmica. O uso da IA na identificação é cada vez mais comum, e raramente o cidadão sabe desse monitoramento. A sociedade precisa estar consciente desse “Big Brother permanente” a que estamos submetidos, para decidir se seus ganhos superam os problemas.


Veja esse artigo em vídeo:


O reconhecimento de imagem da Meta era usado para automaticamente marcar pessoas nas fotos publicadas nas plataformas, criando vínculos entre as contas dos usuários. Além disso, as pessoas eram avisadas que estavam aparecendo em fotos alheias. Mas diante dos questionamentos sobre como essa tecnologia seria usada, a big tech eliminou o recurso e apagou os dados faciais de mais de 1 bilhão de pessoas.

Agora a empresa está reativando a tecnologia para evitar que as imagens de celebridades e outras pessoas públicas sejam usadas sem permissão em publicidades no Facebook e no Instagram. Se o sistema identificar isso, o anúncio será automaticamente tirado do ar. Já em testes com algumas celebridades, ele valerá para todas elas no ano que vem. Se alguma não quiser que o sistema reconheça sua imagem, deverá informar essa decisão na plataforma.

A Meta também usará o reconhecimento de imagem para restituir contas roubadas a seus verdadeiros donos. Nesse caso, a pessoa deverá gravar um vídeo de seu rosto, que será comparado com as fotos nos perfis do Facebook e do Instagram. A empresa afirma que, tanto nesse recurso quanto na verificação em publicidade, o reconhecimento facial não será usado para nenhuma outra finalidade, e os arquivos usados no processo serão excluídos ao seu final.

Também para o próximo ano, a Meta implantará o recurso “classificador de adultos”, que usará a IA para descobrir a idade real de um usuário. No caso de concluir que tem menos de 18 anos, a conta será automaticamente classificada como de adolescente, o que implica em várias restrições. Para isso, a tecnologia monitorará publicações e gostos do próprio usuário e de seus amigos. Ao se tentar alterar a idade, o sistema poderá exigir que o usuário grave um vídeo para estimá-la por características faciais.

Muitos adolescentes mentem a idade para ficarem livres desses limites. Com isso, ficam expostos a diferentes conteúdos nocivos, que podem causar problemas variados de saúde mental. Ao redor do mundo, há até mesmo diversos casos de suicídio de adolescentes atribuídos a influência do que viram no Facebook e no Instagram.

Ninguém discute as boas intenções dessas iniciativas. Mas há sempre o temor de que isso possa violar diferentes direitos individuais. E apesar de a Meta garantir que essas informações não serão usadas para outra finalidade, o histórico da companhia de lucrar muito com as informações de seus usuários representa uma sombra indelével. Além disso, a IA desses sistemas foi e continua sendo responsável direta por todo tipo de manipulação política e econômica, que levou à insana polarização da sociedade nos últimos anos.

 

Big Brother para todos

Apesar disso, restringir o acesso da Meta aos nossos dados é mais fácil que o visto em outras casos. Ela é uma empresa com produtos claramente identificados e, ainda que contra sua vontade e de maneiras pouco óbvias, o usuário pode impedir que a big tech use seus dados para algumas atividades, como o treinamento de sua IA. Mas não se pode esquecer que seu modelo de negócios é todo construído sobre usar nossas informações para nos entregar anúncios “mais relevantes”.

Quando andamos na rua, a situação fica muito mais grave. Em grandes cidades do mundo, somos continuamente monitorados por incontáveis câmeras públicas e privadas. Entre seus objetivos, estão nos identificar para segurança, interesses de diferentes organizações particulares e governamentais, identificação de padrões de comportamento e muito mais.

Novamente muitos desses serviços trazem benefícios aos indivíduos, mas também podem causar enormes transtornos quando erram. E erram muito! Além disso, as pessoas não são sequer informadas de que estão sendo monitoradas, não dando consentimento para tal, o que, de cara, violaria a Lei Geral de Proteção de Dados. Obviamente elas tampouco têm como impedir essa prática.

Um bom exemplo é o programa Smart Sampa, que espalhou dezenas de milhares de câmeras pela capital paulista. Sua proposta original previa “rastrear uma pessoa suspeita, monitorando todos os seus movimentos e atividades, por características como cor, face, roupas, forma do corpo, aspectos físicos etc.” Além de ser subjetiva, monitorar alguém pela sua cor é ilegal! A redação mudou, mas o objetivo não.

O reconhecimento facial falha em torno de 1% entre brancos e 30% entre negros, especialmente mulheres. Isso acontece porque há muito menos fotos de negros que de brancos no treinamento desses sistemas. Assim muitos inocentes, em várias cidades, já foram presos por serem confundidos com criminosos, e tiveram que provar o contrário, passando por riscos e violências enquanto isso.

Esses são apenas alguns exemplos de como a IA pode causar danos enormes, mesmo quando a intenção de seu uso seja positiva. Seus benefícios são claros, e seu uso é um caminho sem volta. Mas os problemas associados a ela ainda são grandes demais para serem ignorados, e, portanto, devem ser amplamente debatidos.

Não podemos aceitar que nos sejam impostos de maneiras obscuras.

 

Policial espanhola atende mulher no programa VioGén, que calcula o risco de ocorrências de violência de gênero - Foto: reprodução

O que acontecerá quando alguém morrer por um erro de inteligência artificial

By | Tecnologia | No Comments

O uso da inteligência artificial continua avançando nas mais diversas atividades, trazendo sensíveis ganhos de produtividade em automação de tarefas e no apoio à tomada de decisões. Ainda assim, ela está longe de ser perfeita, mas muitos usuários parecem não se preocupar com isso, pois seus eventuais erros causam prejuízos mínimos. Em algumas funções, entretanto, essas falhas podem levar a enormes transtornos, até mesmo à morte de alguém.

Duas perguntas surgem imediatamente disso: como evitar que uma tragédia dessas aconteça, e quem responderá por isso nesse caso.

A inteligência artificial é fabulosa para encontrar padrões, que permitem que ela tome suas decisões. Esses padrões dependem, entretanto, da qualidade dos dados usados para seu treinamento. Se os dados forem limitados ou cheios de viés, isso comprometerá seriamente a eficiência da plataforma.

Esse é um dos motivos por que a tomada de decisões críticas, por mais que seja auxiliada pela inteligência artificial, deve continuar em mãos humanas, pelo menos no estágio atual da tecnologia.

Algumas pessoas argumentam que isso contrariaria o próprio propósito de se usar a IA. Mas ignorar essa responsabilidade é como entregar uma decisão de vida ou morte para um estagiário eficiente. Talvez algum dia ele tenha estofo para algo tão sério e possa responder por isso, mas, por enquanto, não está preparado para tal.

Nada disso é especulação: já está acontecendo!


Veja esse artigo em vídeo:


Por exemplo, a polícia espanhola usa um sistema chamado VioGén para determinar estatisticamente riscos de ocorrência de violência de gênero. Em 2022, Lobna Hemid foi morta em casa pelo seu marido, depois de dar queixa na delegacia por ter sido insultada e surrada por ele com um pedaço de madeira, diante dos quatro filhos de 6 a 12 anos. Toda a vizinhança tinha ouvido seus gritos.

Não havia sido a primeira vez que o marido, Bouthaer el Banaisati, a havia espancado nos dez anos de casamento. Ainda assim, o VioGén calculou que ela corria pouco risco. O policial aceitou a decisão da máquina e a mandou para casa. Sete semanas depois, Bouthaer a esfaqueou várias vezes no peito e depois se suicidou.

Segundo o Ministério do Interior da Espanha, há 92 mil casos ativos de violência contra mulher no país. O VioGén calculou que 83% dessas vítimas tinham risco baixo ou insignificante de serem atacadas novamente pelo agressor. E o caso de Lobna não é único: desde 2007, 247 mulheres foram mortas depois de serem analisadas pelo sistema, 55 delas com riscos classificados como insignificantes ou baixos.

Os policiais têm autonomia de ignorar a sugestão da plataforma, devido a indícios que observem. Mas em 95% dos casos, eles apenas aceitam a sugestão.

A máquina não pode ser responsabilizada pelo erro de julgamento, por mais que esteja diretamente ligada a essas mortes. Mas então quem reponde por isso? Os policiais que acreditaram no VioGén? O fabricante da plataforma?

No momento, ninguém! As autoridades argumentam que, apesar de imperfeito, o VioGén efetivamente diminuiu a violência contra mulheres. Mas isso não importa para Lobna, que engrossou as estatísticas de agressões fatais contra mulheres e de erros policiais grosseiros causados por decisões auxiliadas por uma máquina.

 

No Brasil

Oficialmente, não há casos assim no Brasil, mas diferentes sistemas de IA já causam severos erros policiais e jurídicos no país.

Assim como acontece em outras nações, muitas pessoas já foram presas por aqui por erros em sistemas de reconhecimento facial por câmeras públicas ou de policiais. A maioria das vítimas são pessoas negras e mulheres, pois as bases de dados usadas para seu treinamento têm muito mais fotos de homens brancos.

Isso reforça ainda mais a já conhecida e aviltante discriminação policial contra negros. E por mais que essas vítimas acabem sendo soltas quando o erro é descoberto, passar alguns dias “gratuitamente” na cadeia é inadmissível!

E nem estou falando nos casos em que a polícia já chega atirando no “suspeito”.

Em outro caso, há o sistema de vigilância pública da prefeitura de São Paulo, o Smart Sampa, que usa IA para evitar crimes. Sua proposta original, que previa “rastrear uma pessoa suspeita, monitorando todos os seus movimentos e atividades, por características como cor, face, roupas, forma do corpo, aspectos físicos etc.”, teve que ser alterada, pois monitorar alguém pela cor é ilegal. Mas a redação era emblemática!

A Justiça também tenta encontrar caminhos seguros para um uso produtivo da IA. Mas casos de erros graves dificultam essa aprovação.

Por exemplo, o Conselho Nacional de Justiça (CNJ) investiga o caso do juiz Jefferson Ferreira Rodrigues, que negou indenização a uma servidora pública, quando era titular da 2ª Vara Cível e Criminal de Montes Claros (MG). Sua sentença incluía jurisprudências inexistentes criadas pelo ChatGPT. Ele admitiu o erro, mas o classificou como um “mero equívoco” devido à “sobrecarga de trabalho que recai sobre os ombros dos juízes”. Ele ainda atribuiu o erro a um “assessor de confiança”.

Esses são apenas exemplos de por que não se pode confiar cegamente nas decisões de plataformas de inteligência artificial. É muito diferente de dizer que elas não devem ser usadas, pois devem: podem trazer grandes benefícios aos nosso cotidiano!

A decisão sempre deve ser de humanos, que são responsáveis por qualquer falha da plataforma, especialmente em casos críticos. E mesmo que um sistema evite 100 mortes, não é aceitável que 10 inocentes sejam condenados ou mortos por erros da plataforma. Se houver um único erro assim, ela não é boa o suficiente para uso!

Por fim, é preciso criar legislações que também responsabilizem os fabricantes por essas falhas. Caso contrário, seu marketing continuará “batendo o bumbo” quando algo dá muito certo, e “tirando o corpo fora” se algo der errado, jogando a culpa aos seres humanos. A inteligência artificial deve trabalhar para nós, e não o contrário!

 

Cena do filme “RoboCop” (1987), em que um policial dado como morto ganha um corpo e uma consciência digitais - Foto: reprodução

IA pode brilhar na segurança, mas suas falhas podem ser catastróficas

By | Tecnologia | No Comments

Pegue qualquer lista dos maiores problemas das grandes cidades e a segurança sempre estará nas primeiras posições. Não é para menos: nos últimos anos, a escalada da violência chegou a níveis insustentáveis em todo Brasil. Diante disso, precisamos usar os recursos disponíveis para tentar resolver o problema. A digitalização de nossas vidas e a inteligência artificial podem ajudar muito nisso, mas precisamos estar preparados para lidar com as consequências de suas imprecisões.

Quanto mais crítica for uma aplicação, menos tolerante a falhas ela é. Isso quer dizer que o sistema não pode sair do ar nunca e as informações oferecidas por ele ou suas decisões devem ser precisas. E infelizmente a tecnologia não chegou a esse nível de excelência inquestionável.

Uma coisa é alguém fazer um trabalho escolar ou um relatório profissional com erros grosseiros por ter acreditado cegamente em alguma bobagem dita pelo ChatGPT. É verdade que podem acabar reprovando na disciplina ou perdendo o emprego por isso, duas coisas ruins. Mas isso não se compara a ser confundido pela máquina com um criminoso, e assim acabar sendo preso ou –pior– morto.

Por isso, apesar de a tecnologia ser muito bem-vinda no combate à criminalidade, os agentes de segurança pública precisam estar preparados para lidar com os resultados dessa colaboração e seus potenciais erros.


Veja esse artigo em vídeo:


Nesse cenário, é bastante ilustrativo o projeto da Prefeitura de São Paulo de unir diversos serviços municipais que hoje não trabalham integrados, como a Defesa Civil, o SAMU, a CET e a Guarda Civil Metropolitana, além das polícias Civil e Militar, Metrô e CPTM. Batizado de Smart Sampa, ele prevê ainda a adição de 20 mil câmeras na cidade, especialmente em pontos sensíveis e de maior criminalidade, que se somarão a outras 20 mil já existentes.

A princípio, a ideia parece muito boa, especialmente porque os diferentes órgãos da administração podem funcionar melhor ao compartilharem suas informações. A exemplo de outras grandes cidades no mundo, como Nova York, a tecnologia desempenha papel central nesse processo. Ironicamente aí começam a surgir os problemas.

O ponto mais delicado da proposta é o uso de reconhecimento facial. Essa tecnologia tem avançado incrivelmente, mas não o suficiente para evitar uma quantidade inaceitável de erros, particularmente entre pessoas negras. Isso acontece porque a inteligência artificial aprende a diferenciar rostos a partir de uma enorme quantidade de fotografias, mas proporcionalmente há muito mais amostras de brancos que de negros nesse “treinamento”. Diferentes estudos apontam que os erros de reconhecimento de pessoas brancas giram em torno de 1%, enquanto de negras ultrapassa os 30%, especialmente mulheres negras.

Por isso, a proposta original do Smart Sampa, que previa “rastrear uma pessoa suspeita, monitorando todos os seus movimentos e atividades, por características como cor, face, roupas, forma do corpo, aspectos físicos etc.”, precisou ser alterada. Monitorar alguém pela sua cor é ilegal!

O projeto prevê que qualquer problema identificado pela plataforma seja confirmado por um agente humano treinado antes de emitir qualquer alerta, o que é, sem dúvida, um ponto positivo para minimizar injustiças. Mas a ideia de rastrear alguém que o algoritmo ache suspeito, ainda cruzando com dados de redes sociais dos cidadãos, lembra algumas das piores sociedades da ficção científica.

 

Sem escapatória

No filme “Minority Report: a Nova Lei” (2002), as autoridades sabiam continuamente onde cada cidadão estava. Além disso, um sistema que combinava tecnologia com aspectos místicos, conseguia prever assassinatos antes que acontecessem. Dessa forma, a polícia prendia os “prováveis criminosos” antes de cometerem o crime.

Sim, as pessoas eram presas antes de terem cometido qualquer crime, apenas porque a plataforma tinha convicção de que o cometeriam! E para a polícia isso era suficiente.

O sistema parecia infalível e, de fato, os assassinatos acabaram. Os “prováveis criminosos” eram condenados a viver o resto de seus dias em uma espécie de coma induzido. O problema é que o sistema não só era falho, como ainda podia ser manipulado para “tirar de circulação” pessoas indesejáveis para os poderosos. Quando isso é revelado, o sistema é desativado e todos os condenados são libertados.

Como se pode ver, quando uma tecnologia tem o poder de levar alguém à prisão ou decidir sobre sua vida ou morte, nenhuma falha é aceitável. Ainda aproveitando a ficção para ilustrar o caso, temos a cena de RoboCop (1987) em que o robô de segurança ED-209, durante uma demonstração, identifica corretamente que um voluntário lhe apontava uma arma. Mas ele falha em reconhecer que a pessoa a joga ao chão logo depois, e acaba metralhando a vítima diante dos presentes.

Por isso, é assustador ver os motivos que desclassificaram a empresa vencedora do primeiro pregão do Smart Sampa. No dia 7 de junho, técnicos da Prefeitura foram verificar se ela estava apta ao serviço. Pelas regras, deveria ter mil câmeras operando com reconhecimento facial, mas só havia 347, das quais apenas 147 estavam online. Segundo o relatório dos técnicos, o responsável argumentou que “todo mundo tem problemas de Internet” e que “horário de almoço é complicado, muita gente fazendo download impacta no link de Internet mesmo”.

Esse amadorismo e falta de comprometimento é algo que jamais poderia pairar sobre um sistema de segurança pública, podendo colocar em xeque toda sua credibilidade! É por essas e outras que cidades importantes ao redor do mundo, como San Francisco (EUA), baniram o uso de reconhecimento facial em plataformas assim.

Alguns grupos querem reduzir esse debate a uma questão ideológica, como vem se tornando um padrão no Brasil há alguns anos. Mas essa não é uma questão ideológica e sim tecnológica!

Em um famoso artigo de 2018, Brad Smith, presidente da Microsoft, questionou qual papel esse tipo de tecnologia deve ter na sociedade, a despeito de todos os benefícios que traga. Segundo ele, “parece mais sensato pedir a um governo eleito que regule as empresas do que pedir a empresas não eleitas que regulem tal governo”.

Como em um bom episódio da série “Black Mirror”, o problema não está necessariamente na tecnologia em si, mas em usos errados dela. Câmeras e inteligência artificial darão poderes sobre-humanos às forças de segurança, com enorme poder de detecção de crimes e contravenções. Mas ela também pode maximizar vieses e falhas humanas da força policial, como o racismo.

Sem dúvida, podem ser ferramentas valiosíssimas no combate à criminalidade galopante. Mas em uma sociedade assustada e que clama por segurança rápida, despontam como soluções “mágicas” para políticos que buscam votos fáceis. Mas a coisa não funciona assim e, se não for implantada com cuidados técnicos e éticos, pode ainda ampliar outros problemas sociais existentes.

É necessário entender que, mesmo que o sistema evite 100 mortes, não é aceitável que 10 vítimas inocentes sejam condenadas ou mortas por erros da plataforma. Se houver um único erro, o sistema não é bom o suficiente para ser usado! Mas parece que pouca gente se preocupa com isso, no melhor estilo de “o fim justifica os meios”.

No final, a solução recai sobre o ser humano. Os agentes de segurança precisam ser treinados para lidar com possíveis falhas técnicas. Precisam aprender a dosar suas ações e abordagens feitas a partir de informações que podem estar erradas.

Resta saber se esses profissionais estão preparados para isso. Diante de diversas ações desastrosas e mortíferas que vemos nas ruas brasileiras o tempo todo, não estão! A solução desse outro problema é essencial e deveria acontecer antes da implantação da tecnologia. Mas isso, por si só, já renderia outro artigo.

 

Reconhecimento facial se tornou uma poderosa ferramenta de negócios

By | Tecnologia | No Comments

Muita gente já se espantou como o Facebook reconhece instantaneamente todas as pessoas que estão nas fotos que carregamos na plataforma, “marcando” seus rostos. Esse recurso, um dos segredos das “viralizações” das imagens nessa rede social, vem dos algoritmos de reconhecimento facial. Mas esse uso chega a ser um “brinquedo” diante do que essa tecnologia já oferece aos negócios.

Apesar de nunca ter se falado tanto disso, ela existe desde os anos 1960. De maneira simplificada, consiste em se criar uma “assinatura digital” (um “código hash”) composta por uma identificação única calculada a partir de distâncias entre pontos-chave do rosto (como o centro da pupila, a ponta do nariz, os limites da boca e assim sucessivamente). Quanto mais pontos forem avaliados, maior a eficiência no reconhecimento, pois essas distâncias variam de pessoa para pessoa.

“Uma coisa que melhorou muito de uns anos para cá foi a acuracidade do reconhecimento facial”, afirma Edgar Nunes, diretor comercial da Nuntius Tecnologia. De fato, até há poucos anos, existia desconfiança com essa tecnologia, por gerar muitos falsos positivos ou negativos.  “Antes as empresas tinham algoritmos que trabalhavam com 96 pontos do rosto, e hoje falamos de pelo menos 300 pontos, chegando a 1.024”, explica.

Tantos pontos permitem que o reconhecimento aconteça com precisão até quando o rosto está parcialmente coberto, por exemplo por óculos escuros ou, como agora é comum, por uma máscara. Os pontos ainda visíveis são suficientes para se fazer a identificação.


Veja a íntegra da entrevista com Edgar Nunes em vídeo:


Portanto a eficiência do reconhecimento facial está intimamente ligada não apenas a melhorias no software, mas também a avanços exponenciais nos computadores e nas próprias câmeras. Todo esse poder de processamento permite que as plataformas identifiquem mais pontos no rosto, em menor tempo e até de várias pessoas na mesma imagem. “Hoje a tecnologia reconhece 512 pessoas simultaneamente, em uma única câmera”, explica Nunes.

Além disso, os sistemas são capazes de identificar indivíduos mesmo que eles não estejam olhando de frente para a câmera, uma exigência dos sistemas mais antigos. A quantidade de pontos e o poder de processamento identificam também os rostos inclinados. Aliás, esse reconhecimento tridimensional pode ser usado para evitar fraudes, como alguém tentando apresentar uma foto e o sistema achar que se trata de um rosto real diante da câmera.

A qualidade nos reconhecimentos depende também da adaptação do sistema para a região onde ele será usado. Não basta, portanto, um algoritmo de qualidade: a plataforma precisa ser “calibrada” para o tipo de rostos da população local, mesmo em um país miscigenado, como o Brasil. É por isso que, se tentarmos usar um bom sistema preparado para o mercado americano em uma país asiático, ele pode não funcionar muito bem, e vice-versa.

Outro ganho das melhorias dos equipamentos é que sistemas locais podem tomar ações sem exigir uma conexão à Internet de banda larga. Esses equipamentos são capazes de armazenar mais de um milhão de “códigos hash” em sua memória (ou seja, as fotos das pessoas não estão ali, apenas essa sua “assinatura digital”). Dessa forma, se a imagem da pessoa diante da câmera não combinar com o respectivo “código hash”, o sistema pode negar a identificação.

Seguindo a mesma lógica, o sistema local pode gerar um “código hash” e enviar apenas essa informação para um servidor, um arquivo muito menor que o de uma foto ou um vídeo capturados. “A gente está falando de transportar apenas alguns kbytes de informação, o que não vai causar nenhum problema de conectividade, não vai ‘engargalar’ nenhuma rede’, explica Nunes.

Isso é particularmente interessante em locais em que a não há conexão com a rede ou em que ela seja limitada, como em um ônibus. O terminal do Bilhete Único (ou equivalente) pode conter os “códigos-hash” dos donos de bilhetes da cidade. Se alguém tentar usar um documento que não combina com a imagem capturada na hora pela câmera, a catraca pode não ser liberada, e a informação de uma possível fraude ou roubo ser enviada a uma central de controle e ao verdadeiro dono do bilhete.

 

Integração a outros sistemas

As plataformas de reconhecimento facial não trabalham mais de maneira isolada. “Antigamente, o reconhecimento facial entregava algo como ‘a pessoa é o Paulo e foi detectado na câmera 2’ e isso era enviado para o centro de controle”, conta Nunes. Agora a informação captada pela plataforma de reconhecimento vai muito além, identificando coisas como gênero, idade aproximada, raça e até estado de humor da pessoa no momento.

Essa informação fica ainda mais valiosa quando integrada a sistemas de gestão, para ajudar a tomar decisões de negócio. Por exemplo, de uma maneira automática, é possível saber que perfil de consumidor um determinado produto atrai, como o fluxo de visitantes em uma loja se comporta e até tomar ações personalizadas para um usuário específico, baseado em um histórico de relacionamento com a empresa ou combinando com perfis de visitantes semelhantes.

Em tempos de pandemia de Covid-19, os terminais de reconhecimento facial também trazem outras vantagens interessantes. A primeira delas é que, além de identificar a pessoa, consegue medir sua temperatura instantaneamente, sem necessitar de caras câmeras térmicas e evitando as filas provocadas pelas leituras com termômetros do tipo “pistola”, que se popularizaram no varejo. O sistema também é capaz de identificar se a pessoa está usando uma máscara. Em caso negativo ou se estiver com febre, uma ação é disparada, como informar a segurança ou a área de recursos humanos.

Nunes acredita que a evolução natural dessas plataformas envolverá ainda mais confiança e velocidade na identificação dos rostos, além de integrações cada vez mais poderosas com outros sistemas. Em um mundo com uso crescente de aplicações “touchless”, em que o usuário não precise encostar em nada, isso é muito bem-vindo.

Videodebate: brincadeira perigosa?

By | Tecnologia | No Comments

Primeira teoria da conspiração do ano!

Você já participou do “Desafio dos 10 Anos”, o “10 Years Challenge”? Tem muita gente boa dizendo que aquilo pode ser um esquema para enganaras pessoas e usar suas fotos para calibrar algoritmos.

Talvez seja exagero. Mas isso levantou dois temas que merecem ser muito debatidos.

O primeiro é sobre reconhecimento facial. Essa tecnologia já está bastante avançada e traz enormes benefícios. Mas há o temor de que ela passe a ser usada para espionar os cidadãos, acabando com a privacidade.

O outro assunto é a maneira como nós mesmos cuidamos de nossas informações. Estamos mal-acostumados a entregar nossos dados em troca de bobagens, muitas vezes plantadas por criminosos.

Entenda como tudo isso funciona no meu vídeo abaixo. E depois vamos debater nos comentários.

Não podemos deixar que nos façam de otários!

 


Quer ler a reportagem do Independent que mencionei no vídeo, sobre como a polícia da Índia encontrou 3.000 crianças perdidas em apenas quatro dias, graças à tecnologia de reconhecimento facial e envelhecimento? É só clicar em https://www.independent.co.uk/life-style/gadgets-and-tech/news/india-police-missing-children-facial-recognition-tech-trace-find-reunite-a8320406.html