interface cérebro-computador

A pesquisadora Erin Kunz (ao centro) em seu estudo para criar neuropróteses de fala para pacientes com paralisia – Foto: reprodução

IA pode romper a última fronteira da privacidade humana

By | Tecnologia | No Comments

A inteligência artificial está sendo usada com outra ciência de ponta, a dos implantes neurais, para criar habilidades inéditas ou solucionar limitações físicas, como dificuldade de falar ou de se mover. Isso é algo muito bem-vindo, que beira a ficção científica, mas desperta alguns alertas de privacidade até então inimagináveis.

Afinal, se uma máquina for capaz de ler com boa precisão o que se passa em nosso cérebro para realizar essas tarefas, que garantias teremos de que nossos pensamentos mais íntimos estarão protegidos?

O cérebro continua sendo o último bastião da nossa privacidade. Nossos pensamentos são apenas nossos até que decidamos compartilhá-los. Mas agora novas aplicações da tecnologia BCI (sigla em inglês para “interface cérebro-computador”) podem mudar isso.

Uma pesquisa recente, que visava identificar palavras que uma pessoa estava pensando para reproduzi-las em um alto-falante, identificou também pensamentos cujo dono não pretendia compartilhar. Considerando que temos cerca de 50 pensamentos por minuto, qualquer sistema com essa proposta merece atenção redobrada.

O experimento ainda é embrionário, portanto ninguém precisa ter medo de que o ChatGPT acessará nossos segredos se não contarmos a ele. Mesmo assim, isso já deve alimentar debates sobre como impedir que máquinas invadam esse espaço sagrado que sustenta nossa própria individualidade. Além disso, na mão de governos e de outros grupos de poder, isso significaria a ferramenta definitiva de manipulação das pessoas.


Veja esse artigo em vídeo:


O estudo, liderado por Erin Kunz, da Universidade de Stanford (EUA), foi publicado no dia 21 de agosto na revista “Cell”. O objetivo era criar neuropróteses de fala para pacientes com paralisia. Usando microeletrodos implantados e com a ajuda da IA, os pesquisadores decodificaram frases imaginadas em tempo real com precisão de até 74% em vocabulários com 125 mil palavras. O sistema possibilitava uma comunicação mais rápida e natural em comparação aos métodos atuais de tentativa de fala.

Para proteger a privacidade dos voluntários, os cientistas definiram a frase “chitty chitty bang bang” como uma senha mental que precisava ser pensada para ativar a decodificação. Este mecanismo permitiu bloquear a captura involuntária de pensamentos em 98% dos casos. Eles concluíram que esse sistema tem grande potencial para revolucionar a comunicação assistida, ao mesmo tempo em que ressaltaram os desafios éticos relacionados à privacidade mental, sugerindo um caminho seguro e controlado para futuras aplicações clínicas.

O mecanismo parece eficiente, mas fiquei pensando no “experimento” de dizer a alguém: “não pense em um elefante rosa com bolinhas azuis”. Via de regra, depois de ouvir esse comando, todo mundo justamente pensa nesse paquiderme surrealista. Qual seria a viabilidade de usar esse recurso para “invadir” os pensamentos alheios?

A mente humana não é uma caixa lacrada, sendo sensível a pistas, associações e contexto. Palavras, imagens, perguntas e o ambiente podem “provocar” uma ideia, tornando-a mais acessível na memória. Experimentos cognitivos simples usam um conceito repetido para que certas imagens ou expressões venham à mente de maneira mais fácil. Mas induzir alguém a revelar ou usar sua senha cruza a linha para engenharia social e fraude. Infelizmente criminosos não se preocupam com isso.

É plenamente legítimo e até necessário que uma pessoa mantenha segredos, mesmo em relações de grande afeto. O direito de guardar para si certos pensamentos, lembranças ou informações é parte essencial da autonomia individual e da saúde psíquica. Por isso, as possibilidades descritas no estudo liderado por Kunz abrem muitos questionamentos éticos e jurídicos.

 

“Neurodireitos”

Pesquisadores e alguns governos começam a se preocupar com o que vem sendo chamado de “neurodireitos”. Eles propõem que pensamentos passariam a ser classificados como dados sensíveis, que poderiam e deveriam ser protegidos.

Diante disso, o grupo liderado pelo espanhol Rafael Yuste, do Centro de Neurotecnologia da Universidade de Columbia (EUA), propôs cinco “neurodireitos” fundamentais para proteger os indivíduos diante dos avanços dessa tecnologia. Ele é uma figura central nesse conceito e na articulação de propostas para a proteção legal e ética da mente humana, tendo já influenciado políticas internacionais nessa área.

Os pontos defendidos por Yuste são a privacidade mental, que impede que pensamentos sejam acessados sem permissão; a identidade pessoal, que protege contra manipulação da personalidade; o livre arbítrio, garantindo que não haja indução nas decisões dos indivíduos; o acesso equitativo à neuroaumentação, evitando assimetrias sociais ao garantir a oferta a todos dessas melhorias de capacidades cognitivas; e a proteção contra vieses e informações mal-intencionadas, buscando reduzir discriminações embutidas nos sistemas neurotecnológicos.

Tudo isso parece residir em um futuro distante e incerto. Mas precisamos pensar que, há míseros três anos, simplesmente não debatíamos esses impactos da inteligência artificial em nossas vidas. O ChatGPT foi lançado em novembro de 2022 e, desde então, essa tecnologia invade exponencialmente tudo que fazemos.

A autonomia individual presume o direito a manter segredos. Todos devem conservar pensamentos, lembranças e sentimentos, sem a obrigação de dividi-los, mesmo em relações íntimas. Essa “privacidade cognitiva” preserva sua identidade em um espaço interno inviolável. Tanto que Constituições democráticas garantem isso ao assegurar a inviolabilidade da vida privada. No Brasil, uma Emenda Constitucional de 2022 incorporou dados pessoais, incluindo os digitais, a essa proteção.

Além de resguardar a identidade, esse direito fortalece os vínculos afetivos. Relações saudáveis reconhecem que não deve haver transparência total. Pelo contrário, respeitar o espaço íntimo do outro impede a vigilância e a dependência emocional.

Guardar segredos não equivale a mentir. É a liberdade sobre o que compartilhar, no próprio tempo e circunstância. Ignorar isso, por pressão emocional ou por meios tecnológicos, viola a dignidade e ameaça o equilíbrio entre o indivíduo e a sociedade.

Sem isso, nós nos tornamos apenas reflexo de expectativas alheias. Por mais que essas tecnologias tragam benefícios há muito desejados, não podemos tolerar esse “efeito colateral”.