Black Mirror

Cena de “Black Mirror”, em que se vê o implante ocular digital que aparece em vários episódios, com usos diversos - Foto: Reprodução

IA traz as coisas mais legais e mais sinistras de “Black Mirror” para o nosso cotidiano

By | Tecnologia | No Comments

Você gostaria de ter a sua disposição algumas das tecnologias de “Black Mirror”, que praticamente dão “superpoderes” a seus usuários, mesmo que isso possa lhes trazer algum risco? Se a reposta for positiva, prepare-se, pois a inteligência artificial pode fazer algo parecido àquilo se tornar realidade em breve, com tudo de bom e de ruim que oferece.

A série britânica, disponível na Netflix, ficou famosa por mostrar uma realidade alternativa ou um futuro próximo com dispositivos tecnológicos incríveis, capazes de alterar profundamente a vida das pessoas. Mas, via de regra, algo dá errado na história, não pela tecnologia em si, mas pela desvirtuação de seu uso por alguns indivíduos.

Os roteiros promovem reflexões importantes sobre as pessoas estarem preparadas para lidar com tanto poder. Com as novidades tecnológicas já lançadas ou prometidas para os próximos meses, os mesmos dilemas éticos começam a invadir nosso cotidiano, especialmente se (ou quando) as coisas saírem dos trilhos. Diante de problemas inusitados (para dizer o mínimo), quem deve ser responsabilizado: os clientes, por usos inadequados dos produtos, ou seus fabricantes, que não criaram mecanismos de segurança para conter isso?


Veja esse artigo em vídeo:


Provavelmente o dispositivo mais icônico de “Black Mirror”, que aparece em vários episódios, com diferentes aplicações, é uma espécie de implante ocular capaz de captar tudo que a pessoa vê em sua vida, que fica armazenado em um chip implantado atrás da orelha. Essa memória eterna e detalhada pode ser recuperada a qualquer momento, sendo projetada diretamente no próprio olho ou em uma tela.

Não é difícil imaginar como isso pode ser problemático, especialmente quando outras pessoas têm acesso a memórias alheias. Algumas coisas deveriam ser simplesmente esquecidas ou jamais compartilhadas!

A privacidade se torna um bem cada vez mais valioso em um mundo em que nossas informações pessoais viram dinheiro na mão de empresas que as transformam em dados comercializáveis. Um bom exemplo são equipamentos que vestimos (os chamados “wearables”) que captam informações sobre nossa saúde, muitas delas compartilhadas com os fabricantes. Mas para que esse envio é necessário?

Os relógios inteligentes (os “smart watches”) são o exemplo mais popular desses equipamentos. Mas uma nova geração de dispositivos melhorados pela inteligência artificial aprendem como nosso corpo funciona e nos oferecem informações personalizadas para uma vida melhor.

É o caso do Whoop 4.0, uma pulseira com diversos sensores biométricos, como batimentos cardíacos, oxigênio no sangue, temperatura e taxa de respiração, que afirma ajudar em atividades físicas e até em como dormimos. Já o Oura Smart Ring oferece algo semelhante, porém “escondido” em um simples anel.

Alguns são mais radicais, como a pulseira Pavlok 3. Ela promete ajudar a desenvolver hábitos mais saudáveis, como dormir melhor e até parar de fumar. Quando o dispositivo detecta algo ruim (como fumar), ele emite uma vibração e, se necessário, dá um choque elétrico na pessoa, para associar desconforto ao mau hábito.

Mas dois outros dispositivos lembram mais “Black Mirror”: o Rewind Pendant e o Humane AI Pin. Ainda não são os implantes oculares da série, mas prometem gravar o que acontece a nossa volta e muito mais. Eles pretendem inaugurar a era da “computação invisível”, em que não mais dependeremos de telas, nem mesmo as de celulares ou de óculos de realidades virtual ou aumentada.

O Rewind Pendant é um pequeno pingente que grava tudo que o usuário fala ou ouve. A partir daí, é possível dar comandos simples como “resuma a reunião de ontem” ou “o que meu filho me pediu hoje de manhã”. Como o sistema identifica a voz de quem está falando, o fabricante afirma que só grava alguém se essa pessoa explicitamente autorizar isso por voz.

Já o Humane AI Pin é um discreto broche que funciona como um assistente virtual que conhece nossos hábitos, grava e até projeta imagens em nossa mão. Comunica-se com o usuário por voz e sua inteligência artificial pode até desaconselhar que se coma algo, porque aquilo contém algum ingrediente a que a pessoa seja intolerante.

 

“Babaca digital”

Impossível não se lembrar do Google Glass, óculos inteligentes que a empresa lançou em 2013. Ele rodava diferentes aplicativos e as informações eram projetadas em sua lente, que se tornava uma tela para o usuário.

Apesar de cobiçado, acabou retirado do mercado por questões de privacidade. Ele tirava fotos e filmava sem que os outros soubessem. Além disso, fazia reconhecimento facial de interlocutores, que poderia ser usado para coletar informações adicionais. As pessoas que faziam maus usos do produto passaram a ser chamadas de “glassholes”, um trocadilho que junta “Glass” a “asshole” (algo como “babaca” em inglês).

Isso nos remete novamente a “Black Mirror”. Nenhum desses produtos foi criado para maus usos, mas as pessoas podem fazer o que bem entenderem com eles. E depois que são lançados, fica difícil “colocar o gênio de volta na lâmpada”.

Estamos apenas arranhando as possibilidades oferecidas pela inteligência artificial, que ainda revolucionará vidas e negócios. Tanto poder exigiria grandes responsabilidades, mas não podemos esperar isso das pessoas, e os fabricantes tampouco parecem muito preocupados.

Como exemplo, na semana passada, vimos o caso de alunos do 7º ao 9º ano do Colégio Santo Agostinho, um dos mais tradicionais do Rio de Janeiro, usando a inteligência artificial para criar imagens de suas colegas sem roupa. Desenvolvedores desses sistemas proíbem que sejam usados para esse fim, mas é inocência achar que isso será atendido. Tanto que já foram criadas plataformas especificamente para isso.

Quem deve ser responsabilizado por esses “deep nudes”: os alunos, os pais, a escola, o fabricante? Não se pode mais acreditar em qualquer imagem, pois ela pode ter sido sintetizada! Isso potencializa outros problemas, como os golpes de “sextorsão”, em que pessoas são chantageadas para que suas fotos íntimas não sejam divulgadas. Com a “computação invisível”, isso pode se agravar ainda mais!

O sociólogo polonês Zygmunt Bauman (1925 – 2017) era mesmo o filósofo de nosso tempo, com obras como “Modernidade Líquida” (1999), “Amor Líquido” (2004) e “Vida Líquida” (2005). Não viveu para experimentar a IA ou esses dispositivos, mas seu pensamento antecipou como tudo se tornaria descartável e efêmero na vida, nos relacionamentos, na segurança pessoal e coletiva, no consumo e no próprio sentido da existência.

A inteligência artificial está aí e ela é incrível: não dá para deixar de usá-la! Mas precisamos encontrar mecanismos para não cairmos nas armadilhas que nós mesmos criaremos com seu uso indevido.

 

Joan, protagonista do primeiro episódio da sexta temporada de “Black Mirror”, surta por causa de um mau uso da IA - Foto: divulgação

“Black Mirror” explica ludicamente os riscos da inteligência artificial

By | Tecnologia | No Comments

Em uma sociedade polarizada pelo poder descontrolado dos algoritmos das redes sociais, cresce o debate se a inteligência artificial vai exterminar ou salvar a humanidade. Como costuma acontecer com esses extremismos, a verdade provavelmente fica em algum lugar no meio do caminho. Agora a sexta temporada da série “Black Mirror”, que estreou na Netflix na última quinta (15), surge com uma explicação lúdica de como essa tecnologia pode ser incrível ou devastadora, dependendo apenas de como será usada.

A icônica série, criada em 2011 pelo britânico Charlie Brooker, é conhecida pelas suas perturbadoras críticas ao mau uso de tecnologias. Sem correr risco de “dar spoiler”, o primeiro episódio da nova temporada (“A Joan É Péssima”) concentra-se na inteligência artificial generativa, mas guarda espaço para apontar outros abusos do mundo digital pela sociedade. Sobra até para a própria Netflix, a vilã do episódio!

Como fica claro na história, o poder da inteligência artificial cresce de maneira que chega a ser assustador, alimentando as teorias pessimistas ao redor dela. Se até especialistas se pegam questionando como essas plataformas estão “aprendendo”, para uma pessoa comum isso é praticamente incompreensível, algo ainda no campo da ficção científica.

Mas é real e está a nossa volta, começando pelos nossos smartphones.


Veja esse artigo em vídeo:


Como acontece em tantos episódios de “Black Mirror”, algo dá muito errado. E a culpa não é do digital, mas de como ele é usado por seres humanos movidos por sentimentos ou interesses condenáveis. A lição é que, quanto mais poderosa for a tecnologia, mais incríveis serão os benefícios que ele pode trazer, mas também maiores os riscos associados à sua desvirtuação.

É nesse ponto que estamos com a inteligência artificial. Mas ela não estraga a vida da protagonista do episódio sozinha: tem a “ajuda” de celulares (que estão captando continuamente o que dizemos e fazemos), dos algoritmos das plataformas de streaming (que nos dizem o que assistir), da “ditadura das curtidas”, do sucesso de discursos de ódio e até de instalarmos aplicativos sem lermos seus termos de uso.

A indústria de tecnologia costumava ser regida pela “Lei de Moore”, uma referência a Gordon Moore, um dos fundadores da Intel. Em um artigo em 1965, ele previu que a quantidade de circuitos em chips dobraria a cada 18 meses, pelo mesmo custo. Em 1975, reviu sua previsão para 12 meses. Hoje, o poder da inteligência artificial –que é software, mas depende de um processamento gigantesco– dobra a cada três meses.

O “problema” é que nossa capacidade humana não cresce no mesmo ritmo. E quando não conseguimos acompanhar uma evolução, ela pode nos atropelar. Essa é a gênese de muitos desses problemas, pois tanto poder à disposição pode fazer com que as pessoas deixem cuidados de lado e até passem por cima de limites morais.

É como diz o ditado: “quem nunca comeu melado, quando come, se lambuza!”

 

Faça a coisa certa

Na quarta, participei do AI Forum 2023, promovido pela IBM e pela MIT Sloan Review Brasil. As palestras demonstraram o caminho desse avanço da inteligência artificial e de como ela está se tornando uma ferramenta essencial para empresas de qualquer setor.

De fato, com tantos recursos incríveis que novas plataformas movidas pela IA oferecem aos negócios, fica cada vez mais difícil para uma empresa se manter relevante no mercado sem usar essa tecnologia. É como procurar emprego hoje sem saber usar a Internet ou um smartphone. Por mais experiente e qualificado em outras áreas que se seja, não haveria chance de ser contratado, porque esses pontos fortes seriam facilmente suplantados por outros candidatos que dominassem esses recursos.

Um estudo recém-divulgado pela IBM mostra que, se em 2016 58% dos executivos das empresas estavam familiarizados com a IA tradicional, agora em 2023 83% deles conhecem a IA generativa. Além disso, cerca de dois terços se sentem pressionados a acelerar os investimentos na área, que devem quadruplicar em até três anos.

A mesma pesquisa aponta que o principal fator que atravanca essas decisões é a falta de confiança na tecnologia, especialmente em aspectos de cibersegurança, privacidade e precisão. Outros problemas levantados foram a dificuldade de as decisões tomadas pela IA generativa serem facilmente explicadas, a falta de garantia de segurança e ética, a possibilidade de a tecnologia propagar preconceitos existentes e a falta de confiança nas respostas fornecidas pela IA generativa.

Conversei no evento com Marcela Vairo, diretora de Automação, Dados e IA da IBM (a íntegra da entrevista pode ser vista no vídeo abaixo). Para ela, três premissas devem ser consideradas para que a inteligência artificial nos ajude efetivamente, resolvendo essas preocupações.

A primeira delas é que as aplicações movidas por IA devem ser construídas para tornar as pessoas mais inteligentes e produtivas, e não para substituí-las. Deve existir também um grande cuidado e respeito com os dados dos clientes, que pertencem apenas a eles e não podem ser compartilhados em outra plataforma ou com outros clientes. E por fim, as aplicações devem ser transparentes, para que as pessoas entendam por que elas estão tomando uma determinada decisão e de onde ela veio, o que também ajuda a combater os possíveis vieses que a IA desenvolva.

O que precisamos entender é que essa corrida tecnológica está acontecendo! Não sejamos inocentes em achar que ela será interrompida pelo medo do desconhecido. Os responsáveis por esse desenvolvimento devem incluir travas para que seus sistemas não saiam do controle, garantindo essas premissas.

O que nos leva de volta a “Black Mirror”: tampouco podemos ser inocentes em achar que todos os executivos da indústria serão éticos e preocupados em fazer a coisa certa. É por isso que a inteligência artificial precisa ser regulamentada urgentemente, para pelo menos termos a tranquilidade de continuar usufruindo de seus benefícios incríveis sem o risco de sermos dominados pela máquina.

E no final, sempre temos que ter uma tomada para puxar e desligar a coisa toda se ela sair completamente dos trilhos.


Íntegra de entrevista com Marcela Vairo (IBM):

Videodebate: robôs sexuais?

By | Tecnologia | No Comments

Quer vender bem algo? Convença seu público que aquilo é o que ele precisa!

Essa máxima se aplica a qualquer tipo de produto. Um bom vendedor é aquele que consegue ajustar seu produto às necessidades de seu cliente. Se acreditarmos naquilo, negócio fechado!

“Acreditar” é a palavra-chave!

A inteligência artificial pode ajudar muito nisso, processando uma quantidade enorme de informações do consumidor e do mercado, para ajustar esse discurso de “sedução”. Alguns sistemas já conseguem até mesmo se passar convincentemente por seres humanos no telefone!

Legal, né? Muito! As possibilidades são imensas!

Mas isso abre algumas discussões éticas bem delicadas.

Quais os limites disso? Dá para imaginar que chegará um momento em que conviveremos com robôs humanoides -e até teremos contato íntimo com eles- e acharemos que serão pessoas de verdade. A ficção já explora bastante isso.

Você compraria esse produto?

Quanto falta para termos robôs sexuais e “vendedores perfeitos”? Veja no meu vídeo abaixo!



Veja a demonstração do Google Duplex, a nova versão do assistente virtual do Google, mencionado no meu vídeo: https://www.youtube.com/watch?v=Nqhyc8_dwvE

Conheça o sistema de debates por inteligência artificial da IBM, sobre o qual falei no meu vídeo:  https://www.youtube.com/watch?v=m3u-1yttrVw

Ajude a NÃO transformar as redes sociais na nova Inquisição: pode existir uma fogueira reservada para cada um

By | Tecnologia | No Comments
Catherine Deneuve no filme “A Bela da Tarde” (1967); a atriz francesa assinou o manifesto de mulheres defendendo a “liberdade de importunar dos homens” - Foto: divulgação

Catherine Deneuve no filme “A Bela da Tarde” (1967); a atriz francesa assinou o manifesto de mulheres defendendo a “liberdade de importunar dos homens”

No dia 14, William Waack publicou na Folha de S.Paulo um artigo onde conta a sua versão dos fatos que levaram a sua saída da Globo. Foi a única vez que li sua posição, desde que o escândalo de racismo inundou as redes sociais no dia 8 de novembro, culminando em sua demissão da emissora, no dia 22 de dezembro. Longe de ser uma curiosidade entre jornalistas, esse desequilíbrio entre acusação e defesa me chamou a atenção, pois é reflexo de um preocupante comportamento impulsionado pelos meios digitais: todos ganharam o direito de ser juízes e algozes de qualquer caso, mas também podem se tornar vítimas num piscar de olhos.

O caso acima começou quando um ex-funcionário da Globo vazou um vídeo em que Waack aparece cochichando ao comentarista Paulo Sotero uma frase racista, quando estavam fora do ar. A gravação se espalhou feito rastilho de pólvora, tanto pelas redes sociais, quanto pela própria imprensa. No mesmo dia, a emissora afastou o jornalista de suas funções e publicou uma nota dizendo ser “visceralmente contra o racismo”. Seis semanas depois, Waack foi demitido. Poucas pessoas se posicionaram em sua defesa, e essas também foram veementemente desqualificadas nas redes.

Waack errou? Sim. Sua punição foi adequada? Há controvérsias. Ele merecia ter sua reputação jogada na lama por um julgamento sumário nas redes sociais? Certamente não!

Analisemos um outro caso recente: o dia 9 de janeiro, a francesa Catherine Deneuve, uma das atrizes mais respeitadas do mundo e ícone de sua geração, publicou no prestigiado Le Monde, junto com outras 99 mulheres artistas e intelectuais do país, uma carta em que criticam o “puritanismo” de campanhas contra assédio sexual, e defendem o que chamaram de “liberdade de importunar” dos homens, considerada pelo grupo como “indispensável para a liberdade sexual”.

“O estupro é crime. Mas o flerte insistente ou desajeitado não é um delito, nem o cavalheirismo uma agressão machista”, afirmaram no manifesto. Elas também disseram que “não se sentem representadas por esse feminismo que, além das denúncias dos abusos de poder, adquire uma face de ódio aos homens e sua sexualidade”.

Resultado: as signatárias do documento foram apedrejadas nas redes sociais, sendo inclusive acusadas de fazer apologia ao estupro. Oras, elas disseram exatamente o contrário disso na carta! Mas, em um mundo cada vez mais intolerante, viabilizado pelas redes sociais, “se você não está comigo, você está contra mim”.

Isso é perigosíssimo, pois a vida não é preta e branca: tem incontáveis nuances de cinza.

 

Não misturemos os canais

De forma alguma, estou aqui defendendo racismo, assédio sexual ou moral, ou qualquer outra forma de crime, contravenção ou atitude condenável. Mas não podemos entrar nessa onda de ódio e intolerância que vem tomando as redes e a sociedade como um todo, em que pessoas são acusadas, julgadas, condenadas e executadas em ritos sumários, sem a menor possibilidade de defesa. Especialmente porque, em muitos casos, a origem é apenas a palavra de uma pessoa que se sentiu, de alguma forma, ofendida ou desprestigiada pelo suposto agressor, sem qualquer prova, ou porque discorda de algo que alguém disse de forma legítima.

Isso é uma afronta e um seríssimo risco a uma sociedade organizada! Se todo mundo que se sentir incomodado tiver o poder de um canhão para alvejar seus desafetos, viveremos um cenário de caça às bruxas! Mas como prevê a Constituição Federal (e o bom senso), todos são inocentes até que se prove o contrário.

Fico muito preocupado com o fato de estarmos iniciando um ano eleitoral. Com base no que vi há dois anos, nas eleições para prefeitos e vereadores, temo que as redes sociais se transformem em um banho de sangue, cheias de insultos, destruições de reputação, “fake news” e amigos de longa data se tornando inimigos viscerais. Apenas porque agora todos podem emitir suas opiniões e os algoritmos de relevância agruparão os que tiverem os mesmos preconceitos em uma mesma bolha de ódio.

Que caminho estamos trilhando?

 

Poder sem responsabilidade

Todo fã de histórias de super-heróis conhece a icônica frase “com grandes poderes vêm grandes responsabilidades”, dita por Ben Parker, tio de Peter, o Homem-Aranha, pouco antes de ser assassinado, na gênese do herói mais amado da Marvel.

É tudo o que não temos visto nas redes sociais!

O conceito foi brilhantemente explorado no episódio “Odiados pela Nação”, o último da terceira temporada da série “Black Mirror”. No roteiro, pessoas passam a ser misteriosamente mortas depois que seus nomes são associados à hashtag #DeathTo no Twitter. A pessoa com mais “votos” no dia acabará morta. Cria-se então um perverso jogo em que qualquer um pode literalmente determinar a morte de alguém que não goste, qualquer que seja o motivo, simplesmente twittando seu nome.

(AVISO: se não quiser saber o fim dessa história, pule para o parágrafo seguinte). As investigações acabam descobrindo que as mortes estão sendo causadas por abelhas-robôs espalhadas por todo Reino Unido, que foram hackeadas para encontrar e atacar a vítima do dia. Mas a grande surpresa que a história reserva para o final é que, quando um comando for acionado, todas as pessoas que participaram do jogo, votando em alguém para ser morto, acabarão também assassinadas pelas abelhas. Isso resulta na morte de mais de 300 mil pessoas em poucas horas, no melhor estilo de que “quem com ferro fere, com ferro será ferido”.

Ou seja, as palavras têm grande poder, por isso, precisamos usá-las com critério. Reitero: coisas como racismo, assédios e outras práticas criminosas ou imorais são condenáveis e devem ser combatidas. Mas não se pode usá-las como desculpa ou cortina de fumaça para se atingir outros objetivos, alguns igualmente condenáveis.

Quando a massa ganha um poder sem limites para expor suas insatisfações, legítimas ou não, resultando em condenações sumárias que lhes agradam, rumamos para o fascismo. O exemplo máximo disso foi o nazismo! Apesar de ter surgido de mentes doentias, ele só prosperou porque a população alemã da época o abraçou e praticou. Não fizeram isso por alguma espécie de surto psicótico coletivo, mas sim porque -por mais absurdo que fossem- os valores pregados pelo partido pareciam então legítimos e corretos. E porque todas as ações tomadas em seu nome, mesmo as mais irracionais, eram apoiadas amplamente.

As redes sociais deram voz a todos, e isso é maravilhoso! Mas não podemos usar esse direito para criar uma nova versão dos tribunais da Santa Inquisição. Ou em breve estaremos queimando mulheres em praça pública apenas por serem ruivas. E, assim como acontecia naqueles tempos sombrios, quem em um dia condena poderá ser queimado no dia seguinte. Basta um desafeto lançar uma suspeita.

E os inquisidores nem tinham as redes sociais ao seu dispor.


Artigos relacionados:

Não entre na onda da fábrica de ódio das redes sociais
Quem aguenta tanta opinião (e intolerância) nas redes sociais?
Como criar um mito e destruir um ídolo só com redes sociais
Você está sendo manipulado… e pode estar achando isso engraçado!
Não alimente os trolls da Internet, inclusive no LinkedIn
A reputação digital pode promover ou arruinar sua carreira e seu negócio: saiba como conquistá-la


 

Você está pronto -e quer- viver para sempre?

By | Tecnologia | One Comment
Zoe Greystone, personagem da série Caprica, cuja “essência” acaba sendo carregada no robô U-87, dando-lhe “vida” após a morte da menina - Imagem: divulgação

Zoe Greystone, personagem da série Caprica, cuja “essência” acaba sendo carregada no robô U-87, dando-lhe “vida” após a morte da menina

O bilionário russo Dmitry Itskov está investindo uma fortuna para criar um esquema tecnológico de se viver para sempre. Sim, é isso mesmo que você leu: imortalidade! Apesar de a proposta estar mais perto de uma piração que de algo viável, recursos digitais já podem oferecer, se não a vida eterna, uma boa recriação do que somos e até uma certa ubiquidade. Mas será que queremos mesmo viver para sempre? Estamos preparados para isso? E a tecnologia basta para tal?

Longe de ser uma novidade, a busca da vida eterna existe desde a Antiguidade, com os alquimistas e seu mítico “elixir da longa vida”. O que muda agora é a enorme e inédita quantidade de recursos investidos na epopeia da Iniciativa 2045, como é chamada a pesquisa de Itskov.


Vídeo relacionado:


A premissa do russo é simples: como nosso corpo inevitavelmente envelhece e morre, ele quer encontrar uma maneira de mapear nosso cérebro para que ele seja “carregado digitalmente” em um avatar robótico ou holográfico, semelhantes à pessoa. Tal mapeamento seria tão perfeito, que o novo “hospedeiro” se comportaria exatamente como o “original”, com sua personalidade, sua inteligência, suas memórias… Ou seja, depois que o corpo biológico morresse, seria possível continuar “vivendo” em um novo corpo tecnológico. Mais que isso: a nossa “essência” estaria preservada indefinidamente: se acontecesse um acidente com o avatar, bastaria “carregá-la” para um novo.

Além das dificuldades tecnológicas virtualmente intransponíveis, a iniciativa levanta evidentes questões éticas e até religiosas. Para começar, os neurocientistas simplesmente ainda não sabem –nem de longe– como atingir o mapeamento do cérebro humano. No momento, estão tentando fazer isso com hydras, animais extremamente primitivos. Além disso, não há nenhuma garantia que, caso se consiga atingir essa incrível tarefa, o mapeamento carregará traços de personalidade, inteligência, memórias.

Não é de se estranhar, portanto, que o tema seja fartamente explorado por obras de ficção. Na verdade, a série “Caprica” (2009), um spin-off de “Batllestar Galactica” (2003 a 2009), é toda montada em cima de uma tecnologia que é praticamente idêntica à proposta pela Iniciativa 2045: em uma sociedade tecnologicamente muito mais avançada que a nossa, a menina-gênio Zoe Greystone consegue fazer um mapeamento de sua “essência” como a que Itskov busca. Após sua morte, essa informação é carregada em um robô que seu pai vinha desenvolvendo, o que lhe dá “vida”. Apesar do horrível corpo mecânico, a “essência” de Zoe tem autonomia e consciência a ponto de acreditar que ela realmente está ali e viva.

Esse é um dos questionamentos centrais da série: “aquilo” é mesmo Zoe e ela continua viva?

 

Criado a nossa imagem e semelhança

Incontáveis outras obras já tentaram tapear a morte, seja por magia, como em “O Retrato de Dorian Gray” (de Oscar Wilde, 1890), ou pela ciência, como em Frankenstein (de Mary Shelley, 1818). Mais recentemente, o assunto foi abraçado pela cultura pop no cinema e até pelos quadrinhos. O aspecto macabro deu lugar a todo tipo de sentimento, inclusive heroísmo, alegria e esperança.

Bem mais recente que essas obras, a série “Black Mirror” já tratou da vida após a morte pela tecnologia em dois episódios: “San Junipero” e “Volto já”. E esse último, de tudo que já foi falado aqui, é o que está mais próximo de acontecer. Na verdade, assustadoramente próximo.

Sem querer dar muitos “spoilers”, a protagonista do episódio volta a conviver com seu falecido esposo usando recursos digitais. Isso só é possível porque o sistema cria uma representação relativamente fiel da personalidade e das memórias do morto a partir de sua presença digital, por exemplo redes sociais e e-mails. Quanto mais a esposa dava acesso a informações do morto, mais seu “pós-vida digital” ficava parecido a ele.

Acha tudo isso uma “viagem”? Pense de novo.

Vários serviços online se propõem a identificar quem, o que e como somos a partir de nossas pegadas digitais. Um dele é o Apply Magic Sauce, criado pelo Psychometrics Centre da Universidade de Cambridge (Reino Unido). Entre vários testes, o mais destacado é um que, a partir apenas de nossas curtidas no Facebook, busca traçar nosso perfil psicológico em segundos. Os resultados, apesar de imperfeitos, são impressionantes, considerando que a limitada origem da informação.

Aí eu me pergunto: se um experimento acadêmico é capaz de obter tal resultado a partir apenas de nossas curtidas, imagine o que o próprio Facebook (ou o Google, ou a Amazon, ou a Apple ou tantas outras empresas) são capazes de conseguir com o oceano de dados que lhes entregamos o tempo todo e cada vez mais.

Entende por que “Volto já” pode estar logo ali, dobrando a esquina?

 

Até onde devemos ir?

Se a realidade flerta com a ficção como acabamos de ver, talvez Itskov seja, afinal, mais um visionário que um desvairado. Mas supondo que ele realmente obtenha sucesso em sua pesquisa, será que isso é algo que realmente devemos almejar?

Em seu histórico discurso para a turma de formandos de Stanford em 2005 (que pode ser visto na íntegra abaixo), Steve Jobs diz (aos 9’27’’ do vídeo), “lembrar que logo estarei morto é a ferramenta mais importante que eu encontrei para fazer grandes escolhas na vida”.



O que acontecerá se Itskov tiver sucesso com sua tecnologia? Nem estou entrando na questão de se o que será carregado em seus avatares realmente estará vivo, mas sim o que será de nós enquanto ainda estivermos ocupando o nosso corpo biológico, aquele que a natureza nos concedeu. Se tivermos a possibilidade de “viver para sempre”, será que continuaremos lutando para viver a vida da melhor maneira possível? Qual a chance de essa segunda (ou terceira, quarta, quinta…) chance estragar justamente a nossa humanidade, transformando-nos em uma raça preguiçosa e desleixada consigo mesma e com o mundo. Afinal, se “algo der muito errado” –ou seja, se você morrer– será como um game do Mario Bros: você renascerá no último “checkpoint”.

Há ainda o aspecto da “alma”, do “espírito” ou seja lá qual for o nome que sua religião dê para esse… “sopro divino”. Creio que Itskov não leve isso em consideração, pois seria necessário iniciar uma nova linha de pesquisa, para que isso também seja transferido com o cérebro mapeado.

Muita gente pode achar tudo isso incrível, um universo de possibilidades que se descortina diante da humanidade. Não estou aqui para julgar ninguém, mesmo porque eles podem estar certos, e eu errado. Mas acho que Jobs dá, no discurso acima, uma dica de valor inestimável de como devemos viver nossa vida. E morrer depois.

E já que citei tantas obras de ficção, gostaria de citar mais uma: o filme “O Homem Bicentenário” (1999), que conta a história de um robô chamado Andrew (vivido por Robin Williams). Com o passar dos anos, ele começa a desenvolver emoções e altera seu próprio corpo para que ele fique “humano”, sintetizando órgãos. Seu grande desejo: ser reconhecido pela sociedade como humano. Mas, ao final, percebe que isso só será possível no momento em que ele justamente abrir mão de sua imortalidade robótica. Colocando de maneira bem direta, Andrew só poderia ser humano se ele morresse.

Bastante emblemático, não acham?


Artigos relacionados: