informação

Na Conferência de Desenvolvedores de 2019, Mark Zuckerberg anunciava que “o futuro é privado” - Foto: Anthony Quintano/Creative Commons

Tudo que você postar pode ser usado contra você e a favor da IA

By | Tecnologia | No Comments

Não é novidade que tudo que publicamos nas redes sociais é usado para criarem perfis detalhados sobre nós para que seus anunciantes nos vendam todo tipo de quinquilharia. Também é conhecido que nossas informações são usadas para “aprimorar” essas plataformas. E que muitas delas fazem menos do que poderiam e deveriam para nos proteger contra desinformação e diferentes tipos de assédio, que podem prejudicar nossa saúde mental. Mas o que é novidade é que agora essas companhias também usam nossas informações pessoais para treinar seus nascentes serviços de inteligência artificial, abrindo uma nova potencial violação de privacidade.

Essas empresas transitam nas ambiguidades de seus termos de serviço e posicionamentos públicos. Por exemplo, no dia 31, os CEOs das redes sociais mais usadas por crianças e adolescentes foram interpelados no Comitê Judiciário do Senado americano, sobre suas ações para proteger os jovens. O mais questionado foi Mark Zuckerberg, CEO da Meta (dona do Facebook, Instagram e WhatsApp). Diante da pressão dos senadores, ele se levantou e se desculpou ao público nas galerias.

Ali estavam pais e mães de crianças que morreram por problemas derivados de abusos nas redes sociais. Menos de uma semana depois, o mesmo Zuckerberg disse, durante uma transmissão sobre os resultados financeiros anuais da Meta, que sua empresa está usando todas as publicações de seus usuários (inclusive de crianças) para treinar suas plataformas de IA.

O mercado adorou: suas ações dispararam 21% com o anúncio dos resultados! E essa infinidade de dados pessoais é mesmo uma mina de ouro! Mas e se eu, que sou o proprietário das minhas ideias (por mais que sejam públicas), quiser que a Meta não as use para treinar sua IA, poderei continuar usando seus produtos?

É inevitável pensar que, pelo jeito, não temos mais privacidade e até mesmo propriedade sobre nossas informações pessoais. E as empresas podem se apropriar delas para criar produtos e faturar bilhões de dólares.


Veja esse artigo em vídeo:


No momento mais dramático da audiência no dia 31, Zuckerberg se levantou e, de costas para os senadores e olhando para as pessoas presentes, muitas carregando fotos de seus filhos mortos, disse: “Sinto muito por tudo que passaram. Ninguém deveria passar pelas coisas que suas famílias sofreram.”

Mas também se defendeu, afirmando que investiu mais de US$ 20 bilhões e contratou “milhares de funcionários” para essa proteção. Ponderou ainda que a empresa precisa equilibrar o cuidado e “as boas experiências entre amigos, entes queridos, celebridades e interesses”. Em outras palavras, a proteção não pode “piorar” o produto, o que seria ruim para os negócios.

Seis dias depois, disse aos investidores: “No Facebook e no Instagram, existem centenas de bilhões de imagens compartilhadas publicamente e dezenas de bilhões de vídeos públicos, que estimamos ser maiores do que os dados do Common Crawl, e as pessoas também compartilham um grande número de postagens de texto públicas em comentários em nossos serviços.”

O Common Crawl é um gigantesco conjunto de dados resultante do contínuo rastreamento do que é público na Internet, podendo ser usado por quem quiser e para qualquer finalidade. Ele serve de base para o treinamento de várias plataformas de IA.

“Considerando os Termos de Uso e as regras da plataforma, seria possível a Meta usar nossos dados para treinar sua IA, embora seja bastante discutível”, explica Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). “É discutível porque muitas das informações nas redes sociais podem ser consideradas dados pessoais e, neste caso, eventualmente legislações específicas acabam incidindo, como a Lei Geral de Proteção de Dados (LGPD)”.

Nos Termos de Serviço do Facebook, a única referência à IA é: “usamos e desenvolvemos tecnologias avançadas (como inteligência artificial, sistemas de aprendizado de máquina e realidade aumentada) para que as pessoas possam usar nossos produtos com segurança, independentemente de capacidade física ou localização geográfica.”

O mesmo documento diz: “realizamos pesquisa para desenvolver, testar e melhorar nossos produtos. Isso inclui a análise dos dados que temos sobre os nossos usuários e o entendimento de como as pessoas usam nossos produtos.” Esse trecho poderia garantir o uso das nossas publicações para o desenvolvimento da IA da Meta.

Por outro lado, os Termos dizem que a remuneração da Meta se dá apenas por anúncios entregues a seus usuários pela análise de suas informações. Oras, a inteligência artificial não é anúncio, mas ela renderá bilhões de dólares à empresa. Assim o uso de nossos dados para treinar a IA geraria um conflito entre as cláusulas.

 

O rei está nu e perdeu a majestade

Sempre tivemos nossos dados coletados e manipulados. O nosso “sócio” mais tradicional é o governo, que sabe coisas inimagináveis sobre o cidadão! Basta ver o Imposto de Renda pré-preenchido! E isso é só a pontinha desse enorme iceberg.

Não vou defender qualquer governo, pois muitas dessas apropriações são no mínimo questionáveis. Mas há uma diferença essencial de qualquer big tech: ele foi eleito para melhorar a vida do cidadão. As empresas, por sua vez, visam apenas seu lucro.

Crespo explica que a principal violação nesse movimento da Meta é que ela usa dados pessoais de seus usuários para uma finalidade que não é aquela pela qual criaram suas contas e fazem suas publicações, e que eles nem sabem. Vale lembrar que, no fim de dezembro, o The New York Times processou a Microsoft e a OpenAI por se apropriarem de seus conteúdos para treinar seu ChatGPT, e um de seus argumentos foi essas empresas usarem esse conteúdo sem pagar por esse objetivo específico.

Esse mesmo raciocínio poderia se aplicar às postagens dos 3 bilhões de usuários do Facebook e dos 2 bilhões do Instagram. Além disso, a baixa qualidade de muitas publicações nessas plataformas pode incluir vieses e informações no mínimo questionáveis no treinamento dessa IA.

“Esse é o grande dilema da atualidade”, afirma Crespo. Empresas podem criar regras para quem quiser usar seus produtos, mas, depois de usar algo como o Google por duas décadas, alguém o abandonaria porque seus dados seriam usados para uma nova e questionável finalidade (entre tantas outras)? “A grande questão é se essas regras são moralmente aceitas e transparentes, ou se, de alguma forma, constituem abuso de direito”, explica Crespo.

No final, caímos novamente no infindável debate sobre a regulamentação das ações e responsabilidades dessas empresas. Essa novidade trazida por Zuckerberg é apenas o mais recente exemplo de que, se deixarmos para que elas se autorregulem, nós, seus usuários, continuaremos sendo os grandes prejudicados.

 

Estamos nos aproximando de “The Walking Dead”

By | Jornalismo | No Comments

Na noite desse domingo, foi ao ar o último episódio da décima temporada da série “The Walking Dead”, a mais vista na TV aberta americana. Apesar de ser uma obra ficção, ela assustadoramente guarda algumas semelhanças com a nossa situação atual, e podemos aprender algo com isso.

A realidade dos episódios é determinada por um vírus que transforma pessoas em zumbis, que coloca a humanidade de joelhos. Mas, assim como se observa em nossos atuais dias sombrios, na história, o que mais assusta não é a doença, e sim a desunião entre os sobreviventes, que pode representar uma ameaça à humanidade ainda maior.

Concordo que um mundo dominado por mortos-vivos comedores de gente pode parecer ainda mais dramático que a destruição real provocada pela Covid-19. Mas, na série, os sobreviventes se organizam em clãs para garantir recursos em detrimento de outros humanos. Por outro lado, o que vivemos é potencialmente muito mais perigoso, com uma determinação crescente de muitos em negar o conhecimento e a verdade para alguns poucos serem beneficiadas às custas das demais.

As narrativas negacionistas começaram com temas que pareciam fanfarronices de um bando de paspalhos, como acreditar piamente que a Terra é plana no século XXI. Mas ela evoluiu para absurdos como pessoas que se negam a tomar qualquer tipo de vacina, por acreditar que fazem mal à saúde. Esse caso específico se tornou dramático diante da pandemia, ao ser cruzado com interesses políticos de grupos no poder, que incendeiam seus seguidores contra o imunizante para atacar adversários e até tentar um desequilíbrio geopolítico mundial.

E as pessoas acreditam neles!


Veja esse artigo em vídeo:


Em “The Walking Dead”, alguns humanos não veem nenhum problema em matar outros sobreviventes para se apropriar de seus recursos. Diante de uma situação de crise extrema, a sociedade e qualquer senso de civismo desaparecem, dando lugar à completa barbárie.

Guardadas as devidas proporções, isso não é muito diferente do que vivemos hoje. Quando um líder ataca vacinas, combate o uso de máscaras e critica abertamente medidas de distanciamento social, ele efetivamente manda milhares de pessoas à morte para garantir seus interesses mesquinhos. E quem acredita nele segue suas ordens, feito zumbis que precisam satisfazer uma necessidade única.

Como se pode ver, isso não se trata de um mero exercício mental.

Há alguns dias, tive acesso ao estudo “Enfrentando as ameaças à tomada de decisão com base em informações em sociedades democráticas”, do grupo de pesquisadores liderado por Elizabeth Seger, da Universidade de Cambridge (Reino Unido). Organizado pelo Programa de Defesa e Segurança do Instituto Alan Turing, o órgão de ciência de dados e inteligência artificial do Reino Unido, o documento demonstra o mecanismo de ataque deliberado à capacidade da população de adquirir conhecimento.

“A pandemia de Covid-19 deixou uma coisa clara: é muito difícil coordenar o comportamento de uma sociedade inteira, mesmo quando se trata de uma questão de vida ou morte”, explicou Seger em artigo publicado na BBC. Ela cita justamente a recusa de uma parte considerável da população a se vacinar como algo que coloca em risco a vida até dos vacinados e a própria manutenção da sociedade.

Segundo ela, “mesmo que estivesse claro como salvar o mundo, um ecossistema de informações degradado e não confiável poderia impedir que isso acontecesse”. A equipe de pesquisadores usou o termo “segurança epistêmica” para definir a capacidade não apenas de garantir a segurança do conhecimento, mas também de adquirir informações de qualidade.

 

Os ataques ao conhecimento

A equipe liderada por Seger definiu quatro principais ameaças à segurança epistêmica. E nenhum deles pode ser creditada ao acaso.

A primeira é a ação das pessoas a que chamaram de “adversários” e “trapalhões”. Eles podem interferir nos processos de tomada de decisão pela desinformação ou outras ações. Os primeiros são indivíduos que deliberadamente manipulam informações, promovem ataques ou incitam seus seguidores para confundir ou enganar a população para atingir seus objetivos. Já os “trapalhões” são aqueles que, de maneira inocente e até bem-intencionada, espalham essas bobagens, como aquela turma no grupo da família no WhatsApp.

Outro problema é o excesso de informação a que somos submetidos, nem todas elas confiáveis. Essa abundância faz com que nossa atenção fique dispersa, tornando mais difícil garantir que as informações essenciais cheguem a quem precisa. O modelo de negócios da “economia da atenção”, usado pelas redes sociais, que direcionam nosso olhar ao que lhes interessa, torna isso ainda mais dramático. Nossa capacidade limitada de concentração dificulta separar uma verdade de uma porcaria. E os produtores de fake news se valem disso.

As pessoas também se acostumaram a rejeitar informações que desafiam seus pontos de vista. E, se houver uma forte identidade no grupo, ela leva a uma maior polarização e negacionismo. Diante da sobrecarga de informações, prestamos mais atenção a quem pensa igual a nós. Isso cria o que os pesquisadores chamaram de “racionalidade limitada”, pois só crescemos quando somos expostos justamente a pensamentos conflitantes.

Por fim, as tecnologias de mediação e produção de informação tornam mais difícil avaliar a confiabilidade das fontes. Tendemos a confiar mais em alguém da nossa comunidade ou em quem muitas pessoas confiam. Com as redes sociais, esses mecanismos perdem força diante das manipulações dos algoritmos feitos por grupos de poder.

 

Resgatando a verdade

Os pesquisadores afirmam que os ataques à segurança epistêmica não podem ser combatidos com iniciativas pontuais, pois as causas estão disseminadas pelas mentes da população. Por isso, esse esforço precisa ser multidisciplinar e ter um caráter “holístico”, totalmente abrangente e interligado.

Para eles, esse resgate passa por desenvolver métodos para dificultar as ações de “adversários” e de “trapalhões”, enquanto se ajuda as pessoas a identificar mais facilmente fontes de informação confiáveis. Da mesma forma, essas boas fontes devem receber apoio da comunidade.

O documento explica que os “adversários” são capazes de mudar suas estratégias rapidamente e que, por isso, devem estar sempre sendo monitorados e combatidos com iniciativas atualizadas contra suas ações nocivas. Elas precisam necessariamente ser conduzidas por profissionais de diferentes áreas do conhecimento.

Há alguns dias, enquanto revia a montagem de Andrew Lloyd Webber de “O Fantasma da Ópera”, alguns versos da canção “A música da noite” me saltaram aos ouvidos. Neles, o personagem do Fantasma dizia o seguinte:


Feche seus olhos
Pois seus olhos só dirão a verdade
E a verdade não é o que você quer ver.
No escuro é fácil fingir
Que a verdade é o que deveria ser.

Sinto que essa é a realidade que grande parte de nossa sociedade vive. Precisamos lutar pela segurança epistêmica de todos nós, com todos os recursos que tivermos.

Como estão os seus olhos: abertos ou fechados?

 

Existe uma ética verdadeira nas redes sociais?

By | Educação | 7 Comments

Foto: reprodução

Quais os direitos e deveres que uma empresa tem sobre as informações que seus clientes lhe confiam? Em tempos em que as redes sociais ocupam um papel central em nossas vidas, essa pergunta é fundamental e serve como base para outras, como até que ponto ela pode se recusar a ajudar a Justiça, alegando proteção à privacidade dos seus usuários? Mais que isso: um sistema pode manipular as pessoas?

As empresas podem dizer que tudo está descrito nos seus “termos de uso”, documentos com os quais todos nós concordamos ao começar a usá-las. Mas sejamos sinceros: ninguém lê aquilo! E, caso leia, nem sempre fica claro o que está escrito ali. Por exemplo, você sabia que, de acordo com os termos do Facebook, ele tem direito a usar qualquer coisa que publiquemos na sua rede (incluindo fotos e vídeos), sem nos pagar nada?


Vídeo relacionado:


Há alguns dias, o WhatsApp anunciou que toda a comunicação entre seus usuários passou a ser criptografada de ponta a ponta. Em tese, isso significa que ninguém, além dos próprios interlocutores, podem entender o que está sendo dito, mesmo que a informação seja interceptada.

A empresa afirma que, com isso, nem ela mesma é capaz de decodificar essa informação. É um álibi técnico muito interessante contra as constantes determinações judiciais para informar às autoridades o conteúdo de conversas entre usuários que estão sendo investigados. O Facebook, dono do WhatsApp, tradicionalmente se recusa a cooperar, alegando respeito à privacidade dos usuários. E isso regularmente evolui para batalhas jurídicas, como a que tirou o WhatsApp do ar no Brasil por 12 horas, em dezembro passado.

O cuidado com a privacidade e a integridade dos dados de usuários é mais que bem-vinda: é fundamental! Então, se as empresas estão cumprindo a promessa de não os compartilhar com ninguém, nem mesmo com o governo, isso deve ser comemorado!

Entretanto, sem entrar no mérito de que podemos supor que nem todas fazem isso, é razoável perguntar: o que as próprias empresas fazem com tanta informação pessoal, inclusive muitas intimidades, que lhes entregamos graciosamente?

 

Apaixonando-se pelo sistema

Psicólogos diriam que qualquer relação em que apenas um dos lados sabe muito do outro é desequilibrada, e potencialmente condenada por isso. Mas é exatamente assim que nos relacionamos com as redes sociais, que provavelmente nos conhecem melhor que nossas próprias mães.

Isso foi brilhantemente ilustrado no filme “Ela” (“Her”, 2013), de Spike Jonze. Para quem não viu o filme (que recomendo fortemente), ele conta a história, que se passa em um futuro próximo, do romance entre o protagonista Theodore (Joaquin Phoenix) e Samantha (voz de Scarlett Johansson).

Acontece que Samantha não é uma pessoa: é o sistema operacional que controla o computador e o smartphone de Theodore, tendo acesso a todo tipo de informação dele. O humano se apaixona pelo sistema de inteligência artificial, e é correspondido por ela! Alguns podem achar isso impossível ou até mesmo uma perversão. Mas, ao assistir ao filme, é muito difícil não se apaixonar também! E não pense que Samantha faz tudo que Theodore queira: ela também diz não e demonstra sentimentos como insegurança, ciúmes e raiva. Mas tudo isso é feito de acordo com o que Theodore espera de uma mulher.

Pobre Theodore! Samantha sabe tudo sobre ele, e ele não sabe nada sobre ela.

 

Não é pessoal, são apenas negócios

De volta ao mundo real, várias empresas são candidatas a nossas “Samanthas”. Facebook e Google são, de longe, as que mais sabem sobre nós, mas Apple e Amazon não fazem feio nesse pelotão de elite. E há uma infinidade de outras empresas que também são capazes de traçar nossos perfis psicológicos e de consumo a partir de nossas pegadas digitais, que, cada vez mais abundantemente, deixamos por aí.

Essas empresas certamente podem nos influenciar para, por exemplo, comprar um produto, em uma nova e eficientíssima forma de marketing. E são capazes até de manipular algumas emoções nossas. Não como Samantha! Mas o Facebook já fez algo nessa linha.

Em 2012, Adam Kramer, pesquisador da empresa, demonstrou ser possível “transferir estados emocionais” a pessoas simplesmente manipulando o que elas veem online. Por análise semântica, os feeds de notícias de 689.003 usuários foram manipulados pelo sistema por uma semana. Metade deles ficou sem receber posts negativos; a outra metade não viu nada positivo. Ao final, o cientista concluiu que pessoas expostas a posts positivos tendiam a fazer posts mais positivos, enquanto as expostas a posts negativos tendiam a fazer posts mais negativos! Ou seja, Kramer atuou decisivamente no humor de quase 700 mil pessoas, apenas manipulando o que viam no Facebook! O estudo foi publicado na prestigiosa “Proceedings of the National Academy of Sciences of USA”.

Mas as empresas não querem que nos apaixonemos por elas: querem apenas que compremos os produtos e serviços que elas promovem.

Como diz o ditado, “não existe almoço grátis”. Todas essas empresas nos oferecem uma infinidade de produtos incríveis aparentemente sem nenhum custo. Mas não se engane, se você não está pagando, você não é o cliente: você é o produto!

Somos influenciados, conduzidos, e sabemos disso. Mas continuamos cedendo nossa informação e usando os produtos, pois não dá mais para imaginar a vida sem eles. Ou alguém deixará de usar o seu smartphone, a mais perfeita máquina de coleta de dados pessoais, que carregamos conosco o tempo todo?

Tais empresas estão erradas em fazer isso? Provavelmente não. Elas realmente nos oferecem produtos e serviços incríveis (e um outro tanto de quinquilharias) sem que tenhamos que explicitamente pagar por eles. Mas isso tem um custo. Pagamos contando-lhes o que somos.

Se existe realmente uma ética, tudo tem limite. E é esse limite que diz se o que elas fazem é certo ou errado. Não há problema em fazer uma publicidade muito assertiva. O que não é aceitável é a manipulação das pessoas.

Então, da próxima vez que estiver usando seu smartphone ou a sua rede social preferida, tente manter o controle da sua experiência e não acredite piamente em tudo que vir. Será que você consegue?


Artigos relacionados:

Mais vale um Twitter na mão que dois na concorrência

By | Tecnologia | 3 Comments
O mercado acredita que o passarinho do Twitter pode cair em breve na arapuca do Google

O mercado acredita que o passarinho do Twitter pode cair em breve na arapuca do Google

Esquentam os rumores de que o Google estaria prestes a fazer uma oferta pelo Twitter. O TechCrunch já colocou até um preço: US$ 250 milhões em dinheiro ou equivalente. O mesmo post afirma que o passarinho já recusou uma oferta de US$ 500 milhões feita pelo Facebook há alguns meses, mas havia a diferença de que, naquele caso, boa parte do pagamento seria feito em ações, que poderiam estar com seu valor inflado.

Você usa o Twitter? Se nem sabe o que é, recomendo que veja o vídeo que pode ser disparado da home page do serviço. Não estou sugerindo que, se não usa, você está por fora da revolução tecnológica. Na verdade, o produto é mais um dos sucessos estrondosos da Internet que a mídia explora à exaustão, como aconteceu com o Second Life há uns três anos. Mas há uma pergunta a ser feita aqui: o que faria o Google despejar quarto de milhão de dólares em algo que muita gente acha que não passa de um hype? Por que não compraram também o Second Life então?

A resposta é que o Twitter tem algo que muito interessa ao Google que o Second Life não tem: informações reais sobre pessoas reais, em tempo real. E é justamente organizando quantidades astronômicas de informação que o Google ganha dinheiro. Eles são capazes de extrair dinheiro ao avaliar os movimentos não apenas do mercado, mas do mundo, da vida cotidiana das pessoas e das empresas. Os caras têm a mão no pulso do planeta. E é exatamente o que o Twitter oferece.

Será que o Google vai pegar esse passarinho? Se conseguir, será mais um golpe na sua concorrência direta: Microsoft e Yahoo!