Não é novidade que tudo que publicamos nas redes sociais é usado para criarem perfis detalhados sobre nós para que seus anunciantes nos vendam todo tipo de quinquilharia. Também é conhecido que nossas informações são usadas para “aprimorar” essas plataformas. E que muitas delas fazem menos do que poderiam e deveriam para nos proteger contra desinformação e diferentes tipos de assédio, que podem prejudicar nossa saúde mental. Mas o que é novidade é que agora essas companhias também usam nossas informações pessoais para treinar seus nascentes serviços de inteligência artificial, abrindo uma nova potencial violação de privacidade.
Essas empresas transitam nas ambiguidades de seus termos de serviço e posicionamentos públicos. Por exemplo, no dia 31, os CEOs das redes sociais mais usadas por crianças e adolescentes foram interpelados no Comitê Judiciário do Senado americano, sobre suas ações para proteger os jovens. O mais questionado foi Mark Zuckerberg, CEO da Meta (dona do Facebook, Instagram e WhatsApp). Diante da pressão dos senadores, ele se levantou e se desculpou ao público nas galerias.
Ali estavam pais e mães de crianças que morreram por problemas derivados de abusos nas redes sociais. Menos de uma semana depois, o mesmo Zuckerberg disse, durante uma transmissão sobre os resultados financeiros anuais da Meta, que sua empresa está usando todas as publicações de seus usuários (inclusive de crianças) para treinar suas plataformas de IA.
O mercado adorou: suas ações dispararam 21% com o anúncio dos resultados! E essa infinidade de dados pessoais é mesmo uma mina de ouro! Mas e se eu, que sou o proprietário das minhas ideias (por mais que sejam públicas), quiser que a Meta não as use para treinar sua IA, poderei continuar usando seus produtos?
É inevitável pensar que, pelo jeito, não temos mais privacidade e até mesmo propriedade sobre nossas informações pessoais. E as empresas podem se apropriar delas para criar produtos e faturar bilhões de dólares.
Veja esse artigo em vídeo:
No momento mais dramático da audiência no dia 31, Zuckerberg se levantou e, de costas para os senadores e olhando para as pessoas presentes, muitas carregando fotos de seus filhos mortos, disse: “Sinto muito por tudo que passaram. Ninguém deveria passar pelas coisas que suas famílias sofreram.”
Mas também se defendeu, afirmando que investiu mais de US$ 20 bilhões e contratou “milhares de funcionários” para essa proteção. Ponderou ainda que a empresa precisa equilibrar o cuidado e “as boas experiências entre amigos, entes queridos, celebridades e interesses”. Em outras palavras, a proteção não pode “piorar” o produto, o que seria ruim para os negócios.
- Assine gratuitamente minha newsletter sobre experiência do cliente, mídia cultura e transformação digital
- Inscreva-se no meu podcast (escolha a plataforma): Spotify, Deezer, Apple Podcasts, Google Podcasts ou Soundcloud
Seis dias depois, disse aos investidores: “No Facebook e no Instagram, existem centenas de bilhões de imagens compartilhadas publicamente e dezenas de bilhões de vídeos públicos, que estimamos ser maiores do que os dados do Common Crawl, e as pessoas também compartilham um grande número de postagens de texto públicas em comentários em nossos serviços.”
O Common Crawl é um gigantesco conjunto de dados resultante do contínuo rastreamento do que é público na Internet, podendo ser usado por quem quiser e para qualquer finalidade. Ele serve de base para o treinamento de várias plataformas de IA.
“Considerando os Termos de Uso e as regras da plataforma, seria possível a Meta usar nossos dados para treinar sua IA, embora seja bastante discutível”, explica Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). “É discutível porque muitas das informações nas redes sociais podem ser consideradas dados pessoais e, neste caso, eventualmente legislações específicas acabam incidindo, como a Lei Geral de Proteção de Dados (LGPD)”.
Nos Termos de Serviço do Facebook, a única referência à IA é: “usamos e desenvolvemos tecnologias avançadas (como inteligência artificial, sistemas de aprendizado de máquina e realidade aumentada) para que as pessoas possam usar nossos produtos com segurança, independentemente de capacidade física ou localização geográfica.”
O mesmo documento diz: “realizamos pesquisa para desenvolver, testar e melhorar nossos produtos. Isso inclui a análise dos dados que temos sobre os nossos usuários e o entendimento de como as pessoas usam nossos produtos.” Esse trecho poderia garantir o uso das nossas publicações para o desenvolvimento da IA da Meta.
Por outro lado, os Termos dizem que a remuneração da Meta se dá apenas por anúncios entregues a seus usuários pela análise de suas informações. Oras, a inteligência artificial não é anúncio, mas ela renderá bilhões de dólares à empresa. Assim o uso de nossos dados para treinar a IA geraria um conflito entre as cláusulas.
O rei está nu e perdeu a majestade
Sempre tivemos nossos dados coletados e manipulados. O nosso “sócio” mais tradicional é o governo, que sabe coisas inimagináveis sobre o cidadão! Basta ver o Imposto de Renda pré-preenchido! E isso é só a pontinha desse enorme iceberg.
Não vou defender qualquer governo, pois muitas dessas apropriações são no mínimo questionáveis. Mas há uma diferença essencial de qualquer big tech: ele foi eleito para melhorar a vida do cidadão. As empresas, por sua vez, visam apenas seu lucro.
Crespo explica que a principal violação nesse movimento da Meta é que ela usa dados pessoais de seus usuários para uma finalidade que não é aquela pela qual criaram suas contas e fazem suas publicações, e que eles nem sabem. Vale lembrar que, no fim de dezembro, o The New York Times processou a Microsoft e a OpenAI por se apropriarem de seus conteúdos para treinar seu ChatGPT, e um de seus argumentos foi essas empresas usarem esse conteúdo sem pagar por esse objetivo específico.
Esse mesmo raciocínio poderia se aplicar às postagens dos 3 bilhões de usuários do Facebook e dos 2 bilhões do Instagram. Além disso, a baixa qualidade de muitas publicações nessas plataformas pode incluir vieses e informações no mínimo questionáveis no treinamento dessa IA.
“Esse é o grande dilema da atualidade”, afirma Crespo. Empresas podem criar regras para quem quiser usar seus produtos, mas, depois de usar algo como o Google por duas décadas, alguém o abandonaria porque seus dados seriam usados para uma nova e questionável finalidade (entre tantas outras)? “A grande questão é se essas regras são moralmente aceitas e transparentes, ou se, de alguma forma, constituem abuso de direito”, explica Crespo.
No final, caímos novamente no infindável debate sobre a regulamentação das ações e responsabilidades dessas empresas. Essa novidade trazida por Zuckerberg é apenas o mais recente exemplo de que, se deixarmos para que elas se autorregulem, nós, seus usuários, continuaremos sendo os grandes prejudicados.