Reação da mídia ao ChatGPT pode favorecer as fake news

By 18 de setembro de 2023 Tecnologia No Comments
Entregador dorme sobre seus jornais, em imagem tirada em 1935 – Foto: City of Toronto Archives/Creative Commons

Nas últimas semanas, diversas empresas de comunicação impediram que seus conteúdos continuassem sendo usados para alimentar o ChatGPT. Elas argumentam –com razão– que seus produtos têm valor e que não estão sendo remuneradas pela melhoria que proporcionam involuntariamente à plataforma geradora de textos por inteligência artificial da OpenAI.

Entre os que decidiram promover o bloqueio, estão os jornais americanos The New York Times e The Washington Post, o britânico The Guardian, a rede de TV CNN, as agências de notícias Reuters e Bloomberg, além de diversos veículos europeus. Até a gigante de e-commerce Amazon decidiu fechar a porta para esse robô.

Apesar de seus argumentos legítimos, essa decisão pode favorecer a desinformação em um futuro breve. Os sistemas de inteligência artificial generativa tornaram-se um enorme sucesso, e as pessoas devem usá-los cada vez mais. Em uma situação extrema em que todos os produtores de bons conteúdos os neguem a essas plataformas, elas poderiam ficar restritas a sites dedicados a fake news e outros tipos de conteúdo de baixa qualidade para “aprender o que dizer” aos seus usuários.

Nesse cenário, o público poderia passar a consumir e a replicar o lixo desinformativo, em uma escala ainda maior que a já vista nos últimos anos. Seria terrível para o jornalismo –que luta para combater isso– e para a sociedade como um todo.


Veja esse artigo em vídeo:


Eu já vi uma história parecida antes. Quando foi criado, em 2002, o Google Notícias gerou protestos entre veículos de comunicação do mundo todo, que acusavam a empresa de se apropriar de sua produção para criar um concorrente. O Google Notícias sempre se defendeu, dizendo que fazia um “uso justo” de pequenos trechos dos veículos e que sempre enviava os leitores que clicassem nos seus links para a fonte da notícia.

Diante das reclamações, o Google criou um recurso para que os veículos impedissem que seu conteúdo fosse usado no Notícias. O problema é que isso também tirava os veículos do buscador, o que não era nada interessante para eles. Eventualmente as partes chegaram a acordos que permitiram que esse conteúdo continuasse sendo usado, enquanto o Google criava mecanismos de apoio ao jornalismo no mundo. Movimentos semelhantes também aconteceram com as principais redes socais.

No caso atual, há algumas diferenças significativas. Pela natureza da inteligência artificial generativa, ela sempre cria textos inéditos, a cada pedido dos usuários. Não há remuneração, referência e sequer um link para as fontes que foram usadas para o sistema escrever aquilo. Consequentemente não há nenhum ganho para os autores.

“Certamente as inteligências artificiais não produziriam o conteúdo que elas são capazes sem serem alimentadas com o conteúdo criado por humanos, que não autorizaram isso e que não estão sendo remunerados por isso”, explica Marcelo Cárgano, advogado de Direito Digital e de Proteção de Dados do Abe Advogados. “A grande questão, no final, é essa!”

No dia 6, 26 organizações do mercado editorial, inclusive a brasileira ANJ (Associação Nacional de Jornais), publicaram o documento “Princípios Globais para a Inteligência Artificial”. Ele traz regras que consideram essenciais para a prática do jornalismo frente ao avanço da inteligência artificial, cobrando o desenvolvimento ético da tecnologia e o respeito às propriedades intelectuais dos veículos.

Outra fonte de informação ameaçada pela inteligência artificial é a enciclopédia digital Wikipedia. Pela natureza mais perene de seus milhões de verbetes, as pessoas poderiam fazer perguntas a plataformas de IA ao invés de consultar suas páginas, o que já vem preocupando seus editores. Suprema ironia, uma das maiores fontes para o ChatGPT é a própria Wikipedia.

 

Atualidade e ética

Além da questão da falta de remuneração pelo uso de conteúdos alheios, há ainda o temor de que as plataformas de inteligência artificial acabem substituindo a Wikipedia e o próprio jornalismo.

Esse questionamento surgiu, na quarta passada, em uma mesa de debates da qual participei na Semana da Imprensa, promovida pelo jornal Joca, na ESPM (Escola Superior de Propaganda e Marketing). O evento explica o jornalismo para crianças e adolescentes, o público do veículo.

Os participantes foram unânimes em negar essa possibilidade. O primeiro motivo é que esses sistemas, a despeito de seus melhores esforços, são imprecisos, cometendo muitos erros pela falta de uma verificação humana. Outro problema é que suas bases estão sempre desatualizadas (o ChatGPT só conhece fatos até setembro de 2021). Por fim, mas não menos importante, essas ferramentas não possuem qualquer iniciativa, ética ou transparência, essenciais a qualquer produto informativo.

“A função dos veículos de comunicação é particularmente importante para a democracia”, explica Cárgano, fazendo referência ao papel do jornalismo de promover debates críticos para a sociedade. “Mas eles também são empresas e têm que gerar lucro para sua própria viabilidade econômica”, acrescenta.

Toda essa confusão deriva do impacto que essa tecnologia já apresenta sobre pessoas e empresas. Ele é enorme, mas ainda pouco compreendido. Enquanto isso, todos buscam caminhos para aproveitar seus incríveis recursos, sem cair em possíveis armadilhas que podem surgir dela.

A decisão de impedir as plataformas de inteligência artificial de aprender com a sua produção pode ser ironicamente um “tiro no pé” do jornalismo. Se elas forem entregues a fontes de baixa qualidade, podem se tornar poderosas ferramentas de fake news, que fustigam os jornalistas e a própria imprensa como pilar que é de uma sociedade desenvolvida.

É preciso uma conscientização dos diferentes atores nesse processo. Do lado dos usuários, eles devem entender que a IA não é uma ferramenta que substitui o jornalismo ou mesmo um buscador, pois ela não garante a verdade no que produz. As empresas de inteligência artificial devem, por sua vez, melhorar ainda mais sua tecnologia, para corrigir as imperfeições existentes, e cuidar para não canibalizar suas próprias fontes, o que poderia, a médio prazo, inviabilizar seu próprio negócio.

As empresas de comunicação têm um papel fundamental na solução desse imbróglio. Obviamente elas precisam defender seus interesses comerciais, mas sem que isso crie riscos ainda inexistentes para o próprio negócio. Devem buscar uma compensação justa das plataformas de IA.

Vivemos em um mundo em que a verdade perde força diante de narrativas distorcidas por diferentes grupos de poder. Aqueles que a buscam deve se unir e somar as novas tecnologias às suas metodologias editoriais consagradas. Se forem bem-sucedidos nisso, todos ganharão!