Supermercados de mentiras e a regulamentação das redes sociais, por Herton Escobar

Regular as redes sociais não se trata de censurar ninguém, mas de injetar um mínimo de civilidade e responsabilidade no mundo digital

Redes sociais
Imagem: Pixabay

Por Herton Escobar

No Jornal da USP

A ideia de regulamentação das redes sociais e aplicativos de mensagens — Facebook, Twitter, Instagram, YouTube, TikTok, WhatsApp, Telegram, etc. — pode soar como uma aberração, a princípio, para muita gente. Uma intervenção indevida do poder público em atividades de caráter privado. Mais do que isso: um ataque à liberdade de expressão! Censura! Mas não é bem assim. Na verdade, é algo absolutamente aceitável e justificável que se faça, com o máximo de urgência possível.

Imagine que você está no supermercado, olhando para uma prateleira cheia de produtos alimentícios. Você não sabe exatamente como cada um daqueles produtos foi fabricado ou o que tem dentro de cada um deles, mas tem a tranquilidade de saber que são alimentos seguros, pois existe uma série de leis e diretrizes que regulamentam a fabricação desses produtos. Muitos deles podem não ser exatamente saudáveis, mas nenhum deles te causará uma intoxicação alimentar. Para saber os ingredientes, basta consultar o rótulo da embalagem, pois existe uma legislação que obriga os fabricantes a fornecer essas informações ao consumidor.

A lei não diz o que a indústria de alimentos deve ou não deve produzir; mas estipula regras mínimas de segurança e transparência para garantir que todos os produtos que chegam aos consumidores sejam seguros e tragam as informações necessárias na embalagem para que cada pessoa possa decidir, de forma bem-informada, se deseja ou não consumir aquele alimento. Se uma empresa desobedece a essas regras ela pode receber uma multa, ser obrigada a retirar seus produtos do mercado, ou até mesmo ser fechada.

Mesma coisa com a indústria automobilística: o governo não estipula que tipo de veículo as montadoras devem ou não devem produzir, mas há uma série de leis e normativas que regulamentam esse setor, para garantir que todo automóvel fabricado cumpra regras mínimas de segurança e de qualidade ambiental. A montadora pode fazer um carro no estilo que quiser, mas não pode fabricar um carro sem cintos de segurança, ou que produza poluentes acima de um determinado limite, por exemplo.

Mesma coisa com remédios, cosméticos, bebidas alcoólicas, cigarros, aparelhos eletrônicos, e por aí vai. Todo produto ou serviço que consumimos está sujeito a algum tipo de regulamentação, especialmente aqueles que podem fazer mal à saúde, causar adição (vício) ou que oferecem algum tipo de risco à segurança dos usuários — e as redes sociais se encaixam em todos esses critérios.

Seguindo na analogia: imagine se a indústria de alimentos tivesse autonomia para se autorregular, estabelecendo suas próprias regras e tendo de prestar contas apenas a si mesma. Imagine se um monte de gente morresse depois de comer um determinado alimento e as empresas envolvidas pudessem se negar — a não ser quando obrigadas por ordem judicial — a informar como aquele alimento foi produzido ou quais são seus ingredientes. Basicamente, é assim que as empresas donas dessas grandes plataformas de comunicação digital — as chamadas big techs; Google e Meta em especial — funcionam hoje no Brasil. Ninguém sabe como seus algoritmos funcionam e elas têm autonomia quase que total para formular e empacotar seus produtos da maneira que quiserem, com pouquíssima transparência ou accountability. Isso não é razoável. Isso precisa mudar.

O caso das big techs é diferente do de outras indústrias no sentido de que o “recheio” dos produtos que elas entregam ao consumidor é produzido, em sua maior parte, pelos próprios consumidores — eu, você e todos os outros bilhões de usuários que publicam, reproduzem, compartilham e comentam conteúdos dentro dessas plataformas diariamente. Por isso elas argumentam, sempre, que são apenas empresas de tecnologia, e não produtoras de conteúdo. De fato, é assim que a legislação as trata atualmente, eximindo-as de responsabilidade sobre aquilo que é publicado e propagado em seus canais. Se alguém posta conteúdo de ódio numa plataforma, a culpa é apenas da pessoa que gerou o conteúdo e não da plataforma que deu visibilidade a ele.

Fazendo mais uma analogia: aos olhos da lei, é como se essas empresas, de altíssima tecnologia, fossem meros muros de concreto para a colocação de cartazes. Se alguém vai lá e cola um cartaz com uma suástica defendendo a volta do nazismo, a culpa é de quem colou o cartaz, e a empresa que gerencia o muro (e ganha bilhões de dólares com a publicidade que é postada nele) não tem nada a ver com isso. Se a polícia for lá e mandar retirar o cartaz, ok, ela retira. Caso contrário, continua lá. Cada vez que alguém para na frente do muro para ler o cartaz e compartilha uma foto dele com alguém, é um dinheirinho a mais na conta dela.

É óbvio que essas empresas são muito mais do que isso. Se elas não têm como impedir, a priori, que alguém vá lá e cole um cartaz contendo mensagens de natureza criminosa (por exemplo, exaltando ataques a escolas) ou mentirosa (por exemplo, dizendo que vacinas causam autismo), elas certamente têm inteligência artificial de sobra para detectar essas mensagens, identificar seus autores e retirá-las do ar, ou pelo menos moderá-las de alguma forma. Nesse caso, se a empresa sabe da existência desses conteúdos maliciosos, mas não faz nada a respeito, e ainda por cima lucra com a divulgação deles, me parece razoável propor que elas também sejam responsabilizadas pelas eventuais consequências da propagação desses conteúdos.

Não podemos ser ingênuos. Além de toda essa problemática da viralização lucrativa de fake news e discursos de ódio, é preciso reconhecer que essas empresas têm uma influência gigantesca sobre nossas vidas, sobre nossas democracias, e que essa influência não é aleatória nem, muito menos, desprovida de interesses econômicos. Quando você abre suas redes sociais ou faz uma busca por informações na internet, o conteúdo que é colocado diante dos seus olhos é escolhido por uma série de algoritmos, que são escritos por essas empresas, e que podem ser ajustados continuamente por elas, sem qualquer tipo de transparência, no sentido de favorecer ou desfavorecer determinadas opiniões ou determinados tipos de informação.

No caso do Projeto de Lei 2630 (mais conhecido pelo apelido de PL das Fake News, mas que, na verdade, se chama projeto da Lei Brasileira de Liberdade, Responsabilidade e Transparência na Internet), um estudo do grupo de pesquisas NetLab, da Universidade Federal do Rio de Janeiro (UFRJ), indica que Google e Meta usaram seus algoritmos para impulsionar artificialmente a disseminação de conteúdos contrários à aprovação do projeto. As empresas negam terem feito isso; mas que elas têm a capacidade para fazê-lo, é fato. Dessa forma, elas têm o poder para influenciar diretamente nossas escolhas sobre o que comemos, o que lemos, o que assistimos, o que compramos, que remédios tomamos (ou deixamos de tomar), que notícias vemos (ou deixamos de ver), em quem votamos e, em última instância, o que pensamos. São muito mais poderosas do que qualquer outra indústria.

Pense bem: quantas das decisões que você toma no seu dia a dia e sobre a sua vida são pautadas por informações que você busca na internet ou visualiza nas suas redes sociais? Provavelmente a maioria; se não todas. E quem controla esse fluxo de informações? As big techs. É óbvio que essa atividade precisa ser regulamentada — não controlada, mas regulamentada. A internet não pode ser uma terra sem lei onde essas empresas e seus usuários fazem o que quiserem sem ter de prestar contas a ninguém.

Se essas empresas têm — e é óbvio que têm — a capacidade tecnológica para identificar e rastrear conteúdos criminosos ou mentirosos que circulam por suas plataformas, é perfeitamente razoável exigir que elas façam algo a respeito disso. Mas fazer o que, exatamente? Alertar as autoridades? (Que autoridades?) Bloquear as postagens? Suspender as contas? Depois de quanto tempo? Em que circunstâncias? É justamente esse tipo de coisa que o PL 2630 precisa definir: limites, parâmetros, competências, responsabilidades e consequências para o funcionamento dessas plataformas. Não se trata de censurar ninguém, mas de injetar um mínimo de civilidade e responsabilidade no mundo digital. Uma tarefa extremamente desafiadora e complexa, mas urgentemente necessária.

Herton Escobar é jornalista especializado em Ciência e Meio Ambiente e repórter especial do “Jornal da USP”

Este artigo não expressa necessariamente a opinião do Jornal GGN

LEIA TAMBÉM:

Redação

0 Comentário

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Você pode fazer o Jornal GGN ser cada vez melhor.

Apoie e faça parte desta caminhada para que ele se torne um veículo cada vez mais respeitado e forte.

Seja um apoiador