Durante mais de uma década, as plataformas de redes sociais têm sido em grande parte intocáveis legalmente, protegidas por leis concebidas para proteger a liberdade de expressão e o grande volume de conteúdo gerado pelos utilizadores. Mas isso pode estar prestes a mudar. Dois processos judiciais marcantes na Califórnia não têm como alvo o conteúdo em plataformas como Meta (Facebook, Instagram), Google (YouTube), Snap (Snapchat), TikTok (ByteDance) e Discord, mas o design das próprias plataformas. O argumento central? Que estas funcionalidades são deliberadamente concebidas para serem viciantes e que as empresas devem ser responsabilizadas pelos danos psicológicos que infligem – especialmente aos jovens.

A ascensão dos processos judiciais focados no vício

As ações judiciais, movidas por distritos escolares, pais e indivíduos, alegam que a rolagem interminável, a reprodução automática de vídeos, as notificações constantes e os feeds algorítmicos exploram os usuários, sequestrando sua atenção. Não se trata de policiar o que as pessoas postam; trata-se de as plataformas criarem intencionalmente um ambiente que mantém as pessoas fisgadas. Os demandantes argumentam que esses “defeitos” transformam as mídias sociais em produtos viciantes, semelhantes às máquinas caça-níqueis, projetadas para maximizar o envolvimento a todo custo.

Esta é uma mudança crítica na estratégia. Tradicionalmente, as batalhas jurídicas concentravam-se na moderação de conteúdo (bullying, vídeos nocivos, etc.). Mas os casos atuais contornam esses debates, concentrando-se nos mecanismos subjacentes que impulsionam o vício. Esta abordagem contorna as proteções da Primeira Emenda frequentemente invocadas pelas empresas de tecnologia.

Seção 230 e o Escudo de Liberdade de Expressão

Durante anos, os gigantes das redes sociais beneficiaram da Secção 230 da Lei de Decência nas Comunicações, que os protege amplamente da responsabilidade pelo conteúdo publicado pelos utilizadores. Essa lei, escrita na década de 1990, fazia sentido quando a internet era um espaço emergente. Mas hoje, permite que as empresas evitem a responsabilização, mesmo quando as suas plataformas prejudicam comprovadamente os utilizadores.

Vários estados tentaram regular as redes sociais concentrando-se no conteúdo, aprovando leis para limitar o acesso de menores ou proibir a contagem de “curtidas”. No entanto, estes esforços falharam em grande parte, uma vez que as empresas argumentaram com sucesso que violavam os direitos de liberdade de expressão. Os processos judiciais na Califórnia evitam esta armadilha argumentando que o design das plataformas é o problema, e não o discurso em si.

Um cálculo no estilo do tabaco?

A estratégia jurídica reflecte os processos movidos contra as empresas tabaqueiras na década de 1990. Depois, o governo argumentou que as empresas sabiam que os seus produtos eram prejudiciais, mas ocultavam a verdade. Agora, os demandantes alegam que as empresas de mídia social também sabiam que suas plataformas eram viciantes e exploradoras, mas continuaram a priorizar o envolvimento em detrimento do bem-estar do usuário.

Documentos internos vazados da Meta já sugerem que a empresa estava ciente da natureza viciante de seus produtos. Uma comunicação interna supostamente descreveu o Instagram como uma “droga”, com os funcionários reconhecendo que eram “basicamente traficantes”. Esses documentos, juntamente com outros do YouTube, estão sendo usados ​​para pintar um quadro de negligência e danos intencionais.

O impacto potencial

Se forem bem sucedidos, estes processos poderão forçar as empresas de redes sociais a alterar fundamentalmente os seus designs. Eles podem ser obrigados a remover recursos que incentivam o vício, alertar os usuários sobre os efeitos nocivos do uso excessivo ou até mesmo enfrentar penalidades financeiras pelos danos causados.

Os julgamentos estão em curso, mas as implicações são claras: a lei dos EUA pode finalmente alcançar a realidade de que as redes sociais não são apenas uma ferramenta de ligação; é um produto projetado para explorar a psicologia humana. Isto poderia desencadear uma onda de regulamentação e forçar as empresas de tecnologia a assumirem a responsabilidade pelas consequências negativas das suas plataformas.