Muito se tem falado sobre a decisão do ministro Alexandre de Moraes que determinou o bloqueio do aplicativo Telegram no território nacional, fixando, inclusive, multa diária de R$ 100 mil para usuários que tentassem descumprir a ordem judicial.
A decisão foi proferida em decorrência da conduta da plataforma de se recusar a dar cumprimento a decisões judiciais e a estabelecer procedimentos de moderação de conteúdo para evitar a difusão de atividades ilícitas no seu ecossistema digital. O atual debate no contexto europeu sobre duas novas propostas legislativas, conhecidas como Digital Services Act (DSA) e Digital Markets Act (DMA), pode oferecer novas perspectivas fundamentais para o enfrentamento dos diferentes riscos relacionados às atividades das plataformas digitais no Brasil.
O afã da regulação digital na União Europeia avança no ideal de construir as bases normativas para o futuro digital da Europa e, até mesmo, do mundo se as iniciativas legislativas europeias influenciarem outras nações com a mesma intensidade que se logrou fazer com o General Data Protection Regulation (GDPR), o que, no direito brasileiro, resultou na edição da LGPD (Lei Geral de Proteção de Dados).
Por meio da proposta do regulamento dos serviços digitais, chamado de Digital Services Act (DSA), apresentada em 15 de dezembro de 2020, a Comissão Europeia busca estabelecer regras harmonizadoras sobre a prestação de serviços intermediários na União Europeia, visando a elevar o nível de proteção dos direitos fundamentais no ambiente digital, conferir maior segurança jurídica e aprimorar o funcionamento do mercado comum europeu, já que aborda os riscos sistêmicos que surgem com os serviços digitais, notadamente com as plataformas online.
É de se notar que, antes da proposta do DSA pela Comissão Europeia, alguns Estados-Membros editaram leis para regulação do ambiente digital, versando sobre atuação das plataformas online como intermediárias em relações de mercado, discurso de ódio, desinformação, ou, ainda, violações aos direitos autorais.
Um bom exemplo da fragmentação do cenário regulatório europeu sobre serviços digitais se observa na promulgação da Lei Alemã para a Melhoria da Aplicação da Lei nas Redes Sociais, a Netzwerkdurchsetzungsgesetz (NetzDG), ou da Kommunikationsplattformen-Gesetz (KoPl-G), lei federal que dispõe sobre medidas para proteção de usuários em plataformas de comunicação. Essa fragmentação regulatória pode ensejar insegurança jurídica, tendo em vista que os prestadores de serviços podem se submeter a diferentes regimes de responsabilidade, multas ou obrigações. Portanto, o DSA também anseia pela uniformização do panorama regulatório.
O DSA será aplicado aos intermediários que prestam serviços a destinatários cujo local de estabelecimento ou de residência se encontre na União Europeia, independentemente da localização geográfica dos prestadores desses serviços (artigo 1, 3, DSA). Sobre a aplicação do DSA, a Comissão de Assuntos Jurídicos do Parlamento Europeu emitiu parecer em 11 de outubro de 2021, dirigido à Comissão do Mercado Interno e da Proteção dos Consumidores, propondo alteração no artigo 1, para inserção do item 3-A, de modo que o regulamento seja aplicável também aos serviços de mensagens instantâneas utilizados para fins que não sejam privados ou não comerciais (alteração 79 do parecer).
Para alcançar os objetivos elencados pelo regulamento, foram avaliadas três estratégias principais, todas apresentadas no relatório de impacto que acompanha o DSA. A primeira opção consistiria na definição de obrigações procedimentais para as plataformas online, a fim de combater os atos ilegais perpetrados por seus usuários, incluindo a previsão de garantias para a proteção dos direitos fundamentais e o aumento da transparência, além de mecanismos de cooperação administrativa para permitir às autoridades a resolução de questões transfronteiriças por meio de uma Câmara de Compensação Digital, facilitando os fluxos de informação.
A segunda opção, para além das medidas da primeira estratégia, introduziria no mecanismo de cooperação e execução a nomeação de um Coordenador Central em cada Estado-Membro. A terceira opção iria além, incluindo obrigações específicas para as plataformas de grande dimensão, que se encontram em posição dominante no seu setor de atuação. Ao contrário do que se poderia imaginar, os componentes incluídos na terceira opção foram amplamente apoiados pelas partes interessadas, encontrando eco em atores-chave do Parlamento Europeu e dos Estados-Membros.
Desse modo, o DSA representa uma reforma do quadro jurídico da União Europeia em matéria de serviços digitais, que, atualmente, está assentado na Diretiva sobre o Comércio Eletrônico do ano 2000, desatualizada com o papel central que o ambiente digital exerce na sociedade atual. A iniciativa cria também uma estrutura sólida de governança para a supervisão eficaz dos prestadores de serviços intermediários, classificados em três grupos: i) serviço de «simples transporte»: consiste na transmissão, através de uma rede de comunicações, de informações prestadas por um destinatário do serviço ou na concessão de acesso a uma rede de comunicações; ii) serviço de «armazenagem temporária»: consiste na transmissão, através de uma rede de comunicações, de informações prestadas por um destinatário do serviço, que envolva a armazenagem automática, intermediária e temporária dessas informações, apenas com o objetivo de tornar mais eficaz a transmissão posterior das informações a outros destinatários, a pedido destes; e iii) serviço de «armazenagem em servidor»: consiste na armazenagem de informações prestadas por um destinatário do serviço a pedido do mesmo (artigo 2, f, DSA).
Um dos objetivos centrais do DSA consiste na neutralização ou mitigação das externalidades negativas geradas pelo funcionamento das plataformas digitais, que, apesar de terem facilitado o livre fluxo de bens e serviços de forma imensurável, tornaram-se também palco de difusão viral de fake news, hate speech, discursos antidemocráticos e xenófobos — em suma, de desinformação e atos criminosos em geral.
Para perseguir seus objetivos, o DSA adota como um dos seus focos o estabelecimento de procedimentos em torno da moderação de conteúdo pelas redes sociais. Inicialmente, registra-se que o DSA manteve o mesmo mecanismo do notice and take down ("notificação e retirada") da Diretriz sobre Comércio Eletrônico, ou seja, a plataforma apenas passa a ter responsabilidade pelos danos causados por informações geradas pelos seus usuários após ser notificada sobre o conteúdo potencialmente ilícito e não tomar providências imediatas para sua remoção. Todavia, o DSA vai além, inovando, ao prever um mecanismo de reclamação em duas etapas.
A lógica da moderação de conteúdo prevista seria a seguinte: primeiro, a parte prejudicada notifica a plataforma sobre o conteúdo que pretende ver removido da internet; segundo, a rede social decide manter ou retirar o conteúdo, nesta última hipótese caso considere que as alegações são verídicas e houve violação às regras das suas políticas e dos seus termos e condições de uso; terceiro, na hipótese de exclusão do material dito como ilícito,, seu autor será notificado sobre a decisão, que deverá ser devidamente fundamentada e tornada pública. Até aqui não se tem inovação procedimental decorrente do DSA, o que ocorrerá logo na sequência: caso o autor do conteúdo removido fique irresignado com a decisão e seus fundamentos, terá duas opções: poderá recorrer no âmbito de um sistema interno de reclamações, a fim de que seu caso seja reanalisado pela plataforma e uma nova decisão seja tomada; poderá submeter a controvérsia a um sistema de resolução extrajudicial de conflitos, no qual um organismo independente analisará o caso.
Importante registrar que as duas opções estão abertas ao autor do conteúdo removido, sendo que a utilização desses mecanismos não precisa ser consecutiva, de modo que o sistema de resolução extrajudicial de conflitos já pode ser acionado diretamente. Nesse ponto, a proposta tem sido criticada por não permitir que a vítima atingida pelos conteúdos potencialmente ofensivos tenha a possibilidade de acionar os mecanismos alternativos criados pelo DSA, de modo que, se as plataformas se negarem a remover as informações objeto de notificação, a vítima somente terá a opção de levar a discussão para os tribunais. Tal assimetria viola as previsões da Carta Europeia de Direitos Fundamentais, uma vez que não só a liberdade de expressão do autor se encontra garantida, mas também a privacidade do ofendido, que goza de igual status de direito fundamental.
Outro importante foco do DSA situa-se no estabelecimento de novos deveres de diligência a serem cumpridos pela plataforma a fim de que seja conferida ampla transparência a aspectos do seu modelo de negócios que hoje integram uma "caixa-preta", tal qual os critérios utilizados para o funcionamento dos algoritmos responsáveis pela moderação do conteúdo.
Além disso, o DSA estabeleceu regras específicas para as plataformas de grande dimensão, aquelas com mais de 45 milhões de usuários ativos, que precisarão cumprir obrigações como a contratação de auditoria independente para avaliação da sua conformidade às regras do DSA e aos Códigos de Conduta, bem como a avaliação e a atenuação de riscos sistêmicos significativos decorrentes do funcionamento e da utilização dos seus serviços, devendo, ainda, dar ampla transparência sobre os critérios utilizados pelos seus algoritmos para fins de recomendação de conteúdo e disponibilização de publicidade, estando sempre abertos à possibilidade de terem de conferir acesso aos dados necessários para controle e avaliação a respeito do cumprimento do DSA.
Tais inovações resultarão na oferta de um grande volume de informações não somente para os Coordenadores dos Serviços Digitais de cada Estado-Membro onde se situa a sede de uma plataforma digital, que serão os responsáveis pelo enforcement do DSA, mas também para especialistas e para o público em geral, uma vez que tais informações deverão ser tornadas livremente acessíveis na internet. Espera-se, assim, que as autoridades regulatórias passem a ter um conjunto de dados e conhecimentos especializados sobre o funcionamento das plataformas digitais, o que lhes permitirá uma melhor modelagem do modelo regulatório no futuro.
Em suma, não há como se debater o futuro da regulação das redes sociais sem lançar um olhar para o debate que vem ocorrendo desde dezembro de 2020 no contexto europeu em torno do Digital Services Act (DSA), aqui apresentado, e do Digital Markets Act (DMA), que será objeto de análise em artigo futuro desta coluna.
*O texto foi produzido por integrantes do Grupo de Estudos de Novas Regulações de Serviços Digitais no Direito Comparado, iniciativa conjunta do Legal Grounds Institute, do Grupo de Estudos em Proteção de Dados da Universidade Federal do Rio Grande do Sul (UFRGS) e do Laboratório de Inovação e Direito da Universidade de São Paulo (USP)
[1] Aline Klayse dos Santos Fonseca, doutoranda em Direito Civil pela USP. Mestra e bacharela em Direito pela Universidade Federal do Pará-UFPA. Advogada. Professora do instituto federal do Pará - IFPA.
[2] Paulo Emílio Dantas Nazaré, Procurador do Estado do Rio Grande do Sul, Doutorando em Direito pela UFRGS, Mestre e Graduado pela UnB.
[3] Maria Gabriela Grings, mestre e doutora em Direito Processual pela Faculdade de Direito da Universidade de São Paulo (USP). Bacharel em Direito pela Universidade Federal do Paraná (UFPR). Pesquisadora do Instituto Legal Grounds. Advogada.
[4] Tatiana Bhering Roxo, mestre em Direito do Trabalho pela Pontifícia Universidade Católica de Minas Gerais. Bacharel em Direito pela Pontifícia Universidade Católica de Minas Gerais. Pesquisadora do Instituto Legal Grounds. Professora convidada da Pós-Graduação da Universidade Mackenzie. Professora da Pós-Graduação da Escola Superior da Advocacia da OAB/MG. Sócia do Barra, Barros e Roxo Advogados.
[5] Samuel Rodrigues de Oliveira, doutorando em Teoria do Estado e Direito Constitucional pela PUC-Rio, mestre em Direito e Inovação pela UFJF e especialista em relações internacionais. Pesquisador do Instituto Legal Grounds. Advogado.
Opmerkingen