O Supremo Tribunal Federal (STF) concluiu na quinta-feira o julgamento sobre a responsabilidade das redes sociais por conteúdos ilegais publicados. Os ministros consideram parcialmente inconstitucionais as regras previstas no artigo 19 do Marco Civil da Internet e estabeleceram que as plataformas digitais têm o dever de retirar conteúdos ilícitos após terem sido comunicadas sobre ele. Foi mantida uma exceção para os crimes contra a honra.
Entenda a seguir as regras definidas:
Responsabilidade por conteúdos
As redes sociais podem ser responsabilizadas por danos gerados por conteúdos publicados por terceiros, que envolvam crimes ou atos ilícitos, caso sejam notificadas e não removam a postagem.
Crimes contra a honra
Para crimes como calúnia, difamação e injúria, continuam valendo as regras atuais, de que é necessária uma ordem judicial para a remoção. Somente se essa ordem for descumprida as plataformas têm responsabilidade.
Caso um conteúdo que já tenha sido reconhecido como ofensivo pelo Judiciário seja replicado, os provedores devem remover as publicações a partir de uma notificação.
Conversas privadas
Também há a necessidade de ordem judicial para remoção de conteúdos em serviços de mensagens, como WhatsApp e Telegram, para e-mail e para aplicativos de reuniões fechadas, como o Zoom.
Conteúdos patrocinados
Há uma “presunção de responsabilidade”, independente de notificação, dos conteúdos de anúncios pagos ou distribuídos de forma artificial (como por robôs). As plataformas ficam isentas se provarem que agiram em tempo razoável para remover as publicações.
Dever de cuidado
Plataformas precisam impedir publicação de conteúdos com condutas e atos antidemocráticos; terrorismo; instigação ou auxílio a suicídio ou a automutilação; incitação à discriminação em razão de raça, cor, etnia, religião, procedência nacional, sexualidade ou identidade de gênero; crimes praticados contra a mulher em razão da condição do sexo feminino; crimes sexuais contra pessoas vulneráveis, pornografia infantil e crimes graves contra crianças e adolescentes.
Os provedores podem ser responsabilizados caso ocorra uma “falha sistêmica” em relação a esses conteúdos, mas não por publicações isoladas.
Sede no Brasil
As plataformas precisam ter uma sede e um represente no país, com identificação e informações para contato disponibilizadas de forma acessível.
Transparência
As empresas deverão apresentar relatórios anuais de transparência sobre notificações extrajudiciais, anúncios e impulsionamento.
Comércio
Os marketplaces, sites onde são vendidos conteúdos de terceiros, respondem as regras do Código de Defesa do Consumidor.
Apelo ao Legislativo
Os ministros aprovaram um “apelo” ao Congresso para que elabore uma legislação “capaz de sanar as deficiências do atual regime quanto à proteção de direitos fundamentais”.