Ministros definiram regras para retirada de conteúdo de plataformas digitais
O Supremo Tribunal Federal
(STF) concluiu na quinta-feira o julgamento sobre a responsabilidade das redes
sociais por conteúdos ilegais publicados. Os ministros consideram parcialmente
inconstitucionais as regras previstas no artigo 19 do Marco Civil da Internet e
estabeleceram que as plataformas digitais têm o dever de retirar conteúdos
ilícitos após terem sido comunicadas sobre ele. Foi mantida uma exceção para os
crimes contra a honra.
Entenda a seguir as regras definidas:
Responsabilidade por conteúdos
As redes sociais podem ser
responsabilizadas por danos gerados por conteúdos publicados por terceiros, que
envolvam crimes ou atos ilícitos, caso sejam notificadas e não removam a
postagem.
Crimes contra a honra
Para crimes como calúnia,
difamação e injúria, continuam valendo as regras atuais, de que é necessária
uma ordem judicial para a remoção. Somente se essa ordem for descumprida as
plataformas têm responsabilidade.
Caso um conteúdo que já tenha
sido reconhecido como ofensivo pelo Judiciário seja replicado, os provedores
devem remover as publicações a partir de uma notificação.
Conversas privadas
Também há a necessidade de
ordem judicial para remoção de conteúdos em serviços de mensagens, como
WhatsApp e Telegram, para e-mail e para aplicativos de reuniões fechadas, como
o Zoom.
Conteúdos patrocinados
Há uma “presunção de
responsabilidade”, independente de notificação, dos conteúdos de anúncios pagos
ou distribuídos de forma artificial (como por robôs). As plataformas ficam
isentas se provarem que agiram em tempo razoável para remover as publicações.
Dever de Cuidado
Plataformas precisam impedir publicação de conteúdos com
condutas e atos antidemocráticos; terrorismo; instigação ou auxílio a suicídio
ou a automutilação; incitação à discriminação em razão de raça, cor, etnia,
religião, procedência nacional, sexualidade ou identidade de gênero; crimes
praticados contra a mulher em razão da condição do sexo feminino; crimes
sexuais contra pessoas vulneráveis, pornografia infantil e crimes graves contra
crianças e adolescentes.
Os provedores podem ser
responsabilizados caso ocorra uma “falha sistêmica” em relação a esses
conteúdos, mas não por publicações isoladas.
Sede no Brasil
As plataformas precisam ter
uma sede e um represente no país, com identificação e informações para contato
disponibilizadas de forma acessível.
Transparência
As empresas deverão apresentar
relatórios anuais de transparência sobre notificações extrajudiciais, anúncios
e impulsionamento.
Comércio
Os marketplaces, sites onde
são vendidos conteúdos de terceiros, respondem as regras do Código de Defesa do
Consumidor.
Apelo ao Legislativo
Os ministros aprovaram um
“apelo” ao Congresso para que elabore uma legislação “capaz de sanar as
deficiências do atual regime quanto à proteção de direitos fundamentais”.
Por Agência O Globo
Nenhum comentário:
Postar um comentário