O Supremo Tribunal Federal (STF) pode dar um passo decisivo para o funcionamento das plataformas digitais no Brasil nesta quarta-feira (18/12). A Corte está atualmente analisando o artigo 19 do Marco Civil da Internet. Esta é a terceira semana em que o tema é debatido e os ministros que ainda não se pronunciaram deverão dar seus votos no plenário. Por um lado, as grandes empresas de tecnologia afirmam que a remoção do artigo poderia prejudicar a liberdade de expressão. Do outro, entidades que apelam à luta contra o discurso de ódio e o extremismo online.
Até o momento, votaram dois ministros: Dias Toffoli e Luiz Fux. O voto de Toffoli é considerado de grande importância, pois ele é o relator das ações apresentadas em relação ao tema. Isso significa que cabe a ele avaliar os processos e dar um parecer, que pode ou não ser seguido por outros. Toffoli votou pela invalidação do artigo 19 da lei, que determina que empresas de tecnologia que operam grandes plataformas só poderão ser responsabilizadas por conteúdos publicados por usuários após receberem ordem judicial para removê-los.
Caso o trecho da lei em discussão seja invalidado, as empresas poderão ser responsabilizadas mesmo que não haja ordem judicial para retirar conteúdos considerados criminosos, como discursos de ódio, ataques a instituições, racismo, nazismo, pedofilia e execução ou disseminação de incentivo a outras práticas criminosas — que configuram crime previsto em lei.
Durante sua votação, Toffoli destacou que a falta de regulamentação das redes sociais e de outros aspectos do mundo digital abre espaço para o ódio, a disseminação de informações falsas e ataques à reputação das pessoas.
“A falta de uma regulamentação clara sobre os limites da liberdade de expressão encoraja a disseminação, sem qualquer controlo, de teorias da conspiração; dá origem ao sectarismo, à polarização e ao extremismo e à propagação do discurso de ódio; em suma, encoraja a emergência de uma novo tipo de violência que não podemos mais ignorar, a violência digital, caracterizada pelo uso da tecnologia disponível para ameaçar, humilhar, assediar, manipular ou expor alguém, sem consentimento, no ambiente virtual, causando danos emocionais, psicológicos, sociais e até físicos às vítimas”, ele disse.
O juiz destacou ainda que, para não prejudicar a liberdade de imprensa, sites, blogs e demais veículos jornalísticos presentes nas plataformas digitais são os únicos responsáveis pelo conteúdo postado com base na lei do direito de resposta, sancionada em 2015. “Eu, sinceramente, com Com todo respeito, com todo respeito, entendo que manter 19 é manter uma aberração jurídica no sistema brasileiro.”
Liberdade de expressão
A discussão sobre o Marco Civil da Internet gira em torno da liberdade de expressão. As big techs afirmam que não têm capacidade técnica para avaliar comentário por comentário e que mudanças na forma como a lei é aplicada hoje poderiam limitar a liberdade dos usuários de divulgar suas ideias na rede. As empresas de tecnologia usam uma sequência de regras lógicas para colocar as plataformas de mídia social em funcionamento. O conjunto dessas regras é chamado de algoritmo.
No entanto, especialistas apontam que o algoritmo está programado para ampliar o alcance de conteúdos extremistas, provocativos, discursos de ódio e informações falsas. Esse tipo de publicação tem maior poder de engajamento, ou seja, provoca a interação do usuário e potencializa a entrega de conteúdo aos usuários. Consequentemente, as plataformas atraem mais pessoas e aumentam os seus lucros em troca da divulgação de informações que violam os direitos fundamentais. Conforme prevê a lei atualmente, o conteúdo pode permanecer no ar por dias, semanas e até meses antes de ser removido por ordem judicial.
José Jance Grangeiro, jornalista, advogado e pesquisador do Mestrado em Comunicação Digital (IDP) e do Doutorado em Direito (UnB), afirma que a busca pelo lucro e por manter os usuários navegando por mais tempo faz com que pouco esforço seja aplicado no controle dos dados. conteúdo criminoso.
“As plataformas lucram mais com conteúdos envolventes – que muitas vezes incluem conteúdos extremistas, provocativos ou desinformativos – fragmentando ainda mais o discurso público. Na verdade, o volume de tempo e engajamento dos usuários é a moeda utilizada para medir o valor dessas empresas nas bolsas de valores. Eles literalmente lucram mais quando circula conteúdo tóxico”, destaca.
Questionado se as plataformas passaram a atuar como juízas do conteúdo postado pelos usuários, podendo remover conteúdos que não sejam ilegais por medo de protestos, Jance afirma que, atualmente, praticamente não há meios de denunciar condutas criminosas nas redes dentro os próprios sites de redes sociais. .
“As plataformas não atuarão como ‘julgadoras’ dos usuários, mas terão que, pelo menos, criar condições para que o conteúdo seja avaliado e alinhado aos parâmetros legais. Hoje, na prática, nem sequer avaliam essas denúncias sem determinação judicial. Não há nenhuma punição em jogo para os usuários, que já podem ser responsabilizados legalmente pelos conteúdos que publicam”, acrescenta.
Fabrício Polido, sócio da LO Baptista, especialista em direito digital, diz não acreditar que o Supremo “poderá avançar na criação de novos tipos de conteúdos infratores sem base legal pré-existente”, mas que a derrubada do artigo da lei em questão poderá levar à remoção de conteúdo de forma ampla, prejudicando os usuários.
“Não vejo nenhuma decisão que restrinja direitos dos usuários; por outro lado, caso caia o art.19 do MCI, voltaremos às práticas vigentes até abril de 2015. Por incentivo judicial, será um festival de remoções aleatórias de conteúdos disponibilizados nas plataformas por mera notificação aos usuários” , ele destaca.
Acompanhe o canal Correio no WhatsApp e receba as principais notícias do dia no seu celular
Em comunicado, a Meta, dona do Facebook, Instagram, WhatsApp e outros, sustenta que já mantém padrões de moderação de conteúdo. “O artigo 19 do Marco Civil da Internet é reconhecido internacionalmente por estabelecer que intermediários como as plataformas digitais só podem ser responsabilizados por conteúdo de terceiros se não o removerem após receberem ordem judicial válida para fazê-lo. Isto não significa que as plataformas não tenham regras que proíbam conteúdos nocivos, como violência, incitamento e abuso infantil. Na Meta, usamos tecnologia automatizada e revisão humana para identificar e agir em relação ao conteúdo que viola essas políticas”, afirma.
A Meta afirma ainda que, caso o artigo 19 do Marco Civil seja derrubado pelo STF, a prática será remover conteúdo mesmo que não viole as leis locais.
“Nas últimas semanas, respeitados especialistas em internet no Brasil e grande parte da imprensa nacional alertaram que, se o Artigo 19 for declarado inconstitucional, as incertezas jurídicas deixariam o país dissonante com a comunidade internacional. As plataformas digitais estariam sujeitas a um amplo regime de notificação e remoção e, ao mesmo tempo, poderiam ser responsabilizadas por praticamente todos os tipos de conteúdo, mesmo sem serem notificadas. Eles seriam incentivados a remover conteúdo subjetivo que não viole necessariamente as leis ou regulamentos locais. regras da plataforma, num esforço preventivo para evitar responsabilidades”, destaca.
imagem de empréstimo
como conseguir crédito no picpay
picpay instalar
cred rápido
banco noverde
noverde whatsapp
siape consignação
bk bank telefone
apk picpay
consignado inss bancos
px significado