Brasil : INTERNET
Enviado por alexandre em 21/05/2018 23:37:53

Veja o que especialistas dizem sobre remoção de conteúdo na internet

Na última semana, o Facebook informou, em relatório, ter retirado do ar 2,5 milhões de publicações que foram identificadas como contendo discurso de ódio no primeiro semestre do ano. O documento traz os resultados das ações de moderação de conteúdo praticadas pela empresa. No entanto, especialistas ponderam sobre a eficácia da remoção automática.

Em um debate no evento Rightscon, em Toronto, no Canadá, o relator para a liberdade de expressão das Nações Unidas, David Kaye, questionou a moderação de conteúdos por grandes plataformas, como o Facebook.

Na avaliação do relator, o fato das regras serem privadas, e de decisão exclusiva da plataforma, gera um problema para o debate no interior destes espaços, afetando a liberdade de expressão. “Os termos de serviço outorgam um poder discricionário às companhias para a remoção de conteúdos. As empresas as explicam em seus blogs, mas elas são vagas. Há questionamentos também sobre a consistência destas”, destacou o relator.

Contexto


Na avaliação de Natália Neris, pesquisadora sobre o tema e integrante da ONG InternetLab, há que se tomar cuidado no uso de tecnologias para remoção de conteúdo, pois estes sistemas apresentam grandes limitações para compreender contextos. Por conta disso, a identificação pode ser falha, o que pode resultar na exclusão de mensagens que não deveriam ser deletadas.

Ela relata que a entidade recebeu denúncias de conteúdos derrubados por supostas discriminações raciais contra brancos e preconceito de homossexuais contra heterossexuais. “A inteligência artificial não consegue entender que não é possível racismo reverso. O contexto é importante e varia demais de lugar para lugar. Ainda vai gerar muita confusão”, pondera.

Neste mês, pesquisadores de organizações norte-americanas que trabalham com direitos digitais – como Eletronic Frontier Foundation, Center for Democracy & Technology e New America´s Open Technology Institute - realizaram um seminário sobre o tema e publicaram uma série de recomendações, que denominaram “princípios de Santa Clara”.

Entre as diretrizes defendidas pelos especialistas estão:

- Companhias devem publicar regularmente o número de publicações removidas e contas suspensas ou bloqueadas em razão da violação de suas regras; - Empresas devem notificar os autores da publicação ou da conta sobre os motivos da remoção da mensagem ou suspensão do perfil; - As plataformas devem disponibilizar opção de recurso para quem teve conteúdos removidos ou contas bloqueadas.

Agência Brasil

Página de impressão amigável Enviar esta história par aum amigo Criar um arquvo PDF do artigo
Publicidade Notícia