
Todos los días, las personas se expresan, comparten contenido y se conectan con otras a través de distintas plataformas en línea. Sin embargo, no lo hacen de manera irrestricta: deben observar las políticas de contenido, términos de servicio, normas comunitarias u otros que hayan aceptado al registrarse en una plataforma. Mediante estas reglas, las empresas detallan qué está permitido y qué no, generalmente, apelando al interés de todos los usuarios de interactuar en un entorno seguro y libre de violencia. A partir de estas políticas de moderación de contenidos, redes como Facebook, Twitter o Instagram pueden eliminar una publicación o un comentario, hacer una advertencia al usuario que haya infringido alguna norma, inhabilitar su cuenta, impedir que realice comentarios, etc.
El Oversight Board de Facebook
La moderación de contenidos ha despertado la preocupación de muchas personas, organizaciones de la sociedad civil y organismos internacionales debido a sus impactos sobre los derechos humanos. Debido al rol crítico que, en la actualidad, asumen las redes sociales para el ejercicio de la libertad de expresión y el acceso a la información, son cada vez mayores los cuestionamientos al poder de las plataformas al momento de intervenir en la circulación de contenidos (sea mediante procesos automatizados o por evaluación humana). ¿Estamos ante la regulación privada de espacios públicos? ¿Cómo afecta esto a la deliberación democrática en Internet?

Directora de Investigación