Políticas de moderación de contenidos

La moderación de contenidos es una herramienta empleada con el fin de excluir o impedir el acceso a contenido específico dentro de una plataforma o servicio web. Esta prerrogativa suele ser empleada de forma discrecional por las empresas a través de sus políticas de uso o términos del servicio, pero a veces también vienen impuestas por leyes y, en algunos casos, se ejercen por causa de la presión de los gobiernos. 

1. ¿En qué consiste?

A diferencia de los bloqueos o filtros de contenido, que se realizan sobre la capa física o lógica de Internet, las políticas de moderación de contenido son un conjunto de normas generalmente públicas que condicionan la forma en que los usuarios crean o comparten contenido en una plataforma de Internet. Estas políticas suelen venir en la forma de términos y condiciones, normas de comunidad, políticas de uso aceptable del servicio, entre otros.

Igual que los filtros locales, la eficacia de la moderación de los contenidos usualmente se restringe a la plataforma en donde estos se encuentran alojados, por ejemplo: una red social, una aplicación, un sitio web, etc. No obstante, dependiendo del tipo de moderación y la importancia de la plataforma, los efectos de aplicar estas acciones pueden ir desde molestias y una mala calidad del servicio, hasta afectaciones graves a los derechos humanos.

Los actos de moderación pueden ir desde llamadas de atención o amonestaciones, hasta el bloqueo de contenidos y expulsión de la plataforma de los usuarios que crean o comparten cierto tipo de contenido. Además, cuando la moderación se da como producto de una obligación legal o por actos de presión de los gobiernos, sus efectos pueden ir más allá de Internet y representar un peligro para la integridad de los usuarios.

2. ¿Cómo impacta a Internet?

Al ser una medida que solo opera respecto de plataformas específicas, no afecta directamente la infraestructura física o lógica, siempre y cuando la moderación no devenga en la realización de bloqueos o filtros a gran escala. No obstante, sí disminuye la calidad del acceso, la diversidad del contenido al que se accede y en algunos casos podría poner en situación de desigualdad a los usuarios que publican y acceden a información a través de plataformas sociales y de contenido generado por usuarios.

3. ¿Cómo impacta a los usuarios?

El impacto que tiene la moderación de los contenidos depende en gran medida de cómo se ejecutan, pudiendo afectar a grupos específicos o comunidades globales, dependiendo del nivel de uso de las plataformas afectadas por la moderación de los contenidos. Además, la forma misma en la que se modera el contenido incide en el impacto, pues no es lo mismo ocultar de la vista un comentario para que un usuario específico no lo vea, que dar de baja una publicación y hacerla inaccesible para todos. Algunas de las afectaciones más comunes son:

Afectación a derechos humanos

Las políticas de moderación limitan el ejercicio de diferentes derechos, principalmente el de libertad de expresión. No obstante, es necesario recordar que al ser espacios privados de comunicación, las plataformas también tienen el derecho de proponer sus propias reglas, entre ellas las de censurar cierto contenido en contextos previamente identificados. Así, por ejemplo, si un usuario se crea una cuenta en una red social en donde está prohibido subir pornografía y quiere hacerlo, el hecho de que el contenido se retire no lesiona significamente el derecho de dicho usuario, pues este puede elegir otra plataforma donde estas acciones sí están permitidas.

No obstante, cuando la política de moderación es abusiva o arbitraria en su diseño o aplicación y la plataforma aloja grandes comunidades de usuarios, las afectación a la libertad de expresión se torna relevante. En ese sentido, pese a ser una empresa privada, es factible exigirle que respete la observancia de los derechos humanos en la forma en que realiza sus operaciones o crea sus normas comunitarias. Puede ocurrir también que la moderación se produzca en el contexto de una ley nacional u obligaciones impuesta los gobierno de forma democrática o incluso a través de coerción directa.

Distorsiones del mercado

Ciertas políticas de moderación de contenido, especialmente aquellas impuestas externamente, es decir por parte de gobiernos u otras entidades diferentes a las plataforma donde se realiza la moderación, pueden generar distorsiones en el mercado. Esto pues puede ocurrir que solo ciertas plataformas sean afectadas por las obligaciones de moderación, lo que eventualmente las hace menos atractivas frente a sus competidores.

También puede ser que, aunque toda una categoría de plataformas estén afectadas por obligaciones de moderación, esto mismo suponga la creación de una barrera de entrada al mercado para otros competidores, que no cuenten con los recursos para poder cumplir con estas normativas o afrontar las multas y otras sanciones en caso de no hacerlo.

4. ¿Dónde ocurre?

Casi todas las plataformas que ofrecen productos o servicios sobre Internet tienen Términos y Condiciones de Uso, las cuales establecen las reglas que deben seguir sus usuarios si quieren utilizarlas. Por ejemplo, las políticas sobre contenido aceptable en Facebook, Youtube o Twitter están constantemente bajo revisión y polémica. Diversos espacios académicos y grupos de activistas piensan que estas reglas son demasiado tolerantes con ciertos tipos de contenidos al tiempo que otros sostienen que imponen restricciones innecesarias al libre flujo de información.

Así mismo, en algunos países existen leyes que obligan a este tipo de empresas a ejercer ciertas políticas de moderación en diferentes casos, casi siempre respecto de actos que constituyen delitos, como las infracciones a los derechos de autor, la pornografía, etc. Por ejemplo, en Alemania existen leyes que obligan a redes sociales como Facebook a moderar contenido señalado como discurso del odio o noticias falsas.

5. ¿Ocurre está pasando en Perú?

Actualmente, no existen normas locales que establezcan obligaciones específicas de moderar contenidos en Internet. No obstante, sí existen leyes de aplicación general que podrían provocar que se realice cierta moderación en plataformas peruanas como en casos como discriminación, pornografía infantil, entre otros.

6. Saber más

Esta entrada es parte de nuestra serie especial Internet Somos Todas, un vistazo a las principales tendencias regulatorias globales que pueden poner en riesgo Internet como lo conocemos.

 

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *