Las redes sociales constituyen un importante punto de encuentro para compartir y recibir información, desplegar corrientes de opinión y, en general, expresarnos. Sin embargo, no cualquier tipo de contenido es aceptado en estas plataformas. Naturalmente, desde un punto de vista deliberativo, esta situación puede resultar problemática: ¿quién tiene control sobre los contenidos y por qué? ¿Hay alianzas entre actores políticos y redes sociales? ¿Los dueños de las plataformas deciden sobre qué se discute y sobre qué no?
Dado el actual contexto político peruano, cargado de polarización y desinformación en línea, han surgido muchas teorías sobre eliminación de contenido por razones de antipatía ideológica. Desde distintos espectros, voceros de diversas posiciones políticas denuncian la eliminación de sus publicaciones, atribuyéndola a actores políticos que pudieran estar en contra de su contenido. Sin embargo, la moderación de contenidos obedece a parámetros preestablecidos (e, incluso, automatizados) ajenos a la decisión directa de grupos gubernamentales. Incluso si convenimos en que la eliminación de contenido es cuestionable, es importante identificar a los actores hacia los cuales dirigir nuestras críticas para poder demandar mejoras.
Cómo funciona la moderación
Las plataformas en las que interactuamos y publicamos contenidos son, al final del día, agentes privados. Eso significa que han establecido sus propias reglas sobre lo que puede o no publicarse, de la misma forma en que un supermercado decide su horario de atención o un restaurante establece su código de vestimenta (aunque, desde luego, no con los mismos impactos ni riesgos: un local de ventas no es igual que un espacio global de deliberación pública).
Para participar en línea y minimizar las posibilidades de que nuestras publicaciones o cuentas sean dadas de baja, es importante conocer estas reglas. Por supuesto, esto no significa que abandonemos una mirada crítica a la manera en que el poder privado (generalmente, concentrado) transforma el entorno de las comunicaciones y de la libre expresión. Simplemente, implica que conozcamos primero estos procesos (y demandemos también mayor transparencia alrededor de ellos).
Los flujos de moderación vienen dados por reglas previamente establecidas. Así, por ejemplo, tenemos las Normas Comunitarias de Facebook, las Reglas de Twitter o las Normas de la Comunidad de Tiktok. Estas reglas, de una u otra forma, definen qué contenido no está permitido y qué sanciones se aplicarán cuando sea el caso. En muchos casos, se trata de normas extensas, organizadas por capítulos y en constante cambio, usualmente propiciado por presión de la sociedad civil.
El contenido prohibido puede variar de una plataforma a otra: por ejemplo, los desnudos están permitidos en Twitter, pero prohibidos en Instagram. Sin embargo, casi todas las plataformas tienen en común la sanción a contenidos violentos o que inciten a la violencia, sea eliminando el contenido, limitando su alcance, invisibilizándolo (ghosting), suspendiendo o bloqueando la cuenta, o requiriendo más contexto de la publicación para determinar cómo proceder:
🚫 | ⚠️ | |
Amenazas que podrían llevar a la muerte o confesiones de violencia pasada
Contenido que solicite, admita ofrecer u ofrezca servicios de contratación para matar a terceros Instrucciones para fabricar o usar armas cuando existe evidencia de que el objetivo es lesionar gravemente o matar a personas Cualquier contenido que incluya declaraciones de intención o apoyo, incitaciones, afirmaciones condicionales o expresiones de deseo de violencia a raíz de un proceso electoral Declaraciones de intención o apoyo, incitaciones, afirmaciones condicionales o expresiones de deseo de llevar o portar armas a lugares |
Amenazas violentas contra personal de las fuerzas del orden.
Amenazas violentas contra personas acusadas de un crimen Declaraciones implícitas de intención o apoyo, incitaciones, afirmaciones condicionales o expresiones de deseo de llevar armas a lugares. |
|
YouTube | Contenido que incite a cometer actos violentos contra personas o grupos concretos.
Contenido en el que se muestren peleas en las que haya menores involucrados. Grabaciones de cadáveres con lesiones graves, como extremidades mutiladas. contenido que promueve la violencia o el odio hacia personas o grupos por razones de edad, discapacidad, etnia, identidad y expresión de género, nacionalidad, raza, condición de inmigrante, religión, sexo o género, orientación sexual, etc. |
En el caso de los vídeos con fines educativos, documentales, científicos o artísticos que incluyan material para adultos o violencia explícita, YouTube tiene en cuenta valoraciones externas. |
TikTok | Contenido que represente seres humanos en los siguientes contextos: muertes o accidentes violentos o gráficos restos humanos desmembrados, mutilados, carbonizados o quemados heridas abiertas o lesiones como centro de atención violencia física, peleas reales y torturas
Declaraciones que tengan la intención de infligir violencia física a un individuo o grupo Declaraciones o imágenes que alienten a otros a cometer actos de violencia o que aboguen por dichos actos Contenido que ensalce, promueva, defienda o apoye actos violentos u organizaciones o personas extremistas (organizaciones terroristas, grupos de odio organizado, organizaciones criminales…). |
Los contenidos subidos por usuarios menores de 16 años no pueden ser recomendados en “para ti”.
Eliminan insultos, a menos que se trate de términos reapropiados, que se utilicen de forma autorreferencial (por ejemplo, en una canción) o que no sean despectivos (por ejemplo, en contextos educativos). |
Amenazas creíbles o lenguaje que incite al odio, contenido dirigido a particulares con el fin de humillarlos o avergonzarlos, información personal utilizada para chantajear o acosar a alguien y mensajes reiterados no deseados.
Actividades o personas que apoyen o elogien el terrorismo, el crimen organizado o grupos que promuevan el odio. También están prohibidas las ofertas de servicios sexuales, la compra o venta de armas de fuego, alcohol y productos de tabaco entre particulares, así como la compra o venta de drogas sin fines medicinales o farmacéuticas. |
Es posible que eliminen videos que contengan una enorme cantidad de violencia gráfica. Si esto se comparte para condenarlo o para concientizar u ofrecer información al resto de los usuarios, Instagram recomienda incluir un pie de foto que advierta de que se trata de contenido con violencia gráfica. | |
Declaraciones de intención de infligir violencia contra una persona o un grupo de personas específico.
Glorificar, celebrar, elogiar o condonar delitos violentos, eventos violentos dirigidos a ciertas personas por su pertenencia a un grupo protegido, o a los autores de dichos actos. Afiliación a entidades violentas o de incitación al odio, o promover sus actividades. |
Varía según gravedad, antecedentes e intención (por ejemplo: lenguaje hiperbólico). |
Las estrategias de respuesta también pueden ser variadas. No todo es eliminar: las plataformas también reducen el alcance, agregan banderas con información adicional o generan fricciones para el usuario a fin de desincentivar cierta acción (por ejemplo, compartir una noticia con enlace sin haber abierto el enlace, en el caso de Twitter).
La mayoría de estas respuestas (eliminación de contenido, invisibilización, bloqueo de la cuenta, etc.) se realizan de manera automatizada. Para eso, por ejemplo, se emplea inteligencia artificial, capaz de detectar y eliminar contenido con altas probabilidades de infringir las normas, incluso antes de que sea reportado por alguien. Por supuesto, esto agrega retos adicionales: la automatización adolece de sesgos y falta de contexto; por lo tanto, las decisiones basadas en reglas generales escritas en código no pueden reflejarse de la misma manera en los distintos países/regiones.
En vista de que las máquinas no son suficientes, las capacidades de automatización reposan y se entrenan sobre el trabajo humano de etiquetado previo. Muchas veces, además, el contenido es enviado a los equipos de revisión manual para su análisis y decisión. Esto tampoco vuelve sencillo el problema: se trata de un trabajo con altos índices de riesgo de daño psicológico, considerando la naturaleza del contenido al que están expuestos durante toda su jornada de trabajo.
Libertad de expresión y transparencia
Aunque resulta caótico imaginar un uso de redes sociales sin ninguna regla de moderación, es innegable, al mismo tiempo, que el control privado se alza como un desafío importante para la libertad de expresión en Internet. De hecho, gobiernos, empresas, comunidad técnica y sociedad civil debaten constantemente sobre las formas de regulación (autorregulación, corregulación o regulación en sentido estricto) más pertinentes que habiliten una rendición de cuentas robusta y transparente de las plataformas, a la vez que promuevan un ambiente seguro para el intercambio de información.
Al involucrar derechos como el acceso a la información o la libertad de expresión, los errores de los sistemas automatizados de detección de contenido pueden afectar a los pilares de una sociedad democrática, generando disconformidad de la ciudadanía. De hecho, según el primer Reporte Anual del Consejo Asesor de Contenido de Meta (un órgano independiente encargado de revisar las decisiones más complejas tomadas por Facebook respecto a la eliminación de contenido), más de un millón de personas apelaron las decisiones de Facebook y Meta de eliminar contenido. El 80% de ellas pretendían que se restaure el contenido, relacionado con publicaciones eliminadas por normas sobre bullying, discurso de odio o incitación a la violencia.
En realidad, gran parte de los casos que el Consejo Asesor admite revelan una dificultad adicional: la de los contextos. Aunque las normas puedan parecer sencillas en su texto, al interpretarse y aplicarse en contextos específicos, sus consecuencias pueden ser muy problemáticas. Por ejemplo, en 2021, el Consejo Asesor revirtió una decisión de Facebook por la cual se eliminó un video relacionado al Paro Nacional Colombiano. Inicialmente, el video se había eliminado debido a que contenía las palabras «deja de hacerte el marica en la TV», en referencia al presidente Duque. Al tratarse de un insulto basado en una categoría protegida, Facebook eliminó el video; sin embargo, el Consejo Asesor consideró que no había sido tenido en cuenta el interés periodístico detrás del video.
De igual manera, en el marco del contexto de crisis política actual, muchos videos o publicaciones relacionados con la coyuntura peruana podrían haber sido eliminados o sancionados. Recuerda que en la mayoría de plataformas puedes enviar una solicitud de revisión o, como en Facebook, presentar una apelación externa.
Directora de Investigación
Un comentario