El debate público sobre la libertad de expresión y los límites del discurso de odio en redes sociales se ha intensificado en las últimas semanas tras una polémica intervención de la actriz Johanna San Miguel. La primera semana de febrero, la artista usó sus redes sociales para celebrar una decisión judicial en Reino Unido, que dictaminó que las mujeres trans no pueden ser consideradas legalmente como mujeres en ciertos contextos. Al celebrar este fallo, la actriz no sólo emitió una postura personal, sino que, terminó reforzando una narrativa transfóbica que vulnera derechos humanos fundamentales.
Este episodio no es aislado ni trivial. Al contrario, remite a un debate crítico: ¿hasta qué punto expresar “opiniones” personales en plataformas públicas se traduce en fomento de discursos de odio que afectan a comunidades vulnerables? En este caso, las reacciones en cadena, incluidos “likes”, comentarios y reproducciones, no solo legitiman un punto de vista discriminatorio, sino que pueden contribuir a normalizar un mensaje que atenta contra la dignidad, seguridad física y online, y la existencia de las personas trans y otros colectivos LGBTI.
Opinión vs. discurso de odio: una línea peligrosa
Defender que “es solo una opinión” se ha convertido en una excusa recurrente para justificar expresiones que celebran retrocesos en derechos humanos. Pero aquí hay una distinción importante: no todas las posturas o inicialmente llamadas “opiniones” se sostienen igual cuando implican negar la validez de identidades, derechos o existencias de poblaciones vulnerables. La celebración de decisiones o prácticas que niegan derechos fundamentales, como el reconocimiento legal de las personas trans, trasciende la esfera de lo personal y se inserta en un discurso de odio estructural que legitima la violencia simbólica y material.
Activistas y colectivos LGBTI, hemos señalado que este tipo de expresiones, cuando son amplificadas por figuras públicas e influencers, no solo justifican prejuicios existentes, sino que también intensifican narrativas de odio y pueden desencadenar amenazas, acoso y violencia en espacios digitales y físicos; además del impacto psicologico y emocional que atraviesan las personas trans al leer comentarios celebraciones y comentarios como los que se han dado las últimas semanas. Esta fórmula es perfecta (figura + alcance popular + discurso de odio + plataforma digital sin moderación tropicalizada) para construir una espiral de hostilidad que se alimenta de interacción y visibilidad.
¿Qué responsabilidad tienen las plataformas digitales?
En un ecosistema digital donde millones de personas construyen identidad, comunidad y activismo, las decisiones de moderación de contenidos de gigantes tecnológicos como Meta (propietaria de Facebook, Instagram y Threads) y TikTok tienen consecuencias tangibles para quienes habitan los márgenes de la exclusión social y la violencia estructural.
Meta y TikTok afirman que prohíben el discurso de odio, la incitación a la violencia y la discriminación basada en características protegidas como la orientación sexual o la identidad de género. Por ejemplo, TikTok incluye en sus lineamientos la prohibición de “contenido que promueva violencia, exclusión o discriminación sobre la base de… orientación sexual o identidad de género” y prácticas como misgendering o deadnaming (dirigirse a una persona trans con un nombre anterior), prácticas que diversos estudios y organizaciones como GLAAD, hemos identificado como formas de odio online con impactos psicológicos y sociales profundos, sin embargo, no todo lo que es una norma o politica, se ejecuta. Y si se realiza, no se adapta a los contextos de los territorios donde dichas plataformas tienen un alcance e influencia relevante.
Por ejemplo, desde enero de 2025, Meta ha introducido cambios significativos en su política de moderación que han levantado alarma entre organizaciones defensoras de derechos humanos y activistas LGBTI. Las actualizaciones incluyen, entre otras medidas, la eliminación de secciones que definían claramente el discurso de odio y la introducción de excepciones que permiten alegaciones de “enfermedad mental o anormalidad” basadas en género u orientación sexual —excepciones que no se aplican a otros grupos protegidos.
El mismo GLAAD, ha criticado estas modificaciones por normalizar retóricas transfóbicas y homofóbicas, y debilitar las salvaguardas que protegían a comunidades vulnerables, incluidas las personas LGBTQ+.
El propio Meta Oversight Board, un organismo de supervisión independiente financiado por la empresa, ha cuestionado la forma en que estas reformas se introdujeron, describiéndolas como apresuradas y carentes de una adecuada evaluación de impacto en derechos humanos. El Consejo incluso revisó casos de contenido relacionado con mujeres trans que, según sus criterios, no violaban las políticas pero que generaron fuertes críticas por parte de defensores de la comunidad LGBTI.
El Social Media Safety Index 2025 de GLAAD documenta que las plataformas evaluadas, incluidas Facebook, Instagram y Threads, obtuvieron puntajes bajos en términos de seguridad para usuarios LGBTI y que estos retrocesos en políticas de protección se correlacionan con mayores niveles de discurso de odio y acoso online. TikTok obtuvo una puntuación relativamente más alta, en parte porque mantiene políticas explícitas contra misgendering, deadnaming y promoción de terapias de conversión, aunque también enfrenta desafíos en la aplicación efectiva de sus normas.
Para las personas que sufren discursos de odio dirigidos a su identidad, las consecuencias reales no terminan en el plano digital. El discurso de odio en redes sociales se traduce en violencia física, exclusión social y mayores niveles de estrés psicológico para personas LGBTI+, reduciendo su libertad de expresión y visibilidad pública.
Moderación imperfecta en un mundo imperfecto
Las plataformas combinan sistemas automatizados de inteligencia artificial con equipos humanos para moderar contenido, pero investigaciones académicas han demostrado que estos sistemas pueden tener sesgos significativos y fallar en detectar correctamente el contexto, especialmente cuando se trata de expresiones culturales, reclamadas o específicas del lenguaje de comunidades marginadas.
Esto recalca que la moderación no es solo cuestión de reglas escritas, sino que implica interpretación cultural, lingüística y contextual, algo que los modelos actuales de IA y los sistemas de revisión humana todavía no abordan con suficiente sensibilidad.
Frente a estas tensiones, Meta y TikTok sostienen que sus políticas buscan equilibrar la libertad de expresión con la seguridad de los usuarios. Sin embargo, muchos activistas señalan que en la práctica este equilibrio favorece a quienes propagan discursos de odio sobre quienes los sufren, especialmente cuando las plataformas relajan las normas bajo la bandera de permitir un mayor “debate político”.
No nos quedaremos calladxs y pasivxs
En un contexto nacional e internacional en el que las narrativas anti-trans y anti-LGBTI, inscritas bajo un paraguas más amplio de avance fascistas, han ganado terreno en debates políticos y mediáticos, estos marcos racistas, clasistas, misóginos y LGBTIfóbicos no solo refuerzan prejuicios históricos, sino que legitiman estigmas y profundizan la exclusión de poblaciones históricamente marginadas.
Frente a este escenario, de manera personal y desde Hiperderecho, reafirmamos que no permaneceremos en silencio ni en la pasividad. Compartir estas reflexiones es una forma de insistir en que, con la energía y la resistencia que aún sostenemos, los activismos LGBTI y las personas aliadas nos organicemos para seguir participando activamente en la toma de decisiones que atraviesan la gobernanza de internet.
Esto es especialmente urgente cuando se trata de las metodologías y tecnologías de moderación de contenidos implementadas por plataformas de alto alcance, como las redes sociales, cuyos criterios y algoritmos tienen impactos directos en la seguridad, la visibilidad y la libertad de expresión de nuestras comunidades.
Para profundizar en la relevancia de la gobernanza de internet desde una perspectiva de derechos humanos y diversidad sexual y de género en el Perú, invitamos a revisar el informe Transformación digital en disputa: apropiación tecnológica y activismos LGBTI+ en el Perú, una investigación que analiza cómo las personas y colectivos LGBTIQ+ habitan, disputan y resignifican los espacios digitales en contextos de desigualdad y violencia estructural.
Finalmente, extendemos nuestra solidaridad y acompañamiento a la comunidad LGBTI, y de manera particular a las personas trans en el Perú y la región, que enfrentan cotidianamente entornos hostiles, discursos de odio y múltiples formas de violencia, tanto en el espacio digital como fuera de él.
Gracias por alzar la voz. No nos acostumbraremos al odio on y offline.

Oficial de Activismo
