Existen múltiples iniciativas alrededor del mundo que buscan crear delitos o incrementar las penas de los que ya existen cuando se afecta el honor y la reputación de una persona a través de las redes sociales
1. ¿En qué consiste?
Los delitos contra el honor y la buena reputación son un conjunto de normas creadas con el fin de proteger la imagen pública y privada de individuos u organizaciones frente a cualquier acto que busque menoscabarlos. Dependiendo del país, estas conductas pueden recibir desde sanciones civiles (multas, indemnizaciones) hasta condenas de prisión efectiva. La gravedad de las penas depende del tipo de delito, el nivel de afectación del honor y la situación en que este hecho se ha producido.
En los sistemas de derecho clásicos, los delitos contra el honor suelen clasificarse en tres tipos: injuria, calumnia y difamación. La injuria incluye comúnmente los agravios de cualquier tipo que se profieren de forma personal. La calumnia se produce cuando se atribuye falsamente a otro la comisión de un delito. Finalmente, la difamación es similar a la injuria, pero con la diferencia de que los agravios son hechos públicamente y ante una audiencia considerable.
En los países en donde los delitos contra el honor se castigan penalmente, la irrupción de Internet ha fomentado en ciertos casos la aparición de lagunas de interpretación y vacíos normativos. Esto ha motivado que, en ciertos casos, se modifiquen las normas penales para que incluyan a Internet como medio a través del cual se pueden cometer delitos contra el honor. Pero a la par de esto, también han aparecido propuestas de incrementar las penas en dichos casos, teniendo en cuenta el mayor poder de difusión de esta tecnología.
El Derecho al olvido es una teoría legal que busca usar el sistema de protección de datos personales contra buscadores y medios de comunicación.
1. ¿En qué consiste?
En sentido amplio, la doctrina del Derecho al Olvido apunta a que las acciones o preferencias de un individuo no deberían de quedar registradas para siempre. Se materializa en derechos como la eliminación de condenas penales cumplidas o la de historial crediticio antiguo. En sentido más estricto, es una corriente legal y jurisprudencial que busca usar las normas de protección de datos personales contra nuevos tipos de responsables de tratamiento como buscadores de Internet, webs, blogs, entre otros. En particular, busca que los titulares de datos personales pueden ejercer contra estos agentes su derecho a solicitar la cancelación de sus datos personales en sus bases de datos. Dependiendo del país, esta doctrina ha sido reconocida a nivel administrativo o judicial, y se suele ejercer frente a los intermediarios de Internet.
Posiblemente el caso más famoso es el de Mario Costeja contra Google, en el que el Tribunal de Justicia de la Unión Europea determinó que los ciudadanos europeos tienen derecho a solicitar la desindexación de contenidos que no sean actuales, sean inexactos o no revistan interés público por aplicación directa de la legislación sobre protección de datos personales. A partir de allí, este derecho está reconocida en la Unión Europea y diferentes países de todo el mundo lo han reconocido como parte de su normativa de protección de datos personales a través de modificaciones legislativas o sentencias.
Existe una fuerte presión en el mundo por impedir la libre circulación de ciertos contenidos en Internet a través de la imposición obligatoria de filtros de acceso. Dependiendo de cada país, este tipo de iniciativas pueden ser legítimas y necesarias, pero también abren las puertas de una censura selectiva e indiscriminada
1. ¿En qué consiste?
Los filtros de contenido son herramientas que impiden a un usuario acceder a diferentes tipos de contenido: sitios web, aplicaciones, plataformas, servicios sobre Internet, etc. Existen varias categorías, desde los que se instalan a propósito en una terminal (computadora, teléfono móvil) y por lo tanto solo afectan el tráfico de red local, hasta los que se imponen a gran escala de forma inopinada; como los filtros a nivel de servidor, dirección IP, nombre de dominio, entre otros.
Generalmente, los filtros a gran escala requieren de acceso privilegiado a la infraestructura física o lógica de Internet, por lo que este tipo de medidas suele ser dispuesta por los gobiernos. Los motivos empleados para justificar el bloqueo del libre tránsito de los contenidos es extensa: combate al crimen, seguridad nacional, orden interno, violación a derechos civiles y políticos, disposición judicial, legislación de censura, etc. En países democráticos el filtro de contenidos es excepcional y existen procedimientos específicos para llevarlos a cabo. Por el contrario, en países menos democráticos, el filtro depende en gran parte de la voluntad e intereses de los gobernantes.
En casi todos los casos, los filtros de contenidos son controversiales, en la medida que suponen una de las acciones más graves contra el principio de neutralidad de la red, que prescribe que no debe existir discriminación en la información que se transporta a través de Internet. Aún en aquellos países en donde se ha regulado esta acción y existen mecanismos de control, persiste la duda de si estas medidas son idóneas o siquiera prácticas, teniendo en cuenta la facilidad con la que pueden ser evadidas.
2. ¿Cómo impacta a Internet?
El filtrado de contenidos a gran escala afecta la esencia misma de Internet, pues corta el flujo libre de datos que se comparten a través de las redes. En algunos casos extremos, incluso es posible hablar de la creación de esquemas paralelos a Internet, que aunque se interconectan con el resto de la red, no permiten el acceso a los mismos contenidos que sí están disponibles para el resto de los usuarios.
Dependiendo cómo se lleve a cabo el proceso de filtrado, el bloqueo de un sitio web o una plataforma puede producir el bloqueo de otros servicios asociados. Esto es especialmente sensible cuando se trata de servicios como el correo electrónico o de servidores en la nube, que suelen estar soportados por un pequeño grupo de plataformas.
Así mismo, los filtros pueden suponer daños a la infraestructura física y lógica. El primer caso se da cuando para filtrar contenido se decide cortar la fibra óptica o apagar torres y antenas de telecomunicación, aislando de esta manera zonas determinadas. En el segundo, si los filtros se realizan a nivel de dominio, esto puede interferir con el sistema entero e incrementar el ratio de espera, ralentizando las conexiones dentro y fuera de la zona donde se produjo el bloqueo.
3. ¿Cómo impacta a los usuarios?
Los filtros de contenido, aún los que se ejecutan a través de procesos más o menos legitimados, producen impactos negativos en lo social, económico y político. Algunas de las afectaciones que se pueden mencionar son:
a) Bloqueo de servicios conexos
El filtro de ciertos contenidos puede provocar que otros dejen de estar disponibles. Por ejemplo, si se bloquea un sitio web o una plataforma que soporta correo o nube para otros sitios, estos también serán bloqueados. En ciertos casos, los bloqueos pueden ser mal ejecutados, filtrando el acceso a otros contenidos por error. En países que concentran infraestructura de Internet que conecta a otros países vecinos, el filtro puede incluso afectar a otros países.
b) Distorsiones del mercado
El filtro de ciertos contenido, puede generar alteraciones en los mercados donde existe competencia. Así, el sitio o plataforma filtrada queda en desventaja frente a sus competidores y deja de ser atractivo para los usuarios del lugar donde se producen los bloqueos. Estos filtros también pueden venir en la forma de obligaciones de dar de baja a cierto contenido por parte de las mismas empresas bajo el riesgo de ser penalizadas.
c) Pérdidas económicas y de oportunidad
Existen ciertos servicios de Internet que forman parte de la vida cotidiana de sus usuarios, los cuales se utilizan para comunicación, educación e incluso con fines laborales. Así pues, el filtro de contenido en una aplicación o plataforma puede producir que los usuarios se vean impedidos de utilizarlas, sufriendo pérdidas económicas y de oportunidades.
d) Afectación a derechos humanos
Los filtros limitan los espacios en Internet en donde las personas pueden ejercer diferentes tipos de derechos como la libertad de expresión, reunión, trabajo, etc. Así pues, cuando un sitio web o aplicación se bloquea, los usuarios de estas plataformas pierden oportunidades de poder conectarse y ejercer dichos derechos.
4. ¿Dónde ocurre?
En varios países del mundo existen filtros al contenido que circula en Internet. Probablemente los más extendidos son aquellos que se ejecutan sobre contenido manifiestamente ilegal como la pornografía infantil o la propaganda extremista o de odio. Sin embargo, aunque estas medidas parecen necesarias y útiles, a veces se han configurado de una forma que ha permitido que a esta lista se vayan sumando otro tipo de filtros, por razones más vagas como las infracciones a los derechos de autor, las noticias falsas, etc. Por ejemplo, en China actualmente están filtrados todos los servicios de Google, debido a que esta empresa permitía el acceso a contenidos que el gobierno chino quería censurar por motivos de seguridad nacional.
5. ¿Ocurre en el Perú?
Sí, en el Perú existen algunas leyes que establecen la obligación legal de colocar filtros en Internet. Además de ello, algunas entidades han ejercido la facultad de solicitar filtros específicos, empleando una interpretación extensiva de sus mandatos. En el primer caso se encuentra la Ley N° 28119, aprobada en 2003 y luego modificada en varias ocasiones, crea la obligación de colocar filtros de contenido en las cabinas públicas de Internet con el fin de evitar que los menores de edad accedan a páginas de contenido pornográfico. En el segundo caso están acciones como las realizadas por el organismo supervisor de la competencia, Indecopi, que ha solicitado en varias oportunidades el bloqueo de diferentes sitios web que infringen normas de protección de derechos de autor.
Recientemente también se han impuesto filtros al contenido de Internet a través de normas sectoriales. Por ejemplo, en 2019 el Ministerio de Transporte y Comunicaciones emitió el Decreto Supremo Nº 035-2019-MTC, que dispone el bloqueo de aplicaciones y sitios web donde se ofrezca el servicio de taxi en moto. Es posible que, de prosperar este tipo de medidas, otras entidades decidan también ordenar filtros totales o parciales a tecnologías que podrían servir para infringir normas, incluso administrativas.
Esta entrada es parte de nuestra serie especial Internet Somos Todas, un vistazo a las principales tendencias regulatorias globales que pueden poner en riesgo Internet como lo conocemos.
La moderación de contenidos es una herramienta empleada con el fin de excluir o impedir el acceso a contenido específico dentro de una plataforma o servicio web. Esta prerrogativa suele ser empleada de forma discrecional por las empresas a través de sus políticas de uso o términos del servicio, pero a veces también vienen impuestas por leyes y, en algunos casos, se ejercen por causa de la presión de los gobiernos.
1. ¿En qué consiste?
A diferencia de los bloqueos o filtros de contenido, que se realizan sobre la capa física o lógica de Internet, las políticas de moderación de contenido son un conjunto de normas generalmente públicas que condicionan la forma en que los usuarios crean o comparten contenido en una plataforma de Internet. Estas políticas suelen venir en la forma de términos y condiciones, normas de comunidad, políticas de uso aceptable del servicio, entre otros.
Igual que los filtros locales, la eficacia de la moderación de los contenidos usualmente se restringe a la plataforma en donde estos se encuentran alojados, por ejemplo: una red social, una aplicación, un sitio web, etc. No obstante, dependiendo del tipo de moderación y la importancia de la plataforma, los efectos de aplicar estas acciones pueden ir desde molestias y una mala calidad del servicio, hasta afectaciones graves a los derechos humanos.
Los actos de moderación pueden ir desde llamadas de atención o amonestaciones, hasta el bloqueo de contenidos y expulsión de la plataforma de los usuarios que crean o comparten cierto tipo de contenido. Además, cuando la moderación se da como producto de una obligación legal o por actos de presión de los gobiernos, sus efectos pueden ir más allá de Internet y representar un peligro para la integridad de los usuarios.
2. ¿Cómo impacta a Internet?
Al ser una medida que solo opera respecto de plataformas específicas, no afecta directamente la infraestructura física o lógica, siempre y cuando la moderación no devenga en la realización de bloqueos o filtros a gran escala. No obstante, sí disminuye la calidad del acceso, la diversidad del contenido al que se accede y en algunos casos podría poner en situación de desigualdad a los usuarios que publican y acceden a información a través de plataformas sociales y de contenido generado por usuarios.
3. ¿Cómo impacta a los usuarios?
El impacto que tiene la moderación de los contenidos depende en gran medida de cómo se ejecutan, pudiendo afectar a grupos específicos o comunidades globales, dependiendo del nivel de uso de las plataformas afectadas por la moderación de los contenidos. Además, la forma misma en la que se modera el contenido incide en el impacto, pues no es lo mismo ocultar de la vista un comentario para que un usuario específico no lo vea, que dar de baja una publicación y hacerla inaccesible para todos. Algunas de las afectaciones más comunes son:
Afectación a derechos humanos
Las políticas de moderación limitan el ejercicio de diferentes derechos, principalmente el de libertad de expresión. No obstante, es necesario recordar que al ser espacios privados de comunicación, las plataformas también tienen el derecho de proponer sus propias reglas, entre ellas las de censurar cierto contenido en contextos previamente identificados. Así, por ejemplo, si un usuario se crea una cuenta en una red social en donde está prohibido subir pornografía y quiere hacerlo, el hecho de que el contenido se retire no lesiona significamente el derecho de dicho usuario, pues este puede elegir otra plataforma donde estas acciones sí están permitidas.
No obstante, cuando la política de moderación es abusiva o arbitraria en su diseño o aplicación y la plataforma aloja grandes comunidades de usuarios, las afectación a la libertad de expresión se torna relevante. En ese sentido, pese a ser una empresa privada, es factible exigirle que respete la observancia de los derechos humanos en la forma en que realiza sus operaciones o crea sus normas comunitarias. Puede ocurrir también que la moderación se produzca en el contexto de una ley nacional u obligaciones impuesta los gobierno de forma democrática o incluso a través de coerción directa.
Distorsiones del mercado
Ciertas políticas de moderación de contenido, especialmente aquellas impuestas externamente, es decir por parte de gobiernos u otras entidades diferentes a las plataforma donde se realiza la moderación, pueden generar distorsiones en el mercado. Esto pues puede ocurrir que solo ciertas plataformas sean afectadas por las obligaciones de moderación, lo que eventualmente las hace menos atractivas frente a sus competidores.
También puede ser que, aunque toda una categoría de plataformas estén afectadas por obligaciones de moderación, esto mismo suponga la creación de una barrera de entrada al mercado para otros competidores, que no cuenten con los recursos para poder cumplir con estas normativas o afrontar las multas y otras sanciones en caso de no hacerlo.
4. ¿Dónde ocurre?
Casi todas las plataformas que ofrecen productos o servicios sobre Internet tienen Términos y Condiciones de Uso, las cuales establecen las reglas que deben seguir sus usuarios si quieren utilizarlas. Por ejemplo, las políticas sobre contenido aceptable en Facebook, Youtube o Twitter están constantemente bajo revisión y polémica. Diversos espacios académicos y grupos de activistas piensan que estas reglas son demasiado tolerantes con ciertos tipos de contenidos al tiempo que otros sostienen que imponen restricciones innecesarias al libre flujo de información.
Actualmente, no existen normas locales que establezcan obligaciones específicas de moderar contenidos en Internet. No obstante, sí existen leyes de aplicación general que podrían provocar que se realice cierta moderación en plataformas peruanas como en casos como discriminación, pornografía infantil, entre otros.
Esta entrada es parte de nuestra serie especial Internet Somos Todos, un vistazo a las principales tendencias regulatorias globales que pueden poner en riesgo Internet como lo conocemos.
A inicios del mes de enero de 2020, se promulgó el Decreto de Urgencia Nº 007-2020, que crea el Marco de Confianza Digital. Esta nueva norma continúa la propuesta del Ejecutivo de organizar el ecosistema de ciberseguridad peruano desde el Estado.
Gobierno Digital y Confianza Digital
Se trata de una norma de continuación, que afianza el camino iniciado varios años atrás por la Secretaría de Gobierno Digital (SEGDI) de la Presidencia del Consejo de Ministros con el fin de dirigir la evolución del ecosistema digital en el país. Como está escrita, esta propuesta no es solo un paso más en el camino de la configuración del esquema de Gobierno Digital, sino también una respuesta del gobierno a las iniciativas presentadas por el Congreso disuelto, específicamente la Autógrafa de la Ley de Ciberseguridad, de la cual ha tomado casi todos sus elementos.
Pero, ¿qué es la Confianza Digital? Podemos partir de la definición que la SEGDI misma propone, viéndola como “la confianza en el entorno digital o también denominada confianza digital emerge como resultado de cuán veraz, predecible, seguro y confiable son las interacciones digitales que se generan entre empresas, individuos o cosas.” Este concepto ya se había establecido previamente en el Decreto Supremo que regula la Seguridad Digital, que es la norma que sienta las bases para el desarrollo de la ciberseguridad desde el Estado.
Se señala que la Confianza Digital establece diferentes mecanismos de actuación en varias áreas, siendo las más importantes: Protección de datos, transparencia, seguridad digital y protección del consumidor en el entorno digital. En cada una de ellas ha dispuesto medidas que afectan no solo a actores del Estado sino también a los privados, como detallo a continuación.
Durante el 2019, varios proyectos para regular diferentes tecnologías se quedaron detenidos tras la disolución del Congreso. Luego de las elecciones de enero, muchos de ellos (y algunos nuevos) podrían volver este 2020.
¿Qué nos dejó el Congreso en el 2019?
Nuestra agenda digital del año pasado tuvo una significativa cantidad de propuestas en diferentes campos de la tecnología, centradas en su mayoría en la regulación de las plataformas que operan sobre Internet. A lo largo del año comentamos varias, pero también hubieron otras que pasaron más o menos desapercibidas. Estas son algunas de ellas:
A mediados del año pasado, la Comisión de Defensa del Congreso impulsó diferentes iniciativas relacionadas a la ciberseguridad, esfuerzo que concluyó en setiembre con la aprobación de dos proyectos de ley; uno sobre ciberdefensa y el otro sobre ciberseguridad. Sin embargo, aunque el primero fue promulgado, el segundo fue observado por el Ejecutivo y, pese a que se señaló que se insistiría en su aprobación, luego de la disolución esta norma quedó en el limbo. En Hiperderecho hicimos el recuento completo de esta historia.
Las iniciativas para incrementar las penas por delitos cometidos a través del uso de las TIC ha sido una constante no solo en el Congreso disuelto, sino en varios de los anteriores, al menos en lo que se refiere a delitos contra el honor. En 2019, hubo al menos dos propuestas de este tipo. También escribimos un artículo al respecto.
En septiembre participamos de la consulta pública organizada por la Dirección General de Protección de Datos Personales (DGPDP) sobre su Proyecto de “Directiva para el Tratamiento de Datos Personales mediante Sistemas de Videovigilancia”. Este esfuerzo busca señalar los límites que deben imponerse a estas tecnologías para que su uso no afecte la privacidad más allá de lo estrictamente necesario para garantizar la seguridad pública.
Algunos de los aspectos principales del borrador de la Directiva eran que: (a) regulaba en qué situaciones estaba permitido tratar datos personales a través de la grabación de cámaras de videovigilancia, (b) establecía una serie de principios que debían ser respetados a la hora de realizar el tratamiento de los datos, y, (c) señalaba algunas obligaciones específicas respecto del tipo de cámaras como el plazo de almacenamiento, los protocolos de seguridad, etc.
A mediados de octubre, el programa Cuarto Poder dio a conocer la primera condena con prisión efectiva en el Perú por el delito de acoso sexual a través de Internet. Consideramos positivo que, a partir de la promulgación del Decreto Legislativo N° 1410 a finales de 2018, y gracias a los esfuerzos de la sociedad civil y el activismo feminista, la violencia que se ejerce a través de medios digitales deje de quedar impune y se proteja a las víctimas* ante estas situaciones. Sin embargo, como en muchos otros casos de violencia de género en línea, creemos que todavía hay un largo camino por recorrer en la búsqueda de justicia. Con el fin de ofrecer un panorama más claro sobre este caso (y lo que podríamos ver en el futuro), hemos elaborado un análisis desde una perspectiva legal y social. Esta es la primera parte de este análisis y nos enfocamos en lo legal.
El caso
La sentencia, que ha sido publicada en el sitio web del Poder Judicial, expone los siguientes hechos. Desde julio de 2018, Alex Manuel Álvarez Silvera, empezó a hostigar a su ex pareja, una menor de edad a quien le exigía insistentemente retomar la relación. Ante su negativa, Álvarez empezó a acosarla por diferentes medios, pero principalmente a través de Whatsapp, enviando mensajes intimidatorios cuya gravedad fue escalando y que incluían todo tipo de agravios personales (“Perras como tú no deben vivir”), chantajes (“No sabes lo que te espera puta de mrd, la perra de monserrat”) e incluso amenazas de muerte a la víctima y su madre (“Y dale toma foto bb toma tu Scream para irme a la cárcel cuando te mate y así pueda ser el asesino que tanto quiero ser, si tengo que irme a la cárcel para que las perras como tú no vivan lo haré»).
Mediante amenazas, Álvarez llegó a obtener imágenes con contenido erótico de la víctima, las cuales amenazó de difundir públicamente si esta no accedía a tener relaciones sexuales con él. Toda esta situación, que causó un grave deterioro psicológico de la víctima, alcanzó el punto más álgido cuando esta decidió dejar de asistir al colegio por temor a encontrarse a su agresor y la madre tomó conocimiento de los hechos, pues este último le envió las imágenes de contenido erótico (“Su hija no es virgen desde el febrero del 2017 si no me cree hágale una prueba toxicológica por los dos lados”). Tras esto, la madre apoyó la denuncia de su hija y al ser intervenido, Álvarez no tuvo más alternativa que confesar el delito al habérsele intervenido el teléfono en donde aparecían todas las conversaciones que mantuvo con la víctima. Tras un proceso breve, ha sido sentenciado a 4 años y 8 meses de prisión efectiva. Este es el reportaje de Cuarto Poder que brinda más información sobre el caso.
¿Qué significa esta sentencia desde un punto de vista legal?
Uno de los hallazgos de la primera investigación que realizamos sobre Violencia de Género en Línea fue precisamente que la ruta legal de denuncia presentaba un problema respecto de la tipificación de los delitos. Conductas como el acoso, el chantaje sexual o la pornografía de venganza no eran delitos específicos y era necesario invocar tipos genéricos (Por ejemplo: lesiones, violación de la intimidad, tráfico ilegal de datos, etc.) para que la víctima pudiera por lo menos presentar su denuncia y esta no fuera rechazada por las autoridades por ser atípica.
A partir de la entrada en vigencia del Decreto Legislativo N° 1410, se produjo un giro respecto de la situación anterior. Ahora el acoso, acoso sexual, difusión de imágenes íntimas sin consentimiento (pornografía de venganza) y chantaje sexual son delitos en sí mismos. No obstante, aún quedaba por ver cómo el sistema de justicia y sus operadores iban a responder a la nueva legislación. En ese sentido, la reciente sentencia nos permite hacer esta valoración y proyectar qué es lo que podemos esperar en el futuro en estos casos:
Para empezar, hemos detallado en el siguiente cuadro, cuáles son las conductas cometidas (y admitidas) por el sentenciado y en qué delitos pueden ser subsumidas, antes y después de promulgado el Decreto Legislativo N° 1410.
No
Conducta del agresor
Calificación penal antes del DL N° 1410
Calificación penal después del DL N° 1410
1
El agresor profiere insultos machistas y misóginos enviados por medio de Whatsapp y de forma presencial hacia la víctima
No existe tipificación específica, pudiendo emplearse estratégicamente los siguientes delitos genéricos: Lesiones graves (Artículo 121 del CP) en el caso que sea posible probar daño psicológico grave; o la injuria (Artículo 130 del CP), que se tramita a través del proceso de querella, lo que significa que la víctima debe contratar un abogado para litigar su caso sin apoyo del Estado.
Ahora existe un tipo penal específico para esta conducta:
Artículo 151-A.- Acoso: El que, de forma reiterada, continua o habitual, y por cualquier medio, vigila, persigue, hostiga, asedia o busca establecer contacto o cercanía con una persona sin su consentimiento, de modo que pueda alterar el normal desarrollo de su vida cotidiana
2
El agresor amenaza por Whatsapp a la víctima señalando que ejercerá violencia física sobre esta y/o sus familiares si no retoma la relación.
La tipificación más cercana a esta conducta es la coacción (Artículo 151 del CP), que tiene una pena máxima de dos años. En ciertos casos, podría incluso utilizarse el delito de extorsión (Artículo 200 del CP), pero solo cuando el agresor solicita una ventaja económica o de otro tipo.
Las amenazas de este tipo se pueden seguir denunciando como coacción, pero ahora también como acoso (Artículo 151-A del CP).
3
El agresor amenaza por Whatsapp a la víctima y la conmina a realizar actos de índole sexual como mantener relaciones sexuales o mostrarle sus partes íntimas a través de videollamada
Como en el caso anterior, se puede emplear el delito de coacción. Más específico podría ser el delito informático de Proposiciones a niños, niñas y adolescentes con fines sexuales por medios tecnológicos “Grooming” (Artículo 5 de Ley de Delitos Informáticos). Además, si el acto sexual se consuma con amenazas, podría configurarse también el delito de violación sexual (Artículo 170 del CP). Por otro lado, si el material íntimo se entrega a terceros podría configurarse el delito de pornografía infantil (Artículo 183-A) por ser la víctima menor de edad. No obstante, este último delito no alcanza al agresor pues habría obtenido el material con consentimiento de la víctima.
Ahora existe un tipo penal específico para esta conducta:
Artículo 176-B.- Acoso sexual: El que, de cualquier forma, vigila, persigue, hostiga, asedia o busca establecer contacto o cercanía con una persona, sin el consentimiento de ésta, para llevar a cabo actos de connotación sexual
Sigue siendo factible denunciar también violación sexual y pornografía infantil en este caso.
4
El agresor aprovecha la videollamada en la que la víctima muestra sus partes íntimas para tomar capturas de pantalla y amenaza con difundirlas
No existe tipificación específica, salvo aplicar el delito de pornografía infantil, pero que no alcanza al agresor pues existe un vacío legal que penaliza a quienes reciben el contenido pero no a quien lo ha obtenido, aparentemente con consentimiento. No aplica el delito de violación de la intimidad pues el agresor ha formado parte del acto de índole sexual.
Aunque este hecho no se consuma, ahora existe un tipo penal específico para esta conducta:
Artículo 154-B.- Difusión de imágenes, materiales audiovisuales o audios con contenido sexual
El que, sin autorización, difunde, revela, pública, cede o comercializa imágenes, materiales audiovisuales o audios con contenido sexual de cualquier persona, que obtuvo con su anuencia.
5
El agresor amenaza con difundir el contenido íntimo si la víctima no acepta encontrarse con él o realizar otros tipo de acciones
Se puede emplear el delito de coacción. El delito de pornografía infantil solo aplica para quienes reciben el material. No aplica el delito de violación de la intimidad pues el agresor ha formado parte del acto de índole sexual.
Ahora existe un tipo penal específico para esta conducta:
Artículo 176-C.- Chantaje sexual
El que amenaza o intimida a una persona, por cualquier medio, incluyendo el uso de tecnologías de la información o comunicación, para obtener de ella una conducta o acto de connotación sexual. La pena privativa de libertad será no menor de tres ni mayor de cinco años e inhabilitación, según corresponda, conforme a los incisos 5, 9, 10 y 11 del artículo 36, si para la ejecución del delito el agente amenaza a la víctima con la difusión de imágenes, materiales audiovisuales o audios con contenido sexual en los que esta aparece o participa.
¿Qué reclamamos exactamente? La LPDP es la norma que establece el régimen aplicable al tratamiento de los datos personales en el país. Entre otras cosas, allí se señala qué principios y condiciones debe respetar quien solicite, almacene o utilice los datos de terceros. En nuestra denuncia señalamos que la filtración de la ONPE infringió hasta tres principios de la LPDP, además de la Directiva de Seguridad dictada por la APDP. Los principios cuyo desconocimiento denunciamos fueron los de consentimiento, proporcionalidad y seguridad. En el caso del consentimiento, sostuvimos que aunque la ONPE tiene como fin llevar un registro del padrón electoral, utilizar esta base de datos para su plataforma de inscripción a la Hackatón era un uso diferente al que está autorizado por ley. Por lo tanto, no tenía el consentimiento expreso de los ciudadanos para dicho uso. Ya en el pasado la APDP ha multado a entidades públicas y privadas por este motivo.
Respecto de la proporcionalidad, sostuvimos que, aun asumiendo que la ONPE podía usar los datos personales del padrón electoral para la plataforma de la Hackatón, este uso era desproporcionado. ¿Por qué? La plataforma de la Hackatón tenía un formulario de inscripción que, cuando se colocaba el número de DNI, automáticamente completaba otros datos como nombres y apellidos, sexo y fecha de nacimiento. Ahora bien, dado que los números de DNI en Perú son correlativos, bastaba con cambiar un dígito para poder acceder a los datos de otras personas. Con un simple programa, esta operación se podía automatizar y descargar el padrón entero en algunas horas. Frente a este potencial peligro, la ganancia propuesta por la ONPE resultaba pírrica: validar la identidad de quien se inscribía y ahorrar tiempo llenando el formulario.
Sobre el principio de seguridad, sostuvimos que no se habían implementado suficientes medidas de seguridad para proteger los datos personales. Aún asumiendo que la ONPE tenía permiso para usar los datos para su plataforma y que valía la pena emplearlos para autocompletar formularios, es imposible dejar de señalar que no existía ninguna medida de protección en la plataforma que impidiera que alguien usara ese sistema para bajarse la base de datos completa. No hace falta decir que un agente malicioso en poder de esa información (un acto de por sí ilegal) podía utilizarla para diferentes fines, desde enviar SPAM hasta ejecutar fraudes.
Finalmente, sostuvimos que la ONPE infringió también la Directiva de Seguridad dictada por la APDP pues esta disposición señala expresamente las medidas mínimas de seguridad que deben tomar entidades públicas y privadas que almacenen o traten datos personales. En este caso en específico, cuando se trata de datos tratados por entidades públicas en cumplimiento de una ley, el nivel de seguridad asignado es el crítico, que es el grado más alto. En dicha situación, se exige que se adopten medidas como la autenticación de identidad, los niveles de permisos, las contraseñas seguras, etc. Nada de esto se hallaba presente en la plataforma de la Hackatón cuando descubrimos el filtrado.
La decisión de la Autoridad
Cuando se realiza un procedimiento de fiscalización a partir de una denuncia, la APDP procede a evaluar a la organización denunciada con el fin de conocer los hechos, tras lo cual realiza un evaluación técnica y legal que determina si es necesario iniciar un procedimiento administrativo. En el caso de la filtración de la ONPE, ante la claridad de lo ocurrido, dicho procedimiento se inició por las infracciones antes descritas, tras lo cual la APDP emitió su pronunciamiento.
Dado que nuestra denuncia señalaba diferentes infracciones a la LPDP que la ONPE habría cometido, la APDP se ha pronunciado sobre cada una, estableciendo si efectivamente se cometió la infracción o no. En resumen, la APDP ha dicho en su Resolución Final que la ONPE es responsable por infringir el principio de seguridad establecido en la LPDP y también algunas disposiciones de la Directiva de Seguridad. Por ello, además de ordenar diferentes medidas correctivas, ha impuesto una multa simbólica para dicha entidad pues afirma que la falta cometida no es grave. Respecto de los principios de consentimiento y proporcionalidad, ha determinado que estos no han sido infringidos y por lo tanto ha desestimado esa parte de la denuncia.
El razonamiento de la APDP para descartar que se haya infringido el principio de consentimiento fue que la ONPE sí tenía derecho a emplear la base de datos del padrón electoral, pues eventos como la Hackatón forman parte de las funciones que esta entidad tiene autorizados por ley. En el caso del principio de proporcionalidad ha dicho algo similar, que debido a que esta entidad solo estaba cumpliendo con sus funciones, no se ha extralimitado al emplear sus bases de datos, aunque lo hubiera hecho de forma insegura.
No sabemos aún si la ONPE apelará esta decisión. Independiente de ello, esperamos que este suceso sea un primer paso para lograr un mayor claridad respecto de las obligaciones de las entidades públicas sobre la protección de nuestros datos. Es una pequeña pero importante victoria para todos los ciudadanos.