Importando leyes: nueva Ley de IA europea, nuevo Proyecto de Ley para regular la IA en el Perú

El día de hoy 13 de marzo, tras el debate en la sesión plenaria, el Parlamento Europeo aprobó con 523 votos a favor, 46 en contra y 49 abstenciones la Ley de Inteligencia Artificial de la Unión Europea (conocida también como el AI Act). Asimismo, exactamente hace un mes, el pasado 13 de febrero, el partido político Podemos Perú presentó el Proyecto de Ley 7033/2023-CR, Ley que Regula el Desarrollo y Uso de la Inteligencia Artificial en el Perú. Un proyecto que tiene una clara influencia de la Ley europea y con un objetivo similar a la ya vigente Ley 31814, Ley que promueve el uso de la Inteligencia Artificial en favor del desarrollo económico y social del país, publicada en julio del año pasado (2023). En este artículo analizamos el Proyecto de Ley, su relación con la actual Ley 31814, y su inspiración: el AI Act.

El Proyecto que busca regular el desarrollo y uso de IA en el Perú

El objetivo del Proyecto de Ley 7033/2023 es establecer el marco legal para el uso y regulación de la IA en el territorio nacional, con el fin de garantizar la protección de los derechos fundamentales, la privacidad y la seguridad de los ciudadanos. Y, en consecuencia, fomentar la transparencia, ética, innovación y progreso en el campo de la inteligencia artificial, evitando riesgos y consecuencias negativas.

En cuanto a su estructura, el proyecto cuenta con 29 artículos agrupados en títulos que abordan los siguientes temas: ámbito de aplicación, definiciones y principios (Títulos I y II); gestión de riesgos, regulación de la IA y responsabilidades por daños (Títulos III, IV, V y VII); cooperación y estándares internacionales (Título VI); e investigación, desarrollo y capacitación (Título VIII).

Analizando la inicIAtiva

Si bien este Proyecto coincide en su objeto con la Ley 31814, Ley que promueve el uso de la Inteligencia Artificial en el Perú, se pueden identificar algunas diferencias entre ambos. En primer lugar, la Ley vigente es mucho más sucinta en su regulación, cuenta con un único título y dos capítulos, dedicados a las disposiciones generales y a la autoridad nacional. En segundo lugar, si bien la Ley 31814  reconoce como un principio para el desarrollo y uso de la inteligencia artificial a los estándares de seguridad basados en riesgos, en comparación con el reciente Proyecto de Ley 7033/2023-CR, su enfoque basado en riesgos es rudimentario.

Inclusive, la perspectiva sobre la IA es diferente en ambos textos. La definición de IA por parte de la vigente Ley 31814 es “tecnología emergente de propósito general que tiene el potencial de mejorar el bienestar de las personas, contribuir a una actividad económica global sostenible positiva, aumentar la innovación y la productividad, y ayudar a responder a los desafíos globales clave” (artículo 3, inciso a). Mientras tanto, el citado Proyecto de Ley define a la IA como “la combinación de algoritmos planteados con el propósito de crear máquinas que presenten las mismas capacidades que el ser humano” (artículo 3, primer párrafo). Así, en el Proyecto se muestra un concepto más neutral, que no enfatiza los beneficios de la IA, sino que toma una posición netamente técnica y advierte sobre los riesgos. Para ello, agrega en su lista de definiciones términos como “riesgo”, “sesgo de automatización”, “uso indebido razonablemente previsible”, entre otros. Asimismo, esto se evidencia de la estructura del Proyecto, que dedica cuatro títulos específicos a la regulación y responsabilidad sobre los riesgos de la IA (el Título III, IV, V y VII).

La Unión Europea estuvo aquí

Los principales dos contrastes entre el Proyecto de Ley 7033/2023 y la Ley 31814 (una definición neutral de IA y un minucioso enfoque basado en riesgos) son características clave del AI Act  (2021/0106  COD), propuesto el 23 abril de 2021 por la Comisión Europea. La versión final del AI Act, de febrero de 2024, fue debatida ayer en la sesión plenaria del Parlamento Europeo y aprobada hoy, quedando pendiente su publicación en el diario oficial. Esta propuesta legislativa tuvo como objetivo general armonizar las reglas sobre IA en la Unión Europea.

Para el 2021 ya existían otras regulaciones previas como el Plan Coordinado sobre la IA de 2018 y el Libro Blanco sobre la IA de 2020, ambos de la Comisión Europea. Sin embargo, estos documentos tenían una naturaleza preparatoria o transitoria y era necesario homogeneizar la regulación sobre IA. Ello en atención a su rápido desarrollo, a los riesgos que representaba para los derechos humanos y al interés de convertir a Europa en un mercado seguro para la inversión y el desarrollo de IA, especialmente frente a USA y China.

En su versión final, el AI Act destaca por centrarse en los sistemas de inteligencia artificial de alto riesgo. Para lo cual, establece cuatro clasificaciones de riesgo: (i) mínimo o sin riesgo, (ii) riesgo de transparencia (p.e. para los bots o deepfakes), (iii) riesgo alto (p.e, para los dispositivos médicos), y (iv) riesgo inaceptable. Sólo este último está prohibido, mientras que los otros dos se encuentran permitidos, pero sujetos a obligaciones específicas; y , por último, el riesgo mínimo está permitido sin restricciones.

Sumado a ello, la norma prescribe prohibiciones para casos específicos de uso de IA.1 Por ejemplo, prohíbe la puntuación social y el uso de IA utilizada para manipular o explotar las vulnerabilidades de los usuarios o para utilizar el reconocimiento de emociones en el trabajo y escuelas. También se prohíbe la extracción no selectiva de imágenes faciales de internet o de tecnologías de videovigilancia con el fin de ampliar o crear bases de datos de reconocimiento facial. De igual forma, limita el uso de sistemas de identificación biométrica por parte de las fuerzas del orden.2 Asimismo, el AI Act dispone de obligaciones y sanciones proporcionales al tamaño de la institución, especialmente para los sistemas de IA de alto riesgo.

No es plagio, es copia

La mayoría de las disposiciones descritas del AI Act —o todas— se encuentran también en el Proyecto 7033/2023-CR, Ley que Regula el Desarrollo y Uso de la Inteligencia Artificial en el Perú. Por ejemplo, el artículo 12 del Proyecto hace una lista de las prohibiciones y/o restricciones en el uso de inteligencia artificial —aunque no especifica claramente en qué casos se prohíbe y en cuáles se restringe—. En la lista se encuentra la prohibición del reconocimiento de emociones en el trabajo y escuelas, la prohibición de creación de bases de datos de reconocimiento facial, la prohibición de sistemas de puntuación social, entre otros. No obstante, muchas de estas disposiciones son agregados incompletos de su norma original, la versión europea. Como muestra de ello, el Proyecto de Ley peruano prohíbe “utilizar sistemas que puntúan en función de sus comportamientos o características personales”. Sin embargo, el IA Act precisa que sólo estarán prohibidos cuando estos  conduzcan a resultados perjudiciales ligados a la discriminación de ciertos grupos.

Por otro lado, el Proyecto de Ley 7033/2023 también recoge uno de los principales pilares del IA Act: las cuatro clasificaciones de riesgo se encuentran previstas en el artículo 10, con la denominación de insignificantes, limitados, elevados e inaceptables. Pero, en esta versión peruana, los riesgos inaceptables podrían ser – contradictoriamente- aceptables. En ese sentido, el Proyecto dispone que la identificación de un riesgo inaceptable podría tener como resultado o la prohibición del sistema de IA, o la adopción de medidas de mitigación. Aunque, nuevamente, no desarrolla cuáles serían los criterios para optar por una u otra alternativa. Mientras que la normativa europea sí prohíbe los riesgos inaceptables.

Si bien no es en sí mismo un problema que el Proyecto de Ley tome como inspiración el AI Act, sí representa un problema la importación legislativa sin un análisis crítico sobre la regulación normativa nacional o regional de América Latina y el Caribe en IA. Además del AI Act, existe la Recomendación sobre la ética de la IA de la UNESCO del 2022, el Proceso de Hiroshima del Grupo de los Siete (G7) sobre IA generativa del 2023, y la Declaración de Santiago para promover una IA ética en América Latina y el Caribe, del 2023.

Una política legislativa seria debería realizar un análisis detallado de derecho comparado de cada uno de estos marcos normativos, a fin de determinar cuál sería más beneficioso de implementarse, de acuerdo con la metodología jurídica correspondiente y a la realidad social, económica, política, y tecnológica, tanto del Perú como de la región. La agenda en IA europea no es la misma que la agenda regional que, por ejemplo, prioriza el fortalecimiento de capacidades ante las desigualdades que se reflejan en la brecha digital; o se caracteriza por limitaciones de presupuesto en el sector público, o de financiamiento para el estudio y desarrollo de la IA en el sector privado (PYMES, academia, organizaciones de sociedad civil).

Asimismo, cabe tomar en cuenta que en nuestros países nos enfrentamos a retos específicos no contemplados en la realidad europea. Por ejemplo, no se realiza mención a la gestión de conocimientos de pueblos indígenas o comunidades campesinas por parte de sistemas de inteligencia artificial; así como su desarrollo, regulación y uso. Tampoco se prioriza un enfoque tomando en cuenta los contextos de autoritarismo en la región, la debilidad de nuestras instituciones, y la ausencia de mecanismos efectivos para el control de un posible uso político de la IA.

Finalmente, cabe recordar que el IA Act es, también, una respuesta geopolítica del bloque económico europeo frente al poder tecnológico de potencias como Estados Unidos y China en la materia. En este sentido, cabe preguntarnos si la respuesta regulatoria que deben de dar los países de nuestra región debe ser la misma que la dada por uno de los bloques económicos del Norte Global o buscar una propia. ¿Cuál es el rol y el posicionamiento que debe tomar nuestra región frente a la discusión global en torno a la Inteligencia Artificial? ¿Qué rol juega la relación de poder Norte-Sur en materia de tecnología en este ámbito? Son algunas de las preguntas que una regulación en materia de IA debería de responder.

Una fiesta sin invitados

Una influencia europea que sería bien recibida en el proceso legislativo del Congreso peruano, y que por el momento no se ha hecho presente, es la consulta a las múltiples partes interesadas del sector público y privado. Tales como los gobiernos, autoridades locales, organizaciones comerciales, interlocutores sociales, expertos, académicos, sociedad civil y ciudadanía en general. Todos los documentos preparatorios que sirvieron como base para el diálogo y debate del AI Act tuvieron previamente un proceso de consulta abierta donde participaron los citados actores.

Así, por ejemplo, la propuesta legislativa inicial, presentada en abril de 2021, recibió 1215 contribuciones, a través de una consulta pública en línea que estuvo disponible durante febrero a junio de 2020. Inclusive, en la introducción de esta propuesta se detalla información desglosada sobre la representación que obtuvo cada sector de acuerdo a las contribuciones.

En el caso peruano, la vigente Ley 31814 se publicó sin consulta. Un debate abierto hubiese podido asegurar una mejor regulación —además de garantizar el principio democrático y la legitimidad—, por la retroalimentación fruto del diálogo entre la comunidad técnica, académica, y las organizaciones de la sociedad civil, del sector empresarial y del sector público, actores fundamentales que cuentan con experiencia y especialización en la materia. Es importante que esta mala práctica no se replique en el Proyecto de Ley 7033/2023-CR ni en futuros proyectos.

Resulta sorpresivo además que estos proyectos de ley no se preocupen por recibir contribuciones de la ciudadanía, mientras que sí se sigue ese procedimiento en órganos del Poder Ejecutivo como la Autoridad Nacional de Protección de Datos Personales, en el proceso de aprobación del Nuevo Reglamento de la Ley de Protección de Datos Personales, por ejemplo. Si bien en este segundo caso existe la obligación por ley de consultar por un plazo de 15 días hábiles, con mayor razón el Congreso tiene la obligación de consultar, de buscar el diálogo y cumplir así con su función principal de representación.

Iniciativas superpuestas

El objetivo del Proyecto de Ley 7033/2023-CR de regular el uso de IA en el territorio nacional se superpone al de la Ley 31814, que promueve el uso de la Inteligencia Artificial en favor del desarrollo económico y social del país. No obstante ello, el citado Proyecto de Ley sólo menciona a la Ley 31814 como parte de su marco normativo, indicando únicamente su objetivo. Es decir, no se pronuncia respecto a artículos que puedan repetirse o contradecirse, y, por ende, no prevé tampoco artículos derogatorios a la Ley 31814. Eso nos lleva a preguntarnos, ¿No debió ser este proyecto una propuesta de modificación a la vigente y recientemente aprobada Ley 31814? O, en caso el limitado contenido de la Ley 31814 sea un obstáculo insuperable para la introducción de reformas que le permitan alcanzar su objetivo, ¿sería mejor derogar esta norma? Recordemos que esta Ley tiene pendiente la publicación de su reglamento en los próximos meses.

Es claro que ante el auge de la inteligencia artificial y el avance de la regulación internacional, exista un interés desde el Congreso por sumarse a la carrera. Sin embargo, tal como sucedió en la región europea, tal vez lo que se necesita actualmente es revisar la Ley 31814, a fin de que se puedan actualizar sus contenidos y construir un verdadero marco de referencia nacional. Es necesario armonizar la regulación ya existente sobre inteligencia artificial en los ámbitos de regulación al consumidor, gobierno digital, sistema financiero y administración de justicia.


  1. La lista de prácticas prohibidas de IA se encuentran en el Título II, Artículo 5 del borrador final.

  2. La versión final del AI Act  (artículo 5. 1,d.) dispone que está prohibida la utilización de sistemas de identificación biométrica a distancia, en tiempo real, en espacios públicos con fines policiales. Salvo en ciertos supuestos, cuando su uso sea estrictamente necesario para la persecución de ciertos delitos, prevención de ataques terroristas, y para la localización o identificación de una persona sospechosa de haber cometido una infracción penal, a fin de iniciar una investigación o sanción penal.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *