El Pacto Digital Global, impulsado por Naciones Unidas, dio origen a un nuevo proceso internacional para fortalecer la gobernanza de la inteligencia artificial, al establecer el compromiso de crear un Global Dialogue on AI Governance para promover la cooperación internacional, el intercambio de buenas prácticas y discusiones abiertas, inclusivas y basadas en evidencia sobre los desafíos que plantea la IA. Esto fue formalizado por la Asamblea General de las Naciones Unidas, mediante su resolución A/RES/79/325.
Para llevarlo a cabo, los Co-presidentes (las misiones de El Salvador y Estonia) vienen desplegando un proceso preparatorio que incluye consultas globales y aportes escritos de diversos actores, con el objetivo de definir las prioridades, estructura y resultados del primer Diálogo Global, que se realizará en julio de 2026 en Ginebra, en el marco del AI for Good Global Summit, bajo organización de la Unión Internacional de las Telecomunicaciones.
En este contexto, Hiperderecho participó, el pasado 18 de marzo, en una de estas consultas, que buscó recoger insumos sobre el valor del Diálogo, los vacíos en la gobernanza actual de la IA, su posible estructura temática, y los resultados concretos que debería generar. En nuestro statement, desde nuestra experiencia en procesos regulatorios de inteligencia artificial en el Perú y la región, advertimos sobre la creciente adopción de sistemas de IA en América Latina en ámbitos de alto impacto —como seguridad, migración o programas sociales— sin mecanismos adecuados de rendición de cuentas ni acceso efectivo a reparación.
Durante los tres minutos asignados para intervenir, destacamos las siguientes ideas, desde una perspectiva del Sur Global:
- De los principios a la práctica: Se enfatizó la necesidad de avanzar hacia estándares concretos y operativos —superando la mirada de principios o garantías generales—. Esto implica definir cómo deben implementarse procesos de debida diligencia en derechos humanos y evaluaciones de impacto específicas para sistemas de IA. Así, por ejemplo, en el caso de la transparencia algorítmica, es necesario señalar que no debe limitarse al acceso al código fuente, sino que debe permitir comprender cómo se toman decisiones automatizadas, bajo qué criterios y con qué impactos en las personas.
- Impactos ambientales de la inteligencia artificial: Un vacío crítico en la agenda global es la falta de investigación rigurosa sobre los efectos ambientales de la IA, incluyendo su consumo energético, uso de agua y huella de carbono. Por ahora, hay esfuerzos desde el Sur Global por investigar esta temática, y organismos como la Relatoría Especial sobre Derechos Económicos, Sociales, Culturales y Ambientales (REDESCA) ya empezaron a incluirlo en su agenda. Sin embargo, es necesaria una mirada global que involucre a las múltiples partes interesadas, por lo cual este y otros temas deben ser priorizados en la agenda del Panel Científico.
- Asimetrías de representación y relacionamiento con los stakeholders: De los 40 miembros del Panel Científico, solo 3 son de América Latina y el Caribe (LAC). Esto revela importantes disparidades en materia de capacidades técnicas, experiencia institucional e infraestructura de investigación entre regiones. Para evitar que la agenda de investigación del Panel desconozca la realidad de LAC, es esencial construir un involucramiento fuerte con la academia, sociedad civil y otros actores, la cual permitirá compensar posibles brechas.
Lucía León, Directora de Investigación, en la consulta oral a stakeholders de Naciones Unidas.
¿Crees que hay más cuestiones que es importante hacerle saber a Naciones Unidas? Estamos elaborando nuestro reporte escrito, así que siéntete libre de hacernos llegar cualquier contribución, si así lo deseas.

Directora de Investigación

