Entre el 16 y 22 de febrero, junto con Lucía León, Directora de Investigación de Hiperderecho, participamos en el AI Impact Summit, desarrollado en Nueva Delhi para su edición 2026. Sí, el famoso evento donde Dario Amodei (CEO de Anthropic), y Sam Altman (CEO de ChatGPT), evitan darse la mano en una foto oficial con otros líderes tecnológicos junto al primer ministro de la India, Narendra Modi. Y aunque nos hubiera encantado ver ese momento entre Altman y su ex socio Amodei (vicepresidente de investigación en OpenAI hasta 2021), se trataba de una sesión restringida que no figuraba en la agenda común. No obstante, acá te contamos el origen de este evento y las actividades que ocurrieron esa semana.
Historia del AI Impact Summit
Este evento que pretende ser global se originó en el AI Safety Summit en Reino Unido en noviembre de 2023, donde 28 Estados (entre ellos USA, UK y China) firmaron la Declaración de Bletchley, una declaración que se enfoca en la mitigación de los riesgos de la IA durante todo su ciclo de vida, a través de la cooperación internacional, especialmente de los sistemas de IA más avanzados y potentes; esto es, aquellos que se encuentran en la frontera del desarrollo tecnológico (frontier AI). Además, en la Declaración los Estados plantean específicamente adoptar como compromiso público la elaboración de políticas nacionales basadas en el riesgo, e incentivan a que se adopte como compromiso empresarial mayor transparencia en el desarrollo de la IA de frontera o vanguardia. Del mismo modo, proponen la adopción general de métricas de evaluación adecuadas, herramientas para pruebas de seguridad, el desarrollo de capacidades, así como la promoción de la investigación científica.
Posteriormente, el AI Impact Summit tuvo su primera edición en Seúl en 2024, seguido de París en 2025 y finalmente este año en Nueva Delhi. En los tres eventos se mantiene el compromiso de una participación multistakeholder; es decir, que incluya a todas las partes interesadas, junto con el compromiso de mitigar los riesgos de la IA más avanzada, a través de la cooperación internacional. En ese sentido, en el evento en Nueva Delhi, se propusieron tres “sutras” o reglas: (i) la IA debe servir a la humanidad en toda su diversidad, preservando la dignidad y garantizando la inclusión; (ii) la innovación en IA debe estar alineada con la gestión ambiental y la sostenibilidad; y (iii) los beneficios de la IA deben compartirse equitativamente, impulsando el desarrollo y la prosperidad global. Asimismo, en la conversación se destacó una agenda local, que atiende a los problemas de precarización laboral, ausencia de derechos para trabajadores remotos y la necesidad de un seguro de salud, así como apoyo psicológico para moderadores de contenido. Al respecto, cabe recordar que la mayoría de moderadores de contenido se encuentran tanto en Asia como África, especialmente aquellos que trabajan en la revisión de contenido sensible y violento.
Nuestra participación en el Impact Summit 2026
Durante la semana, participamos en la mesa redonda «AI Governance from the South: Redlines to Baselines», organizada por por el Global Digital Justice Forum, junto con sus organizaciones miembro —Data Privacy Brasil, Derechos Digitales, EngageMedia, ETC Group, IT for Change, Research ICT Africa y Tech Global Institute— entre otras instituciones aliadas. En la mesa, discutimos las bases indispensables y los no negociables para la gobernanza de IA desde el Sur Global, en los ejes de (i) desarrollo económico y justicia distributiva, (ii) medio ambiente y cambio climático, (iii) democracia, derechos colectivos y comunitarios, y (iv) derechos laborales y empleos. Muy pronto compartiremos los resultados de este trabajo colaborativo.
Asimismo, estuvimos presentes en las actividades del proyecto Multistakeholder Approaches to Participation in AI Governance (MAP-AI) organizado por la Global Network Initiative (GNI) y el Centre for Communication Governance (CCG) de la National Law University Delhi. Esta iniciativa busca promover una participación multiactor significativa en los procesos de gobernanza de la inteligencia artificial, con especial énfasis en visibilizar las perspectivas y prioridades de actores tradicionalmente subrepresentados. Para ello, las sesiones de MAP-AI reunieron a más de 400 participantes, y, a través de encuentros de trabajo y eventos paralelos, se generaron espacios de intercambio sobre los desafíos actuales de la gobernanza de la IA, incluyendo marcos de seguridad, brechas de infraestructura, capacidades de evaluación y el papel de la cooperación multiactor en la construcción de normas globales.
Estos espacios nos permitieron poner en el centro las perspectivas del Sur Global, especialmente desde América Latina, identificar puntos de encuentro y reflexionar sobre cómo los marcos de gobernanza de IA pueden integrar de manera más efectiva principios de derechos humanos, seguridad, rendición de cuentas y participación equitativa.
No hay gobernanza de IA sin sociedad civil
Sin duda todo es perfectible y en este caso, uno de los tres “sutras” del AI India Summit quedó corto: la inclusión de todas las personas en su diversidad. Hubo temas sin representación, como la agenda por la lucha contra la violencia digital (que avanza exponencialmente por la IA generativa), así como ausencia de representación de la comunidad LGTBIQ+, que es target de discursos de odio permitidos por algoritmos poco transparentes. Igualmente se notó la falta de otros actores como agricultores, sindicatos, moderadores, defensores ambientales, pueblos originarios, etc. A menudo estas voces no son consideradas pese a que tod@s somos impactados por la IA, especialmente los grupos en situación de vulnerabilidad. Porque la IA así como puede beneficiar a tod@s, también puede perjudicarnos, ampliando brechas educativas, económicas, sociales, culturales y geopolíticas.
Por otro lado, si bien en las mesas de diálogo se notaba el esfuerzo por la participación de diferentes sectores, en la mayoría de sesiones no hubo espacio para preguntas ni comentarios. Y las sesiones duraban sólo una hora, lo que no dejaba tiempo para extender el debate hacia los puntos incisivos, o para confrontar premisas. Asimismo, el famoso evento al que asistieron los gigantes tecnológicos fue a puerta cerrada. Por supuesto que un evento de esta naturaleza, con diplomáticos y representantes internacionales requiere de una estricta seguridad. Sin embargo, es un desafío pendiente crear condiciones habilitantes para el diálogo entre Estado, empresas, comunidad técnica, academia y sociedad civil. Algunas ideas, de intentos en otros foros, van desde dinámicas como citas rápidas para hacer match, hasta actividades más convencionales como salas abiertas para reuniones 1:1, o una lista oficial pública de asistentes por cada sector. Esperemos que la siguiente edición incorpore de forma creativa este reto pendiente para lograr un efectivo diálogo, sobre todo sí aún es el objetivo del encuentro apostar por la seguridad de la IA (AI safety) o la mitigación de sus riesgos para la sociedad a nivel global.

Coordinadora Legal (Políticas Públicas)
