Cuando los “datos” contaminan: Neblina de datos, IA y desinformación en el análisis electoral

David Shenk, en su obra Data Smog1, advirtió que el problema de las sociedades contemporáneas no sería la escasez de información, sino su exceso desordenado y su circulación sin filtros adecuados. ¿Qué ocurre cuando esa sobreabundancia se traslada al análisis electoral y se potencia con herramientas de inteligencia artificial? Lo que aquí llamamos “neblina de datos” (como una interpretación libre del término usado por Shenk) surge, justamente, en un entorno donde la acumulación de cifras, visualizaciones y aparentes hallazgos técnicos no solo no esclarece la realidad, sino que la vuelve más opaca.

A continuación desarrollaremos un fenómeno que, a nuestro juicio, empieza a volverse cada vez más visible en el debate público peruano: la producción acelerada de análisis electorales aparentemente sofisticados, elaborados con apoyo de herramientas de inteligencia artificial, pero carentes del contexto institucional, territorial y metodológico indispensable para interpretar correctamente la información.

El espejismo de la analítica sin contexto

Estamos frente a un posible dilema: la democratización del acceso a herramientas de analítica puede fortalecer el escrutinio ciudadano, pero también puede multiplicar lecturas defectuosas que, lejos de clarificar, introducen confusión en un momento en el que la deliberación pública debería exigir el mayor rigor posible

¿Dónde se sitúa, entonces, el verdadero problema? Nosotros entendemos que no está, en principio, en la apertura de la información ni en la existencia de herramientas de inteligencia artificial. Antes bien, el problema aparece cuando se instala la falsa premisa de que la disponibilidad de datos y la asistencia algorítmica bastan para producir conocimiento experto.

Y en materia electoral la data no habla sola. La data electoral exige contexto, institucionalidad y método. El sistema electoral peruano responde a una arquitectura compleja donde interactúan RENIEC, ONPE y el Jurado Nacional de Elecciones, cada uno con competencias diferenciadas; cualquier lectura que omita esta estructura institucional parte de una comprensión incompleta del fenómeno que pretende explicar.

La neblina de datos: cuando el análisis confunde más de lo que explica

Proponemos conceptualizar este fenómeno, de manera inicial, bajo la noción de neblina de datos. ¿A qué nos referimos? Nos referimos a la proliferación de análisis descontextualizados, fragmentarios o metodológicamente débiles que, pese a su apariencia técnica, generan conclusiones erróneas o insuficientemente sustentadas. Este fenómeno se ve reforzado por un elemento adicional: el sesgo de partida del analista.

Casi todo análisis parte de una hipótesis o, incluso, de un sesgo previo. Esto no es, en sí mismo, problemático. El problema aparece cuando ese sesgo se convierte en el filtro excluyente de interpretación. Así, la data deja de ser objeto de exploración y pasa a ser instrumento de confirmación. La inteligencia artificial, en este contexto, no corrige el sesgo, sino que puede amplificarlo.

Y esta neblina no es neutral. En contextos electorales altamente competitivos, estas interpretaciones circulan rápidamente y son utilizadas para reforzar narrativas de ilegitimidad.

Un ejemplo permite ilustrar el problema. Se ha sostenido que la existencia de DNIs consecutivos en determinadas mesas sería un indicio sospechoso. Sin embargo, esta afirmación desconoce dinámicas básicas del sistema de identificación, como las campañas focalizadas de documentación que realiza RENIEC en determinadas zonas del país. Si no se considera el contexto administrativo y territorial peruano, la inferencia pierde sustento.

Transparencia, responsabilidad y una salida posible

No obstante ello, sería un error concluir que el problema radica en la apertura de la información. Creemos que la disponibilidad de datos abiertos fortalece el control ciudadano. En efecto: la posibilidad de que cualquier persona acceda a la información electoral, la procese y la cuestione constituye una garantía democrática relevante. Esta apertura de información, lejos de “confirmar el fraude” al tener APIS abiertas, evidencia una intención institucional de dar limpieza y apertura al proceso electoral.

En este contexto, la inteligencia artificial puede ser una herramienta útil para procesar grandes cantidades de datos, pero no reemplaza el rigor, el conocimiento del contexto ni la exigencia metodológica.

Usar un IA no no nos vuelve expertos en una materia

¿Puede alguien convertirse en experto en análisis electoral por el solo hecho de utilizar herramientas avanzadas de inteligencia artificial? Nosotros entendemos que no. La experticia en esta materia exige comprender la normativa electoral, los procedimientos administrativos, la organización territorial del país y las dinámicas sociopolíticas que inciden en los resultados.

No obstante, la apariencia técnica de ciertos análisis genera una ilusión de autoridad que puede resultar particularmente peligrosa en contextos de alta polarización. Como ya se ha dicho muchas veces: la herramienta (IA) no sustituye al conocimiento.

La transparencia y apertura de datos como garantía institucional

De otro lado, conviene subrayar que la existencia de datos disponibles a través de plataformas web en el sistema electoral no es un elemento menor. La posibilidad de que cualquier ciudadano pueda acceder a la información, revisarla y cuestionarla es, en sí misma, una garantía de transparencia.

En efecto, la apertura de la información permite el escrutinio público y evidencia una intención institucional de someter el proceso a control ciudadano. Sin embargo, ese mismo entorno puede ser distorsionado cuando el análisis carece de rigor: la transparencia fortalece la democracia, pero su mal uso puede erosionar la confianza y espesar la neblina de datos.

Para que un “análisis de datos electorales” no aporte al Data Smog debe tener como mínimo:

  1. Comprensión del marco institucional del sistema electoral
  2. Incorporación del contexto territorial y social
  3. Identificación de sesgos y puntos de partida y límites epistémicos
  4. Aplicación de criterios metodológicos serios
  5. Reconocimiento de los límites de la inteligencia artificial

En buena cuenta, la democracia no solo se debilita cuando se oculta la información, sino también cuando se la interpreta sin rigor. La tarea no es restringir el acceso a los datos, sino elevar la calidad del análisis público. Solo así evitaremos que el debate electoral se pierda en la neblina de datos y podremos preservar la integridad de la deliberación democrática.


  1.  Shenk, D. (1997) Data smog: surviving the information glut. New York: Harper Edge.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *