El 15 y 16 de julio del presente año, se llevó a cabo en Río de Janeiro la “Convención sobre Trabajo y Tecnología en América Latina”. Desde Hiperderecho, tuvimos el agrado de compartir espacios con otras organizaciones de la sociedad civil y sindicatos para discutir cuestiones relevantes en torno a cómo la tecnología se relaciona con el trabajo en nuestros países.
Una cuestión de intermediación y laboralidad
Uno de los aspectos abordados en este encuentro fue cómo organizar las fuerzas de trabajo en torno a las economías que se desarrollaron a partir de las plataformas de intermediación. En este caso específico, se conversó en torno a las plataformas de intermediación de transportes y las plataformas de servicios de delivery. Leer más
En los últimos meses, las grandes empresas de tecnología han anunciado y lanzado sus propias versiones de inteligencia artificial generativa. En junio, Tim Cook anunció el lanzamiento de Apple Intelligence para las próximas versiones de los sistemas operativos de sus dispositivos. Apenas ayer, 23 de julio, Meta puso a disposición Meta AI en sus aplicaciones Facebook, Instagram, WhatsApp y Messenger en varios países de latinoamérica. Por su lado, Google desarrolló Gemini, la cual busca integrar a sus diferentes productos y plataformas.
En este contexto, donde todas estas compañías están compitiendo por quién desarrolla el mejor asistente de IA, es natural preguntarnos sobre los datos utilizados para generar estos modelos. Especialmente los datos personales y los datos que generamos mientras usamos cada una de estas plataformas. Por eso es necesario conocer los conceptos y procesos que, luego de su respectivo análisis, nos permitirán decidir si queremos que nuestros datos sean utilizados o no y cómo hacerlo.
Sobre los conceptos…
Lo primero que debemos tener en cuenta es que la inteligencia artificial de la que se está hablando en la mayoría de espacios (educativos, económicos, legales, etcétera) es la inteligencia artificial generativa: una tecnología con la capacidad de crear imágenes, textos, videos y otros elementos a partir de instrucciones (prompts) dadas por el usuario. Algunos ejemplos de este tipo de tecnología son ChatGPT, Dall-E, Copilot, etcétera.
Es importante diferenciar este tipo de tecnología con la inteligencia artificial que ha existido entre nosotros desde hace más de 60 años, la cual, naturalmente, ha ido evolucionando con el diseño de nuevos materiales, la investigación y el volumen de datos disponibles. En las últimas dos décadas, las grandes plataformas que gobiernan Internet han utilizado algoritmos de inteligencia artificial principalmente para mejorar sus sistemas de recomendación de contenido (amigos, productos, fotos, videos, etc.), y para ello han utilizado los datos generados por los usuarios en sus respectivas plataformas.
Entonces no es la primera vez que Meta, Google, Amazon, Apple u otra compañía entrenan modelos de IA tomando como fuente nuestros datos. La diferencia es que esta vez la cantidad de datos utilizados necesarios para el entrenamiento de estos modelos de inteligencia artificial generativa es mucho más grande y variada (imágenes, párrafos completos, audio, video) que antes.
Lo que hacen estos modelos es identificar patrones y estilos en los textos, imágenes, videos o audios con el objetivo de replicarlos y generar nuevos elementos. Esto nos lleva al siguiente paso.
Cómo funciona
En un post anterior ya explicamos cómo fue que llegamos a ChatGPT y cómo funciona esta tecnología. De forma similar en el caso de otros modelos de generación de imágenes o código, se utilizan redes neuronales para identificar patrones en los datos de entrada y, a partir de estos patrones, generar nueva información. La capacidad de esta tecnología para identificar estos patrones en datos no estructurados (imágenes, libros, videos y música) la hace particularmente atractiva para toda la información que hemos generado desde los inicios de Internet y especialmente en redes sociales.
Debido a que la cantidad de datos requeridos para el entrenamiento es gigantesca, el aprendizaje no puede hacerse en tiempo real, es decir que trabajan con información recolectada hasta cierta fecha (cutoff date). Por ejemplo, la primera versión de ChatGPT fue entrenada únicamente con datos previos a septiembre del 2021; posteriormente pueden lanzarse versiones con ajustes menores, pero la información base mantiene una fecha de corte.
Muchas plataformas han optado por «conectarse» a Internet y que sus respuestas sean un resumen de los resultados que han podido encontrar. Esto con el fin de citar fuentes de información.
Por qué es necesario tanta información
Si tomamos en cuenta los modelos que generan texto, estos buscan interactuar con los usuarios casi de forma natural como si fuera otro ser humano. Y para poder replicar las variaciones, dialectos, jergas y estilos de escritura de un ser humano es necesario una gran cantidad de datos que permita justamente entender el contexto y el marco general. Esto ayuda a que los conceptos sean menos ambiguos, evitar sesgos y mejorar la calidad de las respuestas dadas por el modelo, haciéndolo más «natural».
Los problemas
Debido a que estos modelos aprenden patrones de los datos que fueron utilizados para entrenamiento, es posible que, dada una instrucción (prompt injection), la respuesta del modelo incluya información confidencial de una empresa o datos personales. Esto es más probable en modelos de los cuales no se sabe mucho sobre los datos que fueron utilizados para el entrenamiento. Para evitar difundir esta información, muchas plataformas realizan un control sobre lo que el usuario solicita y buscan mitigar que la salida de estos modelos sea lo menos dañina posible. Otras empresas, se encargan de enmascarar datos sensibles antes del entrenamiento, quedándose solo con la estructura de la información, la cual alimenta al modelo. De esta manera, no es posible un filtrado de datos en su salida. Esto todavía sigue siendo un trabajo en proceso y cada empresa está mostrando su propia perspectiva.
El panorama actual nos dice que estamos en una carrera sobre qué empresa desarrollará la mejor herramienta de IA generativa, o la más popular. Si bien OpenAI, con el financiamiento de Microsoft, fue la que dio el primer gran paso en el ecosistema, plataformas con mayor tiempo en el mercado como Google, Meta o Apple decidieron incursionar también en esta aventura.
Por lo visto anteriormente, el volumen de datos utilizados para el entrenamiento de estos productos es esencial para un buen resultado. Para ello, cada empresa está dispuesta a hacer uso de los datos que los usuarios han subido a sus respectivas plataformas. Por ejemplo:
ChatGPT [OpenAI]: Puede utilizar el contenido que el usuario sube a su plataforma para el entrenamiento de próximos modelos, más precisos, mejores en tareas específicas, capacidades y seguridad. «When you share your content with us, it helps our models become more accurate and better at solving your specific problems and it also helps improve their general capabilities and safety.»
Gemini [Google]: «Google recopila tus conversaciones de Gemini Apps, información relacionada con el uso de productos, información sobre su ubicación y sus comentarios … para ofrecer, mejorar y desarrollar productos, servicios y tecnologías de aprendizaje automático de Google, incluidos los productos empresariales de Google, como Google Cloud».
Copilot [Microsoft]: «Específicamente la versión disponible en el navegador Edge. En función del aviso del usuario y su consentimiento para compartir datos con Microsoft, Microsoft Edge puede enviar datos pertinentes a Copilot. Para preguntas que no necesitan un contexto de exploración, como «Ayúdeme a planear un viaje a Manhattan», Edge comparte la dirección URL, el título de la página, la consulta del usuario y el historial de conversaciones anteriores para ayudar a Copilot responder a su pregunta de forma eficaz».
Meta AI [Meta]: «… Usamos información online disponible públicamente e información con licencia. También utilizamos la información que compartiste en los productos y servicios de Meta. Por ejemplo, publicaciones o fotos con sus descripciones. No usamos el contenido de tus mensajes privados con amigos y familiares para entrenar a nuestras IA.»
Alternativas
Ante este escenario ¿qué pueden hacer los usuarios de estas plataformas? Eso depende de la regulación existente en cada país y los mecanismos disponibles por cada plataforma.
OpenAI: OpenAI cuenta con un portal (https://privacy.openai.com/policies) donde el usuario puede solicitar, entre otras cosas, detener el entrenamiento de nuevos modelos a partir de sus datos. También puede solicitar la descarga de tus datos o borrar tu cuenta.
Gemini [Google]: Al ser un producto de Google, es posible gestionar tu actividad a través de su plataforma en myactivity.google.com/product/gemini.
Esto implica poder eliminar tu contenido, configurar una eliminación automática (3, 18 o 36 meses). En caso la actividad esté desactivada, Gemini mantiene las conversaciones guardadas por hasta 72 horas para prestar el servicio.
Copilot [Microsoft]: En el caso de la versión de Copilot disponible en el navegador Edge, es posible deshabilitar que Copilot acceda al contenido de la página siguiendo los siguientes pasos:
Configuración de Microsoft Edge > Barra lateral > Configuración de apps y notificaciones > Copilot > Permitir a Copilot que acceda al contenido de la página web».
Meta AI [Meta]: En países con un marco regulatorio más fuerte (países de la Unión Europea, Reino Unido o Brasil), Meta ha dispuesto de un formulario acorde a su base legal. Este permite a sus usuarios que sus datos no sean utilizados en el entrenamiento de su inteligencia artificial generativa.
Para países de latinoamérica, como Perú, es posible evitar que nuestro contenido sea fuente de entrenamiento haciendo un cambio en el tipo de visibilidad de nuestras publicaciones. La IA de Meta se entrena con publicaciones en modo público y contenido de la web. Hacer el cambio a modo ‘privado’, evitará que tu contenido sea parte de ese nuevo volumen de entrenamiento.
Esta última opción puede ser un inconveniente para aquellos artistas que por muchos años han utilizado plataformas como Facebook e Instagram para crear una comunidad, al punto que se ha convertido en una parte importante de sus ingresos y comisiones independientes. En ese sentido, existe la posibilidad de publicar sus fotos e ilustraciones sin que los modelos de inteligencia artificial generativa puedan «aprender» de sus estilos y que al mismo tiempo sean imperceptibles por el ojo humano. Por ejemplo, en la Universidad de Chicago se desarrolló The Glaze Project, que promete proteger a los creativos humanos contra los usos invasivos de la inteligencia artificial generativa o GenAI.
A partir del 22 de julio de este año, OSIPTEL comenzará a bloquear los equipos terminales móviles que, habiéndose adquirido con posterioridad al 22 de abril de este año, no se encuentren registrados. Esta medida de registro obligatorio bajo sanción de bloqueo se enmarca en la tercera etapa de ejecución del Registro Nacional de Equipos Terminales Móviles para la Seguridad (RENTESEG), creado el 2017 a iniciativa del Ejecutivo y reglamentado por el Ministerio del Interior.
El objetivo del RENTESEG es desincentivar y combatir la comercialización de celulares robados o de dudosa procedencia en el mercado peruano. Para lo cual, se propone identificar a los celulares a través de su IMEI (el DNI universal de todo celular, que consiste en una serie de 15 dígitos que vienen determinados de fábrica). A continuación explicaremos porque esta medida está destinada al fracaso y no permite alcanzar el objetivo de reducir el robo de celulares, sino que, por el contrario, crea una serie de problemas adicionales.Leer más
En Hiperderecho llevamos años investigando y pensando en respuestas para combatir la violencia de género en línea. Así, surgieron proyectos como Tecnoresistencias (nuestro proyecto principal sobre violencia de género en línea) y Después de la Ley, apuntando a una Internet libre de violencia para las mujeres en nuestra diversidad y personas LGBTNB+. En 2023, nos preguntamos cómo descentralizar la identificación, prevención, resistencia y denuncia de la violencia de género en línea? En respuesta, diseñamos Resiste.
¿Qué es el programa de Talleres Resiste?
A partir de la experiencia que Hiperderecho ha construido sobre el tema, y de hallazgos alcanzados en investigaciones como Conocer para Resistir, además de los proyectos ya mencionados (Tecnoresistencias y Después de la Ley), diseñamos el Programa de Talleres Resiste.
Este programa tiene como objetivo fortalecer capacidades y brindar herramientas a mujeres en nuestra diversidad y personas LGTBNB+ de manera descentralizada para que puedan abordar desde distintas dimensiones la VGL, de manera más autónoma, y así también colocar esta problemática en las agendas regionales y distritales.
Resiste cuenta con una estrategia indispensable para poder ejecutarse en las diferentes regiones del país. A partir de alianzas con organizaciones de la sociedad civil como colectivas y agrupaciones barriales activistas, tuvimos reuniones donde se presentaron los objetivos generales del programa y principalmente, escuchamos las realidades y necesidades específicas de cada uno de estos territorios en materia de violencia basada en género y las tecnologías de la información y comunicaciones.
Estas reuniones permitieron adaptar la metodología principal, así como hacer énfasis en los contenidos que tenían mayor relevancia según la experiencia de las organizaciones aliadas en sus territorios.
Impacto descentralizado sobre la violencia de género en línea
El trabajo colaborativo con las compañeras nos permitió llegar a cinco regiones del país donde Hiperderecho y Tecnoresistencias no habían tenido presencia antes.
El primer taller se llevó a cabo en la ciudad del Cusco, en alianza con la organización DHSF – Derechos Humanos sin Fronteras. Contó con la participación de 28 estudiantes y activistas. Este primer taller sirvió como piloto para realizar mejoras en los espacios posteriores.
Continuamos en el distrito de San Martín de Porres, en Lima Norte, junto a la Colectiva Barrial Ruray. Luego, nos dirigimos a la región de Trujillo en La Libertad, con la Colectiva 8 de Marzo. Posteriormente, llegamos a Iquitos, en Loreto, en alianza con las compañeras de Yucas Bravas. Finalmente, cerramos el ciclo 2023 en el sur, en colaboración con Lesbia Arequipa.
Agradecemos la disposición e interés de cada una de estas organizaciones y colectivas en la realización de estos espacios formativos recíprocos. Si bien la violencia de género en línea es una de nuestras consignas para prevenir, resistir y sancionar, desde Hiperderecho aprendimos mucho sobre la realidad de cómo se atraviesa este tipo de violencia en los diferentes contextos y realidades de las cinco regiones y distritos, particularmente en las localidades no urbanas.
Por ejemplo, una de las consecuencias inmediatas, a mediano y largo plazo, de la violencia de género en línea (VGL) en la región amazónica de Loreto es la trata de personas, principalmente de adolescentes. Esta problemática se aborda desde otras especialidades; sin embargo, resaltamos la relevancia que tienen las tecnologías para facilitar este tipo de violencias y delitos.
En el caso del Sur (Cusco y Arequipa), pudimos identificar una similitud: el desconocimiento de las normativas y políticas públicas por parte de las autoridades cuando se decide denunciar por la vía legal la VGL. Particularmente en Arequipa, junto a las compañeras de Lesbia Arequipa, identificamos la estigmatización y la LGTBfobia como una de las principales formas de VGL que aborda esta colectiva, y cómo se transversaliza con el acoso político.
También encontramos puntos en común a pesar de las distancias territoriales, en Trujillo y el distrito limeño de San Martín de Porres. Las principales preocupaciones sobre la VGL eran la violencia hacia las adolescentes, particularmente la violencia de género entre vínculos afectivos, y cómo las tecnologías juegan un rol determinante en ello.
Resiste continúa
En los ultimos dos años, Resiste ha sido un punto de partida fundamental para seguir construyendo una agenda que aborde la violencia de género en línea desde un enfoque feminista y descentralizado. Considerando la situación de crisis social y política que atravesamos en el país en este periodo, donde la democracia se encuentra debilitada, los canales digitales se han convertido en la principal vía de acceso a la información y para ejercer nuestro derecho a la protesta sin represión física, a pesar de las brechas digitales existentes. Pero como en todos los espacios, las mujeres en nuestra diversidad y las maricas somos una de las poblaciones más vulnerables.
Para este año, también estamos llegando a regiones con las que no habíamos trabajado anteriormente. El pasado 22 de junio se llevó a cabo el primer taller Resiste 2024 en Moyobamba en la región San Martín, en alianza con la colectiva Sani Sacha. Se tiene programado continuar en Huancayo, región de Junín, así como en Chorrillos en Lima Sur.
Otras acciones en materia de VGL
El año pasado también realizamos una serie de videos en colaboración con las artistas activistas Las Insolentes. Esta serie de videos, que pueden encontrar en nuestras plataformas de redes sociales, tiene como objetivo que podamos identificar los distintos tipos de violencia de género en línea.
Desde Tecnoresistencias, también hemos abordado la VGL en los espacios universitarios a través de una investigación que será publicada próximamente.
Les invitamos a que estén atentes a nuestras plataformas de redes sociales y boletín mensual para que conozcan las próximas acciones.
Hace un mes se publicó el Proyecto de Ley 07818/2023, promovido por Renovación Popular, a iniciativa del congresista Alejandro Muñante Barrios. El objetivo de este Proyecto sería, según se dispone, uniformizar y optimizar la disolución de asociaciones, fundaciones y sociedades. No obstante, en su contenido -y en lo relacionado con las asociaciones-, a través de este Proyecto el partido político en cuestión pretende crear nuevos supuestos para la disolución de asociaciones, sumadas a las ya existentes causales de buenas costumbres y orden público.
Esta iniciativa afecta la organización ciudadana, pues crea riesgos a la permanencia de asociaciones y desalienta los procesos de formalización de agrupaciones, principalmente las que trabajan en la defensa y promoción de derechos humanos históricamente pendientes en el país. Inclusive su aprobación afecta espacios de diálogo y toma de decisiones clave para la implementación de políticas públicas eficientes. Espacios de diálogo como los que se generan en el marco de la transformación digital, afectando principios reconocidos como la gobernanza de internet, así como el principio de múltiples partes interesadas. Leer más
Entre el 5 y el 6 de mayo, Hiperderecho participó del II Seminario Big Techs, Información y Democracia, que en esta ocasión se desarrolló en Bogotá, Colombia. El evento, esta vez organizado por Observacom, fue una continuación de discusiones iniciadas en diciembre del año pasado durante el I Seminario, que se celebró en Sao Paulo, Brasil.
¿Cómo se relacionan las Big Techs con la democracia y el espacio de información?
En la actualidad, gran parte del debate público tiene lugar en Internet. Noticias, campañas electorales, hallazgos científicos, lanzamientos musicales, e incluso deliberaciones de funcionarios se difunden o transmiten a través de grandes plataformas de Internet. Esto ha hecho que el poder de las grandes plataformas sea crítico para las democracias: sus términos y condiciones, de naturaleza privada, tienen impacto e implicaciones en el espacio público de deliberación. Los sistemas de recomendación y de moderación privada de contenidos, por ejemplo, pueden distorsionar el debate público (al generar cámaras de eco, permitir el microtargeting, etc.) y afectar la libertad de expresión (cuando se elimina contenido legítimo). Leer más
Desde mayo de 2023, el equipo Hiperderecho ha diseñado un programa piloto que busca identificar y fomentar el talento digital en estudiantes de secundaria de colegios públicos y privados. Mediante un mecanismo competitivo y cooperativo, los estudiantes emplearon herramientas digitales para enfocarse en la resolución de problemas colectivos de su interés.
El piloto, denominado «Desafío Digital», se implementó en Lima Metropolitana, involucrando a cuatro colegios públicos y cuatro colegios privados ¡Un total de 40 estudiantes participaron activamente en la comunidad educativa del Desafío Digital!
Comunidad educativa
La comunidad educativa participante estuvo compuesta por los colegios Angélica Recharte, Bertolt Brecht, Fe y Alegría N° 34, José de la Riva Agüero y Osma, Juana Alarco de Dammert, María de la Providencia, Mercedes Indacochea y San Vicente Ferrer. Cada colegio estuvo representado por cinco estudiantes, liderados por el o la docente a cargo del Club de Ciencia de su institución.Leer más
El 2 de mayo, la Secretaría de Transformación y Gobierno Digital (SGTD) publicó la propuesta de Reglamento (en adelante, la propuesta de Reglamento) de la Ley N°31814, Ley que promueve el uso de la Inteligencia Artificial en favor del desarrollo económico y social del país (en adelante, la Ley de Promoción de IA). Asimismo, dispuso de un plazo para recibir comentarios o sugerencias, el cual finalizó este sábado 1 de junio,fecha en la que la SGTD también realizó una sesión pública virtual de participación ciudadana a fin de exponer un resumen del Proyecto y recopilar sugerencias. Leer más
Los deepfakes son un fenómeno que comienza su popularidad alrededor de 2017 a raíz de una discusión en Reddit, un sitio web similar a X, caracterizado por sus posts y foros de discusión. Si bien al principio los deepfakes fueron una innovación para los usuarios de la comunidad virtual, que lo utilizaban para usos recreativos no perjudiciales o incluso voluntariamente para contenido sexual, hoy en día la mayor parte de la pornografía deepfake en Internet no es consentida. En ese sentido, califica más bien como material de abuso sexual y no como “pornografía” -que es consentida-, aunque el nombre genérico o popular que se le ha asignado es pornografía deepfake. Leer más
Hoy, 17 de mayo, celebramos el Día Mundial del Internet, una fecha de gran relevancia que nos invita a reflexionar sobre el impacto y la importancia de la red en nuestras vidas. Esta conmemoración, que tiene su origen en la iniciativa de la Asociación de Usuarios de Internet de España y que se remonta al año 2005, nos brinda la oportunidad de reconocer los avances tecnológicos, así como los desafíos y oportunidades que Internet ofrece a nivel mundial.
En Hiperderecho, dedicamos un espacio importante a luchar contra la violencia de género en línea, promover un mayor entendimiento de Internet, alertar sobre proyectos de ley que lo amenazan, etc. Constantemente hacemos incidencia por derechos como la privacidad, la libertad de expresión o el acceso al conocimiento en línea. Hoy, conmemorando el Día Mundial del Internet, queremos celebrarlo contándote cómo se ve el ejercicio de esos derechos en nuestra vida diaria. Aprovechamos este espacio para que cada miembro de nuestro equipo cuente sus primeros recuerdos de Internet y la importancia que tiene para su vida.Leer más