RESUMEN DE LA CUMBRE: DÍA 1 | El sesgo algorítmico y la nueva violencia digital centran el debate de la primera jornada de la XIII Cumbre de Mujeres Juristas

La XIII Cumbre de Mujeres Juristas, organizada por el Ilustre Colegio de la Abogacía de Madrid (ICAM), ha comenzado hoy en la Sala Ernest Lluch del Congreso de los Diputados, reuniendo a cerca de 300 especialistas del ámbito jurídico, académico, institucional y empresarial y mediático para analizar los desafíos que plantea la inteligencia artificial para la igualdad, la protección de derechos fundamentales y la lucha contra la violencia digital.

La primera jornada del encuentro se ha estructurado en cinco mesas redondas en las que se han abordado cuestiones clave como el impacto del Reglamento Europeo de Inteligencia Artificial desde la perspectiva de género, los sesgos algorítmicos y los límites del RGPD, los nuevos retos jurídicos de la violencia digital, las herramientas procesales para investigar y retirar contenidos ilícitos en internet y el papel de las instituciones públicas y organizaciones sociales en la protección de las víctimas.

A lo largo de las distintas sesiones, magistrados, fiscales, abogadas, expertas en tecnología y representantes institucionales coincidieron en señalar que el avance de la inteligencia artificial y de las plataformas digitales plantea nuevos desafíos regulatorios y probatorios, pero también oportunidades para mejorar la protección de los derechos fundamentales si se diseñan y aplican adecuadamente las herramientas jurídicas y tecnológicas.

Mesa 1 – El Reglamento Europeo de Inteligencia Artificial: luces y sombras desde la perspectiva de género

La primera mesa redonda de la jornada, moderada por Mila Pacheco, decana del Colegio de la Abogacía de Tenerife, analizó el impacto del Reglamento Europeo de Inteligencia Artificial desde la perspectiva de la igualdad de género y los riesgos de que los sistemas algorítmicos reproduzcan o amplifiquen desigualdades existentes. En la sesión participaron Marisa Cruzado, socia de CVA y fundadora y CEO de IA+Igual; Almudena Arpón, socia de Gómez-Acebo & Pombo y presidenta de la International Bar Association entre 2023 y 2024; y Ofelia Tejerina Rodríguez, abogada especializada en derecho tecnológico y doctora en Derecho Constitucional.

Durante su intervención, Marisa Cruzado presentó los resultados de una investigación desarrollada durante más de dos años sobre el uso de herramientas de inteligencia artificial en recursos humanos. A partir del análisis de sistemas de selección, evaluación del desempeño o predicción de abandono laboral, concluyó que el principal problema no suele estar en el algoritmo, sino en los datos y en el contexto organizativo en el que se utilizan. Cruzado advirtió además de que muchas herramientas utilizadas por empresas europeas han sido entrenadas con datos socioculturales de otros contextos —principalmente de Estados Unidos—, lo que puede generar sesgos en procesos laborales. También alertó de que eliminar variables sensibles como el género no siempre evita la discriminación: “cuando eliminamos el dato de género para evitar sesgos, el sistema puede seguir perjudicando indirectamente a las mujeres”, concluyó.

Por su parte, Almudena Arpón ofreció una visión global del Reglamento europeo de inteligencia artificial y del contexto internacional en el que se sitúa esta normativa. La jurista destacó como principal fortaleza la propia existencia de un marco regulatorio europeo común: “la luz fundamental del reglamento es el propio reglamento”, al establecer por primera vez parámetros jurídicos vinculantes para el desarrollo y uso de estas tecnologías. No obstante, recordó que el desafío principal reside en que los sistemas se entrenan con datos procedentes de una realidad social que todavía no es igualitaria. En este sentido, subrayó la escasa presencia femenina en el desarrollo tecnológico: “la participación de las mujeres en la configuración de los sistemas de inteligencia artificial es esencial”, ya que su ausencia puede dificultar la detección temprana de sesgos.

La mesa se cerró con la intervención de Ofelia Tejerina Rodríguez, quien abordó la aplicación práctica de la regulación y los retos derivados de la rápida evolución tecnológica. La abogada recordó que el derecho siempre avanza más lentamente que la tecnología y que, por ello, deben complementarse las normas con otros instrumentos como los códigos de conducta o los principios generales del derecho. “La ley no llega a todo, y es normal: la ley siempre va por detrás de la vida”, señaló. Tejerina advirtió además de los riesgos sociales asociados al uso de la tecnología, especialmente entre los jóvenes, y defendió mantener siempre una supervisión humana efectiva sobre los sistemas automatizados, recordando que “no podemos confiar ciegamente en sistemas que toman decisiones con datos y sesgos previos”.

Mesa 2 – Protección de datos personales y sesgo algorítmico: límites del RGPD ante decisiones discriminatorias

En la segunda mesa redonda, moderada por Carmen Giménez, decana del Ilustre Colegio de Procuradores de Madrid, intervinieron Lorenzo Cotino Hueso, presidente de la Agencia Española de Protección de Datos; Teresa Zueco, socia directora de Squire Patton Boggs Madrid; y Pilar Menor, responsable internacional del Departamento Laboral de DLA Piper y Senior Partner en Madrid. Las ponentes analizaron desde distintas perspectivas cómo los sesgos algorítmicos pueden traducirse en decisiones discriminatorias y qué herramientas jurídicas ofrecen hoy el RGPD y el nuevo marco europeo de inteligencia artificial.

El presidente de la AEPD, Lorenzo Cotino, abrió el debate recordando que la protección de datos es un derecho fundamental reconocido en el artículo 18 de la Constitución y que la inteligencia artificial puede reproducir errores humanos si no se diseñan adecuadamente los sistemas. Para ilustrarlo citó casos conocidos, como el algoritmo de contratación de Amazon en 2018, que penalizaba currículos con referencias a mujeres, o el sistema de crédito de Apple con Goldman Sachs, que concedía peores condiciones a mujeres. Aun así, defendió que el problema no es la tecnología en sí: “la mayoría de los problemas con la inteligencia artificial son por errores humanos por no haber hecho bien las cosas”. En este sentido, destacó que principios del RGPD como la calidad y minimización de los datos, la transparencia y la explicabilidad siguen siendo “garantías básicas para saber si un sistema discrimina o no discrimina”, junto a herramientas como la inversión de la carga de la prueba cuando existen indicios de discriminación algorítmica.

Desde el ámbito transaccional, Teresa Zueco explicó cómo la inteligencia artificial ya forma parte del análisis de valor en operaciones de compraventa de empresas. Desde 2024, señaló, muchas operaciones incluyen una “auditoría de inteligencia artificial” dentro de la due diligence, en la que se analiza tanto el origen del sistema como sus usos: “hacemos un mapeo aguas arriba de dónde viene la inteligencia artificial… y un mapeo aguas abajo para ver exactamente quién la utiliza”. Hasta que el Reglamento europeo de IA sea plenamente aplicable, el principal anclaje jurídico sigue siendo el RGPD, lo que genera todavía incertidumbres sobre cómo valorar los riesgos derivados de sesgos algorítmicos en una transacción empresarial.

Por su parte, Pilar Menor trasladó el debate al ámbito laboral, donde la inteligencia artificial ya influye en procesos de selección, evaluación del desempeño, promoción o despidos. “El titular no es si la inteligencia artificial va a afectar al mundo del trabajo sino con qué velocidad y con qué nivel de responsabilidad”, afirmó. Subrayó que estos sistemas están considerados de alto riesgo en el Reglamento europeo de IA, por su impacto en derechos fundamentales como la igualdad o el acceso al empleo, lo que exige gobernanza, supervisión continua y formación dentro de las organizaciones. En todo caso, insistió en que la tecnología debe ser una herramienta de apoyo: “la decisión última tiene que ser humana”.

Mesa 3 – Nuevos retos jurídicos de la violencia digital de género

La tercera mesa, moderada por Mabel Klimt, diputada de la Junta de Gobierno del ICAM, puso el foco en cómo la violencia digital reproduce y amplifica la violencia machista y en las dificultades de encaje jurídico y probatorio en un entorno marcado por la rapidez de difusión de los contenidos y la dimensión transnacional de internet.

El presidente de la Sala Segunda del Tribunal Supremo, Manuel Marchena, analizó los desafíos que las nuevas tecnologías plantean al derecho penal, especialmente en la protección de la intimidad frente a nuevas formas de vigilancia y control en el ámbito digital. Como ejemplo, recordó un caso en el que un hombre instaló un programa en el ordenador familiar para acceder a los correos electrónicos de su esposa y utilizarlos después en un proceso de divorcio. El Tribunal Supremo rechazó esta actuación y reafirmó que el derecho a la intimidad “subsiste plenamente dentro del matrimonio”. Marchena repasó también la evolución legislativa para adaptarse a estas nuevas conductas, como la tipificación de la difusión no consentida de imágenes íntimas o el refuerzo del delito de acoso digital. En su reflexión final advirtió sobre los riesgos del anonimato en la red: “quien reivindica la libertad de expresión para insultar o degradar a otra persona lo hace muchas veces desde una identidad ficticia: no habla él, habla una serie alfanumérica”.

Por su parte, la fiscal especializada contra la criminalidad informática Escarlata Gutiérrez Mayo radiografió el fenómeno desde la experiencia práctica y los datos, subrayando su impacto desproporcionado sobre mujeres y niñas: “el 73% de las mujeres han sido víctimas de algún tipo de violencia online”. La fiscal insistió en que no se trata de una violencia “menor” por producirse en internet, ya que “puede tener unos efectos mucho mayores que la violencia física en la vida personal, profesional y relacional”, y advirtió de que el acoso digital termina expulsando a muchas mujeres del espacio público en redes. Como ejemplo, relató un episodio personal relacionado con Grok, la IA integrada en la red social X, que fue utilizada por usuarios para pedir que desnudara o sexualizara fotografías de otras personas. En menos de quince días se llegaron a generar 190 imágenes sexualizadas por minuto, de las cuales 23.000 correspondían a menores de edad. La propia fiscal descubrió que circulaba una imagen manipulada suya en bikini, una situación que le llevó a replantearse su presencia profesional en la plataforma: “para mí fue un momento especialmente complicado”, reconoció, al comprobar la rapidez con la que estas herramientas pueden amplificar la humillación pública y la violencia digital.

Mesa 4 – Herramientas procesales para combatir la violencia digital

En la cuarta mesa, moderada por Carmen Fernández Zabalza, decana del ICA Soria, se abordó con enfoque muy práctico cómo investigar, preservar prueba y retirar contenidos en casos de violencia digital.

El fiscal delegado de Criminalidad Informática de la Fiscalía de Madrid, Fidel Solera Guijarro, advirtió del salto cualitativo que introduce la IA en la generación de ataques a la reputación y la dignidad: “en menos de un minuto, con una imagen mía, puede generar un vídeo haciendo cualquier cosa”, aseguró. El fiscal delegado explicó que la prioridad no es solo perseguir al autor, sino cortar la victimización: “nos interesa tanto perseguir el delito como conseguir que ese contenido sea retirado”, porque “la retirada del contenido es esencial” cuando el daño se amplifica y persiste en internet. Puso ejemplos reales —desde grabaciones bajo la falda en el Metro hasta acosos prolongados y balizas tipo AirTag— y reclamó insistir en diligencias tecnológicas, preservación y mandatos judiciales, recordando que “cuando se denuncia y se investiga, se localizan autores”.

Desde el punto de vista pericial, Fernando Mairata de Anduiza, presidente de PETEC, centró su intervención en cómo convertir lo digital en prueba válida ante un juzgado: “los pantallazos no sirven para nada” y las evidencias deben aportarse “en digital, con un informe pericial, y con su cadena de custodia”. Recalcó el papel de la denuncia y de los recursos de apoyo a víctimas, animando a acudir a las fuerzas y cuerpos de seguridad del Estado y de utilizar el número gratuito 017 de INCIBE se pone a disposición de los usuarios para ayudarles a resolver los problemas de ciberseguridad que puedan surgir en su día a día. Defendió también medidas de prevención y educación —como la Ciberliga de la Guardia Civil— y se posicionó sobre la identidad en redes, reconociéndose “partidario de desanonimizar”, al entender que reduce impunidad y facilita la trazabilidad de los delitos.

Además, a raíz de las preguntas del público, se abordaron otras cuestiones prácticas, como la importancia de solicitar no solo la retirada, sino también la preservación de los contenidos para evitar que la prueba desaparezca, conforme al artículo 588 de la Ley de Enjuiciamiento Criminal. También se debatió sobre el anonimato en redes y su posible limitación para facilitar la identificación de autores, así como sobre la validez de determinadas grabaciones y el acceso de los progenitores a los dispositivos de hijos menores en contextos de protección frente a delitos.

Mesa 5 – La visión de las instituciones protectoras

La quinta mesa redonda de la XIII Cumbre de Mujeres Juristas, moderada por José Ramón Couso, Diputado del ICAM, abordó el papel de las instituciones y organizaciones sociales en la protección de las víctimas frente a la violencia digital. Durante el debate se analizaron los obstáculos que encuentran las víctimas para denunciar, la importancia de la educación digital, la cooperación institucional y la necesidad de mejorar la respuesta jurídica ante estos delitos.

La presidenta de la asociación Stop Violencia de Género Digital, Encarni Iglesias Pereira, puso el foco en la realidad que viven las víctimas y en las dificultades prácticas para que la protección jurídica llegue a quienes sufren este tipo de violencia. Iglesias advirtió de la distancia entre la velocidad de internet y la de los procedimientos judiciales al afirmar que “Internet va en un Mercedes y los procedimientos en evidencias digitales no llegan ni al 600”, y reclamó reforzar recursos como los peritajes digitales y la retirada rápida de contenidos dañinos para las víctimas.

Por su parte, la directora de la Oficina de Protección a las Víctimas de la Comunidad de Madrid, María Jesús Juárez, explicó el trabajo de acompañamiento jurídico, psicológico y social que se realiza desde estos servicios en los juzgados y subrayó que la violencia digital no puede abordarse únicamente desde el ámbito penal. Según señaló, “no podemos circunscribir este problema solamente al ámbito jurídico o al ámbito penal cuando se produce el delito”, sino que requiere una respuesta integral que incluya prevención, educación y cooperación institucional.

La policía nacional jubilada y presidenta de la Asociación de Jubilados de la Policía Nacional de España (AJPNE), Laura Giménez, destacó la importancia de la formación, la cooperación entre organismos y el liderazgo institucional para combatir estos delitos. En este sentido, defendió que “la formación en ciberseguridad es importantísima” y recordó que las fuerzas y cuerpos de seguridad cuentan con equipos cada vez más especializados para investigar este tipo de conductas.

Durante el debate final con el público se abordaron cuestiones como la normalización social de ciertos comportamientos digitales entre jóvenes, el impacto de la pornografía en la percepción de la violencia, la dificultad de perseguir delitos cometidos desde otros países, el anonimato en internet y la necesidad de regular la inteligencia artificial. También se discutió sobre la educación digital de menores, los riesgos de compartir información personal en redes sociales y el papel de los poderes públicos en la regulación de estas nuevas formas de violencia.


Información relacionada

Especial web – XIII Cumbre de Mujeres Juristas

El ICAM reclama en el Congreso garantías jurídicas para blindar la igualdad ante la Inteligencia Artificial

Del anonimato en Internet a los sesgos algorítmicos: los retos jurídicos de la Inteligencia Artificial, a debate en la Cumbre de Mujeres Juristas del ICAM

Compartir en tus RRSS