Del anonimato en Internet a los sesgos algorítmicos: los retos jurídicos de la Inteligencia Artificial, a debate en la Cumbre de Mujeres Juristas del ICAM

  • El magistrado Manuel Marchena plantea acabar con el anonimato en las redes sociales para frenar la violencia digital
  • El presidente de la AEPD, Lorenzo Cotino, advierte de que muchos problemas de la inteligencia artificial no son tecnológicos, sino fruto de errores humanos y de sistemas mal diseñados.
  • Juristas alertan de que la inteligencia artificial puede amplificar las desigualdades si las mujeres no participan en su desarrollo y gobernanza.

Desde la regulación tecnológica hasta la protección de datos o la respuesta penal frente a nuevas formas de violencia digital, la irrupción de la inteligencia artificial en todos los ámbitos plantea al mundo del derecho un abanico cada vez mayor de desafíos técnico-jurídicos en la protección de los derechos fundamentales. Cómo afrontarlos desde el marco normativo existente y qué garantías deben reforzarse para evitar que los sistemas automatizados reproduzcan desigualdades o generen nuevas formas de discriminación ha sido el hilo conductor de las distintas sesiones de análisis y debate celebradas en la jornada matinal de la XIII Cumbre de Mujeres Juristas del ICAM, que se celebra este jueves y viernes en el Congreso de los Diputados.

En ese contexto de transformación tecnológica y de aparición de nuevas formas de vulneración de derechos en el entorno digital, el presidente de la Sala Segunda del Tribunal Supremo, Manuel Marchena, analizó los desafíos que las nuevas tecnologías plantean al derecho penal, especialmente en la protección de la intimidad frente a formas cada vez más sofisticadas de vigilancia, control y violencia digital.

Para ilustrar estos riesgos, Marchena recordó un caso resuelto por el Tribunal Supremo a mediados de la década de 2000 en el que un hombre instaló un programa en el ordenador familiar que le permitía controlar a distancia su uso desde su lugar de trabajo y acceder a los correos electrónicos de su esposa. El acusado utilizó posteriormente esos mensajes como prueba en un proceso de divorcio para intentar obtener la custodia de su hija. El Tribunal Supremo rechazó los argumentos de la defensa y reafirmó que el derecho a la intimidad y a la autodeterminación informativa subsiste plenamente dentro del matrimonio.

A partir de ese ejemplo, Marchena explicó cómo el derecho penal ha ido adaptándose a las nuevas formas de violencia digital. En particular, destacó la reforma del Código Penal de 2015 que introdujo el delito de difusión no consentida de imágenes íntimas y se refirió también al delito de acoso digital, tipificado en el artículo 172 ter, cuya aplicación se vio reforzada tras la reforma de 2022 al eliminar el requisito de que las conductas provocaran una “grave alteración” de la vida cotidiana de la víctima.

La intervención concluyó con una reflexión sobre el funcionamiento de internet y sus implicaciones para la protección de la dignidad en el entorno digital. A juicio de Marchena, la posibilidad de actuar en la red bajo identidades anónimas facilita en muchos casos la difusión de ataques personales o mensajes degradantes sin asumir responsabilidad.

“Esta lucha concertada de todas las instituciones para reivindicar esa dignidad mancillada, incluso a través de formatos digitales, necesita un instrumento clave: acabar con el anonimato en la red”, afirmó.

El magistrado sostuvo que la libertad de expresión no puede desvincularse del principio de responsabilidad personal. “Quien reivindica la libertad de expresión para insultar o degradar a otra persona lo hace muchas veces desde una identidad ficticia: no habla él, habla una serie alfanumérica”, señaló.

En su opinión, esta situación está generando una “doble realidad”: una esfera de convivencia sometida a normas y responsabilidades jurídicas y, paralelamente, un espacio digital en el que las agresiones pueden difundirse sin consecuencias. Por ello defendió avanzar hacia sistemas que permitan identificar a los usuarios en determinados contextos digitales —por ejemplo mediante mecanismos de identificación electrónica—, aunque advirtió de que cualquier solución debe diseñarse con cautela para no comprometer la libertad de expresión en contextos donde internet constituye el único espacio posible para la crítica política o social.

Sesgos algorítmicos y protección de datos: los límites del marco jurídico actual

Por su parte, el presidente de la Agencia Española de Protección de Datos, Lorenzo Cotino, abordó el impacto de los sistemas automatizados desde la perspectiva del derecho de protección de datos y de los riesgos de discriminación algorítmica.

Cotino advirtió de que el debate público sobre inteligencia artificial suele plantearse en términos excesivamente alarmistas, cuando en realidad muchos de los problemas detectados responden a fallos en el diseño o la implementación de los sistemas. “La mayoría de los problemas que hay con la inteligencia artificial son por errores humanos, por no haber hecho bien las cosas”, señaló, defendiendo que una inteligencia artificial correctamente diseñada y sometida a controles jurídicos adecuados puede incluso contribuir a reducir algunos de los sesgos presentes en las decisiones humanas.

El jurista subrayó además la necesidad de distinguir entre sesgos y discriminación, dos conceptos que a menudo se confunden en el debate público. Los sesgos pueden derivar de errores en los datos o en el funcionamiento de los sistemas; solo cuando esos errores producen efectos diferenciados sobre determinados colectivos se transforman en situaciones de discriminación jurídicamente relevantes.

En ese contexto destacó la utilidad de la Ley 15/2022 de igualdad de trato y no discriminación, que introduce categorías como la discriminación por error o la discriminación por asociación, que puede producirse cuando variables aparentemente neutras —como el lugar de residencia o determinados hábitos de consumo— permiten inferir características personales sensibles.

Desde el punto de vista técnico y jurídico, Cotino explicó que la prevención de estos riesgos exige actuar en tres niveles: la calidad de los datos —“si entra basura, sale basura”, resumió—, el diseño técnico de los algoritmos, que debe incorporar métricas de error y mecanismos de evaluación, y los factores humanos, como la tendencia a confiar excesivamente en las recomendaciones automatizadas o la escasa diversidad en los equipos que desarrollan estos sistemas.

Para ilustrar estos riesgos, el presidente de la AEPD citó varios casos en los que sistemas automatizados terminaron generando efectos discriminatorios, como el uso de algoritmos para asignar ayudas médicas en Estados Unidos, el sistema SyRI en Países Bajos para detectar fraude en ayudas sociales o el caso del bono social eléctrico en España, en el que la Agencia concluyó que el sistema automatizado no había incorporado garantías suficientes para proteger a colectivos vulnerables.

Cotino advirtió además de que en muchos supuestos las decisiones se presentan formalmente como humanas, aunque en la práctica estén condicionadas por sistemas automatizados que filtran previamente las opciones disponibles.

Como conclusión, subrayó que los principios clásicos de la protección de datos —calidad de los datos, minimización del tratamiento y transparencia— se han convertido hoy en herramientas esenciales para el control jurídico de la inteligencia artificial.

En particular, defendió la importancia de la transparencia y, en particular, de la explicabilidad de los algoritmos, ya que solo cuando las personas conocen que están siendo objeto de decisiones automatizadas y pueden comprender los elementos básicos del sistema es posible detectar posibles discriminaciones y exigir responsabilidades.

Gobernanza tecnológica y perspectiva global

La abogada Almudena Arpón, socia de Gómez-Acebo & Pombo y expresidenta de la International Bar Association (IBA), situó el debate en un contexto internacional marcado por la rápida expansión de la inteligencia artificial y por las desigualdades que todavía persisten en el acceso y desarrollo de estas tecnologías.

Desde esa perspectiva global, subrayó que Europa cuenta hoy con uno de los marcos institucionales más sólidos para la protección de los derechos humanos y de la igualdad de género, aunque advirtió de que la realidad social de partida sigue estando lejos de ser plenamente igualitaria. Ese desequilibrio, explicó, también se refleja en el propio ecosistema tecnológico. “La inteligencia artificial aprende de los datos con los que se alimenta”, recordó, advirtiendo de que los sistemas automatizados pueden reproducir y amplificar sesgos existentes si no se corrigen desde su diseño.

En ese sentido, llamó la atención sobre la brecha de género que todavía persiste en el sector: solo el 12 % de las personas dedicadas a la investigación en inteligencia artificial son mujeres, y las startups fundadas por mujeres en este ámbito reciben apenas el 2 % de la financiación de capital riesgo. “La participación de las mujeres en la configuración de los sistemas de inteligencia artificial es esencial para detectar y corregir estos sesgos desde el inicio”, señaló.

Sobre ese punto de partida, Arpón analizó las luces y sombras del Reglamento Europeo de Inteligencia Artificial, uno de los desarrollos regulatorios más ambiciosos a nivel global en materia de gobernanza tecnológica. “La primera gran luz del reglamento es simplemente que exista”, afirmó, destacando que Europa haya optado por establecer un marco normativo jurídicamente vinculante para abordar los riesgos asociados a esta tecnología.

El reglamento introduce una arquitectura basada en niveles de riesgo, que prohíbe determinados usos incompatibles con los derechos fundamentales y somete a estrictos controles a los sistemas considerados de alto riesgo, especialmente en ámbitos sensibles como el empleo, los procesos de selección o el acceso a servicios esenciales. Este enfoque se ve además reforzado por el Convenio internacional sobre inteligencia artificial, derechos humanos, democracia y Estado de derecho promovido por el Consejo de Europa.

No obstante, la abogada advirtió también de los límites del nuevo marco normativo. Por un lado, la complejidad técnica de los sistemas plantea importantes desafíos de supervisión; por otro, aunque el reglamento incorpora referencias a la igualdad de género, no está concebido específicamente para abordar las discriminaciones desde esa perspectiva ni prevé autoridades especializadas en esta materia. Además, deja un espacio relevante a mecanismos de autorregulación, lo que puede generar tensiones entre los incentivos económicos de las empresas y la protección efectiva de los derechos.

Con todo, Arpón defendió que Europa se encuentra hoy “en el mejor lugar posible” para afrontar estos desafíos y subrayó que la eficacia del nuevo marco normativo dependerá en gran medida de cómo se aplique en la práctica y del control institucional y social sobre su implementación”.


Información relacionada

Especial web – XIII Cumbre de Mujeres Juristas

El ICAM reclama en el Congreso garantías jurídicas para blindar la igualdad ante la Inteligencia Artificial

El ICAM propone reformar el Código Penal para frenar el “neointrusismo digital” en el asesoramiento jurídico con IA

El ICAM propone crear un registro estatal de algoritmos que proteja al consumidor en el mercado digital

Compartir en tus RRSS