Todas las noticias (b4) | UCV

Congreso 'Desafíos del Derecho y la Justicia'

El presidente de la AEPD reclama un marco legal sólido para un uso "responsable" de la IA en la administración

El presidente de la AEPD reclama un marco legal sólido para un uso "responsable" de la IA en la administración

El presidente de la Agencia Española de Protección de Datos (AEPD), Lorenzo Cotino, ha instado a desarrollar políticas públicas y marcos normativos que aseguren la transparencia, la equidad y la rendición de cuentas en el uso de la inteligencia artificial (IA), especialmente en la administración pública.

Durante su intervención en la Universidad Católica de Valencia (UCV), el también catedrático de Derecho Constitucional de la Universitat de València ha defendido que “las administraciones deben incorporar la inteligencia artificial en su funcionamiento, pero de forma jurídica y responsable, con base en los principios de eficacia y eficiencia”. “No basta con usar la inteligencia artificial. Hay que hacerlo de manera segura, responsable y con respeto a los derechos fundamentales”, ha afirmado.

La AEPD lanza su nuevo plan estratégico: “Inteligencia artificial, primero”

Cotino ha destacado la reciente aprobación del nuevo plan estratégico de la AEPD, cuyo lema es “Inteligencia artificial, primero”. Este documento “establece una hoja de ruta para incorporar de manera progresiva la IA en la gestión interna de la institución, definiendo casos de uso y evaluando los riesgos asociados”.

Asimismo, ha adelantado que “este mismo mes se publicará la política de uso interno de IA de la Agencia”, un texto que “podrá servir como referencia para otras instituciones públicas e incluso privadas”.

Sesgos y discriminación algorítmica: un desafío jurídico y humano

En el marco del congreso “Desafíos del Derecho y la Justicia en la era digital y en la Cuarta Revolución Industrial”, organizado por la Facultad de Ciencias Jurídicas, Económicas y Sociales de la UCV, Cotino ha analizado los riesgos jurídicos y sociales derivados de los sesgos y la discriminación algorítmica, que ha calificado como “uno de los temas más complejos desde el punto de vista jurídico”.

El experto ha distinguido entre sesgo algorítmico, “un error técnico en el sistema”, y discriminación algorítmica, “el efecto jurídico o social que dicho error puede generar” para explicar que la mayoría de las discriminaciones “no son intencionadas, sino consecuencia de errores en los datos o en los sistemas que los procesan”, y subrayar la necesidad de distinguir los sesgos humanos de los tecnológicos para prevenirlos eficazmente.

Además, ha advertido del componente humano y cultural en estos problemas: “Más del 80 % de los desarrolladores de software son hombres blancos con una determinada forma de ver el mundo, lo que genera ángulos muertos involuntarios”. Por ello, ha pedido mayor diversidad e igualdad en los equipos de desarrollo y políticas que fomenten una tecnología más inclusiva.

Refuerzo normativo y garantías para los ciudadanos

Desde una perspectiva jurídica, Cotino ha recordado que el Reglamento General de Protección de Datos (RGPD) sigue siendo la base esencial para prevenir los sesgos y garantizar un uso responsable de la IA, especialmente los artículos 9 y 22 del reglamento, que protegen frente a decisiones automatizadas. Sin embargo, “el sector público aún carece de cobertura legal suficiente para el uso automatizado de datos sensibles”.

El presidente de la AEPD también se refirió al Reglamento Europeo de Inteligencia Artificial, que fija criterios de gobernanza y control técnico y considera algunos sistemas “de alto riesgo” en sectores como la justicia, la educación o el empleo y ha recordado que la Ley Valenciana de Transparencia (2022) fue pionera en regular la transparencia de los algoritmos públicos, marcando el camino hacia una administración más abierta, comprensible y responsable.

Otros retos abordados: deepfakes, abuso infantil y justicia digital

La jornada ha contado también con la participación de expertas de diversas universidades. Las profesoras Ana Montesinos y Elisa Simó (Universitat de València) han abordado el fenómeno de las ultrafalsificaciones (deepfakes), alertando sobre su impacto en la valoración judicial de la evidencia; Silvia Sempere (UCV) ha analizado la victimización digital de menores, mientras que Elena de Luis García (UV) se ha centrado en la detección e investigación del abuso sexual infantil en internet.

Por su parte, Raquel Borges (UV) ha tratado la digitalización de la prueba preconstituida y su repercusión en el derecho de defensa; Ana Isabel Blanco (UV) ha reflexionado sobre el edadismo en las aplicaciones inteligentes, y María José Catalán (Universidad de Córdoba) ha cerrado el encuentro con una ponencia sobre la vulnerabilidad de las personas ante la digitalización de la justicia.

Noticia anterior_ El jurista Massimo Merola aboga por un sistema de remedios más eficiente y menos politizado en el derecho de la competencia europeo
Noticia siguiente El equipo de José Gallego abre una nueva vía para frenar la replicación del VIH-1

Más noticias UCV

Nuestros vídeos

Ver nuestros vídeos

Calendario

«noviembre de 2025»
lu.ma.mi.ju.vi.sá.do.
272829303112
3456789
10111213141516
17181920212223
24252627282930
1234567