Los desafíos de la trazabilidad en la era de las Black Boxes

Autores/as

DOI:

https://doi.org/10.35319/lawreview.202618139

Palabras clave:

AI Act, Black Boxes, contenido sintético, opacidad algorítmica, responsabilidad, trazabilidad

Resumen

El presente artículo realiza una revisión crítica al AI Act, centrando el análisis en la estructura funcional que éste establece, a través de la cual, asigna roles y responsabilidades diferenciadas a los distintos actores de la cadena de valor de los sistemas de inteligencia artificial. Principalmente, examina la distribución de obligaciones a lo largo del ciclo de vida de dichos sistemas, con especial atención a los contextos de opacidad algorítmica en los sistemas de tipo Black Box, en los que los procesos decisionales internos resultan inaccesibles o complejos de reconstruir incluso para sus propios desarrolladores. Se plantea si el AI Act puede garantizar una atribución efectiva de responsabilidades frente al avance tecnológico y la proliferación de contenido sintético, dado que la trazabilidad técnica se torna progresivamente más dificultosa. La tesis central sostiene que una posible solución consiste en robustecer el entramado probatorio e incorporar la figura del Logger, lo que permitiría conservar evidencia del proceso decisional y prevenir que las obligaciones establecidas en el AI Act se reduzcan a una categoría formal e ineficaz. Sin embargo, concluye en que la implementación práctica enfrenta un desafío sustancial; pues, el descomponer exhaustivamente la cadena de decisiones de un sistema de IA, cuando su diseño prioriza la eficiencia sobre la explicabilidad, sería, en muchos casos, incompatible con la propia lógica operativa de eficiencia.

Descargas

Los datos de descargas todavía no están disponibles.

Citas

Alda Rodríguez, Á., Díaz López de la Llave, G., & Horrillo, P. (2026). Construyendo un log verificable, parte 1: Ideas principales. BBVA. https://www.bbva.com/es/innovacion/construyendo-un-log-verificable-parte-1-ideas-principales/

Ashkara, Z. (2025). AI liability directive withdrawn: EU impact 2025. AI Act Blog. https://www.aiactblog.nl/en/posts/ai-liability-directive-withdrawal

Burrell, J. (2016). How the machine ‘thinks’: Understanding opacity in machine learning algorithms. Big Data & Society, 3(1). https://doi.org/10.1177/2053951715622512

Doshi-Velez, F., & Kim, B. (2017). Towards a rigorous science of interpretable machine learning (arXiv:1702.08608). arXiv. https://doi.org/10.48550/arXiv.1702.08608

Ghiurău, D., & Popescu, D. E. (2024). Distinguishing Reality from AI:Approaches for Detecting Synthetic Content. Computers, 14(1), 1. https://doi.org/10.3390/computers14010001

Molnar, C. (2019). Interpretable machine learning: A guide for making Black Box models explainable. Leanpub. https://christophm.github.io/interpretable-ml-book/

Comisión Europea. (2022). Propuesta de Directiva del Parlamento Europeo y del Consejo sobre normas de responsabilidad civil extracontractual en materia de inteligencia artificial (COM (2022) 496 final)(AI Liability Directive). https://eurlex.europa.eu/legal-content/EN/TXT/?uri=celex:52022PC0496

Parlamento Europeo y del Consejo de la Unión Europea. (2024). Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024 (AI Act). Diario Oficial de la Unión Europea. https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX%3A32024R1689

Song, P. (2026). Model cards and data sheets: documentation standards for ML. ML Journey. https://mljourney.com/model-cards-and-data-sheets-documentation-standards-for-ml/

Varughese, J. (2026). ¿Qué son las redes generativas adversariales (GAN)? IBM. https://www.ibm.com/mx-es/think/topics/generative-adversarial-networks

Los desafíos de la trazabilidad en la era de las black boxes

Descargas

Publicado

28.04.2026

Cómo citar

Galvarro Gaillard , M. S. (2026). Los desafíos de la trazabilidad en la era de las Black Boxes. Revista De Derecho De La UCB, 10(18), 179–193. https://doi.org/10.35319/lawreview.202618139