DESAFÍOS DE LA “DOCUMENTACIÓN TÉCNICA” EN LOS PRÓXIMOS AÑOS
El Reglamento de Inteligencia Artificial (IA) ha establecido la obligación de disponer de la documentación técnica que explique el funcionamiento de los sistemas de IA de alto riesgo (art. 11), así como la trazabilidad (o capacidad de registro de tal funcionamiento) en su art. 12 “durante todo su ciclo de vida”, de forma que, si se unen ambas obligaciones, parece evidente que lo que persigue el legislador es que se pueda conocer cómo funciona a nivel interno.
La documentación técnica será una prueba fundamental en los futuros litigios de responsabilidad civil por daños causados por sistemas de IA. De un lado, el proveedor del sistema o modelo de IA podría acreditar que fue correctamente configurado conforme a los resultados esperados y, de otro lado, en su caso, la víctima del daño podría ver probado que el sistema fue configurado sin observar la debida diligencia en alguna de sus funciones.
Es de sobra conocido que la inteligencia artificial se caracteriza por utilizar software compuesto por algoritmos de aprendizaje automático, y, una vez se dispone de un modelo final, se ejecuta el programa. El problema radica en que este software, al aprender por sí mismos, pueden ofrecer resultados no previstos por sus desarrolladores o, dicho de otra forma, tomar decisiones cuya explicación o trazabilidad no es posible, lo que se conoce como “opacidad” y que ha sido advertida reiteradamente por el legislador europeo.
Los algoritmos que presentan esta característica, es decir, los denominados comúnmente “opacos”, son conocidos como black box.
Pues bien, aunque existen algunas iniciativas entre los expertos en inteligencia artificial para buscar soluciones a este problema de la opacidad , por el momento es una realidad preocupante, no sólo a nivel técnico sino a nivel jurídico, pues, a la luz de lo expuesto, las obligaciones contenidas en el Reglamento , especialmente las relativas a la trazabilidad y a la documentación técnica, no podrían ofrecer el nivel de protección pretendido por el legislador europeo, dada la opacidad de muchos de los sistemas.
Dada la propia naturaleza de la inteligencia artificial, desde un punto de vista técnico-informático, la información que se exponga en la “documentación técnica” que exige el Reglamento, en muchas ocasiones, no plasmará adecuadamente el funcionamiento exacto de estos sistemas y, menos, podrá mantenerse actualizada.
Todo ello nos lleva a plantear la duda de cómo se interpretará y aplicará esta exigencia normativa y es que, de un lado, esta dificultad puede perjudicar al proveedor, que no sólo podría considerarse incumplidor sino también, quizá, responsable civilmente, al no poder acreditar que su sistema fue configurado diligentemente. En todo caso, no debe perderse de vista que el propio Reglamento indica en su artículo 8 que el cumplimiento de los requisitos queda sujeto a “su finalidad prevista” y al “estado de la técnica generalmente reconocido en materia de IA y tecnologías relacionadas con la IA”.
La propuesta de Directiva sobre responsabilidad en materia de IA del 28 de septiembre de 2022 ya tuvo en cuenta la dificultad para conocer la procedencia del daño en el caso de las víctimas y poder así fundamentar sus demandas. Con la exhibición de pruebas por el proveedor demandado quizá podría ver denegada su pretensión, precisamente porque no es posible acreditar que el daño, en efecto, procede de una mala configuración de la acción u omisión culposa del proveedor en el desarrollo del sistema, por tanto y con ello, establecer la relación causa-efecto que toda imputación de responsabilidad civil requiere.
Cuestiones como las anteriormente señaladas son fundamentales en el día a día de muchos negocios y por ello prestaremos la máxima atención informando de todas y cada una de las novedades.
Dejar un comentario
¿Quieres unirte a la conversación?Siéntete libre de contribuir!