Locations
Publicado el estudio sobre la propuesta de Directiva para adaptar las normas de responsabilidad extracontractual a los sistemas de IA tras la aprobación del Reglamento IA.
En un estudio publicado por el Servicio de Estudios del Parlamento Europeo (EPRS) en septiembre de 2024 (Estudio), se ha realizado un análisis de la propuesta de Directiva sobre la responsabilidad civil en materia de inteligencia artificial (IA) publicada en septiembre de 2022. El Estudio revisa la propuesta original tras la aprobación del Reglamento Europeo de Inteligencia Artificial y plantea mejoras clave para hacerla más robusta y amplia donde, entre otros aspectos, son destacables el establecimiento de un marco mixto de responsabilidad y la ampliación de la regulación a los sistemas de IA para uso general y no solo de IA de alto riesgo.
Un enfoque mixto para la responsabilidad que se base no sólo en la culpa sino también en la responsabilidad objetiva
Uno de los puntos clave del Estudio del EPRS es la creación de un marco mixto de responsabilidad. Este enfoque busca encontrar un equilibrio entre la responsabilidad basada en la culpa y la responsabilidad objetiva. ¿Qué significa esto? Básicamente, que las partes intervinientes en la explotación de sistemas basados en IA responderían por los daños que causen sus sistemas, pero la forma en que se les responsabilice dependerá del tipo de IA empleado y del daño ocasionado.
En situaciones donde un sistema de IA falla o actúa de manera inesperada, se podría responsabilizar al proveedor si se demuestra que no tomaron las precauciones necesarias. Este es el enfoque tradicional de la responsabilidad civil: si alguien comete un error o negligencia, debe compensar a la víctima. Sin embargo, el Estudio señala que demostrar la culpa en el caso de los sistemas de IA puede ser extremadamente complicado, debido a su complejidad técnica y su autonomía resultando en una mayor dificultad para depurar dicha responsabilidad.
Para ello, el Estudio propone que los sistemas de IA de alto riesgo —aquellos que podrían causar daños significativos o impactar áreas sensibles como la seguridad o los derechos fundamentales— estén sujetos a un régimen de responsabilidad objetiva; tomando como punto de partida iniciativas legislativas llevadas a cabo en algunos Estados de EE. UU., por ejemplo. Esto significa que, en caso de daño, las víctimas no tendrían que probar que la empresa responsable actuó con negligencia, y sólo demostrar que el daño fue causado por el sistema de IA. Este enfoque es especialmente relevante en sectores como la conducción autónoma o los sistemas de reconocimiento facial. También se propone que el borrador de Directiva quede actualizado incorporando la terminología finalmente adoptada por el Reglamento IA principalmente sobre los conceptos de: proveedor, operador o distribuidor entre otros.
El Estudio aboga por una regulación que abarque también un régimen de responsabilidad sobre software y sea más armonizadora
Otro punto importante que resalta el Estudio es que no podemos regular la IA de manera aislada. Muchos sistemas de software incluyen componentes de IA, y algunos sistemas de IA dependen de software que, por definición, no es considerado IA. Por eso, el Estudio propone que la regulación del régimen de responsabilidad extracontractual no se limite solo a la IA, sino que abarque todo tipo de software avanzado.
De acuerdo con el Estudio, un régimen de responsabilidad por software aseguraría que todos los desarrolladores de software que combinen el uso de IA cumplan con los mismos estándares de seguridad y transparencia, lo que facilitaría el acceso a la justicia para quienes se vean afectados por fallos en estos sistemas.
Otro aspecto destacable, es que el Reglamento IA clasifica los sistemas según el riesgo que presentan a nivel social, como el reconocimiento facial o los sistemas en el sector salud. Sin embargo, desde la perspectiva de la responsabilidad civil, el impacto que un sistema de IA puede tener en individuos específicos no siempre se alinea con estas clasificaciones. El Estudio propone ampliar el alcance de los sistemas clasificados como de alto riesgo en para abarcar una gama más amplia de aplicaciones de IA que puedan representar un riesgo significativo para las personas incorporando una categoría de "sistemas de IA de alto impacto", que cubra tanto a los sistemas ya considerados de alto riesgo como a otras aplicaciones potencialmente dañinas o también a los sistemas de IA de propósito general (GPAI), como ChatGPT y otros modelos generativos ya que su uso puede generar riesgos importantes.
Este tipo de medidas permitiría que una mayor seguridad jurídica y garantías para las personas que reclamen contra terceros por el uso de la IA de acuerdo con los criterios de responsabilidad expuestos.
Por último, el Estudio sugiere que, en lugar de una Directiva —que cada Estado miembro debe adaptar a su legislación nacional—, sería mejor adoptar un reglamento a nivel de la UE. Los reglamentos se aplican de manera uniforme en todos los países de la Unión, lo que garantizaría una mayor coherencia en la implementación de las normas y reduciría los costes de adaptación para las empresas teniendo en cuenta las implicaciones que tiene la IA en el mercado europeo a partir del Reglamento sobre IA.
El Estudio no solo refuerza la idea de que necesitamos un marco legal más sólido para la IA, sino que también aboga por una regulación integral que garantice una mayor protección para las víctimas, en un entorno más claro y predecible para las empresas que desarrollan e implementan estas tecnologías a través de un marco mixto de responsabilidad y una regulación más amplia es un paso importante en esa dirección.