Publicado el 28 de septiembre de 2022 a las 16:25
Un dron choca contra el techo de una casa. Un coche autónomo que atropella a un peatón. ¿Quién es responsable cuando una tecnología causa daño y qué indemnización a los perjudicados? La Comisión Europea tiene la intención de proporcionar la respuesta a estas preguntas complejas con una propuesta de directiva que promulga nuevas reglas de responsabilidad para la inteligencia artificial (IA), presentada el miércoles.
Habiéndose convertido en una tecnología clave en los últimos años, la IA ha invadido nuestras vidas. Aparece en todos los campos, desde el transporte, hasta la concesión de créditos, pasando por programas de fitness, salud, o nutrición…
Sin embargo, actualmente no existe un marco legal específico en términos de responsabilidad dedicado a la IA. Por tanto, el ciudadano europeo se encuentra muy privado de obtener una indemnización cuando se produce un daño. Y cada vez son más, como ilustra, por ejemplo, el reciente caso emblemático, este verano, en Rusia, del Robot jugador de ajedrez que le rompió el dedo a un niño de 7 años .
“Las nuevas tecnologías, como los drones, por ejemplo, solo pueden funcionar si el consumidor se siente protegido y seguro, algo que las normas actuales no pueden garantizar”, explicó Didier Reynders, el comisario responsable de Justicia, precisando que la directiva cubrirá “todo tipo de daño” y “facilitar a las víctimas la iniciación de procedimientos”. La Comisión lo tiene claro: el ciudadano europeo debe tener el mismo nivel de compensación y protección que en los casos que no involucran a la IA.
Reducir el nivel de la carga de la prueba
Concretamente, el texto prevé simplificar el proceso legal para que la víctima pueda probar más fácilmente que la culpa de una persona causó el daño. Porque si no es capaz de aportar estas pruebas, no puede beneficiarse de una indemnización… Sin embargo, no siempre es fácil determinar la responsabilidad de un accidente cuando se trata de un objeto conectado o de un robot.
También aligera el nivel de la carga de la prueba para la víctima al introducir la idea de “presunción de causalidad” en caso de falta donde el nexo causal con la actuación de la IA “parece razonablemente probable”. “El objetivo es evitar que la víctima tenga que describir y demostrar el mal funcionamiento de la IA, es decir de alguna manera lo que hay en la caja negra”, explica un alto funcionario europeo. Esto podría, por ejemplo, ser útil en casos de discriminación durante un proceso de contratación utilizando tecnología de IA.
Y eso no es todo. La nueva directiva también otorga un derecho de acceso a la información de empresas y proveedores sobre sistemas de inteligencia artificial de alto riesgo para determinar mejor de dónde proviene la responsabilidad en caso de daño. Si se debe a una falla u omisión de, por ejemplo, el proveedor, el desarrollador o un usuario de IA.
“Si un robot de limpieza de aceras golpea una carriola y lesiona a un bebé, los padres pueden exigir que el fabricante arroje toda la luz sobre la forma en que se diseñó el robot y las precauciones de seguridad tomadas, ilustra un alto funcionario. Si no proporciona esta información, se presumirá una conducta defectuosa y será responsable del daño”.
“Se protegerán los datos comerciales secretos de las empresas”, aseguran los diseñadores de la directiva. En el futuro, las víctimas deberían poder volverse contra “todos los actores de la cadena de suministro y no solo los fabricantes”, especificó Didier Reynders.
Esta directiva sobre IA -que aún debe ser adoptada por el Parlamento Europeo y el Consejo- complementa otra directiva sobre la responsabilidad objetiva de los fabricantes por productos defectuosos (sillas de jardín, medicamentos, automóviles, productos basados en IA) que, desde 1985, ser modernizado.
Con estas nuevas reglas, la Comisión también espera alentar a las empresas a cumplir con reglas de seguridad más estrictas y, por lo tanto, fortalecer la confianza pública en la IA, lo que promovería su desarrollo.