¿Cuál es la responsabilidad de un robot en un daño causado a un ser humano?

Esther Monterroso

Luis Miguel Belda García.
Director de Comunicación del Grupo Educativo CEF.- UDIMA.

Entrevista con Esther Monterroso

Doctora europea en Derecho

El desarrollo de la tecnología es imparable. ¿Cómo afrontar los nuevos retos en esta materia, la legal y la de la responsabilidad?

La automatización de las máquinas ha supuesto un paso más a la mera mecanización, en la que se utilizaba un mecanismo ayudado de operarios (individuos humanos) para la realización de una tarea. Los distintos niveles de automatización son los que van permitiendo que una máquina pueda realizar una tarea por sí sola, de manera autónoma, sin los márgenes de error que cometemos los humanos y, además, en interconexión con otros sistemas.

Nos encontramos en un momento de desarrollo imparable de la tecnología en el que cada día los robots inteligentes pueden realizar actividades de mayor complejidad e, incluso, los algoritmos con los que están dotados les van permitiendo aprender a efectuar tales actividades cada vez con mayor precisión y rapidez.

Uno de los pilares de la IA se encuentra precisamente en esa toma de decisiones autónomas mediante redes neuronales artificiales, pudiendo revolucionar prácticamente cualquier sector. Las tareas encomendadas a robots, en función de las aplicaciones con las que cuentan, y la gestión de los datos, que es la base del aprendizaje de la IA, ya constituyen una realidad en muchos campos y su futura proyección resulta aún inimaginable.

En este contexto, el cambio tecnológico y social debe aparejar su regulación jurídica. Bajo esta premisa, la Comisión Europea ha instado a los gobiernos a preparar a los europeos para la transformación que supone la IA y a abordar las cuestiones de carácter ético y jurídico.

Nos encontramos en un momento en el que es preciso que el derecho garantice no solo la seguridad de estos productos, sino que otorgue garantías a los consumidores, para lo que es preciso establecer unas normas adecuadas para la atribución de responsabilidades en los supuestos en los que acontecen daños, dotando, además, a este escenario con los apropiados mecanismos aseguradores para hacer frente a las posibles indemnizaciones.

¿Está la legislación actual en España, o incluso en el mundo, adecuada para afrontar la responsabilidad por daños ocasionados por las máquinas, esto es, robots, IA, algoritmos, etc.?

La legislación nacional y europea, y qué duda cabe que también, y por el mismo motivo, la internacional, no se ha adaptado todavía a este nuevo escenario. Nuestro actual sistema jurídico carece de los recursos necesarios para dirimir adecuadamente las responsabilidades de quienes utilizan, diseñan, fabrican o comercializan estas tecnologías. Esta urgencia de legislar sobre los aspectos jurídicos y éticos que entraña la IA se evidencia en las Recomendaciones del PE sobre normas de Derecho civil sobre robótica, la Comunicación de la Comisión Europea “Inteligencia artificial para Europa”, las Recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil en materia de IA o la reciente Propuesta de Reglamento europeo por el que se establecen normas armonizadas en materia de IA.

¿De quién es la responsabilidad en caso de daño en estas circunstancias? ¿Del empresario, del operario que manipula en un momento dado la máquina, del ingeniero que configuró el software?

No es posible dar una respuesta sencilla. La determinación de las responsabilidades derivadas de la IA exige analizar en profundidad la casuística de los comportamientos de los sujetos involucrados, así como las distintas regulaciones sectoriales y los diferentes criterios de imputación actuales de la responsabilidad.

Como experta, ¿percibe dificultades para fijar una legislación común en el corto y medio plazo en el ámbito europeo en torno a este tema o todo lo contrario?

A corto plazo, existe una reciente Propuesta de Reglamento europeo por el que se establecen normas armonizadas en materia de IA, que pretende, a través de un primer marco jurídico, garantizar la seguridad y los derechos fundamentales, para lograr una IA fiable, enfocándose en los riesgos concretos que plantean los sistemas de IA. Para ello, plantea la existencia de cuatro niveles de sistemas de IA en función del riesgo, a los que impone prohibiciones u obligaciones en función de su categorización, estando sujetos a revisión periódica en un futuro para ir adaptándose al avance de las nuevas tecnologías.

No obstante, incluso antes de emerger, ya existen dudas de si dicha propuesta normativa presenta un marco jurídico suficiente para hacer frente a los riesgos derivados del uso de los sistemas de IA de alto riesgo. Por ello, desde la Universidad a Distancia de Madrid un equipo de profesores estamos involucrados en el estudio de los riesgos y responsabilidades derivados de la utilización de la IA, siendo una línea de investigación que apoya la UDIMA.