¡La inteligencia artificial no existe! Desafiando la narrativa de la neutralidad tecnológica en la regulación de la responsabilidad civil de las tecnologías avanzadas*-**

Artificial Intelligence Does Not Exist! Defying the Technology-Neutrality Narrative in the Regulation of Civil Liability for Advanced Technologies

Andrea Bertolini***

* Fecha de recepción: 30 de julio de 2023. Fecha de aceptación: 28 de marzo de 2025.

** Traducción al castellano de Laura Lucía Cacua Gamboa. Publicado originalmente en la revista Europa e dirittoprivato, fasc. 2, 2022, 369-420, bajo el título "Artificial Intelligence Does Not Exist! Defying the Technology-Neutrality Narrative in the Regulation of Civil Liability for Advanced Technologies". Se ha adaptado a la estructura de la Revista de Derecho Privado.

*** Scuola Superiore Sant'Anna, Pisa, Italia; profesor asociado de Derecho Privado y Derecho de la Tecnología. Doctor en Derecho Privado, Scuola Superiore Sant'Anna, Pisa, Italia; máster en Derecho (LL.M.), Yale Law School, New Haven, Estados Unidos. Contacto: andrea.bertolini@santannapisa.it Orcid: https://orcid.org/0000-0001-7020-4824.

**** Unión Europea. Directiva (UE) 2024/2853, del Parlamento Europeo y del Consejo, del 23 de octubre de 2024, sobre responsabilidad por los daños causados por productos defectuosos y por la que se deroga la Directiva 85/374/CEE del Consejo.

***** Unión Europea. Reglamento (UE) 2024/1689, del Parlamento Europeo y del Consejo, por el que se establecen normas armonizadas en materia de inteligencia artificial y por el que se modifican los Reglamentos (CE) n.° 300/2008, (UE) n.° 167/2013, (UE) n.° 168/2013, (UE) 2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE) 2016/797, del 13 de junio de 2024.

****** Comisión Europea. Propuesta de Directiva sobre la adaptación de las normas de responsabilidad civil extracontractual a la inteligencia artificial (Directiva sobre responsabilidad por IA), COM (2022) 496 final, 2022; en inglés, AI Liability Directive (AILD). La propuesta fue retirada por la Comisión Europea el 11 de febrero de 2025, a través del documento "2025 Work Programme".

Para citar el artículo: Bertolini, A., "¡La inteligencia artificial no existe! Desafiando la narrativa de la neutralidad tecnológica en la regulación de la responsabilidad civil de las tecnologías avanzadas", Revista de Derecho Privado, Universidad Externado de Colombia, n.° 49, julio-diciembre 2025, 31-82. DOI: https://doi.org/10.18601/01234366.49.02.


Resumen.

Con frecuencia, los legisladores recurren a términos "paraguas" tales como inteligencia artificial o robótica para abordar un amplio espectro de aplicaciones que son sustancialmente diversas entre sí. En este artículo se cuestiona dicho planteamiento a partir de la propuesta del Parlamento Europeo de armonización legislativa en materia de responsabilidad civil por inteligencia artificial, realizando un análisis sobre su enfoque "tecnológicamente" neutro. Se examina la noción de "sistema de IA" y su impacto en la seguridad jurídica, así como la -artificial e insuficiente- distinción entre aplicaciones de alto y bajo riesgo, el diferente régimen de responsabilidad a que conducen y su posible impacto negativo. Asimismo, se analiza la noción de "operadores", mostrando cómo esta amplía el número de posibles sujetos responsables, generando incertidumbre respecto a litigios secundarios (y acciones de repetición), además de limitar los daños resarcibles. Finalmente, se argumenta que la responsabilidad civil en el contexto de las tecnologías avanzadas debería centrarse prioritariamente en la indemnización a las víctimas, dejando la cuestión de la seguridad de los productos a la regulación técnica y normativa correspondiente.

Palabras clave: inteligencia artificial, neutralidad tecnológica, Unión Europea, responsabilidad civil, producto defectuoso.


Abstract.

Too often legislators resort to umbrella terms such as Artificial intelligence, or robotics, to address a broad spectrum of applications that are substantially diverse from one another. The paper will challenge such an approach by considering the recent proposal of the European Parliament on the regulation of civil liability, by discussing its technology neutral approach. It will address the notion of "AI-system" (AIS) and its effect on legal certainty, the-artificial and insufficient-distinction between high- and low-risk applications, the different liability regimes to which they lead, and their potential negative impact. It will discuss the notion of operators, to show how this will increase the number of potential responsible parties, causing relevant uncertainty with respect to secondary litigation (and regress claims), and limitations to compensable damage. Finally, a policy argument will be grounded, whereby civil liability in Advanced Technologies should primarily address victim compensation and not product safety. That, instead, ought to be addressed through standards and product safety regulation.

Keywords: Artificial intelligence, technological neutrality, European Union, civil liability, product liability.


SUMARIO: [Nota de la traductora]. I. La regulación de la tecnología y la necesidad de definiciones. II. La inteligencia artificial (IA) como término paraguas: la imposibilidad de concebir una definición única que abarque todas las aplicaciones. III. La IA como tecnología omnipresente y la imposibilidad de regularla unitariamente. IV. Las tecnologías avanzadas como productos y los problemas de la Directiva Europea de Responsabilidad por Productos Defectuosos. V. La propuesta del Parlamento de la Unión Europea del 20 de octubre de 2020: una visión general. VI. Una evaluación crítica de la propuesta. VII. Regulación "bottom up" de la tecnología: la necesidad de un enfoque específico para cada tecnología. VIII. Justificación de la regulación de la responsabilidad civil en la IA: garantizar la indemnización y facilitar el acceso a la justicia. Referencias.


Nota de la traductora

Se debe tener en cuenta que desde la publicación del texto original se han producido avances normativos que afectan directamente algunos de los puntos tratados por el autor. A continuación, se presentan precisiones y actualizaciones que enriquecen la discusión y contextualizan el texto en el marco de los desarrollos legislativos recientes.

Uno de los aspectos centrales del artículo es la referencia a la Directiva 85/374/CEE sobre responsabilidad por productos defectuosos, la cual ha sido objeto de debate por su idoneidad para abordar los daños causados por sistemas de IA. El autor menciona la intención de la Comisión Europea de proponer una nueva regulación que subsane los vacíos normativos de la directiva vigente. Este objetivo se concretó con la expedición de la Directiva (UE) 2024/2853****, que reforma el régimen de responsabilidad por productos defectuosos con el fin de adaptar sus disposiciones a las particularidades de las tecnologías emergentes, incluida la IA. No obstante, las críticas del autor respecto a la funcionalidad de este régimen de responsabilidad frente a los sistemas de IA mantienen su vigencia, ya que los problemas estructurales identificados en el texto persisten incluso en el nuevo marco normativo.

Otro punto fundamental del análisis del autor es su evaluación crítica de la propuesta contenida en el Informe del Parlamento Europeo de 20 de octubre de 2020, titulado "Recomendaciones a la Comisión sobre un régimen de responsabilidad civil para la inteligencia artificial". En particular, el autor se pronuncia en contra de la diferenciación entre sistemas de alto y bajo riesgo como criterio rector del régimen de responsabilidad civil, señalando las deficiencias técnicas y políticas de esta aproximación. Además, cuestiona la propuesta de establecer un régimen de responsabilidad objetiva o estricta para los sistemas de alto riesgo, argumentando que ello podría generar problemas de incentivos y afectar la innovación tecnológica.

Frente a estos puntos, el lector debe tener en cuenta que en 2024 fue aprobada la Ley de Inteligencia Artificial de la Unión Europea*****, la cual adopta precisamente el modelo de diferenciación por niveles de riesgo que el autor critica. De hecho, la legislación clasifica los sistemas de IA en diferentes categorías de riesgo con base en los criterios previstos en su Anexo III, siguiendo la lógica planteada en las recomendaciones del Parlamento Europeo -entre otras-. Este desarrollo normativo confirma que la preocupación del autor sobre la falta de "neutralidad tecnológica" en la regulación de la IA sigue siendo un tema relevante, en la medida en que el nuevo reglamento ha consolidado un marco basado en la categorización previa del riesgo, lo que podría afectar el tratamiento jurídico de los daños causados por estos sistemas.

Asimismo, en el literal H del texto, el autor examina los problemas derivados de los incentivos para la adopción de tecnologías de IA y los posibles efectos negativos de un régimen excesivamente estricto como el que se propone con base en esta categorización de los sistemas. Al respecto, la nueva normativa de la Unión Europea ha introducido un conjunto de requisitos y obligaciones reforzadas para los sistemas de IA clasificados como de alto riesgo, lo que confirma que las preocupaciones planteadas en el artículo sobre la carga regulatoria y su impacto en el desarrollo tecnológico siguen siendo plenamente vigentes.

Con todo, en el marco de esta nueva regulación, aún no se ha adoptado un régimen jurídico de responsabilidad específico para los sistemas de IA, sean de alto o bajo riesgo. En 2022, la Comisión Europea presentó una propuesta de reglamento sobre responsabilidad por inteligencia artificial******, que habría establecido reglas específicas en la materia, pero finalmente fue retirada en 2025 sin haber sido adoptada. En consecuencia, hasta que la nueva directiva sobre productos defectuosos entre en vigor en los Estados miembros tras su proceso de transposición, seguirán aplicándose tanto la Directiva 85/374/CEE como las reglas vigentes en cada país.

En este contexto, las reflexiones del autor sobre la necesidad de repensar -pero no reformar- el sistema actual de responsabilidad siguen siendo de gran importancia. En particular, los apartados VII y siguientes del texto ofrecen un análisis sobre las categorías y reglas que, en efecto, podrían responder mejor a los desafíos planteados por la IA, lo que resulta especialmente pertinente en ausencia de un marco legislativo comunitario homogéneo.

En este sentido, este trabajo no solo aporta un análisis detallado sobre los antecedentes normativos de la responsabilidad civil por IA en Europa, sino que también presenta propuestas valiosas para la adecuación de los sistemas de responsabilidad civil en otros contextos y ordenamientos jurídicos. Las críticas y propuestas presentadas mantienen su relevancia y ofrecen una base sólida para futuras reflexiones y reformas legislativas. Así, la relevancia y vigencia del artículo radica en su capacidad para iluminar los desafíos normativos que aún persisten en la materia y en la pertinencia de sus recomendaciones en el actual escenario regulatorio.

Laura Lucía Cacua Gamboa

I. La regulación de la tecnología y la necesidad de definiciones

A menudo se cuestiona la idoneidad de las normas de responsabilidad civil para hacer frente a las tecnologías emergentes cada vez más complejas, autónomas, capaces de aprender, de modificarse a sí mismas y, por tanto, opacas e impredecibles1. Sin embargo, al hacerlo, no se ahonda suficientemente en dos aspectos: (i) la perspectiva desde la cual se realiza tal crítica y (ii) la definición exacta de la tecnología en sí misma considerada.

Respecto al primer problema, se pueden abordar dos enfoques alternativos: uno ontológico y otro funcional. El primero, que considera las tecnologías avanzadas como inherentemente excepcionales debido a algunas de sus características específicas (autonomía o capacidad de aprender), es claramente inaceptable. No hay motivos técnicos ni filosóficos, y mucho menos jurídicos, para considerar cualquier aplicación o tecnología existente como un "agente" y, por tanto, un sujeto capaz de responder por las consecuencias derivadas de su funcionamiento. Tanto las máquinas como los sistemas basados en IA son indudablemente cosas y, por tanto, productos2.

En cuanto al enfoque funcional, basta decir que no se puede considerar, por ejemplo, que un termostato inteligente sea un sujeto, pues ello derivaría en la deconstrucción misma de la noción de responsabilidad3. En efecto, no solo es ineficiente pretender sancionar una cosa que de suyo es incapaz de responder por la referida sanción, sino que también es inútil, pues, en última instancia, las consecuencias jurídicas terminarían por recaer sobre el humano que respalda su funcionamiento, quien, para hacerlo, además, se verá obligado a disponer de sus propios recursos.

Al mismo tiempo, la dicotomía que existe entre los sujetos legales, entiéndase aquellos que tienen derechos, y los objetos, sobre los que se ejercen, es intrínseca al razonamiento jurídico y aún no ha sido superada. En otras palabras, o se tiene un derecho, y por lo tanto se es un sujeto dentro del ordenamiento jurídico, o bien se es aquello sobre lo que se ejercen derechos, esto es, un objeto4 -tertium non datur-. Todas las afirmaciones que intenten definir una categoría intermedia entre las dos5 carecen de fundamento y de cualquier admisibilidad lógica, incluso antes que jurídica6.

Ahora bien, con respecto al segundo problema, este recae en la dificultad que existe en identificar el objeto que se está estudiando. En efecto, la ausencia de una definición de IA deriva en una grandísima dificultad para regularla. Y dicha dificultad se acentúa aún más si se tiene en cuenta la necesidad de que las definiciones no deben ser vagas o meramente aparentes, pues ello termina por generar el problema interpretativo de determinar qué cabe dentro del ámbito de aplicación del cuerpo de normas que llegue a elaborarse.

II. La inteligencia artificial (IA) como término paraguas: la imposibilidad de concebir una definición única que abarque todas las aplicaciones

El concepto de inteligencia artificial (IA) es borroso, polifacético y se encuentra sometido a un cambio constante. Borroso, en el sentido de que no existe una definición consensuada, ni siquiera desde el punto de vista técnico, de lo que implica que una aplicación sea una IA. El problema se origina en la dificultad misma de precisar el concepto de inteligencia7 y en el reduccionismo de confundirla con la simple capacidad de una máquina para engañar a una persona, al no poder esta diferenciar entre un ser humano y un componente artificial. Polifacético, ya que se utiliza para referirse a diferentes campos de investigación -como el machine learning, el machine reasoning, el deep learning- y, aun así, se discute cuál de ellos verdaderamente entra de lleno en la noción de IA, tal como ocurre con la robótica8. Por último, se encuentra en constante cambio, pues lo que un día se considera como una aplicación de la IA, al otro puede dejar de serlo una vez que la tecnología avance. Así ocurrió, por ejemplo, con el filtrado de spam, la tecnología de traducción de idiomas y los motores de búsqueda9.

Al examinar las definiciones adoptadas en las propuestas de regulación que han venido teniendo lugar en la Unión Europea (UE) para regular esta materia, se observa la ausencia de una fórmula suficientemente ajustada, así como de un enfoque adecuado a la hora de seleccionar los criterios para lograr su estructuración. Tal es el caso de la capacidad del sistema para imitar o ejercer la "inteligencia humana" y/o la racionalidad, factores que se encuentran presentes en algunas de estas definiciones, pero en otras no10.

Para concebir tal definición también se hace referencia al concepto de autonomía; empero, dicha noción tampoco es clara, pues en ella se comprende todo un espectro de supuestos, cada uno con consecuencias diferentes. En relación con este punto, se distingue la autonomía fuerte de la débil; la primera, entendida como aquella que es propia de un humano en total goce y ejercicio de sus derechos, y la segunda, que, en cambio, es propia de las máquinas que no cuentan con libre albedrío11. Lo anterior, sin tener en cuenta la denominada (mera) automatización, que también se presenta en infinitos grados y con innumerables variaciones.

III. La IA como tecnología omnipresente y la imposibilidad de regularla unitariamente

Dicha heterogeneidad, y la falta de precisión en la definición de la IA, hacen que las referidas propuestas tengan como presupuesto una incapacidad para diferenciar entre tantas tecnologías existentes, escenario que representa un obstáculo insuperable para que la loable intención de lograr una reglamentación (dura) llegue a buen fin.

Hoy en día se encuentra a la IA en entornos cada vez más diversos y en aplicaciones muy distintas entre ellas: teléfonos móviles12, cámaras13, asistentes para el hogar inteligente, soluciones para el diagnóstico médico14, soportes de tecnología financiera15, vehículos driveless16 e, incluso, cepillos de dientes17. Todos estos dispositivos y servicios están sujetos a una reglamentación propia que, por lo general, tiene en cuenta la especificidad, el uso y, a menudo, la naturaleza (profesional o no) de sus usuarios. En materia de responsabilidad, los sistemas legales europeos suelen abordar la de los profesionales médicos de una forma diversa a la de los intermediarios financieros, así como la de los vendedores de bienes de consumo o propietarios y conductores de vehículos.

Tal tratamiento de naturaleza diversa es el reflejo de la compleja estructura de incentivos e intereses que la política pública pretende atender. La evolución del tratamiento en relación con la negligencia médica en Italia es paradigmática en este sentido: mientras que la jurisprudencia había evolucionado para encuadrar la responsabilidad del médico en una forma de responsabilidad contractual18, el legislador propuso una reglamentación diferente19 y perversa, orientada a desincentivar los litigios en contra de los médicos y que promueve, en su lugar, la medicina defensiva20.

No se observa -o al menos no se percibe- la misma preocupación en relación con, por ejemplo, los propietarios de vehículos, en cuyo caso la directriz que prevalece es la de garantizar la plena indemnización de la víctima. En este supuesto, la limitada defensa permitida al propietario (el art. 2050 c. c. italiano) implica que normalmente sea el llamado a responder. Ello, por considerarse que se encuentra en una mejor posición -desde el punto de vista económico-21 para soportar las consecuencias del daño causado (en particular a los ojos del legislador italiano de 1942).

Dado que los aplicativos, así como la naturaleza de las partes implicadas, requieren enfoques normativos diversificados para garantizar incentivos óptimos -y soluciones proporcionadas y deseables22-, el único criterio, en teoría, válido para justificar una regulación unitaria de las aplicaciones basadas en la IA debería ser el tecnológico. Sin embargo, aun desde esta óptica no es tan fácil encontrar un mínimo común denominador: un vehículo autónomo y un sistema experto no presentan similitudes evidentes, como tampoco las tienen una aplicación doméstica inteligente, una aspiradora o un robot colaborativo, una prótesis robótica, un exoesqueleto o un algoritmo de negociación. Algunos son autónomos, otros no (por ejemplo, los exoesqueletos o las prótesis). Además, dicha autonomía se presenta en diferentes grados y tipos. No todos los dispositivos son capaces de aprender o modificarse con el tiempo y algunos están dotados de un cuerpo físico, mientras que otros se basan exclusivamente en el software. De esta forma, para comprender mejor las diferencias es necesario establecer una clasificación23 según el enfoque Fallgruppen o Class-of-Application-by- Class-of-Application (en lo sucesivo, CbC)24.

De esta forma, la ausencia de una característica tecnológica común clara para todas las posibles aplicaciones que caen bajo un término tan amplio, la gran variedad de riesgos que pueden generar, así como sus ámbitos de aplicación y conveniencia social, parecen hacer imposible la tarea de concebir reglas uniformes de responsabilidad.

En cualquier caso, la inteligencia artificial no debería ser concebida como una nueva rama única del sistema jurídico, sino como un espectro de aplicaciones que penetrará en todos los campos y materias de la actividad humana, incluidos los jurídicos ya existentes. Dicho de otro modo, la IA no es paralela ni alternativa al derecho de la competencia o del consumidor, al derecho privado o penal, a los mercados de capitales ni al derecho de la propiedad intelectual, por lo que no debe erigirse en otro ámbito de especialización con principios o normas propias. Si bien la regulación de la tecnología -al igual que ocurrió con el ciberderecho-no es "law of the horses"25, ello no implica, tal como sostienen los denominados excepcionalistas26, que deba estructurarse de forma inmediata un ámbito jurídico totalmente autónomo y nuevo. En su lugar, la cuestión debe ser la de analizar la tecnología desde el punto de vista de cada una de estas materias, lo cual resultará, en algunos casos, en su adaptación y reconsideración o, incluso, cuando se considere conveniente, se aumentará o disminuirá su complejidad, al punto de que termine fungiendo solo como "derecho se segundo orden"27.

IV. Las tecnologías avanzadas como productos y los problemas de la Directiva Europea de Responsabilidad por Productos Defectuosos

Lo cierto es que un denominador común que logre definir a todas estas tecnologías avanzadas solo puede identificarse a partir del análisis de la naturaleza artificial, ausencia de conciencia y falta de una autonomía "fuerte"28 en estas aplicaciones.

Ahora bien, estas características presuponen que solo sea posible clasificarlas -sin caer en una idea de ciencia ficción- en la categoría de cosas, objetos y artefactos, productos del intelecto humano.

De este modo, estas tecnologías, así concebidas y siempre que cuenten con una dimensión física, entrarían claramente en la noción de producto dispuesta en la Directiva 85/374/CEE, relativa a la responsabilidad por los daños causados por productos defectuosos (en lo sucesivo, PLD)29. Esta última, junto con la directiva sobre seguridad de los productos -por medio de la cual se determinan los requisitos que debe cumplir un producto para ser certificado y, por tanto, poder circular en el mercado de la UE- tienen por objeto garantizar medidas de seguridad ex ante30 y compensaciones ex post31 de los productos.

Aunque un análisis detallado del PLD y sus deficiencias queda fuera de los objetivos del presente estudio, cabe resaltar que dicho texto normativo ha sido objeto de críticas generalizadas32, las cuales han llevado a la Comisión Europea a plantear la posibilidad de actualizarlo con el objetivo de adaptarlo a la era digital33.

En general, (i) la exclusión del software -no integrado- y, por lo tanto, de las aplicaciones puras de IA, de la noción de producto; (ii) la dificultad del demandante para satisfacer la carga probatoria con respecto al defecto y al nexo causal, y (iii) el riesgo de desarrollo como defensa para el demandado, se consideran los rasgos más problemáticos del cuerpo normativo existente.

Sin entrar en los detalles de dicho análisis -que, no obstante, debe ser realizado con base en consideraciones empíricas y funcionales (derecho y economía)34-, basta decir que la idoneidad de la directiva para abordar los siniestros de escasa cuantía, causados por las tecnologías avanzadas, es dudosa. De hecho, el PLD fue concebido como una herramienta de último recurso, que vendría a ser aplicada cuando todas las demás -principalmente la regulación relativa a la seguridad de los productos- fallaran. A pesar de ello, debido a la creciente automatización, el número de reclamaciones en las que el daño se verá estrechamente relacionado con el funcionamiento de un dispositivo en lugar de con la conducta de un ser humano, el uso y, en consecuencia, el traslado de las causas litigiosas a ese cuerpo normativo está destinado a aumentar sustancialmente.

Ahora bien, la interacción personas-máquinas en la realización de una serie de tareas y servicios pone aún más en entredicho tal marco de regulación, pues con ella tiene lugar una superposición de los diferentes conjuntos de normas en materia de responsabilidad, pensadas inicialmente para responder a supuestos de hecho diferentes. Veamos un ejemplo: al operar un vehículo semiautónomo bajo supervisión o con la participación del usuario humano (SAE niveles 3 y 435) serían aplicables tanto las normas de responsabilidad tradicionales para accidentes de tráfico -que tienen al conductor y al propietario como responsables- (art. 2050 c. c. italiano) como el PLD. Si además se consideran otras partes (proveedores de servicios, entre otros), tendrían que ser analizadas incluso normas contractuales y extracontractuales de derecho interno.

Todo lo anterior derivaría en un aumento en la complejidad y la incertidumbre al intentar atribuir la responsabilidad a los diferentes agentes. Como resultado, los elevados costos asociados a los litigios de responsabilidad por productos defectuosos terminarían por disuadir a las víctimas de demandar a los fabricantes, que externalizarían sus propios costos en detrimento de los otros demandados más débiles: el propietario o el conductor, quienes, en la mayoría de los casos, serán los llamados a responder por, entre otras razones, no contar con suficientes recursos procesales para su defensa36. Un escenario de esta naturaleza, a su vez, podría dar lugar a incentivos negativos para la adopción temprana de dispositivos tecnológicos avanzados37.

A pesar de la necesaria reforma del DPL38, es discutible que este marco deba convertirse en la nueva norma general de responsabilidad para todas las aplicaciones y servicios de tecnología avanzada. Incluso la misma afirmación según la cual la noción de producto (art. 2 DPL) debería ampliarse para incluir el software no integrado (y las aplicaciones basadas puramente en IA) es cuestionable, ya que sigue teniendo como presupuesto la idea de que es preferible una única norma de responsabilidad para para todos estos productos y servicios, aun cuando ya ha quedado de manifiesto que no lo es.

Es más, el PLD presume de un planteamiento tecnológicamente neutro39, del que en cambio carece. Al observar las causas litigadas en virtud de esta directiva se encuentra que, por lo general, están ligadas a grupos específicos o categorías de productos y no a todos, lo que pone de manifiesto que tal amplitud en la definición no existe. En efecto, la gran mayoría de decisiones han tenido lugar por hechos relacionados con productos no complejos (materias primas), casos de grandes pérdidas económicas normalmente asociados a infracciones de derechos fundamentales (derivados del uso de productos farmacéuticos y médicos, en los que se ha puesto en peligro la salud, la integridad corporal y la vida de las personas) o cuando estaban implicados equipos sofisticados (reactores nucleares o aparatos mecánicos)40. En este sentido, los daños derivados de muchas otras categorías de productos, como aquellos más avanzados tecnológicamente, no se discuten con tanta frecuencia. Lo anterior también se debe al valor de los intereses en juego (relacionados con la cuantía de los daños en comparación con los costos del litigio y la relevancia del derecho en cuestión) y además a que se suele litigar con arreglo al derecho contractual o extracontractual nacional, normalmente para superar las restricciones y limitaciones establecidas por la directiva (con respecto a los daños indemnizables y las posibles defensas del demandado).

Dicho de otro modo, las características propias de la legislación "autoseleccionan" sólo aquellos casos -y productos- en los que todas las barreras para lograr la indemnización -la carga probatoria que impone al demandante, la defensa del productor y las limitaciones en relación con los daños indemnizables41- son proporcionales a los intereses en cuestión. De esta forma, sólo se llevan ante un tribunal aquellos casos en los que el defecto es fácilmente identificable y demostrable, cuando el interés pretendido es mayor en relación con la cuantía del daño y la importancia del derecho vulnerado (como en los supuestos relacionados con productos sanitarios y farmacéuticos), o bien aquellos en los que las partes posean recursos económicos suficientes para hacer parte de un litigio de tal complejidad.

Se podría concluir entonces que, en efecto, la neutralidad tecnológica del PLD es más aparente que real. Así, los supuestos avances tecnológicos existentes y previstos, en ausencia de cualquier reforma, muy probablemente quedarían fuera -total o parcialmente- de los supuestos antes descritos. De hecho, muchas de estas aplicaciones serán bienes de consumo relativamente económicos que causarán daños sin relevancia y que en la mayoría de los casos implicarán la destrucción del propio bien. Aun más, en los eventos en que estén en juego intereses mayores (la vida o la salud del demandante), el costo del litigio superará sustancialmente la cantidad solicitada por concepto de indemnización o la capacidad económica del reclamante, e incluso será más conveniente iniciar una demanda en contra de una parte potencialmente responsable distinta del productor (por ejemplo, el propietario del vehículo en caso de accidente, de conformidad con el artículo 2054 c. c. italiano). Así, en el caso de lesiones corporales causadas por un accidente de tráfico en el cual intervino un vehículo semiautónomo, será más probable que la víctima demande al propietario (o conductor) que al productor, pues seguramente le resultará más difícil y costoso demostrar la existencia de un defecto (tal vez de diseño) y de un nexo causal que cumplir los requisitos establecidos en el citado artículo 2054 c. c. Y, aunque tuviera éxito, en virtud del PLD no podría recuperar los daños sufridos por la pérdida del propio vehículo defectuoso.

En conclusión, dadas las limitaciones intrínsecas del PLD, pensar en abordar los problemas de responsabilidad civil que plantean las tecnologías emergentes ampliando su definición de producto, para abarcar incluso aquellas que hoy están fuera de su ámbito de aplicación, no parece la estrategia adecuada. De hecho, lo más factible es que, pese a una modificación, siga siendo una herramienta insuficiente para garantizar el acceso a la justicia a la mayoría de los demandantes. Así, se seguirá trasladando la carga de los costos asociados a estos eventos a otros demandados, cada vez más agobiados por la creciente diversidad de normas en materia de responsabilidad civil.

V. La propuesta del Parlamento de la Unión Europea de 20 de octubre de 2020: una visión general

El 20 de octubre de 2020, el Parlamento Europeo aprobó un informe con una serie completa de "recomendaciones a la Comisión Europea sobre un régimen de responsabilidad civil para la inteligencia artificial", en el que proponía la adopción de un nuevo reglamento en la materia (en lo sucesivo, proyecto de reglamento o PR)42.

A pesar de no poseer ningún valor jurídicamente vinculante, constituye el primer intento de aterrizar un largo debate -iniciado por el informe de 2017 presentado por la eurodiputada Mady Delvaux-Stehres43- en un texto jurídico completo y potencialmente aplicable, que articula dos regímenes de responsabilidad diferentes para los "sistemas de IA" (AIS, por sus siglas en inglés), de acuerdo con su nivel previsto de riesgo. Esta propuesta, que se basa en gran medida en las conclusiones alcanzadas por el Grupo de Expertos sobre Responsabilidad y Nuevas Tecnologías (en lo sucesivo, GE)44 designado por la Comisión Europea en noviembre de 2019, merece un examen detenido.

La resolución del Parlamento Europeo pide a la Comisión Europea que intervenga con un reglamento -para lograr la plena armonización y la máxima certidumbre-45, estableciendo "un marco jurídico horizontal y armonizado basado en principios comunes con el fin de garantizar la seguridad jurídica", a pesar de estar de acuerdo en que "son preferibles reglamentaciones sectoriales específicas para la amplia gama de posibles aplicaciones"46. Para diseñar ese "marco común", el Parlamento considera que debe basarse en el análisis y modificación del PLD47 y que la responsabilidad debe recaer principalmente sobre el que denomina "operador"48, por ser este quien "controla un riesgo asociado al sistema de IA, comparable al del propietario de un automóvil […] y será en muchos casos el primer punto de contacto visible de la persona afectada"49.

El operador se lo considera así: "[…] tanto el operador inicial como el final, siempre que la responsabilidad de este último no esté ya cubierta por la Directiva 85/374/CEE" (art. 3, lit. d). Mientras que por "operador inicial" se entiende cualquier persona física o jurídica que ejerza cierto grado de control sobre un riesgo relacionado con la explotación y el funcionamiento del sistema de IA y se beneficie de su explotación" (art. 3, lit. e), por "operador final" se identifica a la "persona física o jurídica que define, de forma continuada, las características de la tecnología y proporciona datos y un servicio de apoyo final de base esencial y, por tanto, ejerce también un grado de control sobre un riesgo asociado a la operación y el funcionamiento del sistema de IA" (art. 3, lit. f). Se dispone además que, en el caso de haber más de un operador, estos deben ser considerados responsables solidarios (art. 11), permitiéndoles la posibilidad de repetir entre ellos (art. 12).

La responsabilidad objetiva del operador sólo se aplica a las aplicaciones de IA de alto riesgo, las cuales serán definidas por la CE -mediante la participación de un grupo de expertos- a través de un anexo al reglamento en el cual se deberán identificar tanto el tipo el tipo de AIS como los sectores considerados riesgosos (art. 4). En todos los demás casos, se aplicará un régimen de responsabilidad por culpa que gozará de una inversión de la carga de la prueba en este último elemento (art. 8).

El importe de la indemnización por concepto de estos daños se somete a límites y a topes máximos, según diferentes criterios (art. 5). Por su parte, el uso de los fondos de compensación es considerado excepcional y solo deberá establecerse por periodos de tiempo específicos para responder en aquellos casos en los que no se disponga de una cobertura de seguro adecuada.

VI. Una evaluación crítica de la propuesta

A continuación se expondrán diversos aspectos de la propuesta que resultan problemáticos cuando se analizan con más detenimiento desde una perspectiva funcional.

A. La noción de AI-Sistema y su efecto sobre la seguridad jurídica

El PR identifica correctamente la necesidad de una armonización completa que provea seguridad jurídica, por lo que sugiere la intervención europea a través de un reglamento, no de una directiva. También admite que sería preferible lograr una reglamentación sectorial de acuerdo a las características de las aplicaciones50; sin embargo, propone una solución que:

(i) se aplica a un objeto -los sistemas de IA-, definido en términos generales como "[…] un sistema basado en un software o integrado en dispositivos de hardware, que muestra un comportamiento que simula la inteligencia, entre otras cosas, mediante la recopilación y el tratamiento de datos, el análisis y la interpretación de su entorno y la adopción de medidas, con cierto grado de autonomía, para lograr objetivos específicos;" (art. 3, lit. a)51. La autonomía la define como "la capacidad de operar interpretando determinados datos de entrada y utilizando un conjunto de instrucciones predeterminadas, sin limitarse a ellas, a pesar de que el comportamiento del sistema esté limitado y orientado a cumplir el objetivo que se le haya asignado y otras decisiones pertinentes de diseño tomadas por su desarrollador" (art. 3, lit. b) y

(ii) diferencia el régimen jurídico a aplicar con arreglo a una distinción igualmente general, según la cual las tecnologías de alto riesgo, que se identificarán en un "Anexo a la propuesta", se sujetarán a un esquema de responsabilidad objetiva, mientras que, in contrario, aquellas no comprendidas allí serán calificadas como de bajo riesgo y se regirán por uno basado en la culpa, que incluye una presunción de culpa y diversos mecanismos de defensa en beneficio del demandante (art. 8, 2, lit. a y b).

Ambos puntos son en gran medida problemáticos. Inicialmente, es necesario considerar cómo la definición general de IA presentada, así como su división entre de bajo y de alto riesgo, configuran en sí mismas el ámbito de aplicación de la legislación y predisponen de forma errada su relación con los sistemas de responsabilidad de cada Estado miembro.

La definición de AI elaborada por el PR abarca una gama de aplicaciones extremadamente amplia y diversificada, hasta el punto de que cualquier producto y servicio moderno podría entrar en dicha noción. La referencia adicional a la autonomía, tal como está dispuesta, tampoco es suficiente para identificar y seleccionar lo que debe entenderse por un AIS, aun cuando este elemento es evidentemente crucial para tal efecto. Ciertamente, mientras que las aplicaciones de alto riesgo se identificarían expresamente en el "anexo", aquellas de bajo riesgo no vendrían enumeradas. La amplitud de la definición, desprovista de cualquier criterio claro y objetivo para discernir los AIS de cualquier otro producto digital y/o simplemente electrónico, haría que el resultante esquema de responsabilidad sea completamente indeterminado y contrario a cualquier propósito de seguridad jurídica y uniformidad para los Estados miembros. De hecho, seguramente surgirían litigios solo para determinar si una aplicación entra dentro de la noción de AIS de bajo riesgo o no52.

La cláusula de responsabilidad residual aplicable a los casos no identificados en el "anexo" se aparta sustancialmente de la norma estándar de diligencia que poseen todos los ordenamientos jurídicos de los Estados miembros. Si se tiene en cuenta la naturaleza cada vez más grave de la IA y el hecho de que a mediano plazo será imposible concebir un dispositivo que no presente cierto grado de autonomía (de acuerdo con la definición del artículo 3, literal b), la norma especial definida por el artículo 8 (responsabilidad subjetiva para los sistemas de IA de bajo riesgo) podría sustituir en gran medida, si no completamente, a todas las normas nacionales de regulación basadas en la culpa, al menos en cuanto a importancia y frecuencia de aplicación.

Por consiguiente, en cualquier accidente que involucre en alguna forma una de estas tecnologías terminará por aplicarse la regla de aplicación residual. Dicho de otra forma, la incertidumbre con respecto a lo que constituye la IA, y lo que está regulado por esta categoría, impediría establecer los límites de aplicación de esta nueva disciplina; de este modo, lo que se concibe como una nueva subrama de esta disciplina jurídica evolucionaría rápidamente para convertirse en el núcleo mismo de la responsabilidad civil e, incluso, en el nuevo régimen general.

Una alternativa práctica sería elaborar dos anexos distintos, uno para las solicitudes de IA de alto riesgo y otro para las de bajo riesgo. De este modo se evitaría cualquier incertidumbre respecto a cuáles aplicaciones entran en cada categoría. No obstante, aun en este caso, se seguiría introduciendo una regulación transversal de todas las aplicaciones de IA que no parece recomendable si se tiene en cuenta la extrema diversidad en los ámbitos de uso de estas tecnologías, ello por las razones ya expuestas. Es más, la mayoría de las aplicaciones enumeradas y que podrían considerarse de bajo riesgo ni siquiera serán merecedoras de una intervención normativa específica para garantizar niveles adecuados de protección a sus usuarios; piénsese en el caso de un cepillo de dientes inteligente, un teléfono inteligente y de la mayoría de sus aplicaciones inteligentes descargables, entre otros dispositivos.

En cambio, es claro que existen aplicaciones y servicios, independientemente de cualquier categorización, que requieren una atención específica: plataformas en línea, sistemas expertos para el diagnóstico médico basado en la IA, algoritmos para el comercio de alta frecuencia, prótesis robóticas avanzadas y exoesqueletos, aplicaciones sanitarias, por citar algunos ejemplos. En estos casos, los problemas o debates que se plantean con respecto a la responsabilidad pueden ser muy diferentes y requieren soluciones distintas. Por ejemplo, el marco de la regulación de las plataformas en línea interfiere directamente con el derecho a la libertad de expresión53, el de los vehículos driveless con el de libertad de empresa54, el de las prótesis avanzadas con el de las personas con algún tipo de discapacidad de acceder a estas tecnologías55; particularidades que, sin lugar a duda, deben ser abordadas. Del mismo modo, es cierto que en aquellos ámbitos donde el uso de la IA pueda generar mayores riesgos es preferible recurrir a normas de responsabilidad estrictas. Así mismo, parecería correcto que dicha lista de aplicaciones varíe con el tiempo y sea constantemente actualizada.

Por su parte, lograr identificar qué parte -de todas las involucradas en la producción, el uso y la prestación de servicios- debe ser considerada responsable principal es una cuestión que sólo puede responderse en atención a cada caso en concreto, agrupando las aplicaciones tecnológicas que muestran grandes niveles de uniformidad y plantean problemas similares. En algunas hipótesis podría resultar sensato responsabilizar principalmente al operador (tal como como ocurre con el Reglamento sobre drones56), al usuario comercial (robots industriales avanzados57), al proveedor de servicios -que en algunos supuestos podría corresponder al operador- (en el caso de servicios de consultoría basados en IA), al hospital o la estructura médica, y/o al productor o el propietario (vehículos driveless), ello como punto de partida para la causa que inicie el demandante, según un enfoque de one-stop-shop, otorgando, finalmente, la posibilidad de repetir en contra de las otras partes involucradas.

De hecho, los Estados miembros han estipulado diversos regímenes de responsabilidad, específicos para accidentes de tráfico, actividades peligrosas, proveedores de energía nuclear, empresarios, docentes, actividades relacionadas con los mercados de capitales y protección de los inversores, custodia de cosas, animales y niños, negligencia médica, responsabilidad profesional e infracciones medioambientales. Aun así, se insiste en una propuesta que abarcaría todas estas categorías y unificaría lo que a nivel nacional siempre se ha tratado mediante soluciones parciales o diferentes en términos de normas de responsabilidad -basadas en la culpa, estrictas o incluso absolutas-, nivel de diligencia exigido (en caso de sistemas basados en la culpa), daños y perjuicios indemnizables, así como topes para las indemnizaciones y exenciones de responsabilidad. Después de todo, si los ordenamientos jurídicos de estos Estados no regulan unitariamente y con normas idénticas la mala praxis médica o la producción de energía nuclear, ¿por qué debería hacerlo el legislador europeo al regular el uso de la IA en esos ámbitos?

Aceptar esta tarea implica también que el legislador europeo no deba intervenir una sola vez, sino varias, en aras de valorar y evaluar atentamente los ámbitos que requieren una revisión más temprana y así identificar una solución para cada caso concreto. De hecho, incluso los Estados miembros que a día de hoy han empezado a regular algunas tecnologías han adoptado hasta ahora soluciones específicas para cada tecnología. Este es el caso de los drones58 y de los vehículos driveless59.

Con arreglo a este planteamiento, siempre que se considere que una tecnología merece atención -por su relevancia o por las implicaciones sociales que plantea-, el grupo de expertos será llamado identificar si requerirían una regulación ad-hoc a nivel de la UE. Una iniciativa similar ya se planteó como una recomendación que surgió de los resultados del proyecto Robolaw60.

B. Subsidiariedad y coordinación entre la legislación europea y la de los Estados miembros

En cualquier caso, un modelo como el propuesto tendría que garantizar el respeto de los principios de subsidiariedad y proporcionalidad; en otras palabras, la intervención europea solo se entenderá como legítima si los Estados no logran sus propios objetivos en relación con esta materia61. De esta forma, una solución que afecte injustificadamente a los ordenamientos jurídicos de los Estados miembros no sólo sería ineficaz, sino también contraria al fundamento mismo de las reglas de competencias fijadas entre estos y la UE. Un resultado de tal naturaleza tendría lugar en caso de que la propuesta presentada en el PR llegue a buen fin, pues una regulación uniforme para todas las aplicaciones que no sean de alto riesgo -que a mediano plazo implicaría la gran mayoría de los productos y servicios ofrecidos- sustituiría potencialmente a muchas de las ramas de los sistemas de responsabilidad civil de dichos Estados.

Para ilustrar este escenario valga pensar en un ejemplo: un médico utiliza una aplicación basada en IA para realizar imágenes diagnósticas. A uno de sus pacientes no se le diagnostica correctamente un cáncer porque la preselección automática del sistema lo clasifica como negativo; en respuesta, el paciente o sus herederos demandan al médico. De acuerdo con la propuesta presentada, un dispositivo como este no entraría en la calificación de AIS de alto riesgo, pues no opera en el espacio común y no afecta al público en general; así, se aplicaría la regla basada en la culpa que establece el artículo 8. En línea con esto, el médico sería considerado el operador -más aún si la decisión de recurrir al AIS fue suya y no cuenta con el respaldo de una institución hospitalaria-.

Normalmente, un caso como el descrito en el ejemplo se discutiría en atención a la reglamentación propia de cada Estado, sea a través de un litigio de tipo contractual, o uno extracontractual, basado en la culpa por negligencia médica. En el referido supuesto, si bien una reclamación contractual no se vería afectada por el PR (art. 2, párr. 362), este sí afectaría a aquellas reglamentaciones que, en su lugar, abordan la negligencia médica a través de un esquema extracontractual basado en la culpa y que no contemplan, como sí lo hace la propuesta, la inversión de la carga de la prueba sobre este elemento. Esto traería consigo incentivos negativos para la adopción de tecnología, pues un sistema de esta naturaleza dejaría siempre en desventaja al médico que se decide a usarla.

C. La distinción de alto y bajo riesgo: el problema de la seguridad jurídica

La justificación para distinguir entre las aplicaciones de alto y bajo riesgo parece ser evidente y razonable, por lo menos a primera vista: solo las de alto riesgo presuponen preocupaciones relevantes y requieren de estándares excepcionales de responsabilidad más estrictos. Por esta misma razón se propone que dichas aplicaciones se enumeren con precisión de conformidad con un enfoque de Fallgruppen (del cual se destaca la garantía de seguridad jurídica ex ante) y que todas las demás aplicaciones -identificadas en una categoría residual- entren en un régimen que resulta ser ventajoso de cara a la posición del demandante dentro del proceso63.

Sin embargo, esta simplicidad en realidad resulta problemática y es superflua desde una perspectiva política. Cualquier intento de determinar objetivamente lo que debe considerarse una aplicación de alto riesgo está condenado al fracaso. No es posible calcular realmente la cantidad de riesgos potenciales -en términos de daños esperados y de la probabilidad de que se produzcan64- respecto de grupos o clases de aplicaciones en particular. No sólo se carece de datos estadísticamente relevantes sobre cualquier tecnología emergente -por razones estructurales ligadas a su novedad y falta de difusión-65, sino que los métodos de evaluación de dichos riesgos tendrían que ser revisados con arreglo a nuevos enfoques que aún deben elaborarse, pues los existentes son inadecuados66. Adicionalmente, dichas evaluaciones sólo podrían ser llevadas a cabo a posteriori, una vez que dichos riesgos se materialicen y tras años de uso, por lo que estos análisis iniciales solo podrían ser de utilidad parcial a la hora de fundamentar las propuestas de política pública.

Ahora bien, aun si fuera posible agrupar las aplicaciones tecnológicas en función del riesgo esperado, en todo caso surgirían preocupaciones en torno a la adopción de una perspectiva tecnológicamente neutral. Inclusive si las aplicaciones creadas para el apoyo médico o los sistemas de fintech se consideraran igualmente nocivas, el marco ideal de responsabilidad, tal y como ocurre para las soluciones menos avanzadas en estas materias, no podría ser igual.

Asimismo, la actualización constante del anexo provocaría una grave inseguridad jurídica. Si la lista se actualiza cada seis meses -como se propone67-, tanto los desarrolladores de tecnología como los usuarios podrían verse expuestos a un régimen de responsabilidad diferente y más estricto, incluso después de que su producto salga al mercado. Esto alteraría profundamente las estructuras de incentivos que se tuvieron en cuenta a la hora de calcular los costos asociados al desarrollo y uso del AIS. De esta forma, la inversión realizada se perdería y su justificación económica se vería profundamente alterada. Pero no solo ello: este riesgo jurídico podría hacer que el funcionamiento del sistema se convierta, de repente, en excesivamente problemático y costoso, con lo cual, en lo que puede ser una perspectiva ex ante, también se estaría desalentando la adopción temprana de la tecnología y la difusión de los AIS en muchos ámbitos necesarios.

Así pues, el rápido desarrollo tecnológico podría hacer que una solución se quedara obsoleta en el plazo de unos pocos años, hecho que frustraría el propósito mismo de la actualización constante del anexo. De hecho, en el caso de permitírseles a los productores, operadores o usuarios uno o dos años para adaptar la tecnología catalogada como potencialmente peligrosa, podría ocurrir que, al terminar este periodo, dicha aplicación fuera fácilmente descartada o sustituida por considerarse obsoleta.

En conclusión, la categoría residual, junto con la noción amplia de AIS adoptada, impediría identificar fácilmente qué tecnología está sujeta al régimen de responsabilidad identificado por el artículo 8. Ello dejaría en una considerable incertidumbre a todas las partes implicadas, que no podrían prever si van a ser llamadas a indemnizar los daños causados por el funcionamiento del dispositivo por ser considerados o no operadores. Por lo tanto, esta última categoría no sólo es superflua, sino profundamente perjudicial en términos de seguridad jurídica; situación que muy probablemente desalentaría el desarrollo y la implementación de soluciones avanzadas.

D. La distinción de alto y bajo riesgo: irrelevancia desde una perspectiva política

En cualquier caso, proporcionar un criterio objetivo para determinar cuándo se necesita regulación es superfluo. Después de todo, tanto los legisladores europeos como los nacionales que se han ocupado de regular las tecnologías avanzadas lo han hecho con un enfoque tecnológico específico, sin ninguna justificación basada en el nivel de riesgo anticipado que podrían entrañar esos dispositivos. Dicho de otro modo, para fundamentar una intervención normativa se puede recurrir a un amplio espectro de consideraciones que no necesitan -ni deberían- limitarse al único elemento del riesgo. La conveniencia de facilitar la penetración en el mercado, la necesidad de fomentar los derechos fundamentales individuales, como en el caso de las personas con discapacidad, constituirían motivos suficientes para justificar las intervenciones normativas, incluso en el ámbito de la responsabilidad. Al mismo tiempo, esas consideraciones podrían justificar iniciativas que contengan garantías para los productores y operadores o, por el contrario, sugerir regímenes más estrictos, si esos fueran los incentivos necesarios.

Por lo tanto, es preferible un enfoque específico de la tecnología: bottom-up (de abajo hacia arriba), fundamentado principalmente en una evaluación atenta de la tecnología, que abarque un análisis ELSE (ético, legal, socio-económico) completo68.

Esto podría requerir mayores esfuerzos por parte de los responsables de la formulación de políticas, quienes tendrán que evaluar una multiplicidad de aplicaciones y ámbitos. Ciertamente, al menos en algunos casos, podría ser sensato intentar acelerar el proceso legislativo y recurrir a actos delegados, como los previstos en el PR. En una perspectiva similar, por no decir idéntica, podríamos leer la propuesta original de designar un grupo de expertos o crear una agencia con el propósito de supervisar el avance tecnológico y proponer soluciones ad hoc cuando sea necesario -incluso más allá del ámbito de las normas de responsabilidad-, para que luego sean debatidas y adoptadas.

Además, la regulación específica de una tecnología no solo podría adaptarse mejor, sino que también debería poder abordar con un enfoque más preciso los problemas reales que plantea un determinado tipo de aplicaciones; del mismo modo, se deberían evitar intervenciones normativas muy tempranas basadas en evaluaciones parciales y en una comprensión limitada de una tecnología, las cuales podrían conllevar consecuencias indeseables de "enfriamiento" tecnológico.

E. La multiplicidad de operadores: a quién demandar y la cuestión de la atribución de la responsabilidad

El artículo 3 define al "operador" y distingue entre el operador inicial y el final. Se refiere a este como quien "ejerce un grado de control sobre un riesgo relacionado con la operación y el funcionamiento de un AIS, que es comparable al del propietario de un automóvil […]", al tiempo que admite explícitamente que "[…] a menudo hay más de una persona que podría, de manera significativa, 'operar' el sistema de IA […]".

Esta definición es, en efecto, muy amplia y abarca potencialmente a un gran número de individuos dependiendo del entorno a considerar y de la aplicación que se esté utilizando. Por ejemplo, el propietario (particular o empresa, profesional o consumidor) de un dron, un proveedor de servicios, un usuario particular (profesional o no) que lo alquila para un rodaje, todos entran en la definición de operador inicial. En cambio, los desarrolladores de software (incluidos los que proporcionan aplicaciones de telefonía móvil para el control remoto del aparato) podrían considerarse operadores finales.

Esto provoca una serie de problemas, principalmente debido a la incertidumbre que surge con respecto a (i) qué parte debe ser llamada al proceso, (ii) cómo identificar quién es responsable -en casos de concausalidad, y potencial distribución de responsabilidades entre distintos operadores-, (iii) quién debe adquirir el seguro obligatorio, en casos de sistemas de alto riesgo.

(i) La PR establece la responsabilidad solidaria de múltiples operadores (art. 11), lo cual ciertamente no es suficiente para identificar ex ante qué parte deber ser la llamada al litigio. La responsabilidad solidaria consiente a quien reclama pedir la indemnización a cualquiera de las partes que considere responsables y, posteriormente, permite que aquella que de forma efectiva haya realizado el pago repita en contra de las otras69, repartiendo la pérdida sufrida según su parte y contribución individuales.

Sin embargo, la redacción propuesta presupone la idea de que, en cualquier caso, la parte demandada sea responsable70, lo cual realmente no es claro en los casos de causalidad alternativa71. En realidad, cada operador deberá responder del riesgo concreto, no de todos: el operador inicial no será responsable de los daños derivados de la actualización errónea del sistema efectuada por el operador final. Y aun cuando varios operadores iniciales puedan estar encargados de supervisar una parte específica de la operación puede no ser evidente cuál de ellos es realmente el responsable del accidente, máxime si se considera que puede ocurrir que sólo uno de los factores de riesgo potenciales haya causado el accidente, excluyendo la contribución de los otros72.

(ii) Así las cosas, si el demandante opta por demandar a la parte equivocada que, a pesar de tener la condición de operador, no es la que controla el elemento específico que causó el daño, no obtendría indemnización. Esto es aún más grave si se considera que, en los casos en que varias partes participan en la prestación de un servicio basado en un sistema de IA, identificar qué elemento causó el daño y qué parte tiene el control podría no resultar obvio para el demandante y, a su vez, ser muy costoso de determinar. Esto induciría a la víctima a demandar a todos los posibles demandados, lo que aumentaría los costos del litigio o, en su defecto, la disuadiría de demandar, convirtiéndose en un desafortunado desincentivo para el acceso a la justicia.

Pensemos en un ejemplo que ilustra esta problemática: un peatón que atraviesa la calle por un paso de cebra es atropellado por un coche con cierto grado de automatización. Las posibles partes responsables serán el propietario del coche, el conductor (que puede no ser el propietario), el proveedor de servicios de internet que conecta el vehículo con la autovía inteligente, el proveedor de servicios de infraestructura, el productor, y si el conductor está utilizando una ayuda digital de movilidad, incluso la empresa que proporciona tal servicio. Todas estas partes caen teóricamente bajo la noción de operador (inicial o final). La abstracción propuesta por un esquema de responsabilidad solidaria supondría que los operadores que sean declarados responsables lo sean solidariamente (art. 11 PR) aunque en realidad no sea así. A su vez, podría implicar que la víctima elija demandar a una sola de las partes, arriesgándose a que el juez encuentre que otra persona es la real responsable, o bien, que demande a todas ellas73, lo que aumentaría sus costos para entablar un litigio74 y en consecuencia se abstenga de hacerlo.

La responsabilidad solidaria propuesta es contraria a un enfoque One-stop-shop, OSS, como el propuesto por la Directiva sobre la venta de bienes de consumo75. Esta última consagra que una persona sea responsable de reparar, sustituir o reembolsar el coste del producto (art. 3) por la única razón de haber vendido el ejemplar sin que cumpliera con los estándares requeridos de conformidad76. De esta forma, no es necesario entrar a determinar la intervención más o menos directa en la causación del riesgo, pues la forma en que está prevista la determinación de la responsabilidad funciona de suyo como una garantía de tipo legal.

Dicha atribución de la responsabilidad se hace en atención a un enfoque de gestión de riesgos (RMA, por sus siglas en inglés)77. Así pues, la atribución de la responsabilidad se hará a aquel individuo que se identifique como la persona mejor posicionada para gestionar dicho riesgo, así como sus costos asociados, incluso si no contribuyó a generarlos. De hecho, si el producto carece de conformidad, lo más probable es que el daño se deba a su fabricación o transporte, más que a la manipulación por parte del vendedor final. Aun así, se prefiere que este último sea el llamado a responder y que, con posterioridad, sea él quien actúe en repetición a lo largo de toda la cadena de valor, buscando su propia restauración.

Un enfoque de esta naturaleza no deja lugar a ninguna incertidumbre sobre quién debe considerarse responsable frente al demandante, minimizando de esta forma la cantidad de litigios y garantizando el acceso a la justicia. Por el contrario, el esquema propuesto en el PR implica que todas las partes que controlen diversos factores de riesgo, potencialmente excluyentes entre sí, sean consideradas teóricamente responsables ante la víctima, aumentando la incertidumbre con respecto a la adjudicación y el reparto de la responsabilidad. Es más, en estos casos, ni siquiera el operador estará en condiciones de determinar en qué casos un fallo en la tecnología de IA desencadenará su propia responsabilidad.

La única forma en que un esquema de responsabilidad solidaria puede alcanzar un resultado práctico similar al de un planteamiento de OSS y RMA sería condicionar a todos los operadores para que sean inmediatamente responsables por el mero hecho de serlo: se trataría, entonces, de un caso de responsabilidad "de estatus"78. Reglas similares ya existen dentro de algunos ordenamientos jurídicos en los que la atribución de la responsabilidad depende de la noción de control sobre una fuente de riesgo. Este esquema, entonces, no exigiría la comprobación de un nexo de causalidad; por el contrario, bastaría la mera circunstancia de que la parte fuera definida como un operador para que sea considerado responsable de todos los riesgos generados por el AIS, incluidos aquellos sobre los que no tiene control alguno y que, en cambio, son gestionados por otra persona. En tal caso, un operador inicial podría ser llamado a indemnizar los daños causados por el mal mantenimiento o actualización del sistema -a cargo de un operador final-.

Sin embargo, una solución de tal naturaleza no sería eficiente en relación con el deber de asegurar. A su vez, encaminaría todas las reclamaciones hacia el demandado más débil, produciendo una desigualdad inaceptable -desde el punto de vista de la justicia específica para cada caso-, con lo cual se provocaría un retraso en la penetración en el mercado de tecnologías. En un escenario de conducción automatizada, por ejemplo, todos los litigios se dirigirían fácilmente hacia el propietario, en lugar de hacia otras partes potencialmente responsables que podrían controlar, internalizar y distribuir mejor el riesgo79.

Dicho de otro modo, si uno de los principales problemas a los que se enfrentan las tecnologías avanzadas es el de la superposición de diferentes regímenes de responsabilidad (por ejemplo, la responsabilidad por productos defectuosos y otras normas de derecho de daños, como la responsabilidad del propietario del vehículo o del conductor), que tienen a diferentes partes potencialmente responsables, la adopción de una norma de responsabilidad muy amplia y uniforme que se aplique a todas ellas no consigue una necesaria simplificación ni una garantía para la indemnización de las víctimas.

(iii) El artículo 4 PR exige que los operadores de aplicaciones de alto riesgo contraten un seguro a terceros. En el ejemplo expuesto en el numeral anterior, todas las partes enumeradas estarían sujetas a este requisito, en lugar de sólo una. Esto en realidad sería sobre todo ineficaz, ya que produciría un efecto disuasorio excesivo y aumentaría los costes asociados al uso de tales tecnologías sin ningún beneficio evidente para el demandante, quien seguiría sin saber, en primer lugar, a quién demandar.

En conclusión, la noción de "operador" es, una vez más, una noción "paraguas", que engloba potencialmente a cualquier sujeto que se beneficie económica o materialmente del AIS, y que intenta reflejar la noción de productor (del PDL), sin éxito. Si bien es cierto que la categoría de posibles fabricantes es mucho más restringida, la de los operadores no está tan limitada. Por su parte, las posiciones de las partes que podrían entrar en dicha noción, sus intereses y grado de sofisticación varían enormemente. Una distinción obvia que se descuida, por ejemplo, es la que existe entre los operadores que actúan por motivos personales o profesionales (dado que la legislación de la UE sobre protección de los consumidores diferencia entre ambos, lo más probable es que sea sensato mantener dicha distinción para este mismo caso). Es más, exigir normas más estrictas en cuanto a inversiones en seguridad y control de riesgos emergentes parece una política que es sensato exigir solo a los últimos.

F. Las complejas interacciones entre la responsabilidad del operador y la del productor

El artículo 11 PR también define la relación entre el PLD y el PR. En caso de que una sola parte cumpla los requisitos de productor y operador inicial, prevalecerá la aplicación del PR. Por el contrario, si es a la vez productor y operador final, se aplicará el PLD.

Tal distinción es problemática. El PLD parece permitir una mayor defensa y sin embargo sigue dando lugar a las preocupaciones ya expuestas, todas las cuales también inclinarían la balanza hacia la idea de elaborar un régimen particular para las AIS. De hecho, el artículo 4, parágrafo 3, PR excluye la responsabilidad únicamente por motivos de fuerza mayor, a diferencia del artículo 7 PLD80. Al mismo tiempo, parece muy probable que el productor, "[…] de forma continuada, defina las características de la tecnología y proporcione datos y un servicio esencial de apoyo". Sin embargo, gracias a tal disposición, todavía podría escapar de las normas más estrictas establecidas por el artículo 4 PR y aprovechar el sistema más indulgente establecido por el PLD. Ello, a su vez, iría en detrimento de otros operadores que, muy probablemente, serían demandados por la víctima en primera instancia, recayendo sobre ellos el coste de demandar en regreso al fabricante, trasladando a dichas partes el riesgo legal asociado.

G. La limitación de la indemnización y la ilegitimidad de los topes establecidos

Fijar un límite o tope en el monto de una indemnización es una solución útil y adecuada, sobre todo cuando se establecen normas estrictas -o de responsabilidad objetiva-, en particular, en virtud de una perspectiva de gestión de riesgos.

Sin embargo, las limitaciones establecidas por el PR (arts. 2 y 3, lit. i) son demasiado restrictivas, pues excluyen la compensación de algunos tipos de daños que en realidad serían reconocidos por los ordenamientos jurídicos de muchos Estados miembros, lo cual derivaría en decisiones de tipo inconstitucional en estas jurisdicciones. Al mismo tiempo, estos topes máximos (art. 5) parecen excesivamente bajos o altos, y en cualquier caso inadecuados, con respecto a una multiplicidad de aplicaciones, usos y circunstancias potencialmente perjudiciales.

En relación con la primera cuestión, el artículo 2 establece que el Reglamento se aplica a "[…] daños o perjuicios a la vida, la salud, la integridad física de una persona física y los bienes de una persona física o jurídica, o […] daños morales considerables que den lugar a una pérdida económica verificable"; mientras que el artículo 3, literal i, define el "daño o perjuicio" como cualquier "[…] impacto adverso que afecta a la vida, la salud, la integridad física de una persona física, los bienes de una persona física o jurídica o bien que produce daños morales significativos que resultan en una pérdida económica verificable".

Estas normas reproducen sustancialmente el § 823 c. c. alemán (BGB), según el cual "[q]uien intencionalmente o por negligencia lesione ilícitamente la vida, el cuerpo, la salud, la libertad, la propiedad o cualquier otro derecho de otra persona, está obligado a compensar el daño que de ello se derive al afectado". Una evaluación detallada de esta norma, su interpretación y las consecuencias doctrinales que desencadenó -también en términos de la extensión de la responsabilidad contractual sobre las normas de responsabilidad extracontractual- excede los fines del presente análisis81.

Baste recordar que otros Estados miembros han adoptado enfoques distintos, aunque han promulgado cláusulas como la del "daño injusto"82 del artículo 2043 c. c. italiano, que ha permitido la extensión de los daños indemnizables a lo largo del tiempo, a través de la interpretación jurídica y la jurisprudencia. Es bien sabido que, a través de la interpretación de esa misma norma, la Corte di Cassazione italiana83 y el Tribunal Constitucional84 concluyeron que la protección mínima de los derechos fundamentales se otorga a través del derecho de la responsabilidad85. Por lo tanto, cualquier persona que sufra una violación de sus derechos fundamentales debería tener derecho a una indemnización siempre que dicho daño sea injustificado. En virtud de tal doctrina, hoy en día se indemnizan -incluso en el ámbito contractual- los daños no pecuniarios que, en cambio, el PR excluiría. Por esa misma razón, limitaciones del tipo de las establecidas por el artículo 3, literal i, podrían considerarse al mismo tiempo inconstitucionales y como una injerencia excesiva en los ordenamientos jurídicos de los Estados miembros.

Además, discriminarían injustamente a las víctimas de tecnologías más avanzadas y de mayor riesgo frente a todas las demás. Si bien es cierto que las víctimas de tecnologías de bajo riesgo que demandaran en virtud de la responsabilidad por culpa del operador (art. 8) se beneficiarían de la disposición del artículo 9, que permite la aplicación de la legislación de los Estados miembros sobre el tipo y la cuantía de los daños que podrían ser compensados, aquellos que resultaran perjudicados por aplicaciones de alto riesgo estarían fuertemente limitados incluso en la protección de sus derechos constitucionales. Esto también podría desincentivar el uso de servicios o bienes basados en soluciones de IA más avanzadas, produciendo en conjunto un efecto de enfriamiento tecnológico.

En cuanto a la segunda cuestión, resultan insuficientes los importes totales máximos definidos por el artículos 5 son insuficientes. En efecto, el parágrafo 1, literal a, limita a dos millones de euros el importe total que se puede liquidar, "[…] en caso de fallecimiento o de daños causados a la salud o a la integridad física de una persona afectada como resultado de una única utilización de un único sistema de IA de alto riesgo", mientras que el literal b la limita a un millón "[…] en caso de daños inmateriales significativos que resulten en una pérdida económica verificable o en daños a la propiedad, también cuando distintos bienes de propiedad de una persona afectada resulten dañados como resultado de una única utilización de un único sistema de IA de alto riesgo […]". Además, en caso de que "la indemnización combinada que deba abonarse a varias personas que sufran daños o perjuicios causados por la misma utilización de un mismo sistema de IA de alto riesgo supere los importes totales máximos previstos en el apartado 1, los importes que deban abonarse a cada persona se reducirán proporcionalmente de forma que la indemnización combinada no supere los importes máximos establecidos en el apartado 1" (art. 5, apdo. 2).

Tales limitaciones son per se inadecuadas, más aún si se aplican a casos de múltiples víctimas. En cuanto al primer supuesto, baste recordar que la cobertura mínima de daños a terceros exigida por la ley de accidentes de tráfico en Italia asciende a más de seis millones de euros por accidente y a más de un millón de euros por víctima (art. 128 del Decreto Legislativo n.° 209 del 7 septiembre de 2005). Las aseguradoras, normalmente, eligen límites sustancialmente más altos, a menudo duplicando los propuestos. Dado que los autos driveless podrían ser considerados una posible aplicación de alto riesgo, a efectos del PR, la desproporción es evidente. De hecho, no hay razón para creer que un accidente en el que esté implicado un solo vehículo autónomo no cause al menos un tercio de los daños que causaría un vehículo tradicional en la misma situación. Cambiar el sistema de manejo del auto en teoría reducirá los accidentes causados por errores humanos86, pero ello no implica necesariamente que las consecuencias de dichos accidentes, una vez ocurridos, sean menos graves.

En cuanto al segundo supuesto, cuando se tienen los AIS en forma de software que prestan servicios a múltiples usuarios de manera simultánea, eventualmente en el entorno de una ciudad inteligente o desplegados a lo largo de los mercados de capitales, la probabilidad de que haya un número muy elevado de perjudicados por el mismo accidente es muy alta. De ahí que la limitación -y la consiguiente reducción proporcional de la indemnización a cada una de las víctimas- resulte aún más desproporcionada, hasta el punto de que con ella se negaría la naturaleza compensatoria de la norma.

De ese modo, aunque en sí misma considerada la limitación de la responsabilidad es apropiada como técnica, dichas limitaciones impuestas deben ser proporcionales a los daños reales sufridos por las partes, ya que, como es sabido, la indemnización debe compensar el perjuicio sufrido, pues de lo contrario sería ilegítima87.

Por su parte, la falta de adecuación de los topes indemnizatorios sigue pareciendo depender de la circunstancia de que el PR intenta regular unitariamente soluciones tecnológicas muy diversas entre sí y que hasta ahora se abordaban -tanto a nivel nacional como europeo- con arreglo a un enfoque sectorial y tecnológico específico. Si se mantuviera un enfoque más especial en relación con la tecnología, se podrían establecer límites más adecuados a los posibles daños reales que podrían sufrir víctimas individuales o múltiples cuando sea relevante y necesario.

H. El problema de los incentivos para la adopción de tecnologías avanzadas en ámbitos sensibles

La legislación propuesta en el PR, debido a su ámbito de aplicación extremadamente amplio y en gran medida indeterminado, podría ser un desincentivo para la adopción temprana de tecnologías avanzadas.

De hecho, está claro que las partes que utilicen en sus negocios AIS que se consideren de alto riesgo estarán expuestas a un mayor riesgo legal, asociado a la estricta norma de responsabilidad que contiene el reglamento propuesto. Desde ya es preciso decir que normas de tal naturaleza no son necesariamente negativas, es más, cuando están bien concebidas y son suficientemente restrictivas, permiten una simplificación sustancial de todo el marco de responsabilidad. Sin embargo, teniendo en cuenta los problemas ya expuestos, ello no se cumple. Si se tiene en cuenta la amplia noción de operador, que permite la identificación de una pluralidad de partes potencialmente responsables, una norma de responsabilidad tan severa podría acabar gravando a un agente que, en cambio, debería estar protegido, ello para evitar desincentivar la adopción de la tecnología.

Uno de los campos en los que pronto podría implantarse el AIS es el del diagnóstico por imagen. De hecho, las aplicaciones podrían permitir a los radiólogos seleccionar y filtrar los casos negativos, dejando más tiempo para analizar los que realmente son problemáticos, o bien podría proporcionar una segunda información al examinador humano, confirmando sus diagnósticos. Si tales tecnologías se consideraran aplicaciones de alto riesgo, se emplearía la norma estricta de responsabilidad. En caso contrario, de conformidad con el artículo 8, se aplicaría una norma basada en la culpa, con una inversión de la carga de la prueba. En ambos casos, el médico podría calificarse de operador inicial, ya que ejercería un cierto grado de control sobre los riesgos generados por el sistema experto, además de beneficiarse de su uso, principalmente en términos de mayor rendimiento y eficacia en su práctica. Empero, dicho profesional se enfrentaría comparativamente a una norma de responsabilidad más estricta que un colega que recurriera a técnicas no basadas en la IA. En particular, en caso de que el AIS se utilizara como filtro, la calificación errónea realizada por la máquina podría dar lugar a la responsabilidad del médico, incluso en los casos en que no hubiera tenido la oportunidad de observar la imagen que la propia máquina calificó erróneamente88.

Si bien está claro que en todos estos casos debe garantizarse una indemnización a la víctima, responsabilizar al médico, debido a la definición extremadamente amplia de operador que fácilmente podría incluirlo, parece ser una opción política cuestionable que contradice las tendencias normativas actuales que tienen como objetivo proteger a los médicos de litigios excesivos y desproporcionados, desalentando así las prácticas médicas defensivas.

No obstante, la amplitud de las definiciones, que multiplican las partes potencialmente responsables89, así como la ausencia de una norma específica que canalice el juicio de responsabilidad -al menos en primera instancia- hacia un único demandado que esté mejor posicionado para (i) controlar, (ii) minimizar y, posiblemente, (iii) asegurar contra el riesgo generado por el ASI, podría tener efectos negativos y, en última instancia, desalentar la adopción temprana de la tecnología, con resultados socialmente indeseables.

VII. Regulación "bottom up" de la tecnología: la necesidad de un enfoque específico para cada tecnología

Los diferentes aspectos problemáticos expuestos tal vez podrían evitarse simplemente renunciando a la distinción entre aplicaciones de bajo y alto riesgo. De hecho, se insiste en el hecho de que los dispositivos incluidos en el primer grupo no requieren, en la mayoría de los casos, de ninguna intervención de regulación adicional. Por su parte, en lo que respecta al segundo grupo de aplicaciones, será pertinente su intervención mediante un método ad hoc y específico -siempre que se considere pertinente-, con el objetivo de regular únicamente aquellas aplicaciones que puedan enmarcarse en un grupo (o CoA) específico al presentar puntos en común que las haga requerir un enfoque idéntico. Después de todo, si las diferentes materias han sido reguladas por separado, como la responsabilidad médica, los accidentes de tráfico, la responsabilidad del empleador, la responsabilidad de los padres, maestros, propietarios y tutores, el desarrollo tecnológico parece ser un argumento insuficiente para cambiar dicho enfoque.

Una evaluación ascendente (bottom up) basada en la tecnología permitiría identificar a una parte estrictamente responsable que está en la mejor posición para identificar el riesgo, aprovecharlo y posiblemente gestionarlo asegurando la compensación; facilitaría la determinación de una parte única -propietario, productor, usuario, proveedor de servicios- que debería servir como punto de entrada para el litigio. Esto mediante un método "one-stop-shop", que, en cualquier caso, le permitirá a esta última actuar en recurso contra otras partes potencialmente responsables.

Este enfoque también permitiría determinar, cuando sea necesario, límites de responsabilidad que facilitarían la posición de la parte responsable, asegurando una gestión más efectiva de los riesgos asociados al uso de la tecnología y favoreciendo así tanto su adopción como la indemnización de las víctimas, sin limitar indebidamente los derechos de los demandantes, ello en atención a la ley y a la jurisprudencia nacionales.

VIII. Justificación de la regulación de la responsabilidad civil en la IA: garantizar la indemnización y facilitar el acceso a la justicia

Por último, cabe hacer una reflexión específica sobre algunos de los considerandos del PR, en los que se expone claramente la ratio subyacente a la iniciativa legislativa propuesta, según la cual "[…] el mero funcionamiento de un sistema autónomo de IA no debe ser motivo suficiente para admitir la reclamación de responsabilidad. En consecuencia, podría haber casos de responsabilidad en los que la asignación de responsabilidades podría ser injusta o ineficaz, o en los que una persona que sufra daños causados por un sistema de IA no pueda demostrar la culpa del productor, de un tercero que interfiera o del operador y acabe sin indemnización"90. El presupuesto de esta hipótesis es que una víctima -que no es responsable de su propio daño- no puede demostrar ante un tribunal la responsabilidad de ninguno de los posibles causantes del daño y, por lo tanto, acaba sin indemnización, aun cuando tiene derecho a recibirla.

Es obvio que cuando se materializa un daño, se debe a la conducta de alguien, eventualmente incluso la víctima misma. En tal caso, sin embargo, la víctima no tendría derecho a recibir ninguna compensación o, si fuera parcialmente responsable -en participación con alguien más-, recibiría solo una recuperación proporcional a la responsabilidad del otro responsable. El fundamento del PR, sin embargo, no se refiere claramente a tales casos -de responsabilidad total o parcial de la propia víctima- sino, en cambio, a aquellas hipótesis frecuentes en las que existen múltiples partes potencialmente responsables y, sin embargo, no es obvio quién ha causado clara o predominantemente el hecho dañoso. Se trata, por tanto, de precisar primordialmente la causalidad, determinando quién debe ser considerado responsable en los casos de hipótesis de causalidad alternativa.

El Grupo de Expertos también tiene en cuenta estos problemas y reconoce que, si "ya es difícil demostrar que una conducta o actividad fue la causa del daño", "la situación se complica aún más si entran en juego otras fuentes alternativas", y que este escenario "será mucho más problemático en el futuro, dada la interconexión de las tecnologías digitales emergentes y su creciente dependencia de datos e insumos externos, lo que hace cada vez más dudoso que el daño en cuestión haya sido provocado por una única causa original o por la interacción de múltiples causas (reales o potenciales)"91. De hecho, el Grupo de Expertos aclara que las leyes nacionales de responsabilidad civil existentes resuelven estos casos de manera que "nadie es responsable (ya que la evidencia de la víctima no alcanza el umbral para demostrar la causalidad de una causa), o que todas las partes son conjunta y solidariamente responsables, que es la opinión mayoritaria". Por lo tanto, es posible que el reclamante no logre obtener compensación.

Estos casos son claros fracasos dentro del sistema jurídico. Idealmente, cualquier sistema jurídico debería garantizar siempre una indemnización a la víctima cuando haya sido injustamente dañada. Las normas jurídicas, empero, pueden provocar una discrepancia entre la realidad -lo que ocurrió: que la víctima resultó herida y alguien debe haber causado ese daño- y la realidad jurídica: lo que se puede demostrar ante un juez.

Uno de los principales problemas de las tecnologías emergentes es que demostrar la responsabilidad puede resultar cada vez más difícil debido a (i) la opacidad y complejidad de la propia tecnología, (ii) la superposición de diferentes regímenes de responsabilidad que no permiten identificar un punto de partida claro para iniciar el litigio, y (iii) la complejidad de las normas probatorias cuando se aplican a la tecnología.

Cualquier iniciativa política debe abordar tanto el segundo como el tercer problema y rechazar radicalmente la idea de que una víctima que haya sufrido un daño y no lo haya causado ella misma pueda quedarse sin indemnización. Para lograrlo -como aquí sugerimos y mediante el análisis de escenarios específicos de posible aplicación de diferentes clases de dispositivos y servicios tecnológicos- en ocasiones es necesaria una reforma y simplificación del marco legal. A menudo -aunque no siempre- la identificación de un único punto de entrada para todos los litigios, esto es, un enfoque OSS, es la alternativa preferible.

Esto implica centrarse en la naturaleza compensatoria ex post de las normas de responsabilidad civil, dejando la disuasión ex ante principalmente en otros cuerpos legislativos -seguridad de los productos-, de conformidad con un RMA92. Si una de las partes resulta claramente responsable frente a la víctima, se evitarán escenarios en los que un daño injusto quede sin indemnización. En algunos casos, el responsable podría ser el usuario, el operador, el fabricante, el propietario, etc., según las consideraciones específicas que deban hacerse.

Soluciones similares se complementan -como sugiere el propio Grupo de Expertos93- con derechos de recurso o repetición a lo largo de la cadena de valor y/o frente a otras partes potencialmente responsables ya sea por cuotas (varios) o a prorrata (responsabilidad solidaria y mancomunada)94.

Esta solución es justa, ya que se compensa a la víctima que no ha contribuido a causar el daño. Quienes se hayan beneficiado económicamente -porque hayan vendido el bien o servicio con ánimo de lucro- y quienes, mediante el mecanismo de precios, se hayan beneficiado de su uso -usuarios-, comparten la pérdida95.

También es eficiente, ya que reduce la complejidad y, por tanto, los costes de los litigios, facilitando el acceso a la justicia. Asimismo, favorece la innovación, al aumentar la confianza en el uso y la fiabilidad de las soluciones tecnológicamente avanzadas, incentivando su pronta adopción.

Por lo tanto, como justificación general de cualquier intervención reguladora en el ámbito de la IA y la responsabilidad civil, la simplificación del marco actual y la compensación de las víctimas -a través de la internalización de los costes asociados al despliegue de aplicaciones avanzadas- deberían ser el objetivo principal, si no el único. En cambio, la seguridad, que es una preocupación tan seria como relevante, debería abordarse de otro modo, principalmente a través de otros cuerpos normativos, como la regulación de la seguridad de los productos.


Notas

1 Grupo de Expertos sobre Responsabilidad y Nuevas Tecnologías, Informe sobre la responsabilidad por inteligencia artificial y otras tecnologías digitales emergentes, Bruselas, Comisión Europea, 2019, 28-30.
2 Bertolini, A., "Robots as Products: The Case for a Realistic Analysis of Robotic Applications and Liability Rules", Law Innovation and Technology, Taylor and Francis, n.° 5 2013, 214-247; con argumentos diferentes, Bryson, J., "Robots Should Be Slaves", Close Engagements with Artificial Companions: Key Social, Psychological, Ethical and Design Issues, Yorick Wilks, n.° 8, 2010, 63-74; Fossa, F., "Artificial Agency and the Game of Semantic Extension", Interdisciplinary Science Reviews, Taylor and Francis, n.° 46, 2021, 440-457. Una especial contribución al debate filosófico es hecha por Gutmann, M.; Rathgeber, B. y Syed, T., "Action and Autonomy: A Hidden Dilemma in Artificial Autonomous Systems", en Decker, M. y Gutman, M. (eds.), Robo- and Informationethics. Some Fundamentals, Zúrich, Lit, 2012, 231.
3 Por el contrario, Floridi, L. y Sanders, J. W., "On the Morality of Artificial Agents", Minds and Machine, University of Oxford, n.° 14, 2004, 349-379. Con diferentes argumentos, Matthias, A., Automaten als Trager von Rechten, Berlín, Logos, 2010; Gunkel, D., The Machine Question. Critical PeRSPectives on AI, Robots, and Ethics, Cambridge, Massachusetts Institute of Technology, 2012; Turner, J., Robot Rules: Regulating Artificial Intelligence, Berlín, Springer, 2019.
4 Falzea, A., Il soggetto nel sistema dei fenomeni giuridici, Milán, Giuffrè, 1939; Pizzorusso, A., "Delle persone fisiche. Delle persone e della famiglia", en Scialoja, A. y Branca, G. (coords.), Commentario del codice civile, t. I, Bolonia, Zanichelli, 1988; Messinetti, D., "Oggetto dei diritti", Enciclopedia del diritto, XXIX, Milán, Giuffrè, 1979, 808; Scozzafava, O. T., "Oggetto dei diritti", Enciclopedia giuridica, XXIV, Roma, Treccani, 1990, 1; Scalfi, G., "Persone giuridiche (I) Diritto civile", Enciclopedia giuridica, XXIV, Roma, Treccani, 1990. Más recientemente, Giardina, F., "Sub art. 1. Capacità giuridica", en Barba, A. y Pagliantini, S. (coords.), Commentario del codice civile, Turín, Utet Giuridica, 2012, 337.
5 Calo, R., "Open Robotics", Maryland Law Review, University of Washington School of Law, n.° 70, 2011, 571-613.
6 La atribución de la personalidad jurídica como una ficción jurídica es una cuestión totalmente distinta. Su aplicación solo podría justificarse por motivos técnico-jurídicos y cuando se diera el caso de que fuera requerida en función de un propósito bien definido que no pudiera alcanzarse tan eficientemente de otro modo, tal como ocurre hoy con las sociedades anónimas. Bertolini, A., Artificial Intelligence and Civil Liability, Bruselas, Unión Europea, 2020, 36; Wagner, G., "Robot, Inc.: Personhood for Autonomous Systems?", Fordham Law Review, Fordham School of Law, n.° 88, 2019, 591.
7 Turing, A., "Computing Machinery and Intelligence", Mind, University of Oxford, n.° 49, 1950, 433 y 460.
8 De hecho, los ingenieros que trabajan en IA y robótica a menudo se perciben a sí mismos como pertenecientes a diferentes campos de especialización y a comunidades totalmente distintas. Sólo recientemente la asociación público-privada EurAI ha unido fuerzas con euRobotics, pues con anterioridad cada una de ellas era representante de su respectiva comunidad de trabajo. Véase Bertolini, A., Artificial Intelligence and Civil Liability, cit., 111.
9 Russell, S. J. y Norvig, P., Artificial Intelligence. A Modern Approach, Upper Saddle River, Pearson Education, 2010, 77.
10 Grupo de Expertos sobre Responsabilidad y Nuevas Tecnologías, A Definition of AI: Main Capabilities and Disciplines, Bruselas, Comisión Europea, 2019: la inteligencia humana no es una característica necesaria para que un sistema se considere IA pero sí lo es su capacidad para actuar como un agente racional, lo que excluye a todos los sistemas que actúen de forma irracional. Para otras definiciones que se refieran a la inteligencia humana como rasgo de un sistema de IA, véase ISO-IEC-2382-28 [en línea], disponible en: https://www.iso.org/obp/ui/#iso:std:iso-iec:2382:-28:ed-1:v1:en [consultado el 8 de marzo de 2015] y Finlandia. Ministerio de Asuntos Económicos y de Empleo, Finland's Age of Artificial Intelligence, Helsinki, 2017.
11 Gutmann, M.; Rathgeber, B. y Syed, T., "Action and Autonomy", cit., 231.
12 Véase https://www.businessinsider.com/ai-smartphones-artificial-intelligence-features-phones-2018-1?r=US&IR=T [consultado el 8 de marzo de 2015].
13 Véase https://photobite.uk/the-word/huaweis-mate-20-lite-with-4x-ai-cameras-now-available-in-the-uk/ [consultado el 8 de marzo de 2015].
14 Véase https://www.ibm.com/watson-health/solutions/radiology-solutions [consultado el 8 de marzo de 2015].
15 Véase https://www.paymentsjournal.com/ai-for-payment-optimization-current-practices-and-use-cases/ [consultado el 8 de marzo de 2015].
16 Véase https://www.engineering.com/story/tech-trends-2019-driverless-cars-artificial-intelligence-augmented-reality [consultado el 8 de marzo de 2015].
17 Véase https://www.oralb.co.uk/en-gb/product-collections/genius-x [consultado el 8 de marzo de 2015].
18 Sobre esta cuestión, Italia. Corte di Cassazione, Sezione III, sentencia del 22 de enero de 1999, n.° 589. Con comentarios de Di Majo, A., "L'obbligazione senza prestazione approda in Cassazione" y Castronovo, C., "Obblighi di protezione", Enciclopedia giuridica, Roma, Treccani, vol. XXI, 1990; Nicolussi, A., "Obblighi di protezione", Enciclopedia del diritto, Annali, Milán, Giuffrè, vol. VIII, 2015, 659. La decisión sustituyó la responsabilidad médica extracontractual por la responsabilidad contractual para aliviar la posición del reclamante. En el mismo sentido, Italia. Corte di Cassazione, Sezione III, sentencias del 19 de febrero de 2013, n.° 4030, y del 17 de abril de 2014, n.° 8940.
19 Véase la Ley n.° 24 del 8 de marzo de 2017, "Disposiciones para la seguridad de la asistencia sanitaria y del paciente, y relativas a la responsabilidad profesional de quienes ejercen profesiones sanitarias" (denominada "Legge Gelli"), que en su artículo 7 establece la responsabilidad "extracontractual" de los médicos y otros profesionales sanitarios empleados en hospitales, lo trae consigo un plazo de prescripción de cinco años y la carga de la prueba para el demandante. Por su parte, la responsabilidad "contractual", con un plazo de prescripción de 10 años y la carga de la prueba, se mantiene para los hospitales y los profesionales médicos en la práctica privada. Al respecto, también pueden consultarse Calvo, R., "La decontrattualizzazione della responsabilità sanitaria", Nuove legggi civili commentate, Cedam, n.° 3, 2017, 453-478; Castronovo, C., "Swinging malpractice. Il pendolo della responsabilità medica", Europa e diritto privato, Giuffrè, n.° 3, 2020, 847-900, donde el autor sostiene que "lo strabismo scelto dalla disciplina legislativa, di responsabilità contrattuale per la struttura sanitaria ed extracontrattuale per il medico, riproduce i problemi ai quali aveva ovviato la giurisprudenza con la svolta del 1999"; Franzoni, M., "Colpa e linee guida nella nuova legge", Danno e responsabilità, Ipsoa, vol. 21, 2016, 801-806; Pardolesi, R., "Chi (vince e chi) perde nella riforma della responsabilità sanitaria", Danno e responsabilità, Ipsoa, vol. 22, 2017, 261-267; Ponzanelli, G., "Medical malpractice: la legge Bianco Gelli. Una premessa", Danno e responsabilità, Ipsoa, vol. 21, 2017, 268-270; Hazan, M., "L'azione diretta verso l'assicuratore (e il regime delle eccezioni e della rivalsa)", en Hazan, M.; Zorzit, D. y Gelli, F. (coords.), La nuova responsabilità sanitaria e la sua assicurazione, Milán, Giuffrè, 2017, 317; Scognamiglio, C., "Regole di condotta, modelli di responsabilità e risarcimento del danno nella nuova legge sulla responsabilità sanitaria", Corriere giuridico, Ipsoa, vol. 34, 2017, 740-748; Astone, A., "Profili civilistici della responsabilità sanitaria (riflessioni a margine della l. 8 marzo 2017, n. 24)", La nuova giurisprudenza civile commentata, Cedam, vol. 33, 2017, 1115-1126; Stanzione, P.; Sica, S. y Meoli, B., Commentario alla legge 8 marzo 2017, n.° 24, Nápoles, Edizioni Scientifiche Italiane, 2018, 170; Carbone, V., "Legge Gelli: inquadramento normativo e profili generali", Corriere giuridico, Ipsoa, vol. 34, 2017, 737; Bachelet, V., "Il rapporto tra ASL e medico di base nel sistema riformato della responsabilità sanitaria", Rivista di diritto civile, Cedam, n.° 3, 2017, 777-819; De Matteis, R., La responsabilità in ambito sanitario. Il regime binario: dal modello teorico ai risvolti applicativi, Padua, Cedam, 2017, 6, en donde el autor identifica "una chiara linea di policy in direzione di una canalizzazione dei costi dei danni sul soggetto/ente che meglio è in grado diprevenire e gestire il rischio connesso al loro accadimento, potenziando politiche di risk management e provvedendo a coperture della responsabilità civile mediante assicurazione o altre misure analoghe". Además, las directrices constituyen un elemento de innovación aportado por la citada ley y su cumplimiento puede proteger a los profesionales sanitarios que se vean envueltos en accidentes profesionales en el ejercicio de sus funciones. Al respecto, Franciosi, L., "The New Italian Regime for Healthcare Liability and the Role of Clinical Practice Guidelines: A Dialogue Among Legal Formants", Journal of Civil Law Studies, Center of Civil Law Studies, n.° 11, 2018, 370-413; Pardolesi, R. y Simone, R., "Nuova responsabilità medica: il dito e la luna (contro i guasti da contatto sociale?)", Il Foro Italiano, vol. V, 2017,163-164, en donde los autores afirman: "Il procedimento di edificazione delle linee guida presuppone un meccanismo alquanto complesso, creando un sistema che finisce con il circoscrivere ad un ambito municipale il dibattito sulla scienza medica". Véase, también, Alpa, G., "Ars interpretandi e responsabilità sanitaria a seguito della nuova legge Bianco-Gelli", Contratto e impresa, Cedam, vol. 33, n.° 3, 2017, 728-733, quien señala que "l'osservanza delle linee guida è un criterio utilizzato dal giudice sia per valutare il comportamento sia per temperare il danno liquidato al paziente".
20 "La medicina defensiva se produce cuando los médicos solicitan pruebas, procedimientos o visitas, evitan determinados pacientes o procedimientos de alto riesgo, principalmente (pero no necesariamente) por temor a la responsabilidad por negligencia". Estados Unidos de América. Congreso de los Estados Unidos, Oficina de Evaluación Tecnológica, Defensive Medicine and Medical Malpractice [en línea], Washington, Government Printing Office, 1994, disponible en: https://ota.fas.org/reports/9405.pdf [consultado el 8 de marzo de 2023]; Garattini, L. y Padula, A., "Defensive Medicine in Europe: a 'Full Circle'?", The European Journal of Health Economics, Springer, n.° 21, 2020, 165-170; Baungaard, N.; Skovvang, P.; Assing, E.; Gerbild, H.; Andersen, M. y Lykkegaard, J., "How Defensive Medicine Is Defined and Understanding in European Medical Literature: Protocol for a Systematic Review", BMJ Open, BMJ, n.° 12, 2020, 1-4; Berlin, L., "Medical Errors, Malpractice, and Defensive Medicine: an Ill-Fated Triad", Diagnosis, De Gruyter, n.° 4, 2017, 133-139; Williams, P.; Williams, J. y Williams, B., "The Fine Line of Defensive Medicine", Journal of Forensic and Legal Medicine, Elsevier, n.° 80, 2021, 102-170.
21 Relazione del Ministro Guardasigilli Grandi al Codice Civile [en línea], 1942, disponible en: https://www.consiglionazionaleforense.it/collana-studi-storici-e-giuridici/-/asset_publisher/8DRwCIeuASnD/content/relazione-del-ministro-guardasigilli-grandi-al-codice-civile-del-1942 [consultado el 8 de marzo de 2023].
22 Hay que recordar que "auctor iuris homo, auctor iustitiae Deus". Al respecto, Santarelli, U., Auctor iuris homo. Introduzione allo studio dell'esperienza giuridica basso-medioevale, Turín, Giappichelli, 1997, 25.
23 Salvini, P., "Taxonomy of Robotic Technologies", en Palmerini, Erica (coord.), Robolaw [en línea], deliverable D4.1 Internal report, 2013, disponible en: http://www.robolaw.eu/deliverables.htm
24 Bertolini, A., "Robots as Products", cit., 246.
25 Easterbrook, F., "CybeRSPace and the Law of the Horse", Chicago Unbound, University of Chicago Legal Forum, n.° 207, 1996, 207-216.
26 Calo, R., "Robotics and the Lessons of Cyberlaw", California Law Review, University of Washington School of Law, n.° 103, 2015, 513 y 551.
27 Castronovo, C., "Diritto privato generale e diritti secondi. La ripresa di un tema", Europa e diritto privato, Giuffrè, n.° 2, 2006, 397-423.
28 La autonomía fuerte, a diferencia de la autonomía débil, requiere un agente, por tanto, alguien que sea consciente de su propia existencia, posea sus propias preferencias y sea capaz de coordinar sus propias acciones para alcanzar el fin deseado. Gutmann, M.; Rathgeber, B. y Syed, T., "Action and Autonomy", cit., 235.
29 Unión Europea, Directiva 85/374/CEE, del Consejo, del 25 de julio de 1985, "Relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados miembros en materia de responsabilidad por los daños causados por productos defectuosos", 29-33. Para un comentario de la directiva y sus diferentes aplicaciones a escala nacional, véase Machnikowski, P., European Product Liability. An Analysis of the State of the Art in the Era of New Technologies, Cambridge, Intersentia, 2016, que también aborda su posible aplicación a productos tecnológicamente avanzados.
30 A este respecto véanse los considerandos de la citada Directiva 85/374/CEE, en los que se afirma: "Considerando que, para proteger la integridad física y los bienes del consumidor, el carácter defectuoso del producto debe determinarse no por su falta de aptitud para el uso sino por no cumplir las condiciones de seguridad a que tiene derecho el gran público; que la seguridad se valora excluyendo cualquier uso abusivo del producto que no sea razonable en las circunstancias".
31 A este respecto, véanse los considerandos de la citada Directiva 85/374/CEE, en los que se afirma que "la protección del consumidor exige la reparación de los daños causados por muerte y lesiones corporales así como la de los daños causados a los bienes", y que "es preciso aproximar las legislaciones de los Estados miembros en materia de responsabilidad del productor por los daños causados por el estado defectuoso de sus productos dado que las actuales divergencias entre las mismas pueden falsear la competencia, afectar a la libre circulación de mercancías dentro del mercado común y favorecer la existencia de distintos grados de protección del consumidor frente a los daños causados a su salud o sus bienes por un producto defectuoso".
32 Grupo de Expertos sobre Responsabilidad y Nuevas Tecnologías, Informe sobre la responsabilidad por inteligencia artificial y otras tecnologías digitales emergentes, cit.; Twigg-Flesner, C., "Guiding Principles for Updating the Product Liability Directive for the Digital Age", ELI Innovation Paper Series, European Law Institute, 2021; Bertolini, A., Artificial Intelligence and Civil Liability, cit., 51.
33 Véase Comisión Europea, Report on the Safety and Liability Implications of Artificial Intelligence, the Internet of Things and Robotics, Bruselas, Unión Europea, 2020, en el que se afirma: "Si bien, en principio, las legislaciones nacionales y de la Unión vigentes en materia de responsabilidad son capaces de hacer frente a las nuevas tecnologías, la dimensión y el efecto combinado de los retos de la IA podrían hacer más difícil ofrecer una indemnización a las víctimas en todos los casos en que esté justificado. Así, la asignación de costos cuando se produce un daño puede ser injusta o ineficaz con arreglo a las normas actuales. Para rectificar esta situación y hacer frente a las posibles incertidumbres del marco actual podría considerarse la posibilidad de introducir ciertos ajustes en la Directiva sobre responsabilidad por productos defectuosos y en los regímenes nacionales de responsabilidad a través de las oportunas iniciativas de la UE".
34 El número limitado de casos litigados (a saber, 798) en 25 Estados miembros, durante los años 2000-2016, de los cuales fueron resueltos aplicando normas de derecho contractual y extracontractual, en lugar del PLD, es del 20%. La limitada tasa de éxito de los demandantes cuestiona seriamente la eficiencia e incluso la eficacia de la directiva con respecto a su función principal de facilitar a la víctima la obtención de una indemnización, ello en contraposición a la motivación del mismo PLD, "en cuyos considerandos se lee: 'únicamente el criterio de la responsabilidad objetiva del productor permite resolver el problema, tan propio de una época de creciente tecnicismo como la nuestra, del justo reparto de los riesgos inherentes a la producción técnica moderna'". Véase, también, Technopolis Group y AA.VV., Evaluation of Council Directive 85/374/EEC on the Approximation of Laws, Regulations and Administrative Provisions of the Member States Concerning Liability for Defective Products [en línea], Bruselas, Ernst & Young, 2018, disponible en: https://op.europa.eu/en/publication-detail/-/publication/d4e3e1f5-526c-11e8-be1d-01aa75ed71a1/language-en [consultado el 8 de marzo de 2023]; Bertolini, A., Artificial Intelligence and Civil Liability, cit., 53. Estas conclusiones se confirman a la luz de la literatura jurídica y económica existente: Polinsky, A. M. y Shavell, S., "The Uneasy Case for Product Liability", Harvard Law Review, Harvard University, n.° 123, 2010, 1437-1492 y Helland, E. A., y Tabarrok, A., "Product Liability and Moral Hazard: Evidence from General Aviation", The Journal of Law and Economics, University of Chicago, vol. 55, n.° 3, 2012, 593-630.
35 SAE, Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles, J3016_201806 [en línea], SAE International, 2018, 1-35, disponible en: https://www.sae.org/standards/content/j3016_201806/ [consultado el 8 de marzo de 2023].
36 Bertolini, A. y Riccaboni, M., "Grounding the Case for a European Approach to the Regulation of Automated Driving: the Technology-Selection Effect of Liability Rules", European Journal of Law and Economics, Springer, n.° 51, 2020, 243-284.
37 Ibid.; Evas, T. y Heflich, A., Artificial Intelligence in Road Transport. Cost of Non-Europe Report, Bruselas, Parlamento Europeo, 2021. Con argumentaciones parcialmente diferentes, véase Calabresi G. y Al Mureden, E., Driverless cars. Intelligenza artificiale e futuro della mobilità, Bolonia, Il Mulino, 2021, 123.
38 Grupo de Expertos sobre Responsabilidad y Nuevas Tecnologías, Informe sobre la responsabilidad por inteligencia artificial y otras tecnologías digitales emergentes, cit., 15; Twigg-Flesner, C., "Guiding Principles for Updating the Product Liability Directive for the Digital Age", cit.; Bertolini, A., Artificial Intelligence and Civil Liability, 51 ss.
39 Sobre la noción de neutralidad tecnológica, véase Reed, C., "Taking Sides on Technology Neutrality", Script-ed, Chris Reed, vol. 4, n.° 3, 2007, 263-284; Maxwell, W. J. y Bourreau, M., "Technology Neutrality in Internet, Telecoms and Data Protection Regulation", Computer and Telecommunications Law Review, Sweet & Maxwell n.° 21, 2015, 1-4; Greenberg, B., "Rethinking Technology Neutrality", Minnesota Law Review, University of Minnesota, n.° 207, 2016, 1495-1562. En sus recomendaciones, el Grupo de Expertos también se inclinó por un enfoque tecnológicamente neutro en lugar de uno específico, pese a reconocer la imposibilidad de concebir una solución única para todos los casos; véase Grupo de Expertos sobre Responsabilidad y Nuevas Tecnologías, Informe sobre la responsabilidad por inteligencia artificial y otras tecnologías digitales emergentes, cit., 36-41.
40 Las consideraciones aquí expuestas se basan en la figura n.° 3 que aparece en Technopolis Group y AA.VV., Evaluation of Council Directive 85/374/EEC, cit., 20.
41 Italia. Corte di Cassazione, Sezione III, sentencia del 11 de octubre de 2016, n.° 20370.
42 Unión Europea. Resolución del 20 de octubre de 2020, del Parlamento Europeo, con recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil para la inteligencia artificial (2020/ 2014(INL)), Diario Oficial de la Unión Europea, Bruselas, 2020, disponible en: https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX:52020IP0276 [consultado el 8 de marzo de 2023].
43 Unión Europea. Parlamento Europeo, Comisión de Asuntos Jurídicos, Report with Recommendations to the Commission on Civil Law Rules on Robotics [en línea], Estrasburgo, 2017, disponible en: https://www.europarl.europa.eu/doceo/document/A-8-2017-0005_EN.pdf [consultado el 8 de marzo de 2023].
44 Véase Unión Europea. Grupo de Expertos sobre Responsabilidad y Nuevas Tecnologías, Informe sobre la responsabilidad por inteligencia artificial y otras tecnologías digitales emergentes, cit.; al respecto, permítase la referencia a Bertolini, A. y Episcopo, F., "The Expert Group's Report on Liability for Artificial Intelligence and Other Emerging Digital Technologies: A Critical Assessment" [en línea], European Journal of Risk Regulation, Cambridge University Press, 2021, 644 y 659, disponible en: https://www.cambridge.org/core/journals/european-journal-of-risk-regulation/article/expert-groups-report-on-liability-for-artificial-intelligence-and-other-emerging-digital-technologies-a-critical-assessment/45FD6BB0E113E7C4A9B05128BC710589 [consultado el 8 de marzo de 2023].
45 Unión Europea. Resolución del 20 de octubre de 2020, del Parlamento Europeo, cit., 13.
46 Ibid., 7.
47 Ibid., 13.
48 Cabe señalar que, si bien el informe y la propuesta de reglamento asociada adoptan el concepto de "operador" -como sugiere el Grupo de Expertos-, el proyecto original de la Recomendación, debatido en la Comisión júri, utilizaba el término "implementador". Dicha referencia se mantiene en la exposición de motivos que acompaña a las recomendaciones, y sin embargo, al referirse a este último, el ponente hace referencia al "operador". En este artículo sólo se hará referencia al "operador", ya que es el término utilizado en la propuesta de reglamento, y se interpretará el uso del término "implementador" como un mero sinónimo.
49 Unión Europea. Resolución del 20 de octubre de 2020, del Parlamento Europeo, cit., 8.
50 Ibid., 5.
51 Ibid., 17.
52 A modo de ejemplo, podríamos mencionar cómo una cámara moderna, cepillos de dientes eléctricos, los teléfonos inteligentes, electrodomésticos y dispositivos de cocina inteligentes, un sistema de consultoría electrónica, un chat-bot para ayudar en la compra de bienes y servicios en línea, la mayoría de las aplicaciones de teléfonos celulares, computadores personales, automóviles no autónomos con algunas funciones elementales de conducción asistida, robots quirúrgicos, drones, un reloj inteligente y o una simple banda, podrían ser clasificados como AIS. La lista podría ser infinita y, por lo tanto, existiría una incertidumbre absoluta con respecto a qué tecnologías que presentan riesgos bajos deberían estar sujetas a este régimen alternativo de responsabilidad basado en la culpa que tiene al operador como el pilar fundamental para el desarrollo del litigio [texto traído por el traductor del cuerpo del documento original en inglés].
53 Véase McGonagle, T. E., "Free Expression and Internet Intermediaries: The Changing Geometry of European Regulation", en Frosio, G., Oxford Handbook of Online Intermediary Liability, Oxford, Oxford University Press, 2020, 467-485; Kuczerawy, A., "Intermediary Liability & Freedom of Expression: Recent Developments in the EU Notice & Action Initiative", Computer Law & Security Review, Elsevier, vol. 31, 2015, 45-56; Access Now, Article 19, Communia Association, Centrum Cyfrowe, Civil Liberties Union for Europe, Civil Rights Defenders, Creative Commons, datas-kydd.net, Electronic Frontier Foundation, European Digital Rights (EDRi), Global Forum for Media Development, Homo Digitalis, Idec-Brazilian Institute of Consumer Defense, Open Knowledge Foundation, OSEPI, Panoptykon Foundation, Privacy International, Ranking Digital Rights, Rights International Spain y Xnet, Joint Statement in Response to the Inception Impact Assessments on a New Competition Tool Ex Ante Regulatory Instrument for Large Online Platforms Acting as Gatekeepers, Bruselas, 2020, 1-3; Rosenfeld, M., "Hate Speech in Constitutional Jurisprudence: a Comparative Analysis", Cardozo Law Review, Yeshiva University, n.° 24, 2002, 1523 y 1567; Citron, D. K. y Norton, H., "Intermediaries and Hate Speech: Fostering Digital Citizenship for Our Information Age", Boston University Law Review, Boston University, vol. 91, 2011, 1435-1484; Bayer, J. y Bard, P., Hate Speech and Hate Crime in the EU and the Evaluation of Online Content Regulation Approaches, Luxemburgo, Unión Europea, 2020. Adicionalmente, véase Unión Europea. Comisión Europea, Informe de la Comisión al Parlamento Europeo y al Consejo sobre la aplicación de la Decisión Marco 2008/913/JAI del Consejo relativa a la lucha contra determinadas formas y manifestaciones de racismo y xenofobia mediante el Derecho penal, COM/2014/027 final, Bruselas, Unión Europea, 2014; Unión Europea. Resolución del Parlamento Europeo, de 10 de octubre de 2019, sobre la injerencia electoral extranjera y la desinformación en los procesos democráticos nacionales y europeos, 2019/2810(RSP), Bruselas, Unión Europea, 2019, donde se afirma que imponer responsabilidad por la publicación de contenidos sensibles, si no ilícitos, podría favorecer políticas de filtrado y eliminación agresiva de contenidos, lo que podría afectar a la libertad de expresión de los usuarios individuales.
54 Bertolini, A. y Riccaboni, M., "Grounding the Case for a European Approach to the Regulation of Automated Driving: the Technology-Selection Effect of Liability Rules", cit., 243 ss.; Evas, T. y Heflich, A., Artificial intelligence in Road Transport-Cost of Non-Europe Report, cit.
55 Bertolini, A., "Robotic Prostheses as Products Enhancing the Rights of People with Disabilities. Reconsidering the Structure of Liability Rules", International Review of Law, Computers & Technology, Taylor & Francis, n.° 34, 2015, 116-136. Como establece la Convención de las Naciones Unidas sobre los Derechos de las Personas con Discapacidad [en línea], disponible en: https://www.un.org/esa/socdev/enable/documents/tccconvs.pdf [consultado el 8 de marzo de 2023]. Sobre esta cuestión, Quinn, G., "Resisting the Temptation de Elegance: Can the Convention on the Rights of Persons with Disabilties Socialise States to Right Behaviour?" en Quinn, G. y Arnardóttir, O. (eds.), The UN Convention on the Rights of Persons with Disabilities. The European and Scandinavian Perspectives, Leiden, Brill, 2009; Quinn, G., "The United Nations Convention on the Rights of Persons with Disabilities: Toward a New International Politics of Disability", Texas Journal on Civil Liberties & Civil Rights, 2009, 33-52.
56 El término "dron" es un término técnico utilizado para referirse a máquinas "controladas manualmente mediante un controlador remoto que requiere un operador altamente cualificado […] o controlados con precisión desde los ordenadores programables espaciados a distancia utilizando el piloto automático de a bordo y el sistema de posicionamiento global (GPS)". Unión Europea. Reglamento (UE) 2018/1139, del Parlamento Europeo y del Consejo, del 4 de julio de 2018, sobre normas comunes en el ámbito de la aviación civil y por el que se crea una Agencia de la Unión Europea para la Seguridad Aérea y por el que se modifican los Reglamentos (CE) n.° 2111/2005, (CE) n.° 1008/2008, (UE) n.° 996/2010, (CE) n.° 376/2014 y las Directivas 2014/30/UE y 2014/53/UE, del Parlamento Europeo y del Consejo, y se derogan los Reglamentos (CE) n.° 552/2004 y (CE) n.° 216/2008 del Parlamento Europeo y del Consejo y el Reglamento (CEE) n.° 3922/91 del Consejo de la Unión Europea, el Reglamento 785/2004 del Parlamento Europeo y del Consejo, del 21 de abril de 2004, sobre los requisitos de seguro de las compañías y operadores aéreos, modificado por el Parlamento Europeo y el Consejo de la Unión Europea, Reglamento 285/2010 de la Comisión, del 6 de abril de 2010, por el que se modifica el Reglamento (CE) n.° 785/2004, del Parlamento Europeo y del Consejo, relativo a los requisitos de seguro de las compañías aéreas y operadores aéreos. Véase, también, Bertolini, A., Artificial Intelligence and Civil Law. Liability Rules for Drones, Bruselas, Unión Europea, 2018 y Hasan, K. M.; Shah Newaz, S. y Ahsan, S., "Design and Development of an Aircraft Type Portable Drone for Surveillance and Disaster Management", International Journal of Intelligent Unmanned Systems, Emerald, vol. 6, 2018, 147-159.
57 Timan, T.; Snijders, R.; Kirova, M.; Suardi, S.; van Lieshout, M.; Chen, M.; Costenco, P.; Palmerini, E.; Bertolini, A.; Tejada, A.; van Montfort, S.; Bolchi, M.; Alberti, S.; Brouwer, R.; Karanilokova, K.; Episcopo, F. y Jansen, S., Study on Safety of Non-Embedded Software. Service, Data Access, and Legal Issues of Advanced Robots, Autonomous, Connected, and AI-Based Vehicles and Systems: Final Study Report Regarding CAD/CCAM and Industrial Robots, Bruselas, Unión Europea, 2019, 25.
58 Para un análisis comparativo de los distintos enfoques normativos nacionales, véase ENAC, Italian Civil Aviation Authority Regulation [en línea], Roma, ENAC, disponible en: https://www.enac.gov.it/sites/default/files/allegati/2021-Gen/Regolamento_UAS-IT080121.pdf [consultado el 8 de marzo de 2023]; Severoni, C., "La disciplina normativa attuale degli aeromobili a pilotaggio remoto", Diritto dei trasporti, Università "La Sapienza" di Roma, vol. 29, 2016, 65-103. En Alemania, a partir del 31 de diciembre de 2020, las normas nacionales sobre drones serán sustituidas por una normativa europea común. El objetivo de esta reforma es crear un mercado de drones verdaderamente armonizado en Europa con el máximo nivel de seguridad. Según la Dirección General de Aviación Civil francesa, volar un dron es legal en el país, pero Francia, como parte de la Unión Europea, debe cumplir la normativa sobre drones establecida por la Agencia Europea de Seguridad Aérea (AESA). Otros países de la UE también han llegado a la misma conclusión. Para una discusión más detallada, véanse Granshaw, S., "RPV, UAV, UAS, RPAS… or Just Drone?", The Photogrammetric Record, Stuart Granshaw Editorials, vol. 33, n.° 162, 2018, 160-170; Hasan, K., Newaz, S. y Ahsan, S., "Design and Development of an Aircraft Type Portable Drone for Surveillance and Disaster Management", International Journal of Intelligent Unmanned Systems, Emerald, vol. 6, 2018, 147-159; Gleave, S., Study on Third-Party Liability and Insurance Requirements of Remotely Piloted Aircraft Systems [en línea], Bruselas, Unión Europea, 2014, disponible en: https://op.europa.eu/en/publication-detail/-/publication/7fe87d4b-07b1-4bcd-98d1-7731842bed99 [consultado el 8 de marzo de 2023]; Huttunen, M., "Unmanned, Remotely Piloted, or Something Else? Analysing the Terminological Dogfight", Air and Space Law, Kluwer Law International, vol. 42, 2017, 349-368; Bertolini, A., Artificial Intelligence and Civil Law, cit.
59 El 21 de junio de 2017 entró en vigor la Ley de conducción automatizada (que modifica la Ley de tráfico por carretera). Sobre este asunto, véase Bertolini, A. y Riccaboni, M., "Grounding the case for a European approach to the regulation of automated driving: the technology-selection effect of liability rules", cit., 273. Según el ministro federal de Transporte e Infraestructura Digital, los elementos clave de esta ley son el cambio de derechos y deberes de los conductores durante una fase de conducción automatizada. Esto significa que los sistemas automatizados (nivel 3) pueden asumir la tarea de conducir si se cumplen determinadas condiciones. El conductor sigue siendo necesario, pero en modo automatizado puede desviar su atención del entorno del tráfico y del control del vehículo. Véase Wagner, G., "Robot Liability" [en línea], Working Paper Series, Universidad de Humboldt, 2019, disponible en: https://www.rewi.hu-berlin.de/de/lf/oe/rdt/pub/working-paper-no-2 [consultado el 8 de marzo de 2023], 14: "After a recent reform, the German Road Traffic Act (Straßgenverkehrsgesetz-StVG) already includes a right for victims of motor accidents to access the 'black box' of a car equipped with autonomous driving functions (Section 63a (3) StVG). This is meant to enable the victim to identify the true cause of the accident i. e. whether the automated system or the human driver was responsible". En cambio, en Alemanía, con la nueva Ley sobre conducción autónoma ("Entwurf eines Gesetzes zur Änderung des Straßen- verkehrsgesetzes und des Pflichtversicherungsgesetzes-Gesetz zum au- tonomen Fahren", disponible en: https://bmdv.bund.de/SharedDocs/DE/Anlage/Gesetze/Gesetze-19/gesetz-aenderung-strassenverkehrsgesetz-pflichtversicherungsgesetz-autonomes-fahren.pdf [consultado el 8 de marzo de 2023]), el Gobierno ha establecido el marco normativo para que los vehículos de motor autónomos (nivel 4) puedan operar en el transporte público regular por carretera en determinadas áreas operativas, en toda Alemania. Asimismo, el Gobierno británico está elaborando legislación para permitir que los vehículos automatizados de nivel 3 circulen por las vías públicas: véase Automated and Electric Vehicles Act 2018 [en línea], disponible en: https://www.legislation.gov.uk/ukpga/2018/18/contents/enacted [consultado el 8 de marzo de 2023]; sobre esta cuestión, véase Shavell, S., "On the Redesign of Accident Liability for the World of Autonomous Vehicles", The Journal of Legal Studies, Universidad de Chicago, vol. 49, n.° 2, 2019; Geistfeld, M., "A Roadmap for Autonomous Vehicles: State Tort Liability, Automobile Insurance, and Federal Safety Regulation", California Law Review, Berkeley University, vol. 105, n.° 6, 2017, 1611-1694; Ivanchev, J.; Knoll, A.; Zehe, D.; Nair, S. y Eckhoff, D., "Potentials and Implications of Dedicated Highway Lanes for Autonomous Vehicles", arXiv, Cornell University, 2017, 1-12; Evas, T., A Common EU Approach to Liability Rules and Insurance for Connected and Autonomous Vehicles [en línea], Bruselas, Unión Europea, 2018, disponible en: https://www.europarl.europa.eu/RegData/etudes/STUD/2018/615635/EPRS_STU(2018)615635_EN.pdf [consultado el 9 de marzo de 2023]; Timan, T.; Snijders, R.; Kirova, M.; Suardi, S.; Lieshout, M.; Chen, M.; Costenco, P.; Palmerini, E.; Bertolini, A.; Tejada, A.; Montfort, S.; Molchi, M.; Alberti, S.; Brouwer, R.; Karanilokova, S.; Episcopo, F. y Jansen, S., Study on Safety of Non-Embedded Software. Service, Data Access, and Legal Issues of Advanced Robots, Autonomous, Connected, and AI-Based Vehicles and Systems: Final Study Report Regarding CAD/CCAM and Industrial Robots, cit.
60 RoboLaw - Regulating Emerging Robotic Technologies, Robotics Facing Law and Ethics [en línea], G.A. n. 289092, 2012-2014, disponible en: www.robolaw.eu, cuyos resultados fueron publicados en Palmerini, E.; Azzarri, F.; Battaglia, F.; Bertolini, A.; Carnevale, A.; Carpaneto, J.; Cavallo, F.; Di Carlo, A.; Cempini, M.; Controzzi, M.; Koops, B.-J.; Lucivero, F.; Mukerji, N.; Nocco, L.; Pirni, A.; Shah, H.; Salvini, P.; Schellkens, M. y Warwick, K., Guidelines on Regulating Robotics [en línea], 2014, 94-129, disponible en: http://www.robolaw.eu/RoboLaw_files/documents/robolaw_d6.2_guidelinesregulatingrobotics_20140922.pdf; Bertolini, A. y Palmerini, E., Regulating Robotics: A Challenge for Europe, Bruselas, Unión Europea, 2014, 94-129.
61 Arts. 4-6 del Tratado de la Unión Europea. Véase, también, Versión consolidada del Tratado de Funcionamiento de la Unión Europea - Protocolos, Protocolo (n.° 2) sobre la aplicación de los principios de subsidiariedad y proporcionalidad.
62 Diferenciar la responsabilidad contractual de la extracontractual sobre la única base de la distribución de la carga de la prueba sobre el elemento de la culpa supone una simplificación conceptual; véanse, al respecto, Di Majo, A., La tutela civile dei diritti, Milán, Giuffrè, 2003, 405; Bertolini, A., Il postcontratto, Bolonia, Il Mulino, 2018, 379.
63 Unión Europea. Grupo de Expertos sobre Responsabilidad Civil y Nuevas Tecnologías, Informe sobre responsabilidad civil por inteligencia artificial y otras tecnologías digitales emergentes, cit., 59 ss.
64 De hecho, la PR parece basarse, en las consideraciones, en Unión Europea. Grupo de Expertos sobre Responsabilidad y Nuevas Tecnologías de la Comisión Europea, Informe sobre responsabilidad civil por inteligencia artificial y otras tecnologías digitales emergentes, cit., 36 ss., donde puede leerse que "las tecnologías digitales emergentes […] se utilizan en entornos no privados y pueden causar daños significativos" debido a "la interacción de su frecuencia potencial y la gravedad". De hecho, el PR, artículo 3, literal c, especifica que "por 'alto riesgo' se entiende un potencial significativo en un sistema de inteligencia artificial que funcione de forma autónoma para causar daños a una o más personas de forma aleatoria y que vaya más allá de lo que puede esperarse razonablemente; la importancia del potencial depende de la interacción entre la gravedad del posible daño, el grado de autonomía de la toma de decisiones, la probabilidad de que el riesgo se materialice y la forma y el contexto en que se utiliza el sistema de inteligencia artificial", en donde se recuerda la estructura de la denominada fórmula Learned Hand, elaborada en Estados Unidos para el régimen de responsabilidad por productos defectuosos; sobre esto, véase Owen, D., Products Liability Law, St. Paul, West Academic Publishing, 2008, 300. Para un análisis crítico de la intención de importar ese enfoque al debate sobre la regulación de las tecnologías avanzadas en la UE, véase Bertolini, A. y Episcopo, F., "The Expert Group's Report on Liability for Artificial Intelligence and Other Emerging Digital Technologies: a Critical Assessment", cit., 644 ss.
65 Kalra, N. y Paddock, S., "Driving to Safety, How Many Miles of Driving Would It Take to Demonstrate Autonomous Vehicle Reliability?", Transportation Research Part A: Policy and Practice, RAND Corporation, vol. 94, 2016, 182-193; Calabresi, G. y Al Mureden, E., Driverless cars. Intelligenza artificiale e futuro della mobilità, cit., 126.
66 Véase Bonsignorio, F.; Messina, E. y Del Pobil, A., "Fostering Progress in Performance Evaluation and Benchmarking of Robotic and Automation Systems", IEEE Robotics & Automation Magazine, IEEE, vol. 21, 2014 22-25.
67 Unión Europea. Resolución del 20 de octubre de 2020, del Parlamento Europeo, cit., 8.
68 Para una propuesta alternativa en relación con el método para hacer dicha evaluación, véanse Palmerini, E.; Bertolini, A.; Battaglia, F.; Koops, B.-J.; Carnevale, A. y Salvini, P., "RoboLaw: Towards a European Framework for Robotics Regulation", Robotics and Autonomous Systems, Elsevier, vol. 86, 2016, 78-85 y Zicari, R.; Brodersen, J.; Brusseau, J.; Düdder, B.; Eichhorn, T.; Ivanov, T.; Kararigas, G.; Kringen, P.; McCullough, M.; Möslein, F.; Mushtaq, N.; Roig, G.; Stürtz, N.; Tolle, K.; Tithi, J. J.; Van Halem, I. y Westerlund, M., "Inspection®: A Process to Assess Trustworthy AI", IEEE Transactions on Technology and Society, IEEE, vol. 2, n.° 2, 2021, 83-97.
69 Una reconstrucción en profundidad del debate en torno a la noción de responsabilidad solidaria queda fuera de los objetivos del presente análisis; al respecto, véase Busnelli, F., L'obbligazione soggettivamente complessa, Milán, Giuffrè, 1974, 33 ss.; Bianca, C. M., Le obbligazioni, Milán, Giuffrè, 1993, 695; más recientemente, y específicamente sobre este punto, Benedetti, A. M., "Sub artt. 1292-1299", en Cuffaro, V. (ed.), Commentario del codice civile diretto da Enrico Gabrielli. Delle obbligazioni (artt. 1277-1320), vol. III, Turín, Utet, 2013, 271.
70 En legislación italiana, véanse los comentarios al artículo 2055 c. c., en Bianca, C. M., La responsabilità, Milán, Giuffrè, 1994, 646 y 648; Monateri, P., "La responsabilità civile", en Sacco, R. (ed.), Trattato di diritto civile, Turín, Utet, 1998, 146; Scognamiglio, C., Responsabilità civile e danno, Turín, Giappichelli, 2010, 81; en derecho alemán y austriaco, véase Koziol, H., Grundfragen des Schadenersatzrechts, Viena, Jan Sramek, 2009, 141.
71 Cvetković, M., "Causal Uncertainty: Alternative Causation in Tort Law", Teme, University of Niš, vol. XLIV, n.° 1, 2020, 33-47; Koziol, H., Grundfragen des Schadenersatzrechts, cit., 140 ss.; Trimarchi, P., "Condizione sine qua non, causalità alternativa ipotetica e danno", Rivista trimestrale di diritto e procedura civile, Turín, Giappichelli, 1964, 1434 ss.; Hart, H. y Honoré, T., Causation in the Law, Oxford, Oxford Academic, 1959, 454; Realmonte, F., Il problema del rapporto di causalità nel risarcimento del danno, Milán, Giuffrè, 1967, 214; Castronovo, C., Responsabilità civile, Milán, Giuffrè, 2018, 349 ss.
72 En una conclusión similar, teniendo en cuenta las críticas a las soluciones de responsabilidad proporcional, basadas en la modificación del concepto del nexo causal, Piraino, F., "Il nesso di causalità", Europa e diritto privato, Giuffrè, n.° 2, 2018, 399-488.
73 Sobre la contribución de múltiples partes en un evento, Albanese, A., "La responsabilità civile per i danni derivanti da circolazione di veicoli ad elevata automazione", Europa e diritto privato, Giuffrè, n.° 4, 2019, 995-1044.
74 Kornhauser, L. A. y Revesz, R. L., "Joint and Several Liability", en Faure, M. (ed.), Tort Law and Economics, Cheltenham, Edward Elgar, 2009, 109 ss.
75 Unión Europea. Directiva 99/44/CE, del Parlamento Europeo y del Consejo, del 25 de mayo de 1999, sobre determinados aspectos de la venta y las garantías de los bienes de consumo [línea], disponible en https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:31999L0044&from=EN [consultado el 9 de marzo de 2023].
76 Nicolussi, A., "Diritto europeo della vendita dei beni di consumo e categorie dogmatiche", Europa e diritto privato, Giuffrè, n.° 3, 2003, 532-533; Mazzamuto, S., Rimedi specifici e responsabilità, Perugia, Iseg Gioacchino, 2011, 186-187; De Cristofaro, G., "La vendita di beni di consumo", en Gabrielli, E. y Minervini, E., I contratti dei consumatori, Turín, Utet, 2005; Rescigno, P. y Gabrielli, E. (eds.), Trattato dei contratti, Turín, Utet, 2005, 967 ss.; De Cristofaro, G., Difetto di conformità al contratto e diritti del consumatore, Padua, Cedam, 2000; Nicolussi, A., "Difetto di conformità e garanzie in forma specifica", en Alessi, R. (ed.), La vendita dei beni di consumo, Milán, Giuffrè, 2005, 69 ss.; Patti, S., "La vendita di beni di consumo, la conformità al contratto di vendita stabilito all'art. 129, commi 1° e 2°, del D.Lgs. 6 settembre 2005, n. 206", Le nuove leggi civili commentate, 2006, 362 ss.; Mazzamuto, S. y Castronovo, C., Manuale di diritto privato europeo, Milán, Giuffrè, 2007, 921 ss.; Trabucchi, A., Istituzioni di diritto civile, Padua, Cedam, 2018, 1179-1180; Pelloso, C., "Il deterioramento e il perimento ante traditionem del bene compravenduto: rimedi consumeristici e di diritto comune", en Garofalo, D. (ed.), Tutele rimediali in tema di rapporti obbligatori archetipi romani e modelli attuali, Turín, Giappiachelli, 2015, 110 ss.; Alpa, G., "Aspetti della nuova disciplina delle vendite nell'Unione europea", Contratto e impresa, Cedam, n.° 3, 2019, 825-830. Véase, también, Italia. Corte di Cassazione, Sezioni Unite, sentencia del 11 de agosto de 2019, n.° 18672, con un comentario de Calvo, R., "Difformità, inadempimento del venditore e denuncia del vizio occulto. Cassazione Civile, SS. UU., 11 luglio 2019, n. 18672", Corriere giuridico, Ipsoa, vol. 36, n.° 8-9, 2019, 1025-1035; Afferni, G., La garanzia per i difetti materiali nella vendita: una prospettiva di diritto privato europeo, Turín, Giappichelli, 2018.
77 Bertolini, A., "Insurance and Risk Management for Robotic Devices: Identifying the Problems", Global Jurist, De Gruyter, vol. 16, n.° 3, 2016, 291 ss.
78 Castronovo, C., Responsabilità civile, cit., 577.
79 Permítase la referencia a Bertolini, A. y Riccaboni, M., "Grounding the Case for a European Approach to the Regulation of Automated Driving: the Technology-Selection Effect of Liability Rules", cit., 243 ss.; con un argumento parcialmente diferente, Albanese, A., La responsabilità, cit., 1041.
80 Para comprender correctamente las distintas formas en que el productor puede eludir su responsabilidad en virtud del PLD, véase Bertolini, A., "La responsabilità del produttore", en Navarretta, E. (ed.), Codice della responsabilità civile, Milán, Giuffrè, 2021, 2613 ss.
81 Larenz, K. y Canaris, C. W., Lehrbuch des Schuldrechts. Zweiter Band-Besonderer Teil, Múnich, C.H. Beck, 1994, 234; Canaris, C. W., "Schutzgesetze, Verkehrspflichten, Schutzpflichten", en Festschrift für Karl Larenz zum 80. Geburtstag, Múnich, C.H. Beck, 1983, 30 ss.; Castronovo, C., Responsabilità civil, cit., 44.
82 Sobre lo cual véase Navarretta, E., "L'ingiustizia del danno e i problemi di confine tra responsabilità contrattuale ed extracontrattuale" en Lipari, N. y Rescigno, P. (eds.), Diritto civile, Milán, Giuffrè, III, 2009, 233 ss.; Bianca, C. M., La responsabilità, cit., 586 ss.; Rodotà, S., Il problema della responsabilità civile, Milán, Giuffrè, 1964, 84 y 86; también Castronovo, C., Responsabilità civile, cit., 44 ss., 47 y referencias de la nota 13 para una discusión detallada y referencias adicionales.
83 Italia. Corte di Cassazione, Sezioni Unite, sentencias del 11 de noviembre de 2008, n.° 26972, 26973, 26974 y 26975, con comentarios de Castronovo, C., "Danno esistenziale: il lungo addio", Danno e responsabilità, Ipsoa, n.° 1, 2009, 1-6; Ponzanelli, G., "La prevista esclusione del danno esistenziale e il principio di integrale riparazione del danno: verso un nuovo sistema di riparazione del danno alla persona", La nuova giurisprudenza civile commentata, Cedam, n.° 2, 2009, 90-95; Franzoni, M., "Cosa è successo al 2059 c.c.", Responsabilità civile, vol. 6, 2009, 20-27; Perlingieri, P., "L'onnipresente art. 2059 c.c. e la tipicità del danno alla persona" Rassegna di diritto civile, Edizioni Scientifiche Italiane, vol. 30, 2009, 520-529; Di Majo, A., "Danno esistenziale o di tipo esistenziale: quale l'esito?", Corriere giuridico, Ipsoa, n.° 3, 2009, 410 ss.; De Matteis, R., "I danni alla persona dopo le S.U. del 2008", Responsabilità civile, Utet, vol. 6, 2009, 651-657; Navarretta, E., "Il valore della persona nei diritti inviolabili e la complessità dei danni non patrimoniali", Responsabilità civile e previdenza, Giuffrè, 2009, 63-75; Cendon, P., "L'araba fenice: piü vivo che mai il danno esistenziale presso i giudici italiani", La nuova giurisprudenza civile commentata, Cedam, vol. 26, 2010, 1-12; Busnelli, F., "Le Sezioni unite e il danno non patrimoniale", Rivista di diritto civile, Cedam, n.° 2, 2009, 97 ss.
84 Véase Italia. Corte Costituzionale, sentencia del 30 de junio de 2003, n.° 233 [en línea], disponible en: https://www.giurcost.org/decisioni/2003/0233s-03.html [consultado el 9 de marzo de 2023]; sobre la cual véase Navarretta, "L'ingiustizia del danno e i problemi di confine tra responsabilità contrattuale ed extracontrattuale", cit., 233-253.
85 Navarretta, E., Diritti inviolabili e risarcimento del danno, Turín, Giappichelli, 1996.
86 Broggi, A.; Zelinsky, A.; Parent, M. y Thorpe, C., "Intelligent Vehicles", en Siciliano, B. y Khatib O. (eds.), Springer Handbook of Robotics, Berlin, Springer, 2008, 1175-1198.
87 Italia. Corte Costituzionale, sentencia del 22 de noviembre de 1991, n.° 420: el principio general, de acuerdo con la tradición jurídica europea, que no permite al deudor hacer uso de las limitaciones convencionales o legales de la responsabilidad cuando el incumplimiento depende de dolo o negligencia grave, vinculante para la autonomía privada, pero no vinculante para el legislador, ya que no está cubierto por una garantía constitucional. Por lo tanto, las limitaciones, en forma de topes de daños, pueden considerarse legítimas. Véase Ponzanelli, G., "Limitazione di responsabilità, analisi economica del diritto e giudizio di costituzionalità", Foro italiano, Società Editrice del Foro Italiano, vol. 1, n.° 1, 1992, 643; Ceccherini, G., Clausole di esonero tra principi giuridici e regole di mercato, Turín, Giappichelli, 2008, 8; D'Adda, A., "sub artt. 1228-1229", en Cuffaro, V., Commentario del codice civile diretto da Gabrielli. Delle obbligazioni, vol. II, "artt. 1218-1276" Turín, Utet, 2013, 375, siempre que puedan considerarse conformes a los principios de proporcionalidad e igualdad, enunciados por el artículo 3 de la Constitución italiana. Italia. Corte Costituzionale, sentencia del 11 de febrero de 2011, n.° 46. Sobre el artículo 1229 c. c., véase Castronovo, C., Problema e sistema nel danno da prodotti, Milán, Giuffrè, 1979, 527 ss.; Mengoni, L., "Obbligazioni 'di risultato' e obbligazioni di mezzi", en Castronovo, C.; Albanese, A. y Nicolussi, A., Scritti II, Obbligazioni e negozio, Milán, Giuffrè, 2011, 209.
88 Está claro que obligar al usuario humano a supervisar el funcionamiento del dispositivo para excluir una clasificación errónea por parte del sistema sería contrario al propósito mismo de desplegar estas tecnologías.
89 En el caso que nos ocupa, podría incluir al hospital, así como al médico (ambos calificados de operadores iniciales), al desarrollador del sistema (posible productor de operador final), al instructor de la aplicación y al encargado del mantenimiento (operadores finales).
90 Unión Europea. Resolución del 20 de octubre de 2020, del Parlamento Europeo, cit., considerando n.° 7.
91 Unión Europea. Grupo de Expertos sobre Responsabilidad Civil y Nuevas Tecnologías, Informe sobre responsabilidad civil por inteligencia artificial y otras tecnologías digitales emergentes, cit., 22.
92 Para un debate sobre el limitado -si es que existe- efecto disuasorio de las normas de responsabilidad por productos, véanse Polinsky, A. M. y Shavell, S., "The Uneasy Case for Product Liability", cit., 1437 ss.; Helland, E. A. y Tabarrok, A., "Product Liability and Moral Hazard: Evidence from General Aviation", cit., 593 ss.; y para situar este análisis en la perspectiva específica de las tecnologías avanzadas, Bertolini, A., Artificial Intelligence and Civil Liability, cit., 96 ss.
93 Unión Europea. Grupo de Expertos sobre Responsabilidad Civil y Nuevas Tecnologías, Informe sobre responsabilidad civil por inteligencia artificial y otras tecnologías digitales emergentes, cit., 22. Véase también la conclusión clave n.° 23.
94 Ibid., 57-58.
95 Debe subrayarse que, también en los casos de fuerza mayor, en los que ninguna parte puede ser considerada responsable, sigue siendo preferible favorecer alguna forma de socialización y distribución de las pérdidas, en lugar de dejarlas enteramente en manos de la única parte a la que le haya tocado la lotería negativa.


Referencias

Access Now, Article 19, Communia Association, Centrum Cyfrowe, Civil Liberties Union for Europe, Civil Rights Defenders, Creative Commons, datas-kydd.net, Electronic Frontier Foundation, European Digital Rights (EDRi), Global Forum for Media Development, Homo Digitalis, Idec-Brazilian Institute of Consumer Defense, Open Knowledge Foundation, OSEPI, Panoptykon Foundation, Privacy International, Ranking Digital Rights, Rights International Spain y Xnet, Joint Statement in Response to the Inception Impact Assessments on a New Competition Tool Ex Ante Regulatory Instrument for Large Online Platforms Acting as Gatekeepers, Bruselas, 2020, 1-3.

Afferni, Giorgio, La garanzia per i difetti materiali nella vendita: una prospettiva di diritto privato europeo, Turín, Giappichelli, 2018.

Albanese, Antonio, "La responsabilità civile per i danni derivanti da circolazione di veicoli ad elevata automazione", Europa e diritto privato, Giuffrè, n.° 4, 2019, 995-1044.

Alpa, Guido, "Ars interpretandi e responsabilità sanitaria a seguito della nuova legge Bianco-Gelli", Contratto e impresa, Cedam, vol. 33, n.° 3, 2017, 728-733.

Alpa, Guido, "Aspetti della nuova disciplina delle vendite nell'Unione europea", Contratto e impresa, Cedam, n.° 3, 2019, 825-830.

Astone, Antonino, "Profili civilistici della responsabilità sanitaria (riflessioni a margine della l. 8 marzo 2017, n. 24)", La nuova giurisprudenza civile commentata, Cedam, vol. 33, 2017, 1115-1126.

Bachelet, Vittorio, "Il rapporto tra ASL e medico di base nel sistema riformato della responsabilità sanitaria", Rivista di diritto civile, Cedam, n.° 3, 2017, 777-819.

Baungaard, Nathalie; Skovvang, Pia L.; Assing, Elisabet; Gerbild, Helle; Andersen, Merethe y Lykkegaard, Jesper, "How Defensive Medicine Is Defined and Understanding in European Medical Literature: Protocol for a Systematic Review", BMJ Open, BMJ, n.° 12, 2020, 1-4.

Bayer, Judit y Bard, Petra, Hate Speech and Hate Crime in the EU and the Evaluation of Online Content Regulation Approaches, Luxemburgo, Unión Europea, 2020.

Benedetti, Alberto M., "Sub artt. 1292- 1299", en Cuffaro, Vincenzo (coord.), Commentario del codice civile diretto da Enrico Gabrielli. Delle obbligazioni (artt. 1277-1320), vol. III, Turín, Utet, 2013, 239-305.

Berlin, Leonard, "Medical Errors, Malpractice, and Defensive Medicine: an Ill-Fated Triad", Diagnosis, De Gruyter, n.° 4, 2017, 133-139.

Bertolini, Andrea, Artificial Intelligence and Civil Law. Liability Rules for Drones, Bruselas, Unión Europea, 2018.

Bertolini, Andrea, Artificial Intelligence and Civil Liability, Bruselas, Unión Europea, 2020.

Bertolini, Andrea, Il postcontratto, Bolonia, Il Mulino, 2018.

Bertolini, Andrea, "Insurance and Risk Management for Robotic Devices: Identifying the Problems", Global Jurist, De Gruyter, vol. 16, n.° 3, 2016, 291-314.

Bertolini, Andrea, "La responsabilità del produttore", en Navarretta, E. (ed.), Codice della responsabilità civile, Milán, Giuffrè, 2021, 2613-2652.

Bertolini, Andrea, "Robots as Products: The Case for a Realistic Analysis of Robotic Applications and Liability Rules", Law Innovation and Technology, Taylor and Francis, n.° 5 2013, 214-247.

Bertolini, Andrea, "Robotic Prostheses as Products Enhancing the Rights of People with Disabilities. Reconsidering the Structure of Liability Rules", International Review of Law, Computers & Technology, Taylor & Francis, n.° 34, 2015, 116-136.

Bertolini, Andrea y Episcopo, Francesca, "The Expert Group's Report on Liability for Artificial Intelligence and Other Emerging Digital Technologies: a Critical Assessment" [en línea], European Journal of Risk Regulation, Cambridge University Press, 2021, 644-659, disponible en: https://www.cambridge.org/core/journals/european-journal-of-risk-regulation/article/expert-groups-report-on-liability-for-artificial-intelligence-and-other-emerging-digital-technologies-a-critical-assessment/45FD6BB0E113E7C4A9B05128BC710589 [consultado el 8 de marzo de 2023].

Bertolini, Andrea y Palmerini, Erica, Regulating Robotics: a Challenge for Europe, Bruselas, Unión Europea, 2014, 94-129.

Bertolini, Andrea y Riccaboni, Massimo, "Grounding the Case for a European Approach to the Regulation of Automated Driving: the Technology-Selection Effect of Liability Rules", European Journal of Law and Economics, Springer, n.° 51, 2020, 243-284.

Bianca, C. Massimo, La responsabilità, Milán, Giuffrè, 1994.

Bianca, C. Massimo, Le obbligazioni, Milán, Giuffrè, 1993.

Bonsignorio, Fabio; Messina, Elena y Del Pobil, Angel, "Fostering Progress in Performance Evaluation and Benchmarking of Robotic and Automation Systems", IEEE Robotics & Automation Magazine, IEEE, vol. 21, 2014, 22-25.

Broggi, Alberto; Zelinsky, Alexander; Parent, Michel y Thorpe, Charles, "Intelligent Vehicles", en Siciliano, Bruno y Khatib, Oussama. (eds.), Springer Handbook of Robotics, Berlín, Springer, 2008, 1175-1198.

Bryson, Joanna, "Robots Should Be Slaves", Close Engagements with Artificial Companions: Key Social, Psychological, Ethical and Design Issues, Yorick Wilks, n.° 8, 2010, 63-74.

Busnelli, Francesco, L'obbligazione soggettivamente complessa, Milán, Giuffrè, 1974.

Busnelli, Francesco, "Le Sezioni unite e il danno non patrimoniale", Rivista di diritto civile, Cedam, n.° 2, 2009, 97-120.

Calabresi, Guido y Al Mureden, Enrico, Driverless cars. Intelligenza artificiale e futuro della mobilità, Bolonia, Il Mulino, 2021.

Calo, Ryan, "Open Robotics", Maryland Law Review, University of Washington School of Law, n.° 70, 2011, 571-613.

Calo, Ryan, "Robotics and the Lessons of Cyberlaw", California Law Review, University of Washington School of Law, n.° 103, 2015, 513-551.

Calvo, Roberto, "Difformità, inadempimento del venditore e denuncia del vizio occulto. Cassazione civile, SS. UU., 11 luglio 2019, n. 18672", Corriere giuridico, Ipsoa, vol. 36, n.° 8-9, 2019, 1025-1035.

Calvo, Roberto, "La decontrattualizzazione della responsabilità sanitaria", Nuove legggi civili commentate, Cedam, n.° 3, 2017, 453-478.

Canaris, Claus-Wilhelm, "Schutzgesetze, Verkehrspflichten, Schutzpflichten", en Festschrift für Karl Larenz zum 80. Geburtstag, Múnich, C.H. Beck, 1983, 27-110.

Carbone, Vincenzo, "Legge Gelli: inquadramento normativo e profili generali", Corriere giuridico, Ipsoa, vol. 34, 2017, 737-739.

Castronovo, Carlo, "Danno esistenziale: il lungo addio", Danno e responsabilità, Ipsoa, n.° 1, 2009, 1-6.

Castronovo, Carlo, "Diritto privato generale e diritti secondi. La ripresa di un tema", Europa e diritto privato, Giuffrè, n.° 2, 2006, 397-423.

Castronovo, Carlo, "Obblighi di protezione", Enciclopedia giuridica, Roma, Treccani, vol. XXI, 1990, 1-9.

Castronovo, Carlo, Problema e sistema nel danno da prodotti, Milán, Giuffrè, 1979.

Castronovo, Carlo, Responsabilità civile, Milán, Giuffrè, 2018.

Castronovo, Carlo, "Swinging malpractice. Il pendolo della responsabilità medica", Europa e diritto privato, Giuffrè, n.° 3, 2020, 847-900.

Ceccherini, Grazia, Clausole di esonero tra principi giuridici e regole di mercato, Turín, Giappichelli, 2008.

Cendon, Paolo, "L'araba fenice: più vivo che mai il danno esistenziale presso i giudici italiani", La nuova giurisprudenza civile commentata, Cedam, vol. 26, 2010, 1-12.

Citron, Danielle Keats y Norton, Helen, "Intermediaries and Hate Speech: Fostering Digital Citizenship for Our Information Age", Boston University Law Review, Boston University, vol. 91, 2011, 1435-1484.

Convención de las Naciones Unidas sobre los Derechos de las Personas con Discapacidad [en línea], disponible en: https://www.un.org/esa/socdev/enable/documents/tccconvs.pdf [consultado el 8 de marzo de 2023].

Cvetković, Mihajlo, "Causal Uncertainty: Alternative Causation in Tort Law", Teme, University of Niš, vol. XLIV, n.° 1, 2020, 33-47.

D'Adda, Alessandro, "sub artt. 1228-1229", en Cuffaro, Vincenzo, Commentario del codice civile diretto da Gabrielli. Delle obbligazioni, vol. II, "artt. 1218-1276", Turín, Utet, 2013, 328-344.

De Cristofaro, Giovanni, Difetto di conformità al contratto e diritti del consumatore, Padua, Cedam, 2000.

De Cristofaro, Giovanni, "La vendita di beni di consumo", en Gabrielli, E. y Minervini, E., I contratti dei consumatori, Turín, Utet, 2005.

De Matteis, Raffaella, "I danni alla persona dopo le S.U. del 2008", Responsabilità civile, Utet, vol. 6, 2009, 651-657.

De Matteis, Raffaella, La responsabilità in ambito sanitario. Il regime binario: dal modello teorico ai risvolti applicativi, Padua, Cedam, 2017, 6.

Di Majo, Adolfo, "Danno esistenziale o di tipo esistenziale: quale l'esito?", Corriere giuridico, Ipsoa, n.° 3, 2009, 410-412.

Di Majo, Adolfo, "L'obbligazione senza prestazione approda in Cassazione", Corriere giuridico, Ipsoa, n.° 4, 1999, 441-451.

Di Majo, Adolfo, La tutela civile dei diritti, Milán, Giuffrè, 2003.

Easterbrook, Frank, "Cyberspace and the Law of the Horse", Chicago Unbound, University of Chicago Legal Forum, n.° 207, 1996, 207-216.

Enac, Italian Civil Aviation Authority Regulation [en línea], Roma, Enac, disponible en: https://www.enac.gov.it/sites/default/files/allegati/2021-Gen/Regolamento_UAS-IT080121.pdf [consultado el 8 de marzo de 2023].

Estados Unidos de América. Congreso de los Estados Unidos, Oficina de Evaluación Tecnológica, Defensive Medicine and Medical Malpractice [en línea], Washington, Government Printing Office, 1994, disponible en: https://ota.fas.org/reports/9405. pdf [consultado el 8 de marzo de 2023].

Evas, Tatjana, A Common EU Approach to Liability Rules and Insurance for Connected and Autonomous Vehicles [en línea], Bruselas, Unión Europea, 2018, disponible en: https://www.europarl.europa.eu/RegData/etudes/STUD/2018/615635/EPRS_STU(2018)615635_EN.pdf [consultado el 9 de marzo de 2023].

Evas, Tatjana y Heflich, Aleksandra, Artificial Intelligence in Road Transport. Cost of Non-Europe Report, Bruselas, Parlamento Europeo, 2021.

Falzea, Angelo, Il soggetto nel sistema dei fenomeni giuridici, Milán, Giuffrè, 1939.

Finlandia. Ministerio de Asuntos Económicos y de Empleo, Finland's Age of Artificial Intelligence, Helsinki, 2017.

Floridi, Luciano y Sanders, John W., "On the Morality of Artificial Agents", Minds and Machine, University of Oxford, n.° 14, 2004, 349-379.

Fossa, Fabio, "Artificial Agency and the Game of Semantic Extension", Interdisciplinary Science Reviews, Taylor and Francis, n.° 46, 2021, 440-457.

Franciosi, Laura, "The New Italian Regime for Healthcare Liability and the Role of Clinical Practice Guidelines: A Dialogue Among Legal Formants", Journal of Civil Law Studies, Center of Civil Law Studies, n.° 11, 2018, 370-413.

Franzoni, Massimo, "Colpa e linee guida nella nuova legge", Danno e responsabilità, Ipsoa, vol. 21, 2016, 801-806.

Franzoni, Massimo, "Cosa è successo al 2059 c.c.", Responsabilità civile, vol. 6, 2009, 20-27.

Garattini, Livio y Padula, Anna, "Defensive Medicine in Europe: a 'Full Circle'?", The European Journal of Health Economics, Springer, n.° 21, 2020, 165-170.

Geistfeld, Mark, "A Roadmap for Autonomous Vehicles: State Tort Liability, Automobile Insurance, and Federal Safety Regulation", California Law Review, Berkeley University, vol. 105, n.° 6, 2017, 1611- 1694.

Giardina, Francesca, "Sub art. 1. Capacità giuridica", en Barba, Angelo y Pagliantini, Stefano (eds.), Commentario del codice civile, Turin, Utet Giuridica, 2012, 335-359.

Gleave, Steer, Study on Third-Party Liability and Insurance Requirements of Remotely Piloted Aircraft Systems [en línea], Bruselas, Unión Europea, 2014, disponible en: https://op.europa.eu/en/publication-detail/-/publication/7fe87d4b-07b1-4bcd-98d1-7731842bed99 [consultado el 8 de marzo de 2023].

Granshaw, Stuart, "RPV, UAV, UAS, RPAS… or Just Drone?", The Photogrammetric Record, Stuart Granshaw Editorials, vol. 33, n.° 162, 2018, 160-170.

Greenberg, Brad, "Rethinking Technology Neutrality", Minnesota Law Review, University of Minnesota, n.° 207, 2016, 1495-1562.

Gunkel, David, The Machine Question. Critical Perspectives on AI, Robots, and Ethics, Cambridge, Massachusetts Institute of Technology, 2012.

Gutmann, Mathias; Rathgeber, Benjamin y Syed, Tareq, "Action and Autonomy: A Hidden Dilemma in Artificial Autonomous Systems", en Decker, Michael y Gutman, Mathias (eds.), Robo- and Informationethics. Some Fundamentals, Zúrich, Lit Verlag, 2012, 231-257.

Hart, Herbert Lionel Adolphus y Honoré, Tony, Causation in the Law, Oxford, Oxford Academic, 1959.

Hasan, Kazi M.; Shah Newaz, S., y Ahsan, Shamim, "Design and Development of an Aircraft Type Portable Drone for Surveillance and Disaster Management" [en línea], International Journal of Intelligent Unmanned Systems, Emerald Publishing, vol. 6, 2018, 147-159.

Hazan, Maurizio, "L'azione diretta verso l'assicuratore (e il regime delle eccezioni e della rivalsa)", en Hazan, Maurizio; Zorzit, Daniela y Gelli, Federico (eds.), La nuova responsabilità sanitaria e la sua assicurazione, Milán, Giuffrè, 2017, 601-629.

Helland, Eric A., y Tabarrok, Alexander, "Product Liability and Moral Hazard: Evidence from General Aviation", The Journal of Law and Economics, University of Chicago, vol. 55, n.° 3, 2012, 593-630.

Huttunen, Mikko, "Unmanned, Remotely Piloted, or Something Else? Analysing the Terminological Dogfight", Air and Space Law, Kluwer Law International, vol. 42, 2017, 349-368.

ISO-IEC-2382-28 [en línea], disponible en: https://www.iso.org/obp/ui/#iso:std:iso-iec:2382:-28:ed-1:v1:en [consultado el 8 de marzo de 2015].

Italia. Ley n.° 24 del 8 de marzo de 2017, "Disposiciones para la seguridad de la asistencia sanitaria y del paciente, y relativas a la responsabilidad profesional de quienes ejercen profesiones sanitarias" (denominada "Legge Gelli").

Ivanchev, Jordan; Knoll, Alois; Zehe, Daniel; Nair, Suraj y Eckhoff, David, "Potentials and Implications of Dedicated Highway Lanes for Autonomous Vehicles", arXiv, Cornell University, 2017, 1-12.

Kalra, Nidhi y Paddock, Susan, "Driving to Safety, How Many Miles of Driving Would It Take to Demonstrate Autonomous Vehicle Reliability?", Transportation Research Part A: Policy and Practice, RAND Corporation, vol. 94, 2016, 182-193.

Kornhauser, Lewis A. y Revesz, Richard L., "Joint and Several Liability", en Faure, Michael (ed.), Tort Law and Economics, Cheltenham, Edward Elgar, 2009, 109-133.

Koziol, Helmut, Grundfragen des Schadenersatzrechts, Viena, Jan Sramek, 2009.

Kuczerawy, Aleksandra, "Intermediary Liability & Freedom of Expression: Recent Developments in the EU Notice & Action Initiative", Computer Law & Security Review, Elsevier, vol. 31, 2015, 45-56.

Larenz, Karl y Canaris, Claus-Wilhelm, Lehrbuch des Schuldrechts. Zweiter Band-Besonderer Teil, Múnich, C.H. Beck, 1994.

Machnikowski, Piotr, European Product Liability. An Analysis of the State of the Art in the Era of New Technologies, Cambridge, Intersentia, 2016.

Matthias, Andreas, Automaten als Träger von Rechten, Berlín, Logos, 2010.

Maxwell, Winston J. y Bourreau, Marc, "Technology Neutrality in Internet, Telecoms and Data Protection Regulation", Computer and Telecommunications Law Review, Sweet & Maxwell n.° 21, 2015, 1-4.

Mazzamuto, Salvatore, Rimedi specifici e responsabilità, Perugia, Iseg Gioacchino, 2011.

Mazzamuto, Salvatore y Castronovo, Carlo, Manuale di diritto privato europeo, Milán, Giuffrè, 2007.

McGonagle, Tarlach E., "Free Expression and Internet Intermediaries: The Changing Geometry of European Regulation", en Frosio, Giancarlo. Oxford Handbook of Online Intermediary Liability, Oxford, Oxford University Press, 2020, 467-485.

Mengoni, Luigi, "Obbligazioni 'di risultato' e obbligazioni di mezzi", en Castronovo, Carlo; Albanese, Antonio y Nicolussi, Andrea (eds.), Scritti II, Obbligazioni e negozio, Milán, Giuffrè, 2011, 141-266.

Messinetti, Davide, "Oggetto dei diritti", Enciclopedia del diritto, XXIX, Milán, Giuffrè, 1979, 808-827.

Monateri, Pier Giuseppe, "La responsabilità civile", en Sacco, R. (coord.), Trattato di diritto civile, Turín, Utet, 1998.

Navarretta, Emanuela, Diritti inviolabili e risarcimento del danno, Turín, Giappichelli, 1996.

Navarretta, Emanuela, "Il valore della persona nei diritti inviolabili e la complessità dei danni non patrimoniali", Responsabilità civile e previdenza, Milán, Giuffrè, 2009, 63-75.

Navarretta, Emanuela, "L'ingiustizia del danno e i problemi di confine tra responsabilità contrattuale ed extracontrattuale", en Lipari, N. y Rescigno, P. (eds.), Diritto civile, Milán, Giuffrè, III, 2009, 233-253.

Nicolussi, Andrea, "Difetto di conformità e garanzie in forma specifica", en Alessi, R. (ed.), La vendita dei beni di consumo, Milán, Giuffrè, 2005, 69-102.

Nicolussi, Andrea, "Diritto europeo della vendita dei beni di consumo e categorie dogmatiche", Europa e diritto privato, Giuffrè, n.° 3, 2003, 532-533.

Nicolussi, Andrea, "Obblighi di protezione", Enciclopedia del diritto, Annali, Milán, Giuffrè, vol. VIII, 2015, 659-665.

Owen, David, Products Liability Law, St. Paul, West Academic, 2008.

Palmerini, Erica; Azzarri, Federico; Battaglia, Fiorella; Bertolini, Andrea; Carnevale, Antonio; Carpaneto, Jacopo; Cavallo, Filippo; Di Carlo, Angela; Cempini, Marco; Controzzi, Marco; Koops, Bert-Jaap; Lucivero, Federica; Mukerji, Nikil; Nocco, Luca; Pirni, Alberto; Shah, Huma; Salvini, Pericle; Schellkens, Maurice y Warwick, Kevin, Guidelines on Regulating Robotics [en línea], 2014, 94-129, disponible en: http://www.robolaw.eu/RoboLaw_files/documents/robolaw_d6.2_guidelines-regulatingrobotics_20140922.pdf

Palmerini, Erica; Bertolini, Andrea; Battaglia, Fiorella; Koops, Bert-Jaap; Carnevale, Antonio y Salvini, Pericle, "RoboLaw: Towards a European Framework for Robotics Regulation", Robotics and Autonomous Systems, Elsevier, vol. 86, 2016, 78-85.

Pardolesi, Roberto, "Chi (vince e chi) perde nella riforma della responsabilità sanitaria", Danno e responsabilità, Ipsoa, vol. 22, 2017, 261-267.

Pardolesi, Roberto y Simone, Roberto, "Nuova responsabilità medica: il dito e la luna (contro i guasti da contatto sociale?)", Il Foro Italiano, vol. V, 2017, 163-164.

Patti, Salvatore, "La vendita di beni di consumo, la conformità al contratto di vendita stabilito all'art. 129, commi 1° e 2°, del D.Lgs. 6 settembre 2005, n. 206", Le nuove leggi civili commentate, 2006, 317-581.

Pelloso, Carlo, "Il deterioramento e il perimento ante traditionem del bene compra-venduto: rimedi consumeristici e di diritto comune", en Garofalo, D. (ed.), Tutele rimediali in tema di rapporti obbligatori archetipi romani e modelli attuali, Turín, Giappichelli, 2015, 89-165.

Perlingieri, Pietro, "L'onnipresente art. 2059 c.c. e la tipicità del danno alla persona", Rassegna di diritto civile, Edizioni Scientifiche Italiane, vol. 30, 2009, 520-529.

Piraino, Frabrizio, "Il nesso di causalità", Europa e Diritto Privato, Giuffrè, n.° 2, 2018, 399-488.

Pizzorusso, Alessandro, "Delle persone fisiche. Delle persone e della famiglia", en Scialoja, Antonio y Branca, Giuseppe (eds.), Commentario del codice civile, t. I, Bolonia, Zanichelli, 1988.

Polinsky, A. Mitchell y Shavell, Steven, "The Uneasy Case for Product Liability", Harvard Law Review, Harvard University, n.° 123, 2010, 1437-1492.

Ponzanelli, Giulio, "La prevista esclusione del danno esistenziale e il principio di integrale riparazione del danno: verso un nuovo sistema di riparazione del danno alla persona", La nuova giurisprudenza civile commentata, Cedam, n.° 2, 2009, 90-95.

Ponzanelli, Giulio, "Limitazione di responsabilità, analisi economica del diritto e giudizio di costituzionalità", Foro italiano, Società Editrice del Foro Italiano, vol. 1, n.° 1 1992, 643-647.

Ponzanelli, Giulio, "Medical malpractice: la legge Bianco Gelli. Una premessa", Danno e responsabilità, Ipsoa, vol. 21, 2017, 268-270.

Quinn, Gerard, "Resisting the Temptation de Elegance: Can the Convention on the Rights of Persons with Disabilties Socialise States to Right Behaviour?", en Quinn, Gerard y Arnardóttir, Oddný Mjöll. (eds.), The UN Convention on the Rights of Persons with Disabilities. The European and Scandinavian Perspectives, Leiden, Brill, 2009, 215-256.

Quinn, Gerard., "The United Nations Convention on the Rights of Persons with Disabilities: Toward a New International Politics of Disability", Texas Journal on Civil Liberties & Civil Rights, 2009, 33-52.

Realmonte, Francesco, Il problema del rapporto di causalità nel risarcimento del danno, Milán, Giuffrè, 1967.

Reed, Chris, "Taking Sides on Technology Neutrality", Script-ed, Chris Reed, vol. 4, n.° 3, 2007, 263-284.

Reino Unido, Automated and Electric Vehicles Act 2018 [en línea], disponible en: https://www.legislation.gov.uk/ukpga/2018/18/contents/enacted [consultado el 8 de marzo de 2023].

Relazione del Ministro Guardasigilli Grandi al Codice Civile [en línea], 1942, disponible en: https://www.consiglionazionaleforense.it/collana-studi-storici-e-giuridici/-/asset_publisher/8DRwCIeuASnD/content/relazione-del-ministro-guardasigilligrandi-al-codice-civile-del-1942 [consultado el 8 de marzo de 2023].

Rescigno, Pietro y Gabrielli, Enrico (eds.), Trattato dei contratti, Turín, Utet, 2005.

Rodotà, Stefano, Il problema della responsabilità civile, Milán, Giuffrè, 1964.

Rosenfeld, Michel, "Hate Speech in Constitutional Jurisprudence: a Comparative Analysis", Cardozo Law Review, Yeshiva University, n.° 24, 2002, 1523-1567.

Russell, Stuart J. y Norvig, Peter, Artificial Intelligence. A Modern Approach, Upper Saddle River, Pearson Education, 2010.

SAE, Taxonomy and Definitions for Terms Related to Driving Automation Systems for On-Road Motor Vehicles, J3016_201806 [en línea], SAE International, 2018, 1-35, disponible en: https://www.sae.org/standards/content/j3016_201806/ [consultado el 8 de marzo de 2023].

Salvini, Pericle, "Taxonomy of Robotic Technologies", en Palmerini, Erica (coord.), Robolaw [en línea], deliverable D4.1 Internal report, 2013, disponible en: http://www.robolaw.eu/deliverables.htm

Santarelli, Umberto, Auctor iuris homo. Introduzione allo studio dell'esperienza giuridica basso-medioevale, Turín, Giappichelli, 1997.

Scalfi, Gianguido, "Persone giuridiche (I). Diritto civile", Enciclopedia giuridica, vol. XXIV, Roma, Treccani, 1990.

Scognamiglio, Claudio, "Regole di condotta, modelli di responsabilità e risarcimento del danno nella nuova legge sulla responsabilità sanitaria", Corriere giuridico, Ipsoa, vol. 34, 2017, 740-748.

Scognamiglio, Claudio, Responsabilità civile e danno, Turín, Giappichelli, 2010.

Scozzafava, Oberdan Tommaso, "Oggetto dei diritti", Enciclopedia giuridica, vol. XXIV, Roma, Treccani, 1990.

Severoni, Cecilia, "La disciplina normativa attuale degli aeromobili a pilotaggio remoto", Diritto dei trasporti, Università "La Sapienza" di Roma, vol. 29, 2016, 65-103.

Shavell, Steven, "On the Redesign of Accident Liability for the World of Autonomous Vehicles", The Journal of Legal Studies, Universidad de Chicago, vol. 49, n.° 2, 2019, 243-285.

Stanzione, Pasquale; Sica, Salvatore y Meoli, Bruno, Commentario alla legge 8 marzo 2017, n° 24, Nápoles, Edizioni Scientifiche Italiane, 2018.

Technopolis Group y AA.VV., Evaluation of Council Directive 85/374/EEC on the Approximation of Laws, Regulations and Administrative Provisions of the Member States Concerning Liability for Defective Products [en línea], Bruselas, Ernst&Young, 2018, disponible en: https://op.europa.eu/en/publication-detail/-/publication/d4e3e1f5-526c-11e8-be1d-01aa75ed71a1/language-en [consultado el 8 de marzo de 2023].

Timan, Tjerk; Snijders, Ron; Kirova, Maria; Suardi, Stefano; van Lieshout, Marc; Chen, Ming; Costenco, Patrisia; Palmerini, Erica; Bertolini, Andrea; Tejada, Arturo; van Montfort, Sjef; Bolchi, Marco; Alberti, Stefano; Brouwer, Rino; Karanilokova, Kristina; Episcopo, Francesca y Jansen, Sven, Study on Safety of Non-Embedded Software. Service, Data Access, and Legal Issues of Advanced Robots, Autonomous, Connected, and AI-Based Vehicles and Systems: Final Study Report Regarding CAD/CCAM and Industrial Robots, Bruselas, Unión Europea, 2019.

Trabucchi, Alberto, Istituzioni di diritto civile, Padua, Cedam, 2018.

Trimarchi, Pietro, "Condizione sine qua non, causalità alternativa ipotetica e danno", Rivista trimestrale di diritto e procedura civile, Giappichelli, 1964, 1431-1460.

Turing, Alan, "Computing Machinery and Intelligence", Mind, University of Oxford, n.° 49, 1950, 433-460.

Turner, Jacob, Robot Rules: Regulting Artfiicial Intelligence, Berlín, Springer, 2019.

Twigg-Flesner, Christian, "Guiding Principles for Updating the Product Liability Directive for the Digital Age", ELI Innovation Paper Series, European Law Institute, 2021.

Unión Europea. Comisión Europea, Informe de la Comisión al Parlamento Europeo y al Consejo sobre la aplicación de la Decisión Marco 2008/913/JAI del Consejo relativa a la lucha contra determinadas formas y manifestaciones de racismo y xenofobia mediante el Derecho penal, COM/2014/027 final, Bruselas, Unión Europea, 2014.

Unión Europea. Comisión Europea, Report on the Safety and Liability Implications of Artificial Intelligence, the Internet of Things and Robotics, Bruselas, Unión Europea, 2020.

Unión Europea. Directiva 85/374/CEE, del Consejo, del 25 de julio de 1985, relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados miembros en materia de responsabilidad por los daños causados por productos defectuosos.

Unión Europea. Directiva 99/44/CE, del Parlamento Europeo y Consejo, del 25 de mayo de 1999, sobre determinados aspectos de la venta y las garantías de los bienes de consumo [en línea], disponible en: https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:31999L0044&from=EN [consultado el 9 de marzo de 2023].

Unión Europea. Grupo de Expertos sobre Responsabilidad y Nuevas Tecnologías, A Definition of AI: Main Capabilities and Disciplines, Bruselas, Comisión Europea, 2019.

Unión Europea. Parlamento Europeo, Comisión de Asuntos Jurídicos, Report with Recommendations to the Commission on Civil Law Rules on Robotics [en línea], Estrasburgo, 2017, disponible en: https://www.europarl.europa.eu/doceo/document/A-8-2017-0005_EN.pdf [consultado el 8 de marzo de 2023].

Unión Europea. Reglamento (UE) 2018/1139, del Parlamento Europeo y del Consejo, del 4 de julio de 2018, sobre normas comunes en el ámbito de la aviación civil y por el que se crea una Agencia de la Unión Europea para la Seguridad Aérea.

Unión Europea. Resolución del Parlamento Europeo, del 10 de octubre de 2019, sobre la injerencia electoral extranjera y la desinformación en los procesos democráticos nacionales y europeos (2019/2810(RSP)), Bruselas, Unión Europea, 2019.

Unión Europea. Resolución del Parlamento Europeo, del 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un régimen de responsabilidad civil para la inteligencia artificial (2020/2014(INL)) [en línea], Diario Oficial de la Unión Europea, Bruselas, 2020, disponible en: https://eur-lex.europa.eu/legal-content/ES/TXT/?uri=CELEX:52020IP0276 [consultado el 8 de marzo de 2023].

Unión Europea. Tratado de Funcionamiento de la Unión Europea - Protocolos, Protocolo (n.° 2) sobre la aplicación de los principios de subsidiariedad y proporcionalidad.

Wagner, Gerhard, "Robot Liability", Working Paper Series, Universidad de Humboldt, 2019.

Wagner, Gerhard, "Robot, Inc.: Personhood for Autonomous Systems?", Fordham Law Review, Fordham School of Law, n.° 88, 2019, 591-612.

Williams, Preston; Williams, Joanna y Williams, Bryce, "The Fine Line of Defensive Medicine", Journal of Forensic and Legal Medicine, Elsevier, n.° 80, 2021, 102-170.

Zicari, Roberto; Brodersen, John; Brusseau, James; Düdder, Boris; Eichhorn, Timo; Ivanov, Todor; Kararigas, Georgios; Kringen, Pedro; McCullough, Melissa; Möslein, Florian; Mushtaq, Naveed; Roig, Gemma; Stürtz, Norman; Tolle, Karsten; Tithi, Jesmin Jahan; Van Halem, Irmhild y Westerlund, Magnus, "Inspection®: A Process to Assess Trustworthy AI", IEEE Transactions on Technology and Society, IEEE, vol. 2, n.° 2, 2021, 83-97.

Jurisprudencia

Italia. Corte Costituzionale, sentencia del 11 de febrero de 2011, n.° 46.

Italia. Corte Costituzionale, sentencia del 22 de noviembre de 1991, n.° 420.

Italia. Corte Costituzionale, sentencia del 30 de junio de 2003, n.° 233.

Italia. Corte di Cassazione, Sezione III, sentencia del 11 de octubre de 2016, n.° 20370.

Italia. Corte di Cassazione, Sezione III, sentencia del 17 de abril de 2014, n.° 8940.

Italia. Corte di Cassazione, Sezione III, sentencia del 19 de febrero de 2013, n.° 403.

Italia. Corte di Cassazione, Sezioni Unite, sentencia del 11 de agosto de 2019, n.° 18672.

Italia. Corte di Cassazione, Sezioni Unite, sentencias del 11 de noviembre de 2008, n.° 26972, 26973, 26974, 26975.

Italia. Corte di Cassazione, Sezione III, sentencia del 22 de enero de 1999, n.° 589.