10.18601/01234366.n42.09

La insuficiencia de la causalidad como presupuesto de la responsabilidad civil en los daños producidos por la robótica y los sistemas autónomos*

The Insufficiency of Causality as an Element of Civil Liability for Damages Produced by Robotics and Autonomous Systems

Matías Mascitti**

*Fecha de recepción: 21 de agosto de 2020. Fecha de aceptación: 24 de septiembre de 2021. Para citar el artículo: Mascitti, M., "La insuficiencia de la causalidad como presupuesto de la responsabilidad civil ante los daños producidos por la robótica y los sistemas autónomos", Revista de Derecho Privado, n.° 42, enero-junio 2022, 215-260, DOI: https://doi.org/10.18601/01234366.n42.09

**Universidad Nacional de Buenos Aires, Buenos Aires, Argentina; profesor. Doctor en Derecho, Universidad Nacional de Buenos Aires, Buenos Aires, Argentina. Abogado. Contacto: matiasmascitti@gmail.com. Orcid:0000-0002-3942-8069.

Creative Commons Reconocimiento-NoComercial-CompartirIgual


Resumen

El trabajo presente tiene como objeto destacar la insuficiencia de la relación de causalidad como presupuesto de responsabilidad civil por los daños producidos por la robótica y sistemas autónomos (RSA) en la revolución tecnológica basada en big data. Para ello, analizamos las categorías de la responsabilidad civil conforme la normativa del derecho privado patrimonial argentino. El núcleo argumentativo de esa idea radica en que los RSA funcionan por medio de correlaciones que operan como un límite para la previsibilidad de los diseñadores, fabricantes, propietarios y operadores, que constituye un elemento esencial para calificar a la causalidad como presupuesto del derecho de la responsabilidad civil. Proponemos la vigencia de un seguro obligatorio por los daños previsibles causados por los RSA y la creación de un fondo de garantía para la reparación de los perjuicios imprevisibles causados por los RSA.

Palabras clave: relación de causalidad, condiciones de la responsabilidad civil, daños, robótica, sistemas autónomos, IA, big data, imprevisibilidad.


Abstract

The present work aims to highlight the insufficiency of the causal relationship as an element of civil liability for the damages produced by robotics and autonomous systems (RAS) in this technological revolution based on big data. We analyze the categories of tort liability in accordance with the regulations of argentine private patrimonial law. The argumentative core of this idea lies in the fact that the RAS work through correlations that operate as a limit for the predictability of designers, manufacturers, owners and operators, which constitutes an essential element to qualify causal relationship as an element of the tort law. We propose the validity of compulsory insurance for foreseeable damages caused by RAS and the creation of a guarantee fund to repair unforeseeable damages caused by RAS.

Keywords: causal relationship, liability, damages, robotics, autonomous systems, AI, big data, unpredictability.


Sumario. Introducción. I. Big data, las correlaciones y la causalidad. II. Algunos daños causados por los RSA. III. La relación causal como presupuesto de la responsabilidad civil ante los perjuicios causados por los RSA. IV. Una visión prospectiva de la responsabilidad civil en el derecho de la alta tecnología. Conclusiones. Referencias


"La invención genera invención."
Ralph Waldo Emerson (1830-1882)

"Los datos son la nueva ciencia. Big Data son las respuestas."
Pat Gelsinger

"Artificial Intelligence is whatever hasn't been done yet."
Larry Tesler (1945-2020)

Introducción

Será decisivo para el progreso jurídico en esta era de big data atender a la regulación del derecho de la responsabilidad civil1 sobre el reconocimiento de los intereses jurídicos que serán afectados por un crecimiento exponencial de daños que hoy podrían ser localizados en el ámbito azaroso o imprevisible. Precisamente, aquí nos referimos a la relación de causalidad2 -que constituye uno de los presupuestos de la responsabilidad civil3- en los daños causados por la robótica y sistemas autónomos (RSA) que, en algunos supuestos, por su propio método de autoaprendizaje infinito, actúan de modo imprevisible haciendo -de ese modo- que en esos casos la relación causal sea inepta para asignar responsabilidad a los diseñadores, fabricantes, propietarios y operadores de los RSA.

Doctrina y jurisprudencia son unánimes en admitir que la relación de causalidad como presupuesto fundamental de la responsabilidad civil comprende dos aspectos: un elemento fáctico y un elemento normativo jurídico4. Así, se torna imprescindible dividir el juicio de constatación causal en dos fases: (1) la fijación del nexo causal en su primera secuencia tiene carácter indefectiblemente fáctico5 y, por lo general, se realiza según el criterio de la conditio sine qua non; (2) una vez explicada la causa del daño en sentido material o científico, es menester realizar un juicio de orden jurídico para establecer si el resultado dañoso causalmente imbricado a la conducta del demandado puede o no serle objetivamente imputado6.

La idea de que los hechos están determinados por las leyes de la naturaleza se halla fuera de la psique del hombre primitivo; que bajo un alto predominio del componente emocional no buscaba una explicación racional del suceder de los hechos; se conformaba con encontrar un responsable7.

En principio, el Derecho fracciona a la causalidad evitando el desfraccionamiento de la causalidad provocado por el azar. El fin de aquél se sustenta en fijar las normas en un contexto de certeza que evite la incertidumbre del azar8.

La noción de azar quizás pueda ser construida como ignorancia provocada de la causalidad (juegos de azar), imprevisto (casualidad) o inexistencia de la causalidad9. A veces se incluye la imposibilidad de evitar los sucesos. Es notorio que los juegos de azar constituyen en gran medida repartos sobre distribuciones de ignorancia provocada10.

Según el Diccionario de la Real Academia Española, el azar consiste en "1. m. casualidad, caso fortuito"11. A su vez, casualidad significa "1. f. combinación de circunstancias que no se pueden prever ni evitar"12.

El azar es una casualidad presente, teóricamente, en diversos fenómenos que se caracterizan por causas complejas, no lineales y, sobre todo, que no parecen ser predictibles en todos sus detalles13.

La palabra "azar" viene del árabe zha'r (azahar, en castellano) término éste que designaba a una flor que se pintaba en una de las caras de los dados usados para jugar14. Sin embargo, a lo largo de los siglos la palabra ha sacrificado algo de su sentido lúdico para entrar a formar parte en muchas de las circunstancias de nuestra vida15.

Un mundo azaroso es inquietante, pues los eventos parecen ocurrir sin causa aparente. El azar nos resta comodidad, inteligibilidad y quietud. A lo largo de su historia, el hombre se da cuenta del poder del azar y de que su seguridad depende, en gran medida, de acontecimientos fortuitos de enorme gravedad que no puede controlar. Por ello, surge nuestro deseo de controlar al azar, de no sentirnos desamparados ante acontecimientos impredecibles; así la humanidad intenta controlar al azar: (a) interpretando el azar; (b) rindiendo culto a los dioses de la buena suerte; (c) jugando con el azar; (d) calculando probabilidades y (e) rentabilizando el azar16. El azar no es controlado por el Derecho.

El azar no es controlado por el Derecho.

Los "cisnes negros" integran la categoría azar. El "cisne negro" es un suceso con tres atributos: rareza, impacto extremo e imprevisible (aunque es de predictividad retrospectiva). Tendemos a actuar como si no existiera. La lógica del "cisne negro" provoca que lo que no sabemos sea más importante que lo que conocemos. La incapacidad de predecir las rarezas implica la imposibilidad de predecir el curso de la historia, dada la incidencia de estos sucesos en la dinámica de los acontecimientos17. Con base en la imprevisibilidad de los "cisnes negros", tenemos que amoldarnos a su existencia. Resulta trascendente la búsqueda de "cisnes negros" a través de la serendipidad, llevando al máximo nuestra exposición a ellos, usando -a tal efecto- el método del ensayo y error18.

Por ello resulta necesario considerar la existencia de los "cisnes negros", que podrían generarse por los RSA, como potenciales daños de consecuencias catastróficas para la sociedad causados en el marco de la aceleración tecnológica imperante en la aldea global.

I. Big data, las correlaciones y la causalidad

Vivimos en una sociedad red donde nuestra vida queda reflejada en los datos volcados a la web, configurando también la sociedad transparente19. La pandemia que nos azota acelerará la revolución digital sobre la humanidad aumentada en este juego de la vida20 en la era de big data21.

Las predicciones constituyen un tema central de big data, ya que este versa sobre la aplicación matemática a cantidades enormes de datos con el fin de inferir probabilidades22. La apertura del futuro es constitutiva de la libertad de acción. Sin embargo, big data permite hacer pronósticos sobre el comportamiento humano. De este modo, el futuro se convierte en predecible y controlable.

La era de big data cambió la forma en que vivimos e interactuamos. La sociedad tendrá que abandonar parte de su obsesión por la causalidad a cambio de correlaciones simples: no saber por qué, sino solo qué. Esto revierte siglos de prácticas establecidas y desafía nuestra comprensión más básica de como tomar decisiones y comprender la realidad23-24.

En probabilidad y estadística, la correlación indica la fuerza y la dirección de una relación lineal y proporcionalidad entre dos variables estadísticas. Se considera que dos variables cuantitativas están correlacionadas cuando los valores de una de ellas varían sistemáticamente con respecto a los valores homónimos de la otra: si tenemos dos variables (A y B) existe correlación entre ellas si al disminuir los valores de A lo hacen también los de B y viceversa. La correlación entre dos variables no implica, por sí misma, ninguna relación de causalidad25.

En la era del small data todas nuestras herramientas digitales se basaron en la exactitud. En cambio, big data es desordenado, varía en calidad y se distribuye entre innumerables servidores en todo el mundo. A medida que aumenta la escala, también aumenta la cantidad de inexactitudes26.

Existen dos indicadores importantes de la aceleración tecnológica actual: (a) la ley de Moore, que afirma que las densidades de transistores en microchips se duplican cada dos años (ha sido exacta durante las últimas cuatro décadas y debería mantener la validez durante los próximos decenios) y (b) la ley de Kryder, que indica que el costo de almacenamiento por unidad de información se reduce a la mitad cada dos años27.

Las nuevas tecnologías del siglo XXI podrían invertir la revolución humanista, despojando a los humanos de su autoridad y confiriendo en cambio poderes a algoritmos no humanos.

Los algoritmos tienen las siguientes características:

  1. Es definido como un conjunto finito y organizado de instrucciones, que debe satisfacer cierto conjunto de condiciones con la intención de proveer soluciones a un problema;
  2. Debe ser capaz de ser escrito en un determinado lenguaje;
  3. Es un procedimiento que es llevado a cabo paso a paso;
  4. La acción de cada paso está estrictamente determinada por el algoritmo, la entrada de datos y los resultados obtenidos en pasos previos;
  5. Cualesquiera que sean los datos de entrada, la ejecución del algoritmo debe terminar después de un número finito de pasos;
  6. El comportamiento del algoritmo es físicamente instanciado durante la implementación en la computadora28.

Los algoritmos más avanzados, al ser interpretaciones matemáticas de los datos obtenidos, no explican la realidad subyacente que los produce. Los artefactos o robots, que funcionan por medio de los algoritmos, presentan cierto grado de autonomía en su funcionamiento, de impredecibilidad, y también cuentan con la capacidad de causar daño físico, lo que abre una nueva etapa en la interacción entre los seres humanos y la tecnología.

La ciencia de datos consiste en detectar patrones y predecir como una variable afectará a otra29. Científicos de datos, psicólogos y profesionales de otras ciencias, estudian nuestros comportamientos pasados para predecir nuestras conductas futuras.

Las computadoras cuánticas aumentarán la potencia computacional, ya que al basarse en cubits -uniendo 0 y 1-, a diferencia de las computadoras tradicionales que funcionan a través de los bits -leen los 0 y 1 por separado-, le brindarán al sistema de inteligencia artificial (IA) posibilidad de expansión y junto a las herramientas de aprendizaje automático lograrán una más alta capacidad predictiva de los algoritmos30.

La IA31 puede adoptar dos formas: la IA encarnada y la IA incorpórea32. También podemos clasificar las IA en dos categorías: la primera, que llamamos IA simbólica, consiste en algoritmos con un conjunto de instrucciones lógicas determinadas para producir sistemas expertos -entorno lógico con capacidad de gestionar una base de conocimientos propia, resolver problemas específicos, producir nuevos conocimientos y explicar su razonamiento- específicos. Estos algoritmos, auditables, hacen un razonamiento basado en hechos y reglas conocidos. La IA simbólica se sigue aplicando en algunos dominios pequeños (como la representación del conocimiento), pero la mayoría de las aplicaciones de IA en el siglo XXI no emplean símbolos legibles como sus objetos primarios33.

La segunda categoría, llamada IA conexionista, practica lo que se llama machine learning o aprendizaje automático34, que es un proceso que usa conceptos de múltiples materias, por ejemplo: estadística, modelado cerebral, modelado psicológico, teoría del control adaptativo, IA y modelos evolutivos. Un proceso importante de aprendizaje automático se denomina entrenamiento, donde la máquina se alimenta con datos sobre eventos pasados para que pueda anticipar eventos futuros35. Cuando estos datos de entrenamiento son supervisados, se llama aprendizaje automático supervisado. La información que se alimenta consiste esencialmente en ejemplos de entrenamiento. Estos ejemplos consisten en entradas y salidas deseadas36. A su vez, los algoritmos de aprendizaje por refuerzo definen modelos y funciones enfocadas en maximizar una medida de recompensa, basados en acciones y en el ambiente en el que el agente inteligente se desempeñará37-38.

Los algoritmos de aprendizaje automático aprenden y evolucionan según lo que las personas hacen en línea. Sería imposible para los humanos supervisar cada decisión que toma un algoritmo. Pero las empresas pueden ejecutar simulaciones regularmente para probar los resultados de sus algoritmos39.

Los RSA contienen IA conexionista. Ellos son herramientas interconectadas, interactivas, cognitivas y físicas, capaces de percibir de diversas formas sus entornos, razonar sobre los eventos, hacer o revisar planes y controlar sus acciones; realizan tareas útiles para nosotros en el mundo real, ampliando nuestras capacidades, aumentando nuestra productividad y reduciendo nuestros riesgos40. Los RSA carecen de creatividad; ello podría cambiar si los algoritmos comprendieran los sentimientos de los humanos41.

La autonomía42 de una máquina es su capacidad para realizar por sí misma una función. Ella tiene tres dimensiones: el tipo de tarea que realiza la máquina; la relación entre el humano y una máquina en la realización de la tarea; y la sofisticación de la decisión de la máquina al realizar la tarea. Estas dimensiones son independientes entre sí y las máquinas adquieren mayor autonomía cuando se incrementa cualquiera de esas dimensiones. A su vez, la máquina se transforma en más compleja y menos predecible cuanto menos necesita de la intervención humana43-44. En ese sentido, el autoaprendizaje infinito de la máquina limita el control que los humanos tienen sobre ella. Estas IA eventualmente parecen cajas negras45 y son cada vez más difíciles de auditar. Ellas reflejan la falta de transparencia y comprensibilidad que puede hacer que los procesos de toma de decisiones de IA sean impenetrables.

Estamos siendo partícipes de la incorporación gradual a nuestras vidas de los asistentes virtuales basados en IA, cuya misión es facilitar la vida cotidiana a las personas46-47. Los algoritmos de aprendizaje automático están ayudando a un diagnóstico más temprano y más preciso, apoyando la medicina preventiva y guiando las complejas decisiones de tratamiento48.

También observamos el crecimiento de sistemas de asistencia jurídica basados en aprendizaje automático. Los sistemas jurídicos pretenden situar la IA al servicio del Derecho49. Esto genera más tiempo para la creatividad del abogado50. Estas aplicaciones causarán modificaciones trascendentales en la profesión de abogado en el futuro. También, las correlaciones detectadas por los algoritmos en la era de big data pueden ser útiles en el fuero judicial como un paso previo que filtra información para luego investigar la causa adecuada como presupuesto de la responsabilidad civil51.

En el mundo se han creado empresas que prestan servicios jurídicos de IA que podríamos agrupar conforme a estas categorías: (a) Facturación + aplicaciones de tiempo, (b) Colaboración + Plataformas de datos legales, (c) Plataformas de contratación, (d) Seguridad de datos + Sistemas de riesgo, (e) Revisión de documentos, (f) Sistemas expertos + Bots legales, (g) Investigación legal + Análisis, (h) Contratos inteligentes, (i) Automatización de flujos de trabajo + Herramientas de transacción52-53.

II. Algunos daños causados por los RSA

A continuación brindaremos algunos ejemplos de daños causados por los RSA.

Los vehículos autónomos son RSA; ellos se basan en un sistema de conducción automatizado como la tecnología instalada en un vehículo motorizado que tiene la capacidad de conducir el vehículo en modo de automatización alta o completa, sin supervisión de un operador humano, y que posee la capacidad de llevar automáticamente al vehículo a una condición de riesgo mínimo en caso de una falla crítica del vehículo o del sistema u otro evento de emergencia54. Existen algunos países con legislaciones de avanzada que adoptan en sus ordenamientos normativos algunas disposiciones relativas a los vehículos autónomos. Uno de los más desarrollados es Estados Unidos, que a lo largo de sus distintos estados acopia una gran cantidad de normas en la materia55. En 2018 se produjo la primera colisión provocada por un automóvil autónomo que causó la muerte de una mujer cuando cruzaba la calle en Tempe (Arizona); ello condujo a la suspensión de las pruebas automovilísticas autónomas por parte de Uber56.

Otra clase de daños causados por los RSA son aquellos que se basan en los "sistemas de armas matemáticas de destrucción" (SAMD), cuyos tres elementos distintivos son: opacidad, escala57 y daño. Los modelos matemáticos se basan en el pasado y en el supuesto de que los patrones se repetirán. Es necesario tener en cuenta la separación entre los modelos técnicos, las personas reales y sus repercusiones morales58. La escala es lo que convierte los SAMD en fuerzas que definen y delimitan nuestras vidas; si se le aplica el modelo bancario de un prestatario de alto riesgo, por ejemplo, el mundo lo calificará y lo tratará de ese modo. Cuando ese modelo escala, como lo vemos en el esquema crediticio, afecta toda la vida del individuo; por ejemplo, para adquisición de una vivienda, un automóvil, etc. Cuando se trata de escalar, el potencial para modelar la reincidencia continúa creciendo; los SAMD ya se usan en la mayoría de los estados de Estados Unidos. Ellos afectan a los más carenciados, pero también perjudican a la clase media. Sus víctimas, en su mayor parte, carecen de poder económico, acceso a abogados u organizaciones políticas para librar sus batallas. El resultado es un daño generalizado que -frecuentemente- se considera inevitable59. Los RSA son tan neutrales como los datos con los que están alimentados. Los algoritmos, al buscar y explotar patrones de datos, a veces pueden adoptar decisiones erróneas o sesgadas ya que, al igual que la toma de decisiones60 humanas, es a menudo una tarea inexacta. Como resultado, la decisión algorítmica puede afectar desproporcionadamente a ciertos grupos61. Cuando el sesgo o la subjetividad se infiltran en las entradas o inputs de un sistema o en las elecciones de su diseño, esto se refleja inevitablemente en las salidas u outputs del sistema. En consecuencia, los responsables de supervisar el despliegue de los RSA deben considerar la posibilidad de que las aplicaciones estén sesgadas algorítmicamente con el riesgo -consiguiente- de causación de daños de esta naturaleza sistémica a terceros62.

A su vez, en el sistema de la justicia penal algunas fuerzas policiales están usando algoritmos para el reconocimiento de imágenes faciales. Algunos programas de reconocimiento de imágenes tienen dificultades para reconocer y analizar rostros que no son de color claro. El software de seguimiento facial de Hewlett Packard no distinguió las caras de color oscuro como rostros63. A medida que se desarrolla la biometría -verbigracia, mediante sistemas de reconocimiento facial- debemos insistir en fortalecer los mecanismos que le impida seguir el camino recorrido por la frenología ya que aquélla tiene el potencial de dañar a los más vulnerables64.

Así mismo, los algoritmos también se están utilizando para detectar puntos críticos de delincuencia y para encontrar aquellas áreas más susceptibles de ilícitos penales. Por ejemplo, la Herramienta de Riesgo de Evaluación de Daños (HART) -uno de los primeros algoritmos usados por las fuerzas policiales en el Reino Unido- es un sistema de apoyo cuya utilidad recae sobre la predicción de la existencia de riesgo -bajo, moderado o alto- de la comisión de un delito penal por un sospechoso y sobre la determinación de las áreas donde exista mayor probabilidad de que acaezcan delitos. El modelo fue entrenado en más de cien mil eventos de custodia durante un período de cinco años en base a treinta y cuatro predictores diferentes (información sobre comportamiento criminal pasado, edad, género y código postal)65. La forma en que los diseñadores de estos algoritmos seleccionan los datos de entrenamiento puede ser susceptible a sesgos culturales, especialmente cuando se omite la diversidad de la población en los datos. Los diseñadores de algoritmos de aprendizaje automático pueden obtener datos de capacitación de terceros, como los intermediarios de datos, donde el acceso a la base original sobre la que se recopilaron los datos no está disponible. Además de los datos no representativos, los datos insuficientes también pueden causar daños por discriminación66. Precisamente para evitar esos daños, el algoritmo HART se modificó a raíz de la preocupación sobre la posible discriminación a las personas de los barrios más carenciados67.

En 2017, la Comisión Europea multó a Google por manipular sus algoritmos para perjudicar a su competencia en los servicios de comparación de compras en sus resultados de búsqueda y ubicar de modo destacado a su propio servicio de comparación de compras68.

En Inglaterra, la reciente controversia sobre el fallo de un algoritmo informático en el programa de detección de cáncer de seno del National Health Service (NHS) muestra tanto los beneficios como los riesgos de algunos algoritmos ya que el sistema permitió que se invitara automáticamente a una gran cantidad de mujeres a realizar la detección en el momento adecuado, pero se produjo un error dentro del sistema que provocó que las mujeres de entre 68 y 71 años -aproximadamente 450.000- no fueran invitadas a su examen de detección final de cáncer de seno entre 2009 y 201869.

Las máquinas de caja negra son responsables, en gran medida, de la colocación de anuncios en línea, usando sistemas comerciales complejos70 que intentan enviar el mensaje correcto a la persona adecuada en el momento oportuno por el precio más conveniente. Este proceso se denomina publicidad programática; ella ha sido en gran medida fraudulenta desde sus inicios71. Ella permite la compraventa de espacios publicitarios en medios digitales mediante plataformas y soluciones tecnológicas basadas en algoritmos de modo que a cada tipo de cliente se le muestra tan sólo anuncios de productos y servicios sobre los que tenga interés. Sin embargo, los cibercriminales han encontrado la fórmula para cometer fraude y conseguir que las empresas pierdan mucho dinero; así, una vez que ellos manipulan el sistema, las marcas pagan por anuncios que no se muestran en los lugares pactados. Por otra parte, los cibercriminales pueden mostrar sus anuncios en su lugar ofreciendo versiones piratas. Uno de los métodos fraudulentos más usados es el que utiliza una red de bots capaz de imitar la actividad humana72.

El caso de Cambridge Analytica constituye un paradigma del daño causado a la privacidad73 de los datos personales. La consultora Cambridge Analytica, fundada en 2013, está acusada de haber obtenido información de millones de usuarios de Facebook sin permiso, es decir, violando las políticas de uso de la red social. Con esos datos habría generado anuncios políticos dirigidos para favorecer la campaña presidencial de Trump, así como para beneficiar el Brexit del Reino Unido74.

III. La relación causal como presupuesto de la responsabilidad civil ante los perjuicios causados por los RSA

Formulamos las tesis siguientes para el desarrollo de este capítulo:

La causalidad constituye un presupuesto de la responsabilidad civil.

  1. La tesis 1 debe ser definida por los encargados del funcionamiento normativo en base a las teorías de causalidad existentes75 teniendo en cuenta la tesis 2. El concepto filosófico de autoría de Mill que mencionamos76 es insuficiente para el campo jurídico77. "El Derecho toma en cuenta la conducta humana en sociedad en cuanto productora de daños, y sólo computa las condiciones físicas o naturales en tanto y en cuanto pueden modificar o excluir la atribución jurídica de un suceso a una persona concreta"78. La llamada 'causalidad jurídica' es un juicio de imputación en virtud del que el intérprete -siguiendo criterios predefinidos por las normas- eleva una o algunas de las condiciones de un resultado a la categoría de causa. Con este fin, en el mundo jurídico se han formulado diversas teorías, v. gr.: de la equivalencia de condiciones o conditio sine qua non, de la causa próxima, de la causa preponderante y de la causa eficiente, de la causa adecuada, etc.79. Por ejemplo: en la Argentina se aplican la teoría de la causa adecuada y la teoría de la previsibilidad. Así, el c.c.c.a usa la teoría de la causa adecuada para la determinación de dicha causalidad jurídica; según ella, "sólo puede considerarse jurídicamente 'causa' de un resultado aquel hecho que, de acuerdo a lo que suele suceder, en función de las reglas de la experiencia, produce normalmente aquel resultado"80. Además, la teoría de la relación causal adecuada permite determinar la extensión del resarcimiento, es decir, las consecuencias que deben ser resarcidas.81 A su vez, cuando la obligación incumplida surge de un contrato celebrado paritariamente, el artículo 1728 c.c.c.a. se aparta de la teoría de la causalidad adecuada, pues dispone que en tal caso el deudor únicamente responde por las consecuencias que hayan sido previstas o previsibles para las partes (y no para un hombre medio) al momento en que se celebró el contrato (y no al momento del incumplimiento), con la salvedad de los casos en que haya actuado con dolo.

  2. El azar configura un límite del Derecho privado patrimonial al fin del reconocimiento de efectos jurídicos a terceros.
  3. Pese al reconocimiento de la influencia del azar en algunas circunstancias del resarcimiento de daños y en los contratos que reconocen el azar provocado (contratos aleatorios), el derecho brinda certeza en dichos supuestos a través de la asignación de responsabilidad con base en el factor de atribución objetivo de responsabilidad82 y de la regulación legal de esos contratos, eliminado -así- la nota principal de imprevisibilidad en el otorgamiento de efectos jurídicos en la responsabilidad civil y en el derecho contractual, y refleja -de ese modo- la frontera que traza el derecho privado patrimonial excluyendo al azar de su contenido, ya que éste tutela los intereses jurídicos en un marco de previsibilidad83.

  4. La relación de causalidad adecuada juega como una previsibilidad en abstracto. Ella presupone la previsibilidad según la normalidad de las consecuencias en sí mismas conforme al curso natural y ordinario de los acontecimientos (art. 1726 del Código Civil y Comercial de la Nación Argentina, c.c.c.a), ya que de ese modo resultan previsibles para cualquier hombre corriente84. Por consiguiente, se le considera una apreciación en abstracto ya que toma como parámetro al hombre medio.

  5. La regla de la previsibilidad contractual y el factor de atribución culpabilidad se describen como una previsibilidad en concreto.
  6. La culpabilidad pondera la previsibilidad en concreto de acuerdo con la especial situación del autor en el caso dado, es decir, como está descripto en el artículo 1724 del c.c.c.a, con ajuste a las circunstancias de las personas, del tiempo, del lugar y de la naturaleza de la obligación infringida85. A su vez, la regla de la previsibilidad contractual descripta en el desarrollo de la tesis 1 se basa en lo que las partes que celebraron el contrato pudieron prever en el caso concreto (apreciación en concreto).

  7. En ciertos casos los RSA se comportan de modo imprevisible con base en su autonomía de decisión, o sea, su aptitud para efectuar por sí misma una función. La mayor autonomía se traduce en la superación de la instrumentalidad del RSA.
  8. Como dijimos86, la relación entre la previsibilidad de la máquina y la intervención humana es directamente proporcional; es decir, la máquina es menos predecible cuanto menos necesita de la participación del hombre. Así, el autoaprendizaje ilimitado de algunos RSA transforma a su sistema de funcionamiento en una caja negra que impulsa a ellos a causar daños en algunos casos imprevisibles para sus diseñadores, fabricantes, propietarios y operadores, ya que entre el hecho originario (la conducta del RSA) y el daño se interponen otro u otros hechos (las correlaciones efectuadas por los RSA a través del aprendizaje automático) que no son previsibles de acuerdo al curso normal de los acontecimientos.

    La introducción de la IA y el uso de datos para el funcionamiento de las máquinas se hacen desde el diseño. Si bien el diseñador define el objetivo (función de recompensa) del algoritmo y puede ejercer cierto control sobre el entorno de su entrenamiento (que suele ser una simulación), la forma en que el algoritmo aprende y luego realiza una tarea después de la implementación es impredecible y a menudo conduce a soluciones imprevistas para la tarea. Especificar una función de recompensa adecuada puede ser difícil, y más aún para las tareas complejas, ya que la forma en que se formula el objetivo puede provocar que el algoritmo aprenda y funcione de modo imprevisto. Por ejemplo, un robot simulado de seis patas, al que se le dio la función de recompensa de caminar con contacto mínimo entre sus pies y el suelo, aprendió a voltearse y "caminar" sobre su espalda usando sus codos, de modo que logra moverse sin ningún contacto entre sus pies y el suelo87.

    Programar la computadora para que actúe como una "red neuronal" consiste en un tipo de IA que se modela en el cerebro y que prometía ser mejor que los algoritmos estándar para hacer frente a situaciones complejas del mundo real. Desafortunadamente, tales redes también son tan opacas como el cerebro. En vez de almacenar lo que han aprendido en un bloque ordenado de memoria digital, difunden la información de un modo que es muy difícil de descifrar88. No sólo es difícil determinar por qué un sistema de IA alcanzó un resultado o una decisión dada, sino que, a raíz de cómo funciona el ecosistema de IA, puede ser imposible realizar ingeniería inversa en el proceso de toma de decisiones para conocer en qué datos se basó el sistema de IA. Este es el problema clásico de las cajas negras89.

  9. Se requiere la creación de un fondo de garantía para reparar los daños sufridos por terceros causados por los RSA que sean imprevisibles para sus diseñadores, fabricantes, propietarios y operadores.

A. La imprevisibilidad como obstáculo para la procedencia de la relación causal como presupuesto de la responsabilidad

La previsibilidad es cualidad de previsible, es decir, todo aquello que puede ser previsto. Por el contrario, la probabilidad90 significa verosimilitud, apariencia de verdad o cualidad de probable, esto es, que puede suceder. Por otra parte,prever significa ver con anticipación, conocer o conjeturar por indicios o señales lo que ha de suceder, o disponer, preparar o ambos medios para futuras contingencias. A su vez, la previsibilidad requiere una valoración ex ante, a diferencia de la probabilidad, que se determina ex post.

La teoría de la causalidad adecuada (estructurada bajo un sistema de regularidad estadística) no puede menos que contentarse con una dosis suficiente de probabilidad. Sostener que la causa adecuada es aquella que aparece como probable es determinar la probabilidad en función de la previsión del sujeto91. La certeza absoluta, como criterio de apreciación valorativa de la causalidad que impone el "todo o nada", ciñó en aras de la probabilidad. La causalidad se rediseñó, entonces, en términos de probabilidad92. Por tanto, el juez puede fundar su decisión sobre los hechos que, aún sin estar establecidos de modo irrefutable, aparecen como más verosímiles; es decir, que presentan un grado de probabilidad predominante, suficiente, alta, cualificada, etcétera93. Por consiguiente, la probabilidad estadística es un elemento instrumental que podrá ser usado por el juzgador para alcanzar un juicio de probabilidad lógica o credibilidad racional 94. Por ello puede usarse el método estadístico, aunque de utilizarse sin elevada competencia puede conducir a falacias, no siempre perceptibles con facilidad. La evidencia estadística por sí misma, despojada del caso concreto, no puede constituir el plafón de una decisión, ni aún en un proceso civil; requiere necesariamente la presencia de pruebas vinculadas con el suceso específico95. En ese sentido, las correlaciones detectadas por los algoritmos en la era de big data pueden ser útiles en el fuero judicial como un paso previo que filtra información para luego investigar la causa adecuada como presupuesto de la responsabilidad civil96.

La idea de la previsibilidad se relaciona con el funcionamiento conjetural del derecho, que se caracteriza por contener la predicción de las conductas, no sólo para determinar la eficacia de las normas sino para precisar nuestras actitudes acerca de ellas y también para prevenir o modificar los hechos futuros97. En consecuencia, el funcionamiento conjetural trabaja dentro de los límites de la previsibilidad quedando fuera del campo aleatorio.

En sentido general, la conjetura es el "[…] juicio que se forma de las cosas o acaecimientos por indicios y observaciones". Todo nuestro conocimiento se nutre en gran medida de suposiciones en las que ponemos algo como realidad y la vida jurídica se apoya en ellas de manera permanente. La conjetura se diferencia de lo meramente posible, donde existe en mayor grado la conciencia de que puede o no realizarse. Contiene la afirmación, aunque no del todo cierta, de que algo acaecerá98-99. La conjetura es un mecanismo que promueve la transtemporalidad en el mundo jurídico donde el tiempo100 jurídico abarca todo el pasado, todo el presente y todo el porvenir, influyendo, así, unos momentos sobre otros y captados éstos por los protagonistas de otros.

En la responsabilidad objetiva, es la relación causal la que gobierna la obligación de resarcir, donde juega únicamente la previsibilidad típica de la tesis 3, que cumplirá su propio rol indiferente a que se prescinda de la culpabilidad; de ahí que entonces el metro del deber de resarcir sea la relación causal que el derecho señala como relevante en todos los hechos ilícitos, delitos y cuasidelitos, o sea que la responsabilidad objetiva sólo se extenderá por las consecuencias101.

No obstante, cuando la obligación incumplida surge de un contrato celebrado paritariamente, el artículo 1728 c.c.c.a se aparta de la teoría de la causalidad adecuada102, pues dispone que en tal caso el deudor únicamente responde por las consecuencias que hayan sido previstas o previsibles para las partes (y no para un hombre medio) al momento en que se celebró el contrato (y no al momento del incumplimiento), con la salvedad de los casos en que haya actuado con dolo.

Así, entre la causalidad adecuada descripta en la tesis 3 y la regla de la previsibilidad contractual contenida en la tesis 4 hay diferencias relevantes. En primer lugar, si bien ambas se fundan en lo que era previsible, como expresamos, la primera es una apreciación en abstracto y la segunda es una evaluación en concreto. En segundo término, la causalidad adecuada pone al intérprete -con el fin de determinar si era previsible o no determinada consecuencia- en el momento en que se produjo el hecho ilícito, mientras que en materia contractual se toma en cuenta lo que resultaba previsible para las partes al momento de celebrar el negocio103.

La regla de la previsibilidad determinada por los contratantes al momento de celebrar el negocio es primordial, pues, en caso contrario -esto es, si el magistrado fijara los alcances del deber de resarcir- las partes reaccionarían fijando precios más altos en cobertura de sus seguridades104.

Así mismo, como se señaló expresamente en los "Fundamentos del Anteproyecto de c.c.c.a", la regla de la previsibilidad contractual no es aplicable a los contratos de consumo, pues dicha limitación se asienta, justamente, en que las partes han podido negociar libremente los alcances y características de la relación contractual que las vincula, situación que no se presenta en el ámbito protectorio del consumidor105. En este último caso regirán las reglas establecidas en los arts. 1726 y 1727 c.c.c.a106.

Los desarrollos de investigación dentro del alcance de la IA son responsables de la creación de tecnología innovadora. La tecnología IA se basa en el aprendizaje automático que proporciona algoritmos con la capacidad de tomar sus propias decisiones y proporciona soluciones innovadoras e imprevistas, circunstancia que ampliará los peligros potenciales de confiar en aquélla107. Ante mayor autonomía existe mayor probabilidad que se torne imprevisible o azaroso el actuar para sus diseñadores, fabricantes, propietarios y operadores108. La capacidad de actuar físicamente sobre el mundo real se traduce, a su vez, en el potencial de dañar materialmente a las personas o a las cosas. Así, ante esa aptitud de aprender mediante la interacción con el entorno, un RSA podría llegar a adoptar comportamientos inicialmente no previstos por sus programadores109, aquellos descriptos en la tesis 5. Ante las situaciones que se pudieran dar como consecuencia de conductas inesperadas, ¿qué posición puede o debe adoptar el derecho? Muchos consideran adecuado restringir la capacidad de aprender de los robots hasta un límite de modo que sólo puedan aprender tareas ya contempladas en su programación. Esta postura se conoce como code as law110-111 Sostenemos que esta posición impide el progreso tecnológico, ya que obstaculiza el desarrollo de los RSA que -precisamente- evolucionan mediante el autoaprendizaje ilimitado.

A su vez, los RSA no gozan de personalidad jurídica112; por consiguiente, no son responsables, parcial o totalmente, de sus actos u omisiones. Por tanto, carecen de patrimonio y de la obligación de resarcir los daños causados por su accionar.

En el caso de la IA conexionista, la designación de un guardián de algoritmos carece de sentido ya que el ser humano no la controla; el programador crea la IA, que puede llegar a ser tan autónoma que su desarrollo ya no resulta del programa originalmente planeado conforme la tesis 5113. No es inusual que los algoritmos y los programas de software que controlan un robot se basen en kits de herramientas proporcionados como fuente abierta a la comunidad de robótica por un laboratorio de investigación o incluso por un proveedor. Las personas que programan un robot por medio de las rutinas proporcionadas por los juegos de herramientas de terceros no podrán demandar a esos laboratorios de investigaciones o proveedores por la responsabilidad del producto por lesiones, ya que el algoritmo que causó la lesión no fue el producto (en este caso, el robot físico) vendido por ellos114.

Las herramientas de la IA conexionista funcionan a través del sistema de correlaciones115, pero ello no significa que cuando lesionan intereses jurídicos de terceros no podamos analizar la tesis 1, en virtud de la exteriorización de su accionar, a través de la lesión a un interés jurídico.

La responsabilidad civil requiere que todos respondan por sus acciones. Sin embargo, resulta complejo determinar quién es responsable del daño causado por medio de la IA conexionista116, ya que a diferencia de la IA simbolista no hay un programador responsable del desarrollo continuo de la IA en virtud de la tesis 5. Así, en los casos de daños causados por los RSA de modo imprevisible no se configura el elemento de la questio iuris de la teoría de la causa adecuada y de la teoría de la previsibilidad; ellas consideran que para imponer a alguien la obligación de reparar el daño sufrido por otro no basta que el hecho haya sido, en el caso concreto, conditio sine qua non del daño (questio facti), sino que es necesario, además, que, en virtud de un juicio (hipotético-retrospectivo) de probabilidad, basado en las máximas de la experiencia, resulte una causa adecuada para ello (questio iuris).

B. Propuesta normativa para la tutela de las víctimas ante los daños causados por los dispositivos autónomos

"Los contornos actuales de la responsabilidad civil son la resultante de enormes cambios derivados de la estampida tecnológica; de su incidencia en el pensamiento de nuestros contemporáneos, que aspiran a la evitación del daño y, en su caso, a que les sea reparado"117. La orientación actual del derecho de la responsabilidad civil nos señala la existencia de una ampliación de los daños resarcibles, el aumento de la nómina de los factores de atribución, la objetivación de la responsabilidad civil, el ensanchamiento de la legitimación activa y pasiva de la acción indemnizatoria, el auge de la prevención y de la evitación de los daños, el proceso gradual de socialización de los daños y, como consecuencia, una mayor certeza de cobro de la indemnización118.

En Argentina, la actividad riesgosa -se la considera así en la medida que aumenta la posible ocurrencia de un daño- con base en el funcionamiento de la robótica cabe encuadrarla en la Ley de Defensa del Consumidor (l.d.c.) y en el c.c.c.a. En el ámbito europeo, aquélla está regida por la Directiva 85/374/CEE del Consejo de 1985, relativa a la aproximación de las disposiciones legales, reglamentarias y administrativas de los Estados miembros en materia de responsabilidad por los daños causados por productos defectuosos119.

Los daños que puedan causar robots sencillos y monofuncionales -por ejemplo, una aspiradora- no plantean novedades teóricas. Estos casos no caen bajo la órbita de la tesis 5, ya que esos dispositivos no funcionan basados en el sistema de correlaciones que en ciertos casos genera imprevisibilidad.

Sin embargo, el sistema jurídico argentino requiere la elaboración urgente de un sistema normativo que cubra las lagunas existentes con relación a los RSA ante los diversos dilemas que la robótica avanzada puede causar en el derecho de la responsabilidad civil120, entre ellos los casos de los daños provocados por los RSA que se califican como imprevisibles por el funcionamiento de estos dispositivos.

El Parlamento Europeo, por medio de la resolución de 2017 acerca de las "recomendaciones destinadas a la Comisión sobre normas de Derecho Civil sobre robótica" (2015/2103), ha establecido unas premisas básicas planteadas por Isaac Asimov a mediados del siglo pasado: "1.ª Un robot no hará daño a un ser humano ni permitirá que, por inacción, éste sufra daño. 2.ª Un robot obedecerá las órdenes que reciba de un ser humano, a no ser que las órdenes entren en conflicto con la primera ley. 3.ª Un robot protegerá su propia existencia en la medida en que dicha protección no entre en conflicto con las leyes primera y segunda". Estas leyes se resumen en una denominada 0: "Un robot no hará daño a la humanidad ni permitirá que, por inacción, ésta sufra daño"121.

Las premisas de Asimov nos sirven como principios valorativos que deben integrarse al sistema de la responsabilidad civil con el objetivo de lograr el progreso de esta rama del derecho civil dentro de un ordenamiento normativo que se funde en los valores justicia y humanidad122.

A su vez, dicha resolución en su artículo 59 pide a la Comisión que cuando realice una evaluación de impacto de su futuro instrumento legislativo explore, analice y considere las implicaciones de todas las posibles soluciones jurídicas, tales como:

  1. establecer un régimen de seguro obligatorio en los casos en que sea pertinente y necesario para categorías específicas de robots, similar al existente para los automóviles, en el que los fabricantes o los propietarios de robots estarían obligados a suscribir un contrato de seguro por los posibles daños y perjuicios causados por sus robots.
  2. establecer un fondo de compensación que no sólo garantice la reparación de los daños o perjuicios causados por un robot ante la ausencia de un seguro;
  3. permitir que el fabricante, el programador, el propietario o el usuario puedan beneficiarse de un régimen de responsabilidad limitada si contribuyen a un fondo de compensación o bien si suscriben conjuntamente un seguro que garantice la compensación de daños o perjuicios causados por un robot;
  4. decidir si conviene crear un fondo general para todos los robots autónomos inteligentes o crear un fondo individual para cada categoría de robot, así como la elección entre un canon único al introducir el robot en el mercado o pagos periódicos durante la vida del robot;
  5. crear un número de matrícula individual que figure en un registro específico de la Unión que asegure la asociación entre el robot y el fondo del que depende y que permita que cualquier persona que interactúe con el robot esté al corriente de la naturaleza del fondo, los límites de su responsabilidad en caso de daños materiales, los nombres y las funciones de los participantes y otros datos pertinentes;
  6. crear a largo plazo una personalidad jurídica específica para los robots, de forma que como mínimo los robots autónomos más complejos puedan ser considerados personas electrónicas responsables de reparar los daños que puedan causar, y posiblemente aplicar la personalidad electrónica a aquellos supuestos en los que los robots tomen decisiones autónomas inteligentes o interactúen con terceros de forma independiente123.

Por consiguiente, en la misma línea que las recomendaciones europeas mencionadas, en la Argentina -en principio- resulta necesario sancionar una norma que prescriba la contratación de un seguro obligatorio por responsabilidad civil para que aquellos que colocan los RSA en el mercado respondan dentro del marco de actuación previsible de ella124. De este modo, el empresario podría neutralizar el alea del daño mediante el seguro; la asunción del riesgo por el seguro contenido en el costo de la producción es, a su vez, distribuido entre el público125.

Luego, consideramos que también debe crearse el aserto de la tesis 6 administrado por el Estado constituido por los aportes de las empresas que colocan los RSA en el mercado, y de aquéllas que tienen su dirección, control y uso, que será útil para adjudicarle una suma monetaria a la víctima de los perjuicios sufridos por eventos dañosos producidos en virtud de lo mencionado en la tesis 5, precisamente cuando la tesis 2 impide la asignación correspondiente de responsabilidad civil.

De este modo, proponemos que en el caso de que el funcionamiento del RSA sea normal se apliquen las tesis 3 y la regla de previsibilidad contractual prevista en la tesis 4 -aunque, como dijimos, ella resulta inaplicable a los contratos de consumo-en un marco de responsabilidad objetiva, pero no así en el caso de que exista un daño provocado en el supuesto de la tesis 5, es decir, que ha sido imprevisible para el diseñador, fabricante, propietario y operador, en virtud del accionar del RSA con base en correlaciones ya que éstas impiden que las teorías descriptas por las tesis 3 y 4 actúen como las designadas por la tesis 1; por consiguiente, en este último caso, se efectivizará la tesis 6 en virtud de la imposibilidad de asignación de responsabilidad a aquellos.

Por el contrario, si se aplicaran las tesis 3 y la previsibilidad contractual expuesta en la tesis 4 a todos los eventos dañosos causados por los RSA sería consagrar una ficción que excedería el límite precisado en la tesis 2, ya que el sistema de correlaciones supera el confín de la previsibilidad de los diseñadores, fabricantes, propietarios y operadores de dichas herramientas tecnológicas autónomas, es decir, les impide la previsión adecuada de las acciones futuras de los RSA.

Cuando se produzca un daño causado por los RSA de modo imprevisible para los diseñadores, fabricantes, propietarios y operadores, ellos podrán alegar caso fortuito -causal de eximición de responsabilidad (art. 1730 c.c.c.a)- ya que el RSA funciona a través de correlaciones126; por consiguiente, en ese caso se configura un hecho imprevisible, ajeno a los presuntos responsables, que se constituye en la verdadera causa adecuada del daño y desplaza a la conducta del agente. Decimos que el evento es ajeno a los diseñadores, fabricantes, propietarios y operadores, ya que ellos no están en condiciones de controlar totalmente a los RSA127; éstos son producto de un sistema complejo que se rige por variables imposibles de ser previstas y controladas en su totalidad por el humano. En tal supuesto, el sindicado como responsable se eximirá de responsabilidad128.

La causa de exoneración constituida por el riesgo de desarrollo -vigente en Europa129- no resulta aplicable a los RSA130, ya que no nos referimos a defectos de los productos desconocidos por la ciencia en un momento determinado, sino que la autonomía de dichos mecanismos genera -por medio del sistema de correlaciones- conductas dañosas imprevisibles para la mente humana; por tanto, aquí nos ubicamos dentro del ámbito de la tesis 2.

Así, atento a la imposibilidad de prever para impedir las consecuencias negativas provocadas en el marco de la tesis 2 se afirma la tesis 6; de este modo se promueve el bien común131 a través del progreso de la IA con los beneficios científicos y sociales que trae aparejado y también se tutela a los damnificados por medio de un resarcimiento subsidiario en caso de la tesis 5132-133. La tesis 6 podría contribuir a atenuar el impacto de los "cisnes negros134" provocados por los RSA. En este sentido, imaginemos eventos raros, imprevisibles y de impacto extremo que podrían acaecer a raíz de RSA dedicados a la coordinación de los sistemas aeroportuario y financiero.

En consecuencia, se fija la garantía establecida en la tesis 6 en el caso de daños causados en el marco de la tesis 5 ya que son insuficientes las tesis 3 y 4 para actuar como la tesis 1 en virtud de la tesis 2.

IV. Una visión prospectiva de la responsabilidad civil en el derecho de la alta tecnología

Surge una doble preocupación jurídica junto con el entusiasmo por las promesas de este campo emergente de la tecnología: por una parte, la erosión de valores fundamentales como la dignidad, la autonomía, la privacidad135 y la no discriminación136, que podrían verse socavados por dichos desarrollos, y la amenaza de que la tecnología se convierta en una vía para transformar a las personas en menos humanas y más pasivas, con una autonomía reducida, con una dependencia creciente y una pérdida de la capacidad de iniciativa con una eventual situación de subordinación irreversible que pueda expropiar la libertad y la humanidad misma137. Por otra parte, el derecho tiene que garantizar la seguridad de los productos disponibles en el mercado y las consiguientes garantías para los consumidores, incluyendo normas adecuadas para la asignación de responsabilidad en caso de daños.

Otorgarle cierto grado de inteligencia a un robot nos hace reflexionar sobre nuestra propia inteligencia y sobre los mecanismos de aprendizaje que operan en nuestro cerebro. Pensar en la creación de robots es un ejercicio de comprensión de nuestras capacidades. O tal vez, mitigar nuestra soledad, como en el caso del mito de Pigmalión138.

Durante la próxima década crecerán exponencialmente los sistemas de IA. El derecho deberá adaptarse para crear un sistema de responsabilidad civil que determine más personas jurídicas asegurables. También, los sistemas de certificación y los mecanismos de mercado podrían impulsar a los fabricantes a desarrollar sistemas de IA cada vez más confiables.

En algunas áreas de experiencia avanzada, el rendimiento de la IA ha superado al de los humanos y se espera que esta aceleración continúe. El derecho tendrá que adaptarse encontrando el equilibrio correcto entre la creación de una personalidad responsable y por tanto asegurable, la distribución de la responsabilidad entre los diferentes actores caso por caso y la mutualización de los riesgos importantes139.

Es necesario disponer de una serie de normas en materia de responsabilidad, transparencia y rendición de cuentas que reflejen los valores humanistas; que esas normas no deben afectar al proceso de investigación, innovación y desarrollo en el ámbito de la robótica140.

La rama del derecho de la alta tecnología requiere una actualización continua; en primer lugar, ella tiene que abordar los efectos secundarios inesperados que las intervenciones regulatorias destinadas a salvaguardar determinados derechos puedan tener sobre otros; en segundo lugar, aquella rama debe mantenerse alerta ante la necesidad actualizar, ampliar o cambiar el marco a la luz de los cambios en la sociedad y de los sistemas de valores que se producen a través del proceso de conformación mutua de tecnologías, procesos sociales y perspectivas normativas141.

El derecho es entrópico142, ya que tiende siempre hacia el desorden y los actos y hechos jurídicos funcionan como el calor que lo dinamiza. Esto condiciona la flecha del tiempo jurídico. Ello potencia la aparición de carencias históricas en virtud de circunstancias novedosas con base en la prospectiva biotecnológica de la sociedad.

Así como para que exista evolución un organismo debe ser capaz de generar variación genética -la mutación es uno de los mecanismos para ello143-, también el derecho evoluciona a través de mutaciones. La jurisprudencia, creando repartos descriptos en normas individuales, muta o transforma otros repartos reflejados en normas generales -legales o jurisprudenciales-, conforme a la tradición jurídica vigente en una nación. Esta característica del derecho promueve su entropía.

En nombre del principio básico tradicional ubi societas ibi ius, el derecho es siempre más lento y se adapta con dificultad a las novedades, incluso más cuando ellas crecen y se desarrollan siguiendo el principio de singularidad tecnológica, es decir, con una aceleración más allá de cualquier capacidad comprensible de anticipación humana144. Parece necesaria una aproximación global e interdisciplinaria, ya que no es suficiente la visión limitada de las estrechas categorías del Derecho para regular fenómenos innovadores145.

Conclusiones

Las consecuencias sociales y ambientales no están predeterminadas por la tecnología. Todo depende del modo en que se gestione la inevitable transición tecnológica146; por tanto, la gestión de dicha transición y la actualización del Derecho es esencial para preservar los derechos humanos. Los RSA constituyen dispositivos que en un futuro cercano invadirán todos los ámbitos del escenario social.

Así, resulta necesaria la creación de un sistema normativo argentino que se adelante al auge mencionado previniendo la aparición de lesiones causadas por los RSA que quedarán sin resarcir con base en las lagunas normativas sobre la materia. A tal efecto, proponemos la contratación de un seguro obligatorio por responsabilidad civil para que aquellos que ponen los RSA en el mercado gocen de cobertura ante los siniestros causados por estos dispositivos tecnológicos dentro del marco de su actuación previsible para sus diseñadores, fabricantes, propietarios y operadores. Así mismo, recomendamos la creación de un fondo de garantía que debería ser administrado por el Estado y formado por las contribuciones de las organizaciones empresariales que colocan los RSA en el mercado, y de aquellas que tienen su dirección, control y uso, que será útil para adjudicarle un monto a la víctima por los perjuicios causados por los RSA cuando ellos actúan de modo imprevisible -en virtud de su decisión autónoma- para sus diseñadores, fabricantes, propietarios y operadores, ya que esos eventos quedarían encuadrados en el azar que opera como un límite para el derecho privado patrimonial; marginando -de ese modo- a la causalidad como presupuesto para asignar responsabilidad civil por los daños causados de modo imprevisible por los RSA.

Las propuestas descriptas en el párrafo previo tienen como fin no entorpecer el desarrollo de la robótica, promoviendo -de ese modo- el progreso tecnológico que beneficie al ser humano, otorgando herramientas que lo liberen de tareas rutinarias y expandan su esfera de libertad para desarrollar su creatividad, tutelando así su persona y su patrimonio en un régimen que tenga a la justicia -que es como una roca situada en la cima de un monte147- como su valor absoluto.


Notas

1 Lo llamamos de ese modo en vez de Derecho de daños ya que el actual sistema de responsabilidad civil se enfoca en la prevención del perjuicio como finalidad primordial.
2 "La mente humana no puede comprender en toda su complejidad las causas de los acontecimientos, pero la necesidad de averiguar esas causas es innata en el corazón del hombre… Si bien los acontecimientos históricos no tienen en realidad otro motivo que el propio principio de toda causa, están dirigidos por leyes que apenas entrevemos y que no alcanzaríamos a descubrir más que a condición de renunciar a ver el móvil de ellas en la voluntad de un sólo hombre, del mismo modo que el conocimiento de la ley del movimiento de los planetas sólo fue posible cuando el hombre rechazó la idea de la inmovilidad de la Tierra." Tolstoi, L., Guerra y Paz, T. II, Santiago de Chile, ed. Andrés Bello, 2001, 497.
3 Las cuestiones atinentes a la relación de causalidad, en tanto presupuesto de la responsabilidad civil, resultan comunes -en principio- a todos los ordenamientos jurídicos.
4 Probst, T., "La causalité aujourd'hui" [en línea], Les causes du dommage, Genève, Collection genevoise, 2007, disponible en: http://www.unifr.ch/ius/assets/files/chaires/CH_Probst/files/OR%20AT%20II%20Vorlesung/Causalite.PDF [consultado el 30 de junio de 2019].
5 La causa es la suma de condiciones positivas y negativas tomadas juntas, el total de las contingencias de toda naturaleza que, siendo realizadas, hacen que siga el consiguiente de toda necesidad. Mill, J. S., Sistema de lógica inductiva y deductiva, trad. por Eduardo Ovejero y Maury, Madrid, Ed. Daniel Jorro, 1917, 332.
6 Capecchi, M., "Responsabilità civile e interruzione del nesso causale", in Danno e Responsabilità, N.° 5, Milano, 2006, 522. "La première, celle de la « causalité factuelle » (ou « naturelle » ou « scientifique »), renvoie à la causalité fondamentale de la responsabilité (« Haftungsbegruendende Kausalitaet » selon la doctrine allemande). La seconde, causalité juridique ou « remoteness », intéresse la causalité qui permet de déterminer l'étendue de la responsabilité (« Haftungsausfuellende Kausalitaet »)." Banakas, S., "Causalité juridique et imputation : réflexions sur quelques développements récents en droit anglais" [en línea], Revue Lamy Droit Civil, Suppl. au No 40, July/August 2007, 93, disponible en: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1400065 [consultado el 30 de junio de 2019].
7 Kelsen, H., Sociedad y naturaleza. Una investigación sociológica, Buenos Aires, Depalma, 1945, 1, 7, 10, 18, 357, 383 y ss.
8 Ver Ps. 2, 5, 22, 23, 30 y 44.
9 En este sentido, "son producto del azar todos los acontecimientos cuya causa es indeterminada. No suceden con un propósito, ni siempre ni la mayoría de las veces, ni en un orden determinado. La propia definición de azar hace evidente su aplicación a estos casos. Son, en cambio, producto de la naturaleza, aquéllos cuya causa reside en ellos mismos y suceden en un orden determinado, ya que ocurren siempre de una forma establecida." Aristóteles, Retórica, trad. por César I. Rodríguez Mondino, Buenos Aires, Gradifco, 2004, 55.
10 Ciuro Caldani, M. A., Una Teoría trialista del mundo jurídico, Rosario, FDER Edita, 2019, 66 y 67. Conforme la Teoría trialista los repartos son adjudicaciones de potencia o impotencia (es decir, de lo que beneficia o perjudica al individuo) provenientes de personas determinadas y las distribuciones son adjudicaciones con esos efectos pero procedentes del azar, de la naturaleza y de las influencias humanas difusas.
11 https://dle.rae.es/?id=4dukUoz [consultado el 30 de mayo de 2019].
12 https://dle.rae.es/?id=7sUUvUU [consultado el 30 de mayo de 2019].
13 https://es.wikipedia.org/wiki/Azar#cite_ref-1 [consultado el 29 de julio de 2019].
14 Corominas, J., Breve Diccionario Etimológico de la Lengua Castellana, 3.ª, Madrid, Gredos, 1987, 76.
15 Sonoda, J., "Pérdida de chances de curación y sobrevida" [en línea], Lecciones y Ensayos N.° 72, UBA, 1999, disponible en: http://www.derecho.uba.ar/publicaciones/lye/revistas/72-73-74/perdida-de-chances-de-curacion-y-sobrevida.pdf [consultado el 23 de mayo de 2019].
16 Cuando juegan su papel los grandes números, el azar desaparece en cierto sentido. Y aparece la regularidad, la ley. El azar, aliado con los grandes números, hace aparecer la ley. En esto consiste la fuerza del azar.
Aunque azar y determinismo parecen ideas contrarias, sin embargo de fenómenos puramente aleatorios, como es el movimiento caótico de las partículas de un gas, surge una ley como la segunda de la termodinámica; y a su vez de de situaciones perfectamente determinadas puede surgir el azar, como por ejemplo en en la rotación terrestre.
Cuando se observan a pequeña escala fenómenos deterministas, el azar muestra su imperio. El azar y el determinismo se manifiestan juntos en nuestro trato con la naturaleza. De lo aleatorio surge lo determinado (la ley de los grandes números) y en lo determinado, a pequeña escala, aparece el azar. Del Rey, J., "La fuerza del azar. Entre la probabilidad y la incertidumbre" [en línea], UMER, N.° 099, 2017, disponible en: http://umer.es/wp-content/uploads/2017/03/Cuaderno-99.pdf [consultado el 23 de mayo de 2019].
17 "El redil platónico es la explosiva línea divisoria donde la mentalidad platónica entra en contacto con la confusa realidad, donde la brecha entre lo que sabemos y lo que pensamos que sabemos se ensancha de forma peligrosa. Es aquí donde aparece el Cisne Negro." Taleb, N., El cisne negro, el impacto de lo altamente improbable, Buenos Aires, Paidós, 2011, 23, 24, 25, 26 y 33.
18 Ibid., 27. "El ensayo y error puede metodizarse en diversos grados, el mayor de los cuales es el proceso de conjetura y prueba que se da en la ciencia, en la cual toda nueva conjetura se construye sobre la base del material suministrado por el cuerpo total de conocimientos disponibles, tanto directos, como inferidos." Bunge, M., Intuición y razón, 2.ª ed., Buenos Aires, Debolsillo, 2005, 160 y 161.
19 La sociedad de la transparencia de la era de big data se caracteriza por presentar el panóptico digital, donde el sujeto se expone por completo en la red. Esto permite que sea vigilado por los demás sometiéndose de modo voluntario. Han, B.-C., La sociedad de la transparencia, trad. por Raúl Gabás, 1.ª edición, 5.ª impresión, Barcelona, pensamiento Herder, 2013, Kindle edition.
20 Una de las características de la civilización en que vivimos es la carnavalización total de la vida ya que siendo criaturas lúdicas por definición hemos perdido el sentido de las dimensiones del juego. Eco, U., A paso de cangrejo, trad. por María Pons Irazazábal, Buenos Aires, Debate, 2007, 93 y 96. El juego es la piel digital de la que estamos hechos desde hace al menos una década. Vivimos en una sociedad de lo lúdico y de lo virtual; la sociedad de la superficie. Baricco, A., The game, 2019, Kindle edition.
21 "Big data refers to things one can do at a large scale that cannot be done at a smaller one, to extract new insights or create new forms of value, in ways that change markets, organizations, the relationship between itizens and governments and more.
The systems are built to improve themselves over time, by keeping a tab on what are the best signals and patterns to look for as more data is fed in." Mayer Schonberger, V. y Cukier, K., Big Data: A Revolution That Will Transform How We Live, 2013, Kindle edition.
22 Ibid.
23 Han, B.-C., Psicopolítica. Neoliberalismo y nuevas técnicas de poder, trad. de Alfredo Bergés, 1.ª ed., 3.ª reimp., Barcelona, pensamiento Herder, 2014, Kindle edition.
24 "Big data and High Performance Computing are also changing the way research is performed and knowledge is shared, as part of a transition towards a more efficient and responsive 'Open Science'." "Communication from the Commission to the European Parliament, the Council, the European economic and Social Committee and the Committee of the Regions. A Digital Single Market Strategy for Europe" [en línea], 2015, https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=COM%3A2015%3A192%3AFIN, fecha de consulta: 1/7/2019.
"Thanks to 'cheaper computing power', as Google put it, the benefits of algorithmic decision- making will become ever more broadly distributed and (…) new use cases will continue to emerge." House of Commons Science and Technology Committee, "Algorithms in decision making" [en línea], Fourth Report of Session 2017-19, https://publications.parliament.uk/pa/cm201719/cmselect/cmsctech/351/351.pdf, fecha de consulta: 4/7/2019.
25 https://es.wikipedia.org/wiki/Correlaci%C3%B3n [consultado el 15 de agosto de 2020].
26 Halevy, A., Norvig, P. y Pereira, F., "The Unreasonable Effectiveness of Data" [en línea], IEEE Intelligent Systems, vol. 24, 2009, 8-12, disponible en: https://static.googleusercontent.com/media/research.google.com/es//pubs/archive/35179.pdf [consultado el 30 de junio 2019].
27 Ver Kelly, K., "Was Moore's Law Inevitable?" [en línea], The Technium, 2009, disponible en: https://kk.org/thetechnium/was-moores-law/ [consultado el 12 de agosto de 2020].
28 Chabert, J. L., A History of Algorithms. From the Pebble to the Microchip, Berlin, Springer, 1999.
29 "Our brains are extraordinarily good at taking in information via our senses and examining it for patterns, but we're quite bad at describing or figuring out how we're doing it, especially when a large volumen of fast-changing information arrives at a rapid pace." Brynjolfsson, E. y Mcafee, A., The second machine age. Work, progress, and prosperity in a time of brillant technologies, New York, Norton Company, 2014, Kindle edition.
30 La computadora cuántica de google llamada Quantum lleva la computación a un círculo completo, brindándonos otra forma de hablar el lenguaje del universo y comprender el mundo y la humanidad no sólo en forma de unos y ceros, sino en todos sus estados: hermoso, complejo y con posibilidades ilimitadas. Arute, F., Arya, K. y Babbush, R., "Quantum supremacy using a programmable superconducting processor" [en línea], Nature 574, 2019, 505-510, disponible en: https://doi.org/10.1038/s41586-019-1666-5 [consultado el 26/10/2019].
31 Para Nilsson son cuatro los pilares básicos en los que se apoya la IA:
• Búsqueda del estado requerido en el conjunto de los estados producidos por las acciones posibles.
• Algoritmos genéticos (análogo al proceso de evolución de las cadenas de ADN).
• Redes neuronales artificiales (análogo al funcionamiento físico del cerebro de animales y humanos).
• Razonamiento mediante una lógica formal análogo al pensamiento abstracto humano. "Pilares básicos según Nilsson" [en línea], Inteligencia Artificial, 4/9/2016, disponible en: https://inteligenciaartificial170.wordpress.com/2016/09/04/pilares-basicos-segun-nilsson/ [consultado el 2/7/2019].
32 El primero se manifiesta en un objeto, por ejemplo, un robot como Alexa de Amazon, mientras que el segundo no se exterioriza en un objeto, sino en un servicio que utiliza IA. Por ejemplo, los servicios de chatbot también conocidos como agentes conversacionales son programas diseñados para simular una conversación natural; son muy utilizados por las empresas para ofrecer sus servicios, son una forma de IA incorpórea.
33 https://es.wikipedia.org/wiki/Inteligencia_artificial_simb%C3%B3lica [consultado el 14 de enero de 2021].
34 Ver Ps. 3, 9, 11, 12, 13, 14, 18, 24, 25, 30, 31, 32 y 41.
35 El aprendizaje automático se puede dividir en tres categorías: supervisado, no supervisado y de refuerzo. Sunil, R., "Essentials of Machine Learning Algorithms (with Python and R Codes)" [en línea], Analytics Vidhya, 9/9/2017, disponible en: https://www.analyticsvidhya.com/blog/2017/09/common-machine-learning-algorithms/ [consultado el 14 de agosto de 2020].
36 Dark, S., Aprendizaje Automático: La Guía Definitiva para Principiantes para Comprender el Aprendizaje Automático, 2018, Kindle edition.
37 Luna González, J., "Tipos de aprendizaje automático" [en línea], Soldai, 8/2/2018, disponible en: https://medium.com/soldai/tipos-de-aprendizaje-autom%C3%A1tico-6413e3c615e2, [consultado el 29 de julio de 2019].
38 Más del 90% de las principales instituciones y organizaciones financieras del mundo utilizan el aprendizaje automático y el análisis avanzado de datos. Los sectores financiero y bancario usan el aprendizaje automático para combatir el fraude. Es mejor utilizar el aprendizaje automático, ya que puede escanear grandes volúmenes de datos transaccionales y detectar o identificar cualquier comportamiento inusual. A su vez, el informe Realities of Personalization Online indica que cerca del 45% de los minoristas usan el aprendizaje automático para proporcionar a sus clientes recomendaciones de productos basadas en el historial de compras del usuario. El tratamiento personalizado crecerá en el futuro, y el aprendizaje automático jugará un papel vital para encontrar qué genes o marcadores genéticos son responsables de las enfermedades y cuáles responderán al tratamiento. Dark, S., Aprendizaje…, cit.
Ordenadores y algoritmos están empezando a funcionar como clientes además de como productores. En la Bolsa de valores, por ejemplo, los algoritmos se están convirtiendo en los compradores más importantes de bonos, acciones y mercancías. Harari, Y. N., 21 Lecciones para el siglo XXI, 2018, Kindle edition.
39 Silicon Valley es conocido por lanzar nuevos productos sin considerar necesariamente las implicaciones sociales o éticas. "Hay una gran prisa por innovar". Miller, C. C., "When Algorithms Discriminate" [en línea], The New York Times, 9/7/2015, disponible en: https://www.nytimes.com/2015/07/10/upshot/when-algorithms-discriminate.html [consultado el 30 de junio de 2019]. El aprendizaje automático presagia grandes cambios para el sector privado, ya que muchas funciones laborales realizadas por humanos serán realizadas cada vez más por estos robots digitales. Pero el desplazamiento laboral por el aprendizaje automático no se limitará al sector privado. Los gobiernos pronto podrán experimentar su propia revolución de datos y encontrar formas de usar el aprendizaje automático para respaldar la toma de decisiones más inteligente del sector público. Coglianese, C., "Adjudicating by Algorithm, Regulating by Robot" [en línea], University of Oxford, 21/4/2017, disponible en: https://www.law.ox.ac.uk/business-law-blog/blog/2017/04/adjudicating-algorithm-regulating-robot, [consultado el 30 de junio de 2019].
Para un panorama general de los distintos proveedores de servicios de machine learning, que brindan plataformas basadas en la nube que cubren la mayoría de los problemas de infraestructura, como el preprocesamiento de datos, la capacitación de modelos y la evaluación de modelos, con predicciones adicionales, ver "Comparing Machine Learning as a Service: Amazon, Microsoft Azure, Google Cloud AI, IBM Watson" [en línea], Altexsoft, 27/9/2019, disponible en: https://www.altexsoft.com/blog/datascience/comparing-machine-learning-as-a-service-amazon-microsoft-azure-google-cloud-ai-ibm-watson/ [consultado el 11 de agosto de 2020].
40 En 2013, el Gobierno británico identificó a los (RAS) como una de sus "ocho grandes tecnologías"; ellas son aquéllas en las que el gobierno anticipó que "el Reino Unido (estaba) destinado a ser un líder mundial". Special Interest Group, Robotics and Autonomous Systems, RAS 2020 Robotics and Autonomous Systems, July 2014, p 4.
41 Ver Ciuro Caldani, M. A., "El mundo jurídico y creatividad" [en línea], Investigación y Docencia, N.° 39, Rosario, 2006/7, 69/84, disponible en: http://www.cartapacio.edu.ar/ojs/index.php/iyd/article/viewFile/928/764, [consultado el 7/11/2018].
42 Ver Ps. 9, 23, 24, 30, 35, 39, 40 y 41.
43 Golinska, M. K., "La inteligencia artificial - hacia una autonomía absoluta" [en línea], Legal Today, 29/11/2018, disponible en: http://www.legaltoday.com/blogs/nuevas-tecnologias/blog-prodat/la-inteligencia-artificial-hacia-una-autonomia-absoluta# [consultado el 1 de julio 2019].
44 Los siguientes son ejemplos ilustrativos de robots autónomos: A) Robot de reparto. Un robot que puede entregar un paquete a una dirección dadas las condiciones del mundo real, como el tráfico, los peatones, los paisajes urbanos, las emergencias y el clima. Idealmente, tal robot estaría diseñado para mostrar un comportamiento cortés con los humanos y evitar lastimar a las personas por encima de todas las demás prioridades. B) Espacio. Las capacidades autónomas son particularmente útiles en el espacio donde hay un retraso significativo en la comunicación con los sistemas de la Tierra. C) Robots sociales. Un robot diseñado para socializar con humanos, como un robot mascota. Las mascotas reales son independientes y espontáneas y estos productos suelen intentar simular tal comportamiento. D) Bot de juego. Una entidad en un juego que compite con los humanos. E) Auto mantenimiento. Un robot que trabaja en lugares remotos, como subterráneos. F) Manejo de excepciones. Los seres humanos pueden gestionar las excepciones y no requieren entradas definidas de modo preciso para ser productivos. Los robots industriales podrían hacerlo con la capacidad de resolver problemas cuando suceden cosas inusuales. Spacey, J., "Examples of Autonomous Robots" [en línea], Simplificable, 21/6/2016, disponible en: https://simplicable.com/new/autonomous-robots [consultado el 1 de julio de 2019].
45 Ver Ps. 19, 24 y 25.
46 El dato tiene un valor añadido muy elevado en la industria de pagos, motivado por la gran cantidad de información que se puede extraer no sólo de aplicación a su sector sino a muchos otros. Cada vez que un individuo lleva a cabo un pago, deja información no sólo sobre su capacidad de pago, sino también sobre: hábitos de compra, tipos de productos que adquiere, franjas horarias, canales, etcétera. Guardado, M., "La revolución del dato y el empleo" [en línea], El País, 1/2/2019, disponible en: https://elpais.com/economia/2019/01/31/actualidad/1548936326_076366.html [consultado el 30 de junio de 2019].
47 China está robotizando su fuerza laboral a toda marcha, mientras que América Latina está muy lejos de hacerlo. El gobierno chino está alentando activamente a las compañías chinas a comprar más y más robots. El cálculo del régimen chino es que la alternativa -proteger a millones de empleos humanos a cualquier costo, como se hace en muchos países latinoamericanos- sería cada vez más ineficiente: aumentaría el costo de las exportaciones, perjudicaría la economía y, a la larga, aumentaría la pobreza. Este año, China tiene planeado comprar 210.000 robots industriales, más que Estados Unidos y los 28 países de la Unión Europea combinados. Cuando se compara el ritmo de las compras de robots de China con las de América Latina, la brecha es aún más asombrosa. Se estima que México comprará 6000 robots industriales este año; Brasil, 900, y el resto de los países sudamericanos juntos, solo 500, dice la IFR. En Asia, la mayoría de los gobiernos dicen que en lugar de proteger empleos inviables hay que mejorar la calidad educativa y recapacitar a los trabajadores que sean reemplazados por robots. Oppenheimer, A., "La amenaza de los robots chinos" [en línea], La Nación, 6/3/2019, disponible en: https://www.lanacion.com.ar/opinion/columnistas/la-amenaza-de-los-robots-chinos-nid2225701 [consultado el 12 de julio de 2019].
48 House of Commons Science and Technology Committee, "Algorithms in decisión making", cit.
49 Bourcier, D., Inteligencia artificial aplicada al derecho, Barcelona, Editorial UOC, Pompeu Casanovas, 2003, 70.
50 Ver Mascitti, M., "El abogado y su obra artística" [en línea], Revista AIS: Ars Iuris Salmantticensis, Ediciones Universidad de Salamanca, 2017, disponible en: http://revistas.usal.es/index.php/ais/article/view/18014 [consultado el 7 de noviembre de 2018].
51 "Conseil d'Etat francois a fait remarquer que si l'intelligence artificielle promet certes des évolutions bénéfiques pour la qualité et l'efficacité de la justice, les progrès de la technologie ne doivent cependant pas masquer des risques pour l'office du juge et l'accès à la justice. Il parait indispensable que l'utilisation des algorithmes soit fondée sur les principes de neutralité et de transparence, afin que les juges puissent conserver leur indépendance et liberté d'appréciation, garante d'une Justice équitable et individualisée". Dufour, F., "Intelligence artificielle: quel droit pour les robots demain?" [en línea], France Soir, 4/7/2018, disponible en: https://www.google.com.ar/amp/www.francesoir.fr/amp/article/societe-science-tech/intelligence-artificielle-quel-droit-pour-les-robots-demain [consultado el 9 de julio de 2019].
52 https://www.artificiallawyer.com/al-100-directory/, [consultado el 10 de diciembre de 2020].
53 Ver por ejemplo: https://www.legalrobot.com/, https://thoughtriver.com/, http://www.riverviewlaw.com/meet-kim-the-power-behind-riverview-laws-legal-virtual-assistant-plans/, https://www.forbes.com/sites/bernardmarr/2018/05/23/how-ai-and-machine-learning-are-transforming-law-firms-and-the-legal-sector/, https://emerj.com/ai-sector-overviews/ai-in-law-legal-practice-current-applications/, https://jurimetria.wolterskluwer.es/content/Inicio.aspx, https://predictice.com/ y http://www.rossintelligence.com.
54 SB 151 Tennessee Senate Bill 110th Regular Session (2017-2018) [en línea], disponible en: https://openstates.org/tn/bills/110/SB151/ [consultado el 12 de agosto de 2020].
55 Danesi, C., "Inteligencia artificial y responsabilidad civil: un enfoque en materia de vehículos autónomos" [en línea], en #legalTEch, El Derecho ante la Tecnología, La Ley, suplemento especial noviembre 2018, disponible en: https://www.thomsonreuters.com.ar/content/dam/openweb/documents/pdf/arg/white-paper/supl._legaltech_preplanta.pdf [consultado el 14 de agosto de 2020].
Ver un excelente resumen de todas las disposiciones vigentes en "Autonomous Vehicles - Self-Driving Vehicles Enacted Legislation" [en línea], 25/6/2018, disponible en http://www.ncsl.org/research/transportation/autonomous-vehicles-self-drivingvehicles-enacted-legislation.aspx y en http://knowledgecenter.csg.org/kc/system/les/CR_automomous.pdf [consultados el 12 de agosto de 2020].
56 "Uber halts self-driving car tests after death" [en línea], BBC News, 20/3/2018, disponible en: https://www.bbc.com/news/business-43459156 [consultado el 12 de julio de 2019]. El segundo siniestro con consecuencias fatales acaeció en California cuando un TESLA Model X chocó contra un muro después de que el sistema avisase al conductor para que pusiera las manos en el volante. "Tesla reconoce el segundo accidente mortal en EE UU con un coche que circulaba en piloto automático" [en línea], El País, 31/3/2018, disponible en: https://elpais.com/tecnologia/2018/03/31/actualidad/1522488697_843295.html [consultado el 12 de julio de 2019].
57 Ver Ps. 5 y 8.
58 "It's a silent war that hits the poor hardest but also hammers the middle class. Its victims, for the most part, lack economic power, access to lawyers, or well-funded political organizations to fight their battles. The result is widespread damage that all too often passes for inevitability." O'neil, C., Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, 2016, Kindle edition.
59 Ibid.
60 Ver Mascitti, M., "Un enfoque interdisciplinario para la toma de decisiones en el Mundo jurídico", [en línea], Investigación y docencia, Nro. 52, Rosario, 2016/2017, disponible en: http://www.centrodefilosofia.org/IyD/IyD5210.pdf, [consultado el 27 de diciembre de 2020].
61 "The Centre for Data Ethics & Innovation should examine such algorithm biases-to identify how to improve the 'training data' they use". https://publications.parliament.uk/pa/cm201719/cmselect/cmsctech/351/351.pdf, cit.
62 Lemley, M. A. y Casey, B., "Remedies for Robots" [en línea], Stanford Law and Economics Olin Working Paper No. 523 , 2019, disponible en: https://papers.ssrn.com/sol3/papers.cfm7abstract_id=3223621 [consultado el 13 de enero de 2021].
63 Zuider Zuiderveen Borgesius, F., "Discrimination, artificial intelligence, and algorithmic decisionmaking", [en línea], Council of Europe, 2018, disponible en: https://rm.coe.int/discrimination-artificial-intelligence-and-algorithmic-decision-making/1680925d73, [consultado el 13 de enero de 2021].
64 La frenología sostenía que la forma de la cabeza de una persona, su propia combinación especial de curvas, bultos y protuberancias, era una guía de su disposición y la proporcionalidad de ciertos rasgos o tendencias. Golden Kellem, B., "The dangers of facial recognition software", [en línea], The Washington Post, 2019, disponible en: https://www.washingtonpost.com/outlook/2019/02/08/dangers-facial-recognition-software/, [consultado el 13 de enero de 2021].
65 House of Commons Science and Technology Committee, "Algorithms in decisión making", cit.
66 The Human Rights, Big Data and Technology Project (ALG0063) para 28. Ver Zuiderveen Borgesius, F., "Discrimination…", cit.
67 Ver Burgess, M., "UK police are using AI to inform custodial decisions - but it could be discriminating against the poor", [en línea], Wired, 01 Mar 2018, https://www.wired.co.uk/article/police-ai-uk-durham-hart-checkpoint-algorithm-edit, [consultado el 13 de enero de 2021].
68 Suanzes, P. R., "La UE impone a Google una multa récord de 2.420 millones por abuso de posición dominante" [en línea], El mundo, 27/7/2017, disponible en: https://www.elmundo.es/economia/macroeconomia/2017/06/27/595229ff268e3e5a578b458b.html [consultado el 30 de julio de 2019].
69 "Breast Cancer Screening" [en línea], House of Commons Hansard, Vol. 640, 02/5/2018, disponible en: https://hansard.parliament.uk/commons/2018-05-02/debates/BE9DB48A-C9FF-401B-AC54-FF53BC5BD83E/BreastCancerScreening [consultado el 12 de julio de 2019].
70 Las agencias de publicidad bajo sistemas como AdWords rastrean las cookies (galletas informáticas) y aplican tácticas automatizadas según las páginas que clickleamos. Aquellos que tienen el financiamiento, los recursos, las redes y el poder necesario pueden acceder, procesar e interpretar esa información, manifestando nuevas asimetrías respecto al acceso de la data así como de su manipulación en la sociedad contemporánea. Valderrama Barragán, M., "El devenir de la identidad digital: del yo proteico al yo identicado," Revista de Tecnología y Sociedad, 6(11), 2017, 12.
71 Solon, O., "Google's bad week: YouTube loses millions as advertising row reaches US" [en línea], The Observer, 25/3/2017, disponible en: https://www.theguardian.com/technology/2017/mar/25/google-youtube-advertising-extremist-content-att-verizon [consultado el 1 de julio de 2019].
72 "El fraude de la publicidad programática lucra a cibercriminales a costa de los anunciantes", [en línea], Asociación española de empresas contra el fraude, 17/4/2018, disponible en: https://asociacioncontraelfraude.com/el-fraude-de-la-publicidad-programatica-lucra-a-cibercriminales-a-costa-de-los-anunciantes/ [consultado el 13 de enero de 2021].
73 La privacidad es un concepto más amplio que el de intimidad que incorpora diversas facetas referidas a la cualidad o condición del individuo de poseer vida personal ajena a lo público y libre de injerencias. Díaz Rojo, J. A., "Privacidad: ¿neologismo o barbarismo?", Espéculo. Revista de estudios literarios, Universidad Complutense de Madrid, 2002.
74 "Cambridge Analytica allegedly harvested personal data from Facebook accounts without consent. Through a personality quiz app, set up by an academic at the University of Cambridge, 270,000 Facebook users purportedly gave their consent to their data being used. However, the app also took the personal data of those users" 'friends' and contacts- in total at least 87m individuals. It has been reported that firms linked to Cambridge Analytica used these data to target campaign messages and sought to influence voters in the 2016 EU Referendum, as well as elections in the US and elsewhere". Cadwalladr, C., "The great British Brexit robbery: how our democracy was hijacked" [en línea], The Guardian, 7/5/2017, disponible en: https://www.theguardian.com/technology/2017/may/07/the-great-british-brexit-robbery-hijacked-democracy [consultado el 12 de agosto de 2020]. Asimismo, ver "5 claves para entender el escándalo de Cambridge Analytica que hizo que Facebook perdiera US$37.000 millones en un día" [en línea], BBC News, 21/3/2018, disponible en: https://www.bbc.com/mundo/noticias-43472797 [consultado el 14 de agosto de 2020].
75 El concepto de causalidad es fundamental para innumerables áreas del Derecho de la Responsabilidad civil. "Rethinking Actual Causation in Tort Law" [en línea], 130 Harvard Law Review 2163, 10/6/2017, disponible en: https://harvardlawreview.org/2017/06/rethinking-actual-causation-in-tort-law/ [consultado el 29 de julio de 2019].
76 Ver p. 3.
77 El Derecho no es una física de las acciones humanas. Llambías, J. J., "El derecho no es una física de las acciones humanas", La Ley, t. 107, Buenos Aires, 1018 y ss.
78 Trigo Represas, F. A., "La extensión del resarcimiento en la responsabilidad objetiva", T. 1979-C, La Ley, Buenos Aires, 794.
79 Para un desarrollo pormenorizado de la cuestión ver, entre otros: Goldenberg, I. H., La relación de causalidad en la responsabilidad civil, Buenos Aires, Astrea, 1984; Brebbia, R. H., La relación de causalidad en derecho civil, Rosario, Juris, 1975; Alterini, A. A., Responsabilidad Civil. Límites de la reparación civil, Buenos Aires, Abeledo Perrot, 1987; y Acciarri, H. A., Relaciones Causales y Derecho de Daños, tesis doctoral aprobada con nota sobresaliente en la Facultad de Derecho de la UBA en el año 2006.
80 Picasso, S., en Código Civil y Comercial de la Nación comentado, dirigido por Ricardo L. Lorenzetti, Santa Fe, Rubinzal-Culzoni, Tomo VIII, 419 y 420.
81 "In tort causal questions are usually relevant both to the existence of liability and to its extent", Hart, H. L. A. y Honoré, T., Causation in the law, Oxford, Oxford at the Clarendom Press, 1959.
82 La responsabilidad objetiva sólo se imputa sobre la base del nexo de causalidad, en tanto "en la responsabilidad objetiva, el juicio es puramente tipológico y consiste en determinar si el evento que se ha verificado, pertenezca o no a la serie de eventos que el criterio de imputación adscribe a una determinada esfera del sujeto, por su simple acontecer". En otros términos, el criterio adoptado es más asertivo que prescriptivo. Alpa, G., "¿Hacia dónde se dirige la responsabilidad civil?", [en línea], Revista IUS ET VERITAS, N.° 45, diciembre 2012, disponible en: http://revistas.pucp.edu.pe/index.php/iusetveritas/article/view/11987/12555, [consultado el 13 de enero de 2021].
83 Con relación al desarrollo de la justificación de dicha tesis ver Mascitti, M., "El azar como límite en el Derecho privado patrimonial" [en línea], Rivista JUS CIVILE, 3-2019, maggio-giugno, Torino, G. Giappichelli Editore, disponible en: http://www.juscivile.it/contributi/2019/02_Mascitti.pdf [consultado el 14 de agosto de 2020].
84 Bustamante Alsina J., Teoría general de la responsabilidad civil, Buenos Aires, Abeledo-Perrot, 1972, 198. El nexo de causalidad en el Derecho de la Responsabilidad civil presenta aristas comunes en los sistemas del Civil Law y del Common law. De allí que las cuestiones atinentes a la relación de causalidad (en tanto presupuesto de la responsabilidad civil) resultan comunes, en principio, a todos los ordenamientos jurídicos.
85 La culpa es, ante todo, factor de atribución, además de eximente, metro de cuantificación y fundamento de atracción causal. La relación de causalidad es, en cambio, un paso previo que busca imputar materialmente el daño a un sujeto. Prevot, J. M., "El problema de la relación de causalidad en el Derecho de la Responsabilidad civil" [en línea], Revista Chilena de Derecho Privado, núm. 15, Santiago de Chile, Universidad Diego Portales, 2010, disponible en: http://www.redalyc.org/pdf/3708/370838876005.pdf [consultado el 12 de julio de 2019].
86 Ver Ps. 12 y 13.
87 Lehman, J. et al., "The Surprising Creativity of Digital Evolution: A Collection of Anecdotes from the Evolutionary Computation and Artificial Life Research Communities" [en línea], Cornell University, v.3. 14 August 2018, disponible en: https://arxiv.org/abs/1803.03453 [consultado el 14 de enero de 2021].
88 Castelvecchi, D., "Can we open the black box of AI?" [en línea], Nature, 2016, disponible en: https://www.nature.com/news/can-we-open-the-black-box-of-ai-1.20731 [consultado el 14 de enero de 2021].
89 Ibid. "Machine learning can create a black box: The answers to questions about what factors the system considered when making a prediction or a classification, and how much weight it gave to each factor, might be buried in code that the system was programmed to write for itself". Miller, G., "The smartphone psychology manifesto" [en línea], Perspectives on Psychological Science, 7(3), 2012, 221-237, disponible en: https://pdfs.semanticscholar.org/fcf8/83bd775c7888dbb1d6cf796f3cde8e4fc12b.pdf?_ga=2.44625444.1603124241.1585521493-924618241.1579012799 [consultado el 14 de enero de 2021]. "Even more so than with the past generation of algorithms governing machines, understanding how modern robots arrive at a given decision can be prohibitively difficult, if not technically impossible-even for the designers themselves". Lemley, M. A. and Casey, B., "Remedies…", cit.
90 Ver Ps. 5, 7, 8, 26, 29, 30, 32 y 33.
91 Ver Gnani, A., Sistema di responsabilità e prevedibilità del danno, Torino, Giappichelli, 2008, 199 y ss.
92 Una vez abandonado su perfil newtoniano, la causalidad se rediseñó en términos de probabilidad. Lorenzo de, M. F., "El daño y las causas de justificación. A propósito del Proyecto de Código Civil de 1998", Madrid, La Ley, 2000-C, 975.
93 En el Common Law goza de gran predicamento la máxima more probable than not, en cuya virtud, basta contar con una probabilidad superior al 50% para concluir que la causa imputable al demandado es plausible de producir el resultado dañoso. La jurisprudencia italiana e inglesa sigue también, con frecuencia, esta orientación probabilística, aunque con distintos criterios en los casos donde no se supera el umbral de certeza necesario para el progreso total de la acción (por ejemplo, 50%, 75%, 90%, etc.); esto es, para un sector, en todos aquellos supuestos en que el umbral de certeza es inferior al estipulado (por ejemplo, 49%, 74%, 89%, etc.), corresponde rechazar el reclamo indemnizatorio; mientras que para otros, corresponde acoger parcialmente la pretensión y resarcir el daño, en proporción a la incidencia causal que la conducta, situación o estado del encartado tuvo incidencia causal que la conducta, situación o estado del encartado tuvo en la producción del evento, tomando como límite porcentual un piso del 5% o 10%. Prevot, J. M., "El problema…", cit.
94 Ver Donini, M., "La causalità omissiva e l'imputazione per l'aumento del rischio", Rivista Italiana di Diritto e Procedura Penale, Nro. 1, Milano, 1999, 49.
95 Prevot, J. M., "El problema…", cit.
96 "Conseil d'Etat francois a fait remarquer que si l'intelligence artificielle promet certes des évolutions bénéfiques pour la qualité et l'efficacité de la justice, les progrès de la technologie ne doivent cependant pas masquer des risques pour l'office du juge et l'accès à la justice. Il parait indispensable que l'utilisation des algorithmes soit fondée sur les principes de neutralité et de transparence, afin que les juges puissent conserver leur indépendance et liberté d'appréciation, garante d'une Justice équitable et individualisée". Dufour, F., "Intelligence artificielle: quel droit pour les robots demain?" [en línea], France Soir, 4/7/2018, disponible en: https://www.google.com.ar/amp/www.francesoir.fr/amp/article/societe-science-tech/intelligence-artificielle-quel-droit-pour-les-robots-demain [consultado el 9 de julio de 2019].
97 Guibourg, R. A., "La certeza de los criterios" [en línea], en DOXA, núm. 24, Cuadernos de Filosofía del Derecho, Departamento de Filosofía de la Universidad de Alicante, 2001, disponible en: http://cervantesvirutal.com/portal/doxa [consultado el 10 de marzo de 2019]. Sobre el uso de los motores inteligentes de búsqueda jurídica integrales como soportes de información para la predicción en el Derecho ver Mascitti, M., "La función conjetural del Derecho reforzada por los algoritmos en la era de big data", [en línea], en Revista Ius et Scientia, Universidad de Sevilla, Vol 6 Nro. 2, 2020, disponible en: https://revistascientificas.us.es/index.php/ies/article/view/13358/1277, [consultado el 6/1/2021].
98 Ciuro Caldani, M. A., La conjetura del funcionamiento de las normas jurídicas, Metodología jurídica, Rosario, Fundación para las investigaciones jurídicas, 2000, 10 y 11. Acerca de la conjetura en el Derecho cabe recordar, v. gr., Leibniz, G. W., "Para una balanza del Derecho que permita apreciar los grados de las pruebas y de las probabilidades", en Escritos Filosóficos (rec.), trad. Roberto Torretti, Tomás E. Zwanck y Ezequiel de Olaso, Bs. As., Charcas, 1982, 370/1.
99 En la vertiente del realismo norteamericano, Holmes, con su profunda comprensión de la dimensión sociológica del Derecho, dijo que "…el objeto de nuestro estudio es;… predicción: la predicción de la incidencia de la fuerza pública por mediación de los tribunales de justicia." Holmes, O. W., La senda del Derecho, Bs. As., Abeledo Perrot, 1975, 15.
100 La figura del tiempo, en Occidente, es históricamente ambigua e intermedia, es pre-filosófica. Ella no es resultado de mitologías primitivas, no proviene directamente de una herencia religiosa sino que tras la descomposición de las antiguas cosmogonías, cuando empieza a hacerse explícito el racionalismo griego y sobre los escombros del mundo olímpico aparecerá entonces la personificación del tiempo. Éste sería el sustituto mitológico de un pensar que comienza a teorizar; su personificación, confiriéndole definitivamente esta función de instancia-sujeto, es ya el hecho de una abstracción. Jullien, F., Del tiempo: Elementos de una filosofía de vivir, Madrid, Arena libros, 2005, 82.
101 Alterini, A., Responsabilidad Civil…, cit., 246 y 247.
102 La teoría de la causa adecuada tuvo su primer expositor en Von Bar, aunque fue fundamentada recién en 1888 por Von Kries. Parte de un criterio de previsibilidad, recurre a la vida misma y busca en ella lo que de ordinario acontece. A tal efecto, causa es únicamente la condición que "según el curso natural y ordinario de las cosas" (art. 901 del Cód. Civil derogado) es idónea para producir por sí el resultado. Spota, A. G., "El problema de la causación en la responsabilidad aquiliana", Jurisprudencia Argentina, 1942-II, Buenos Aires, 979. Según esta teoría, para imponer a alguien la obligación de reparar el daño sufrido por otro, no basta que el hecho haya sido, en el caso concreto, conditio sine qua non del daño, sino que es necesario, además, que, en virtud de un juicio (hipotético retrospectivo) de probabilidad, basado en las máximas de la experiencia, resulte una causa adecuada para ello. Prevot, J. M., "El problema…," cit. Hoy se la considera la posición dominante en la doctrina comparada.
103 Picasso, S., La singularidad de la responsabilidad contractual, 3era. Ed. reimpresa, Buenos Aires, Abeledo-Perrot, 2011, 233.
104 Lorenzetti, R. L., "Resarcimiento del daño contractual: confianza, información, previsibilidad", en Jurisprudencia Argentina, 25/04/2001, Buenos Aires, 56.
105 "Ricostruite le tecniche di regolazione del mercato, la protezione dei consumatori tende ad atteggiarsi come ratio e come obiettivo finale anche delle norme che plasmano le competenze delle Autorità." Camardi, C., "La protezione dei consumatori tra Diritto Civile e regolazione del mercato. A propósito dei recenti interventi sul Codice del Consumo" [en línea], in JUS CIVILE, vol. 5, 305-337 (ISSN 2281-3918), 2013, disponible en: http://www.juscivile.it/contributi/18%20-%20Carmelita%20Camardi.pdf [consultado el 5 de julio de 2019].
106 Ver p. 23.
107 Alpahão Gonçalves, M., "Liability arising from the use of Artificial Intelligence for the purposes of medical diagnosis and choice of treatment: who should be held liable in the event of damage to health?" [en línea], LLM in Law & Technology Tilburg Law School, 2018, disponible en: http://arno.uvt.nl/show.cgi?fid=146408 [consultado el 29 de julio de 2019].
108 Esa autonomía es puramente tecnológica y que será mayor cuanto mayor sea el grado de sofisticación con que se haya diseñado el robot para interactuar con su entorno. Cuanto más autónomos sean los robots, más difícil será considerarlos simples instrumentos en manos de otros agentes (como el fabricante, el operador, el propietario, el usuario, etc.). Barrio Andrés M., "Robótica, inteligencia artificial y Derecho" [en línea], Real Instituto elcano, 2018, disponible en: http://www.realinstituto-elcano.org/wps/wcm/connect/b7a72224-1d79-4649-8c51-bc0419e40cd4/ARI103-2018-BarrioAndres-Robotica-inteligencia-artificialderecho.pdf?MOD=AJPERES&CACHEID=b7a72224-1d79-4649-8c51-bc0419e40cd4 [consultado el 15 de enero de 2021].
109 Council of Europe, "The human rights dimensions of automated data processing techniques (in particular algorithms) and possible regulatory implications", October 2017, p 37.
110 Code as law es una forma de regulación que usa la tecnología para mejorar la eficacia normativa. Con el advenimiento de blockchain y machine learning, estamos siendo testigos de una nueva tendencia, que permite el avance progresivo de la tecnología sobre las normas jurídicas. Hassan, S. y De Filippi, P, "The Expansion of Algorithmic Governance: From Code is Law to Law is Code" [en línea], Field Actions Science Reports: The Journal of Field Actions, Special issue 17, Artificial Intelligence and Robotics in the City, Open Edition Journals, 2017, disponible en: https://journals.openedition.org/factsreports/4518 [consultado el 2 de julio de 2019].
111 Además se prevé que muchos robots incluyan opciones de personalización, esto es, que se le permita al usuario modificar las características de serie del robot, o incluso que determinados usuarios con los conocimientos adecuados puedan modificar el robot para programarlo con funciones para las cuales no estaban ideados. En esas circunstancias, es muy difícil determinar quién fue el causante del daño. Una posible solución sería elaborar unas pautas de personalización y/o usos legítimos que se le pueden dar al robot, de modo que el usuario que lo use sepa que si traspasa la línea que marcan esas pautas, quedará fuera de la cobertura legal de responsabilidad civil, sin perjuicio de la responsabilidad civil en la que pueda incurrir el mismo usuario por los daños que pueda causar el robot como consecuencia de sus modificaciones inadecuadas. Pascual, D. A., "Inteligencia artificial: un panorama de algunos de sus desafíos éticos y jurídicos" [en línea], Universitat de Girona, disponible en: https://dugi-doc.udg.edu/bitstream/handle/10256/14950/alvaro-pascual.pdf?sequence=1&isAllowed=y [consultado el 2 de julio de 2019].
112 Existe una línea doctrinaria que aplica a los robots la categoría de los animales domesticados para fines jurídicos en disputas sobre responsabilidad civil. Ver por ejemplo: Kelley, R., Schaerer, E., Gomez, M. y Nicolescu, M., "Liability in Robotics: An International Perspective on Robots as Animals" [en línea], Advanced Robotics, 24:13, 1861-1871, 2010, disponible en: https://pdfs.semanticscholar.org/8174/98e6a34922df365854c6d7fd2f18a8d1900d.pdf [consultado el 8 de julio de 2019].
113 En un entorno de aprendizaje automático, el problema con este tipo de algoritmos es que los seres humanos pueden ya no tener el control de la decisión que se toma y es posible que ni siquiera sepan o comprendan por qué se tomó una decisión incorrecta, porque estamos perdiendo de vista la transparencia del proceso desde el principio hasta el final." House of Commons, Science and Technology Committee, cit. Las redes neuronales están organizadas de tal modo que los humanos no perciben el funcionamiento real, la ponderación de probabilidades. Las redes se organizan por sí mismas y durante el entrenamiento, el sistema realiza ajustes en los nodos de la red, asignando más o menos peso a la entrada de capas anteriores. Si bien para algunas arquitecturas de sistemas, el humano puede introducir funciones de activación, como permitir/vetar, el aprendizaje automático esencialmente saca al humano de los ciclos de toma de decisiones que controlan un robot autónomo, lo que resulta un desafío al Derecho de la Responsabilidad civil. Barfield, W., "Liability for autonomous and artificially intelligent robots" [en línea], Paladyn, Journal of Behavioral Robotics, Volume 9, Issue 1, disponible en: https://www.degruyter.com/downloadpdf/j/pjbr.2018.9.issue-1/pjbr-2018-0018/pjbr-2018-0018.pdf [consultado el 15 de julio de 2019].
114 Ibid.
115 Los RSA interactúan con un entorno que es mucho más grande y más complejo que el sistema en sí mismo. En estas interacciones encontramos como una cuestión de rutina "explosiones combinatorias [que] pueden burlar los mejores esfuerzos de las personas para predecir y mitigar los problemas. "El problema no es la ignorancia; el problema son los límites del conocimiento. Karnow, C. E., "The application of traditional tort theory to embodied machine intelligence" [en línea], in: R. Calo, A. M. Froompkin, I. Ker (Eds.), Robot Law, chapter 3, Edward Elgar Publishing, 2016, disponible en: https://www.elgaronline.com/view/edcoll/9781783476725/9781783476725.xml [consultado el 15 de julio de 2019].
116 Ver Ps. 10, 12, 31 y 32.
117 Alterini, A. A., Contornos actuales de la responsabilidad civil, Bs. As., Abeledo-Perrot, 1987, 8.
118 Messina de Estrella Gutiérrez, G. N., La responsabilidad civil en la era tecnológica, tendencias y prospectiva, Bs. As., Abeledo-Perrot, 1989, 16.
119 Según el Derecho de la Responsabilidad civil, la responsabilidad por productos es una teoría jurídica que puede usarse para determinar la responsabilidad por daños a la propiedad o lesiones que involucren productos fabricados para la venta. En el Common law, las pretensiones de responsabilidad por productos pueden basarse en una teoría de negligencia, responsabilidad estricta o incumplimiento de la garantía de idoneidad, según la jurisdicción en la que se base la reclamación. En los Estados Unidos, la ley de responsabilidad por productos se encuentra principalmente en la ley estatal y en el Código Comercial Uniforme (UCC), y específicamente en el artículo 2 de la ucc que se ocupa de la venta de bienes. Muchos estados de los Estados Unidos han sancionado leyes integrales de responsabilidad por productos elaborados. Barfield, W., "Liability…", cit.
120 "La legislazione attuale non è affatto sufficiente per configurare una responsabilità per i danni da questo causati, dal momento che si è impossibilitati ad individuare con certezza quale sia il soggetto in capo al quale imputare la responsabilità per il risarcimento dei danni perpetrati." Oriti, S., "Brevi note sulla risoluzione del Parlamento europeo del 16 febbraio 2017 concernente le norme di diritto civile sulla robotica" [en línea], Ratio Iuris, lug 21, 2017, disponible en: https://www.ratioiuris.it/wp-content/uploads/2017/07/Brevi-note-sulla-risoluzione-del-Parlamento-europeo-del-16-febbraio-2017-concernente-le-norme-di-diritto-civile-sulla-robotica-1.pdf [consultado el 7 de julio de 2018].
121 El Parlamento Europeo ve en las leyes de Asimov la base del futuro de la robótica, en especial, en la norma 0. Limón, R., "¿Quién es responsable de los daños que cause un robot?" [en línea], El país, 25/4/2018, disponible en: https://elpais.com/tecnologia/2018/04/24/actualidad/1524562104_998276.html [consultado el 5 de julio de 2019].
122 La Resolución del Parlamento europeo de 16 de febrero de 2017 "con recomendaciones destinadas a la Comisión sobre normas de Derecho Civil sobre robótica" (2015/2103) en su art. 13 señala que "este marco de orientaciones éticas debe basarse en los principios de beneficencia, no maleficencia, autonomía y justicia, así como en los principios consagrados en la Carta de los Derechos Fundamentales de la Unión Europea, como la dignidad humana, la igualdad, la justicia y la equidad, la no discriminación, el consentimiento informado, la vida privada y familiar y la protección de datos, así como en otros principios y valores inherentes al Derecho de la Unión, como la no estigmatización, la transparencia, la autonomía, la responsabilidad individual, y la responsabilidad social, sin olvidar las actuales prácticas y códigos éticos." Resolución del Parlamento Europeo, 16/2/2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica [en línea], 2015/2103 (INL), disponible en: http://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_ES.html?redirect#title1 [consultado el 12 de julio de 2019].
123 Ibid. Sin embargo, el Comité Económico y Social de la Unión Europea a través de un dictamen (CESE, INT/086 de 31 de mayo de 2017) se opuso a atribuirle personalidad jurídica a los robots, en cuanto conllevaría a un riesgo moral inaceptable.
"Nous pensons que l'attribution d'une personnalité juridique au robot pose des problèmes éthiques majeurs, sans pour autant apporter de réelles solutions juridiques au problème posé par la réparation." Mazeau, L., "Intelligence artificielle et responsabilité civile: Le cas des logiciels d'aide à la decisión en matière médicale" [en línea], Revue pratique de la prospective et de l'innovation, LexisNexis SA, 2018, 38-43, disponible en: https://hal.archives-ouvertes.fr/hal-01852548/document [consultado el 12 de julio de 2019].
"Lors du forum économique Future Investment Initiative qui s'est déroulé à Riyad du 24 au 26 octobre, l'Arabie saoudite a accordé la citoyenneté à un robot." Condominas, B., "Une première dans le monde" [en línea], Rif, 28/10/2017, disponible en: https://www.google.com.ar/amp/s/amp.rfi.fr/fr/moyen-orient/20171028-arabie-saoudite-intelligence-artificielle-robot-sophia-nationalite-citoyenne [consultado el 12 de julio de 2019].
124 Todos los fabricantes deberían contratar un seguro obligatorio con el objetivo de cubrir todos los costos porque son los actores fundamentales desde la perspectiva de la disuasión y de la gestión de riesgos. El seguro es una herramienta fundamental y se convertirá en una herramienta importante para permitir la transferencia de tecnología desde la investigación al mercado. Bertolini, A., "The legal issues of robotics" [en línea], Robohub, 6/4/2017, disponible en: http://robohub.org/the-legal-issues-of-robotics/ [consultado el 1 de diciembre de 2017].
En este sentido Tennessee (SB 0151) prescribe que mientras el "sistema de conducción automatizado" (ADS, por sus siglas en inglés) tenga el control del vehículo, el fabricante asumirá la responsabilidad por incidentes en los que el ADS tenga la culpa. El fabricante será inmune a cualquier responsabilidad por daños y perjuicios ocasionados por cualquier modificación hecha a un vehículo operado por ADS o un ADS por otra persona sin el consentimiento de aquel. También ese sistema normativo regula que el fabricante propietario del vehículo debe tener un seguro de responsabilidad civil y determina su cuantía mínima. Ver p. 15.
125 Messina de Estrella Gutiérrez, G. N., Riesgo de Empresa, Responsabilidad civil del empresario, Bs. As., Lexis Nexis Abeledo-Perrot, 2004, 52.
126 Ver Ps. 7, 14, 23, 31, 33 y 36.
127 El elemento valorativo que realmente interesa para analizar la "ajenidad" es la posibilidad de control por parte de los sujetos mencionados. Ver Prieto Molinero, R. J., "Evolución y teoría de la responsabilidad objetiva por productos" en Picasso, Sebastián - Vázquez Ferreyra, Roberto A. [dir.], Ley de defensa del consumidor. Comentada y anotada, T. II, La Ley, 2009, 739.
128 Sin embargo, según el art. 1733 del c.c.c.a el deudor es responsable, aunque ocurra el caso fortuito, en los siguientes casos: a) si ha asumido el cumplimiento aunque ocurra un caso fortuito o una imposibilidad; b) si de una disposición legal resulta que no se libera por caso fortuito o por imposibilidad de cumplimiento; c) si está en mora, a no ser que ésta sea indiferente para la producción del caso fortuito o de la imposibilidad de cumplimiento; d) si el caso fortuito o la imposibilidad de cumplimiento sobrevienen por su culpa; e) si el caso fortuito y, en su caso, la imposibilidad de cumplimiento que de él resulta, constituyen una contingencia propia del riesgo de la cosa o la actividad; f) si está obligado a restituir como consecuencia de un hecho ilícito.
129 El riesgo de desarrollo se encuentra subsumida en la de la responsabilidad por productos defectuosos que es una construcción surgida en la jurisprudencia de Estados Unidos, sistematizada luego en la Directiva 85/374/CEE, que creó un sistema legal autosuficiente en materia de responsabilidad objetiva por productos defectuosos para los países miembros de la Unión Europea. Cicchino, P, "Responsabilidad y riesgos de desarrollo" [en línea], Diario Civil y Obligaciones, DPI, Nro. 244, 2020, disponible en: https://dpicuantico.com/sitio/wp-content/uploads/2020/12/Doctrina-civil-04-12-20.docx-1.pdf [consultado el 8 de julio de 2019]. Con relación a los riesgos de desarrollo, el art. 7 de dicha Directiva dispone que el productor no será responsable si prueba: e) "que, en el momento en que el producto fue puesto en circulación, el estado de los conocimientos científicos y técnicos no permitía descubrir la existencia del defecto".
130 Dentro de la doctrina existe una postura inversa que afirma: "el productor podría invocar el riesgo de desarrollo argumentando que no pudo detectar el defecto cuando puso la máquina en circulación, debido a una evolución no anticipada de su IA." Mazeau, L., "Intelligence…," cit.
La exención en virtud de riesgo de desarrollo por la responsabilidad por productos defectuosos en el caso de la evolución imprevista e imprevisible de la IA constituye un tema de debate; observemos que, si el objetivo es crear un régimen de responsabilidad que abra perspectivas reales de reparación para los solicitantes, el riesgo específico vinculado a la autonomía de la IA debe ser asumido por el administrador potencial, que lleva a rechazar dicha causa de exención. Borghetti, J.-S., "L'accident généré par l'intelligence artificielle autonome" [en línea], in Le droit civil à l'ère du numérique. Actes du colloque du Master 2 Droit privé général et du Laboratoire de droit civil, Paris II, 21/4/2017, LexisNexis 2017, 23-28, disponible en: http://web.lexisnexis.fr/Fb/Droit_civil_a_l_ere_numerique_112017/ [consultado el 8 de julio de 2019].
131 La voluntad de tratar el bien común, en particular el bien común de un grupo o comunidad relevante, como el punto de las acciones de uno que afectan a los individuos (incluido uno mismo) es llamado justicia general. Finnis, J., Aquinas Moral, Political, and Legal Theory, Oxford university press, 1998, 118.
132 La importancia de la política jurídica, que consiste en considerar las consecuencias de la responsabilidad basada en esta causalidad jurídica no sólo para las partes, sino también para la vida económica y social en general, ha sido demostrada de manera extraordinaria por una decisión muy reciente de la House of Lords, en Chester v / Afshar, House Of Lords, [2004] UKHL 41, [2005] 1 AC 134. La causalidad jurídica es una cuestión normativa, no una cuestión de hecho, una cuestión de política jurídica ("Política legal"). Tras los dos casos del Australian Privy Council [1961] AC 388 Overseas Tankship (U.K.),LTD. v. Morts Dock & Engineering Co.,LTD. (The wagon Mound). Privy Council, [1967] 1 AC 617 The Wagon Mound (No. 2), Overseas Tankship (UK),LTD. v. The Miller Steamship.
133 Aplicando la lógica de la economía, toda actividad humana ocasiona un costo y un beneficio y esto puede afectar al que lo realiza o a un tercero, pero no siempre se internalizan las externalidades, ya que resulta más económico obtener los beneficios de una actividad sin asumir sus costos; poniéndose en juego, aquí, la noción de costo social de gran importancia en la materia de daños. Garrido Cordobera, L. M., "La Responsabilidad por riesgo de desarrollo en materia de productos de consumo", en Responsabilidad Civil, Aída Kemelmajer de Carlucci (directora), Buenos Aires, Rubinzal Culzoni, 2007, 171 y ss.
134 Ver Ps. 5 y 6.
135 Ver p. 20.
136 Ver Ps. 11, 18 y 35.
137 Barrio Andrés, A., "Robótica…", cit. La nueva condición humana conducirá a un cambio fenotípico no generalizador, es decir, la mejora traerá a los humanos con organismos mucho más diversos que los existentes, y bastante heterogéneos entre ellos, y cuerpos dispares serán el resultado de grados de mejora -la medida del nivel de mejora, a través de la robótica y la inteligencia artificial en cada individuo- que conducirán a una amplia desigualdad de potencialidades, que, a su vez, promoverá diversidades en cuanto a las responsabilidades y vulnerabilidades de quienes optan por esta condición, que, al final, dará como resultado un nuevo tipo de relación curiosamente asimétrica entre las personas. Habermas, J., The future of human nature, Cambridge, Polity Press, 2003.
138 Pigmalión era un magnífico escultor que buscaba a la mujer perfecta y, como no la hallaba, decidió que no se casaría nunca. Sin embargo, cuando terminó de esculpir la estatua de Galatea, se enamoró perdidamente de ella y cada noche soñaba que cobraría vida. La diosa Afrodita, conmovida por su dolor, cumplió su deseo. "Mito de Pigmalion y Galatea" [en línea], Educa y Aprende, 14/10/2014, disponible en: https://educayaprende.com/mitos-y-leyenda-pigmalion/ [consultado el 29 de julio de 2019].
139 Entraremos en un futuro distópico en el que la IA será responsable por sus propias acciones, se le dará personalidad y se la demandará. Elman, J. y Castilla, A., "Artificial intelligence and the law" [en línea], Retrieved, 26/11/2017, disponible en: https://techcrunch.com/2017/01/28/artificial-intelligence-and-the-law/ [consultado el 12 de julio de 2019].
140 Richards, N. M. y Smart, W. D., "How should the law think about robots?" [en línea] in R. Calo, A. M. Froomkin and I. Kerr, Robot Law, Edward Elgar Publishing, Cheltenham, Northampton, 2016, 6, disponible en: http://robots.law.miami.edu/wpcontent/uploads/2012/03/RichardsSmart_HowShouldTheLawThink.pdf [consultado el 12 de julio de 2019].
141 Barrio Andrés, A., "Robótica…", cit.
142 La entropía se puede considerar como una medida del desorden del sistema, o de modo equivalente, como una falta de conocimiento de su estado preciso. La segunda ley de la termodinámica precisa que la entropía siempre aumenta con el tiempo. Hawking, S., Breves respuestas a las grandes preguntas, trad. por David Jou Mirabent, Barcelona, Crítica, 2018, Kindle edition.
143 La mutación consiste en alteraciones en la secuencia del ADN que pueden cambiar la estructura y por ende la función de una proteína.
Existen genes -denominados mutantes- que manipulan los índices de errores de copia de los otros genes. Por definición, un error de copia es una desventaja para el gen que ha sido mal copiado; pero influye ventajosamente en el gen mutante egoísta que induce al error, pues incrementa su presencia en el acervo génico. Dawkins, R., El gen egoísta. Las bases biológicas de nuestra conducta [en línea], 1976, disponible en: http://biologia.utalca.cl/wp-content/uploads/2018/01/El-Gen-Egoista.pdf [consultado el 7 de junio de 2019].
El deseo de homogeneizar o normalizar a los humanos debe ser contrarrestado por los imperativos biológicos de mantener la diversidad y la anormalidad. La normalidad es la antítesis de la evolución. Mukherjee, S., El Gen. Una historia personal, 3era. ed., Buenos Aires, Debate, 2017, 382-397. Sobre una conexión entre la Genética y el Derecho según el planteo tridimensionalista de la Teoría trialista del mundo jurídico ver Mascitti, M., "Las interrelaciones entre el Derecho y la Genética desde la perspectiva integracionista de la Teoría trialista del mundo jurídico", [en línea], en Revista Pensar en Derecho, Nro. 17, UBA, 2020, disponible en: http://www.derecho.uba.ar/publicaciones/pensar-en-derecho/revistas/17/las-interrelaciones-entre-el-derecho-y-la-genetica-desde-la-perspectiva-integracionista-de-la-teoria-trialista-del-mundo-juridico.pdf, [consultado el 6 de enero de 2021].
144 La complejidad fenomenológica de nuestra sociedad es una confirmación tangible de ello, una complejidad que inevitablemente se vuelve jurídica: el Derecho no puede dejar de intervenir tras los cambios que la sociedad requiere. Rodotà, S., La vita e le regole. Tra diritto e non diritto, Milano, Feltrinelli, 2006, 87.
145 Celotto, A., "I robot possono avere diritti?" [en línea], BioLaw Journal, Rivista di BioDiritto, Nro. 1, 2019, disponible en: http://rivista.biodiritto.org/ojs/index.php?journal=biolaw&page=article&op=view&path%5B%5D=353&path%5B%5D=291, [consultado el 6 de julio de 2019].
146 Castells, M., "La nueva sociedad red", [en línea], La vanguardia, 2020, disponible en: https://www.lavanguardia.com/opinion/20200118/472937590818/la-nueva-sociedad-red.html, [consultado el 13 de enero de 2021].
147 El hombre no tiene alas para llegar hasta la justicia volando; lo único que puede hacer es abrirse paso fatigosamente hacia ella escalando las laderas; y a menudo se extravía y se destroza las manos. Lo que lo guía, lo que lo atrae, lo que lo eleva, es la belleza de aquella cumbre que resplandece a lo lejos. La fuerza que le sirve para subir, es la razón; y él llama razón a cada paso que da en su camino. El sentido de la justicia se refracta, como la luz a través de un prisma, en mil colores; cada rayo que le llega de aquella fuente es una razón. Carnelutti, F., Cómo se hace un proceso, trad. por Santiago Sentis Melendo y Marino Ayerra Redín, segunda reimpresión de la segunda edición, Bogotá, Temis, 1999, 70 y 71.


Referencias

Acciarri, H. A., Relaciones Causales y Derecho de Daños, tesis doctoral UBA, 2006.

Alpa, G., "¿Hacia dónde se dirige la responsabilidad civil?", [en línea], Revista IUS ET VERITAS, N.° 45, Diciembre 2012, disponible en: http://revistas.pucp.edu.pe/index.php/iusetveritas/article/view/11987/12555, [consultado el 13 de enero de 2021].

Alpahão Gonçalves, M., "Liability arising from the use of Artificial Intelligence for the purposes of medical diagnosis and choice of treatment: who should be held liable in the event of damage to health?" [en línea], LLM in Law & Technology Tilburg Law School, 2018, disponible en: http://arno.uvt.nl/show.cgi?fid=146408 [consultado el 29 de julio de 2019].

Alterini, A. A., Contornos actuales de la responsabilidad civil, Bs. As., Abeledo-Perrot, 1987, 8.

Alterini, A. A., Responsabilidad Civil. Límites de la reparación civil, Bs. As., Abeledo Perrot, 1987.

Aristóteles, Retórica, trad. por César I. Rodríguez Mondino, 1era. Ed., Bs. As., Gradifco, 2004.

Arute, F., Arya, K. y Babbush, R., "Quantum supremacy using a programmable superconducting processor" [en línea], Nature 574, 2019, 505-510, disponible en: https://doi.org/10.1038/s41586-019-1666-5 [consultado el 26/10/2019].

Australian Privy Council [1961] AC 388 Overseas Tankship (U.K.), LTD. v. Morts Dock & Engineering Co., LTD. (The wagon Mound). Privy Council, [1967] 1 AC 617 The Wagon Mound (No. 2), Overseas Tankship (UK), LTD. v. The Miller Steamship.

Banakas, S., "Causalité juridique et imputation : réflexions sur quelques développements récents en droit anglais" [en línea], Revue Lamy Droit Civil, Suppl. au No 40, July/August 2007, 93, disponible en: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1400065 [consultado el 30 de junio de 2019].

Barfield, W., "Liability for autonomous and artificially intelligent robots" [en línea], Paladyn, Journal of Behavioral Robotics, Volume 9, Issue 1, disponible en: https://www.degruyter.com/downloadpdf/j/pjbr.2018.9.issue-1/pjbr-2018-0018/pjbr-2018-0018.pdf [consultado el 15 de julio de 2019].

Baricco, A., The game, 2019, Kindle edition.

Barrio Andrés M., "Robótica, inteligencia artificial y Derecho" [en línea], Real Instituto elcano, 2018, disponible en: http://www.realinstitutoelcano.org/wps/wcm/connect/b7a72224-1d79-4649-8c51-bc0419e40cd4/ARI103-2018-BarrioAndres-Robotica-inteligencia-artificialderecho.pdf?MOD=AJPERES&CACHEJD=b7a72224-1d79-4649-8c51-bc0419e40cd4 [consultado el 15 de enero de 2021].

Bertolini, A., "The legal issues of robotics" [en línea], Robohub, 6/4/2017, disponible en: http://robohub.org/the-legal-issues-of-robotics/ [consultado el 1 de diciembre de 2017].

Borghetti, J.-S., "L'accident généré par l'intelligence artificielle autonome" [en línea], in Le droit civil à l'ère du numérique. Actes du colloque du Master 2 Droit privé général et du Laboratoire de droit civil, Paris II, 21/4/2017, LexisNexis 2017, 23-28, disponible en: http://web.lexisnexis.fr/Fb/Droit_civil_a_l_ere_numerique_112017/ [consultado el 8 de julio de 2019].

Bourcier, D., Inteligencia artificial aplicada al derecho, Barcelona, Editorial UOC, Pompeu Casanovas, 2003.

"Breast Cancer Screening" [en línea], House of Commons Hansard, Vol. 640, 02/5/2018, disponible en: https://hansard.parliament.uk/commons/2018-05-02/debates/BE9DB48A-C9FF-401B-AC54-FF53BC5BD83E/BreastCancerScreening [consultado el 12 de julio de 2019].

Brebbia, R. H., La relación de causalidad en derecho civil, Rosario, Juris, 1975.

Brynjolfsson, E. and Mcafee, A., The second machine age. Work, progress, and prosperity in a time of brillant technologies, New York, Norton Company, 2014, Kindle edition.

Bunge, M., Intuición y razón, 2da. Ed., Bs. As., Debolsillo, 2005.

Burgess, M., "UK police are using AI to inform custodial decisions - but it could be discriminating against the poor", [en línea], Wired, 01 Mar 2018, https://www.wired.co.uk/article/police-ai-uk-durham-hart-checkpoint-algorithm-edit, [consultado el 13 de enero de 2021].

Bustamante Alsina, J., Teoría general de la responsabilidad civil, Bs. As., ed. Abeledo-Perrot, 1972.

Cadwalladr, C., "The great British Brexit robbery: how our democracy was hijacked" [en línea], The Guardian, 7/5/2017, disponible en: https://www.theguardian.com/technology/2017/may/07/the-great-british-brexit-robbery-hijacked-democracy [consultado el 12 de agosto de 2020].

Camardi, C., "La protezione dei consumatori tra Diritto Civile e regolazione del mercato. A propósito dei recenti interventi sul Codice del Consumo" [en línea], in JUS CIVILE, vol. 5, 305-337 (ISSN 2281-3918), 2013, disponible en: http://www.juscivile.it/contributi/18%20-%20Carmelita%20Camardi.pdf, [consultado el 5 de julio de 2019].

Capecchi, M., "Responsabilità civile e interruzione del nesso causale", in Danno e Responsabilità, N.° 5, Milano, 2006.

Carnelutti, F., Cómo se hace un proceso, trad. por Santiago Sentis Melendo y Marino Ayerra Redín, segunda reimpresión de la segunda edición, Bogotá, Temis, 1999, 70 y 71.

Castells, M., "La nueva sociedad red", [en línea], La vanguardia, 2020, disponible en: https://www.lavanguardia.com/opinion/20200118/472937590818/la-nueva-sociedad-red.html, [consultado el 13 de enero de 2021].

Castelvecchi, D., "Can we open the black box of AI?" [en línea], Nature, 2016, https://www.nature.com/news/can-we-open-the-black-box-of-ai-1.20731 [consultado el 14 de enero de 2021].

Celotto, A., "I robot possono avere diritti?" [en línea], BioLaw Journal, Rivista di BioDiritto, Nro. 1, 2019, disponible en: http://rivista.biodiritto.org/ojs/index.php?journal=biolaw&page=article&op=view&path%5B%5D=353&path%5B%5D=291, fecha de consulta: [consultado el 6 de julio de 2019].

Cicchino, P., "Responsabilidad y riesgos de desarrollo" [en línea], Diario Civil y Obligaciones, DPI, Nro. 244, 2020, disponible en: https://dpicuantico.com/sitio/wp-content/uploads/2020/12/Doctrina-civil-04-12-20.docx-1.pdf [consultado el 8 de julio de 2019].

Ciuro Caldani, M. A., "El mundo jurídico y creatividad" [en línea], Investigación y Docencia, N.° 39, Rosario, 2006/7, 69/84, disponible en: http://www.cartapacio.edu.ar/ojs/index.php/iyd/article/viewFile/928/764, [consultado el 7/11/2018]

Ciuro Caldani, M. A., La conjetura del funcionamiento de las normas jurídicas, Metodología jurídica, Rosario, Fundación para las investigaciones jurídicas, 2000.

Ciuro Caldani, M. A., Una Teoría trialista del mundo jurídico, Rosario, FDER Edita, 2019.

Coglianese, C., "Adjudicating by Algorithm, Regulating by Robot" [en línea], University of Oxford, 21/4/2017, disponible en: https://www.law.ox.ac.uk/business-law-blog/blog/2017/04/adjudicating-algorithm-regulating-robot, [consultado el 30 de junio de 2019].

"Comparing Machine Learning as a Service: Amazon, Microsoft Azure, Google Cloud AI, IBM Watson" [en línea], Altexsoft, 27/9/2019, disponible en: https://www.altexsoft.com/blog/datascience/comparing-machine-learning-as-a-service-amazon-microsoft-azure-google-cloud-ai-ibm-watson/ [consultado el 11 de agosto de 2020].

Condominas, B., "Une première dans le monde" [en línea], Rif, 28/10/2017, disponible en: https://www.google.com.ar/amp/s/amp.rfi.fr/fr/moyen-orient/20171028-arabie-saoudite-intelligence-artificielle-robot-sophia-nationalite-citoyenne [consultado el 12 de julio de 2019].

Corominas, J., Breve Diccionario Etimológico de la Lengua Castellana, 3era. Ed., Madrid, Gredos, 1987.

Council of Europe, "The human rights dimensions of automated data processing techniques (in particular algorithms) and possible regulatory implications", October 2017.

Chabert, J. L., A History of Algorithms. From the Pebble to the Microchip, Berlin, Springer, 1999.

House of Lords, Chester v / Afshar, [2004] UKHL 41, [2005] 1 AC 134.

Danesi, C., "Inteligencia artificial y responsabilidad civil: un enfoque en materia de vehículos autónomos" [en línea], en #legalTEch, El Derecho ante la Tecnología, La Ley, suplemento especial noviembre 2018, disponible en: https://www.thomsonreuters.com.ar/content/dam/openweb/documents/pdf/arg/white-paper/ supl._legaltech_preplanta.pdf [consultado el 14 de agosto de 2020].

Dark, S., Aprendizaje Automático: La Guía Definitiva para Principiantes para Comprender el Aprendizaje Automático, 2018, Kindle edition.

Dawkins, R., El gen egoísta. Las bases biológicas de nuestra conducta [en línea], 1976, disponible en: http://biologia.utalca.cl/wp-content/uploads/2018/01/El-Gen-Egoista.pdf [consultado el 7 de junio de 2019].

Del Rey, J., "La fuerza del azar. Entre la probabilidad y la incertidumbre" [en línea], UMER, N.° 099, 2017, disponible en: http://umer.es/wp-content/uploads/2017/03/Cuaderno-99.pdf [consultado el 23 de mayo de 2019].

Díaz Rojo, J. A., "Privacidad: ¿neologismo o barbarismo?", Espéculo. Revista de estudios literarios, Universidad Complutense de Madrid, 2002.

Donini, M., "La causalità omissiva e l'imputazione per l'aumento del rischio", in Rivista Italiana di Diritto e Procedura Penale, No 1, Milano, 1999.

Dufour, F., "Intelligence artificielle: quel droit pour les robots demain?" [en línea], France Soir, 4/7/2018, disponible en: https://www.google.com.ar/amp/www.francesoir.fr/amp/article/societe-science-tech/intelligence-artificielle-quel-droit-pour-les-robots-demain [consultado el 9 de julio de 2019].

Eco, U., A paso de cangrejo, trad. por María Pons Irazazábal, Bs. As., Debate, 2007, 93 y 96.

Elman, J., and Castilla, A., "Artificial intelligence and the law" [en línea], Retrieved, 26/11/2017, disponible en: https://techcrunch.com/2017/01/28/artificial-intelligence-and-the-law/ [consultado el 12 de julio de 2019].

Finnis, J., Aquinas Moral, Political, and Legal Theory, Oxford university press, 1998, 118.

Gnani, A., Sistema di responsabilità e prevedibilità del danno, Torino, Giappichelli, 2008, 199 y ss.

Garrido Cordobera, L. M., "La Responsabilidad por riesgo de desarrollo en materia de productos de consumo", en Responsabilidad Civil, Aída Kemelmajer de Carlucci (directora), Buenos Aires, Rubinzal Culzoni, 2007, 171 y ss.

Goldenberg, I. H., La relación de causalidad en la responsabilidad civil, Bs. As., Astrea, 1984.

Golden Kellem, B., "The dangers of facial recognition software", [en línea], The Washington Post, 2019, disponible en: https://www.washingtonpost.com/outlook/2019/02/08/dangers-facial-recognition-software/, [consultado el 13 de enero de 2021].

Golinska, M. K., "La inteligencia artificial - hacia una autonomía absoluta" [en línea], Legal Today, 29/11/2018, disponible en: http://www.legaltoday.com/blogs/nuevas-tecnologias/blog-prodat/la-inteligencia-artificial-hacia-una-autonomia-absoluta# [consultado el 1 de julio 2019].

Guardado, M., "La revolución del dato y el empleo" [en línea], El País, 1/2/2019, disponible en: https://elpais.com/economia/2019/01/31/actualidad/1548936326_076366.html [consultado el 30 de junio de 2019].

Guibourg, R. A., "La certeza de los criterios" [en línea], en DOXA, núm. 24, Cuadernos de Filosofía del Derecho, Departamento de Filosofía de la Universidad de Alicante, 2001, disponible en: http://cervantesvirutal.com/portal/doxa [consultado el 10 de marzo de 2019].

Habermas, J., The future of human nature, Cambridge, Polity Press, 2003.

Halevy, A., Norvig, P. y Pereira, F., "The Unreasonable Effectiveness of Data" [en línea], IEEE Intelligent Systems, vol. 24, 2009, pp. 8-12, disponible en: https://static.googleusercontent.com/media/research.google.com/es//pubs/archive/35179. pdf [consultado el 30 de junio 2019].

Han, B.-C., La sociedad de la transparencia, trad. por Raúl Gabás, 1.ª edición, 5.ª impresión, Barcelona, pensamiento Herder, 2013, Kindle edition.

Han, B-C., Psicopolítica. Neoliberalismo y nuevas técnicas de poder, trad. de Alfredo Bergés, 1.ª edición, 3.ª impresión, Barcelona, pensamiento Herder, 2014, Kindle edition.

Harari, Y. N., 21 Lecciones para el siglo XXI, 2018, Kindle edition.

Hart, H. L. A., and Honoré, T., Causation in the law, Oxford, Oxford at the Clarendom Press, 1959.

Hassan, S. y De Filippi, P., "The Expansion of Algorithmic Governance: From Code is Law to Law is Code" [en línea], Field Actions Science Reports: The Journal of Field Actions, Special issue 17, Artificial Intelligence and Robotics in the City, Open Edition Journals, 2017, disponible en: https://journals.openedition.org/factsreports/4518 [consultado el 2 de julio de 2019].

Hawking, S., Breves respuestas a las grandes preguntas, trad. por David Jou Mirabent, Barcelona, Crítica, 2018, Kindle edition.

Holmes, O. W., La senda del Derecho, Bs. As., Abeledo Perrot, 1975.

House of Commons Science and Technology Committee, "Algorithms in decision making", Fourth Report of Session 2017-19, https://publications.parliament.uk/pa/cm201719/cmselect/cmsctech/351/351.pdf, fecha de consulta: 4/7/2019.

Jullien, F., Del tiempo: Elementos de una filosofía de vivir, Madrid, Arena libros, 2005.

Karnow, C. E., "The application of traditional tort theory to embodied machine intelligence" [en línea], in: R. Calo, A. M. Froompkin, I. Ker (Eds.), Robot Law, chapter 3, Edward Elgar Publishing, 2016, disponible en: https://www.elgaronline.com/view/edcoll/9781783476725/9781783476725.xml [consultado el 15 de julio de 2019].

Kelsen, H., Sociedad y naturaleza. Una investigación sociológica, Buenos Aires, Depalma, 1945.

Kelley, R., Schaerer, E., Gomez, M. y Nicolescu, M., "Liability in Robotics: An International Perspective on Robots as Animals" [en línea], Advanced Robotics, 24:13, 1861-1871, 2010, disponible en: https://pdfs.semanticscholar.org/8174Z98e6a34922df365854c6d7fd2f18a8d1900d.pdf [consultado el 8 de julio de 2019].

Kelly, K., "Was Moore's Law Inevitable?" [en línea], The Technium, 2009, disponible en: https://kk.org/thetechnium/was-moores-law/ [consultado el 12 de agosto de 2020].

Lehman, J. et al., "The Surprising Creativity of Digital Evolution: A Collection of Anecdotes from the Evolutionary Computation and Artificial Life Research Communities" [en línea], Cornell University, v.3. 14 August 2018, disponible en: https://arxiv.org/abs/1803.03453 [consultado el 14 de enero de 2021].

Leibniz, G. W., "Para una balanza del Derecho que permita apreciar los grados de las pruebas y de las probabilidades", en Escritos Filosóficos (rec.), trad. Roberto Torretti, Tomás E. Zwanck y Ezequiel de Olaso, Bs. As., Charcas, 1982.

Lemley, M. A. y Casey, B., "Remedies for Robots" [en línea], Stanford Law and Economics Olin Working Paper No. 523, 2019, disponible en: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3223621 [consultado el 13 de enero de 2021].

Limón, R., "¿Quién es responsable de los daños que cause un robot?" [en línea], El país, 25/4/2018, disponible en: https://elpais.com/tecnologia/2018/04/24/actualidad/1524562104_998276.html [consultado el 5 de julio de 2019].

Lorenzetti, R. L., "Resarcimiento del daño contractual: confianza, información, previsibilidad", en Jurisprudencia Argentina, 25/04/2001, Buenos Aires.

Luna González, J., "Tipos de aprendizaje automático" [en línea], Soldai, 8/2/2018, disponible en: https://medium.com/soldai/tipos-de-aprendizaje-autom%C3%A1tico-6413e3c615e2, [consultado el 29 de julio de 2019].

Llambías, J. J., "El derecho no es una física de las acciones humanas", La Ley 107, 1018 y ss.

Lorenzo de, M. F., "El daño y las causas de justificación. A propósito del Proyecto de Código Civil de 1998", Madrid, La Ley, 2000-C, 975.

Mascitti, M., "Un enfoque interdisciplinario para la toma de decisiones en el Mundo jurídico", [en línea], Investigación y docencia, Nro. 52, Rosario, 2016/2017, disponible en: http://www.centrodefilosofia.org/IyD/IyD5210.pdf, [consultado el 27 de diciembre de 2020].

Mascitti, M., "El abogado y su obra artística" [en línea], Revista AIS: Ars Iuris Salmanticensis, Ediciones Universidad de Salamanca, 2017, disponible en: http://revistas.usal.es/index.php/ais/article/view/18014 [consultado el 7 de noviembre de 2018].

Mascitti, M., "El azar como límite en el Derecho privado patrimonial" [en línea], Rivista JUS CIVILE, 3-2019, maggio-giugno, Torino, G. Giappichelli Editore, disponible en: http://www.juscivile.it/contributi/2019/02_Mascitti.pdf [consultado el 14 de agosto de 2020].

Mascitti, M., "La función conjetural del Derecho reforzada por los algoritmos en la era de big data", [en línea], en Revista Ius et Scientia, Universidad de Sevilla, Vol 6 Nro. 2, 2020, disponible en: https://revistascientificas.us.es/index.php/ies/article/view/13358/1277, [consultado el 6/1/2021].

Mascitti, M., "Las interrelaciones entre el Derecho y la Genética desde la perspectiva integracionista de la Teoría trialista del mundo jurídico", [en línea], en Revista Pensar en Derecho, Nro. 17, UBA, 2020, disponible en: http://www.derecho.uba.ar/publicaciones/pensar-en-derecho/revistas/17/las-interrelaciones-entre-el-derecho-y-la-genetica-desde-la-perspectiva-integracionista-de-la-teoria-trialista-del-mundo-juridico.pdf, [consultado el 6 de enero de 2021].

Mayer Schonberger, V. and Cukier, K., Big Data: A Revolution That Will Transform How We Live, 2013, Kindle edition.

Mazeau, L., "Intelligence artificielle et responsabilité civile: Le cas des logiciels d'aide à la decisión en matière médicale" [en línea], Revue pratique de la prospective et de l'innovation, LexisNexis SA, 2018, 38-43, disponible en: https://hal.archives-ouvertes.fr/hal-01852548/document [consultado el 12 de julio de 2019].

Messina de Estrella Gutiérrez, G. N., La responsabilidad civil en la era tecnológica, tendencias y prospectiva, Bs. As., Abeledo-Perrot, 1989, 16.

Messina de Estrella Gutiérrez, G. N., Riesgo de Empresa, Responsabilidad civil del empresario, Bs. As., Lexis Nexis Abeledo-Perrot, 2004, 52.

Mill, J. S., Sistema de lógica inductiva y deductiva, trad. por Eduardo Ovejero y Maury, 1era. ed., Madrid, Ed. Daniel Jorro, 1917, 332.

Miller, C. C., "When Algorithms Discriminate" [en línea], The New York Times, 9/7/2015, disponible en: https://www.nytimes.com/2015/07/10/upshot/when-algorithms-discriminate.html [consultado el 30 de junio de 2019].

Miller, G., "The smartphone psychology manifesto" [en línea], Perspectives on Psychological Science, 7(3), 2012, 221-237, disponible en: https://pdfs.semanticscholar.org/fcf8/83bd775c7888dbb1d6cf796f3cde8e4fc12b.pdf?_ga=2.44625444.1603124241.1585521493-924618241.1579012799 [consultado el 14 de enero de 2021].

Mukherjee, S., El Gen. Una historia personal, 3era. ed., Bs. As., Debate, 2017, 382-397.

O'neil, C., Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, 2016, Kindle edition.

Oppenheimer, A., "La amenaza de los robots chinos" [en línea], La Nación, 6/3/2019, disponible en: https://www.lanacion.com.ar/opinion/columnistas/la-amenaza-de-los-robots-chinos-nid2225701 [consultado el 12 de julio de 2019].

Oriti, S., "Brevi note sulla risoluzione del Parlamento europeo del 16 febbraio 2017 concernente le norme di diritto civile sulla robotica" [en línea], Ratio Iuris, lug 21, 2017, disponible en: https://www.ratioiuris.it/wp-content/uploads/2017/07/Brevi-note-sulla-risoluzione-del-Parlamento-europeo-del-16-febbraio-2017-concernente-le-norme-di-diritto-civile-sulla-robotica-1.pdf [consultado el 7 de julio de 2018].

Pascual, D. A., "Inteligencia artificial: un panorama de algunos de sus desafíos éticos y jurídicos" [en línea], Universitat de Girona, disponible en: https://dugi-doc.udg.edu/bitstream/handle/10256/14950/alvaro-pascual.pdf?sequence=1&isAllowed=y [consultado el 2 de julio de 2019].

Picasso, S., La singularidad de la responsabilidad contractual, 3era. Ed. reimpresa, Buenos Aires, Abeledo-Perrot, 2011.

Picasso, S., en Código Civil y Comercial de la Nación comentado, 1ra. ed., dirigido por R. L. Lorenzetti, Santa Fe, Rubinzal-Culzoni, Tomo VIII, 419 y 420.

Prieto Molinero, R. J., "Evolución y teoría de la responsabilidad objetiva por productos" en Picasso, Sebastián - Vázquez Ferreyra, Roberto A. [dir.], Ley de defensa del consumidor. Comentada y anotada, T. II, La Ley, 2009, 739.

"Pilares básicos según Nilsson" [en línea], Inteligencia Artificial, 4/9/2016, disponible en: https://inteligenciaartificial170.wordpress.com/2016/09/04/pilares-basicos-segun-nilsson/ [consultado el 2/7/2019].

Prevot, J. M., "El problema de la relación de causalidad en el Derecho de la Responsabilidad civil" [en línea], Revista Chilena de Derecho Privado, núm. 15, Santiago de Chile, Universidad Diego Portales, 2010, disponible en: http://www.redalyc.org/pdf/3708/370838876005.pdf [consultado el 12 de julio de 2019].

Probst, T., "La causalité aujourd'hui" [en línea], Les causes du dommage, Genève, Collection genevoise, 2007, disponible en: http://www.unifr.ch/ius/assets/files/chaires/CH_Probst/files/OR%20AT%20II%20Vorlesung/Causalite.PDF [consultado el 30 de junio de 2019].

Richards, N. M. y Smart, W. D., "How should the law think about robots?" [en línea] in R. Calo, A. M. Froomkin and I. Kerr, Robot Law, Edward Elgar Publishing, Cheltenham, Northampton, 2016, 6, disponible en: http://robots.law.miami.edu/wpcontent/uploads/2012/03/RichardsSmart_HowShouldTheLawThink.pdf [consultado el 12 de julio de 2019].

Parlamento Europeo, Resolución 16/2/2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica [en línea], 2015/2103(INL), disponible en: http://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_ES.html?redirect#title1 [consultado el 12 de julio de 2019].

"Rethinking Actual Causation in Tort Law" [en línea], 130 Harvard Law Review 2163, 10/6/2017, disponible en: https://harvardlawreview.org/2017/06/rethin-king-actual-causation-in-tort-law/ [consultado el 29 de julio de 2019].

Rodotà, S., La vita e le regole. Tra diritto e non diritto, Milano, Feltrinelli, 2006.

Solon, O., "Google's bad week: YouTube loses millions as advertising row reaches US" [en línea], The Observer, 25/3/2017, disponible en: https://www.theguardian.com/technology/2017/mar/25/google-youtube-advertising-extremist-content-att-verizon [consultado el 1 de julio de 2019].

Sonoda, J., "Pérdida de chances de curación y sobrevida" [en línea], Lecciones y Ensayos N.° 72, UBA, 1999, disponible en: http://www.derecho.uba.ar/publicaciones/lye/revistas/72-73-74/perdida-de-chances-de-curacion-y-sobrevida.pdf [consultado el 23 de mayo de 2019].

Spacey, J., "Examples of Autonomous Robots" [en línea], Simplificable, 21/6/2016, disponible en: https://simplicable.com/new/autonomous-robots [consultado el 1 de julio de 2019].

Spota, A. G., "El problema de la causación en la responsabilidad aquiliana", Jurisprudencia Argentina, 1942-II, Buenos Aires, 979.

Suanzes, P. R., "La UE impone a Google una multa récord de 2.420 millones por abuso de posición dominante" [en línea], El mundo, 27/7/2017, disponible en: https://www.elmundo.es/economia/macroeconomia/2017/06/27/595229ff268e3e5a578b458b.html [consultado el 30 de julio de 2019].

Sunil, R., "Essentials of Machine Learning Algorithms (with Python and R Codes)" [en línea], Analytics Vidhya, 9/9/2017, disponible en: https://www.analyticsvidhya.com/blog/2017/09/common-machine-learning-algorithms/ [consultado el 14 de agosto de 2020].

Taleb, N. N., El cisne negro, el impacto de lo altamente improbable, 1.ª edición, Bs. As., Paidós, 2011.

Tolstoi, L., Guerra y Paz, T. II, 1era., Santiago de Chile, ed. Andrés Bello, 2001, 497.

Trigo Represas, F. A., "La extensión del resarcimiento en la responsabilidad objetiva", La Ley, Buenos Aires, T. 1979-C, 794.

Valderrama Barragán, M., "El devenir de la identidad digital: del yo proteico al yo identicado," Revista de Tecnología y Sociedad, 6(11), 2017, p. 12.

Zuiderveen Borgesius, F., "Discrimination, artificial intelligence, and algorithmic decision-making", [en línea], Council of Europe, 2018, disponible en: https://rm.coe.int/discrimination-artificial-intelligence-and-algorithmic-decision-making/1680925d73, [consultado el 13 de enero de 2021].