La responsabilidad contractual y extracontractual en el laberinto de la inteligencia artificial: perspectiva colombiana
Contractual and non-contractual liability in the labyrinth of artificial intelligence: a colombian perspective
Luisa Fernanda Jiménez Mahecha1
1 The Center for AI and Digital Policy, Universidad del Rosario Universidad Santo Tomás de Tunja (Colombia). Abogada y docente de la Universidad del Rosario y la Universidad Santo Tomás. Research Group Member of The Center for AI and Digital Policy. Vicepresidenta de la Asociación Colombiana de Legaltech. Directora en la Firma Lloreda & Camacho. Secretaria General del Colegio de Abogados Comercialistas. Autora del Libro La Responsabilidad Contractual en los Contratos de Colaboración Empresarial (2021) y autora del artículo "Desafíos jurídicos y económicos de la regulación de la Inteligencia Artificial en Latinoamérica y el Caribe" (Ed., Aranzadi Thomson Reuters, 2022). Correo e: ljimenezmahe@gmail.com. ORCID https://orcid.org/0009-0001-3328-1449.
Fecha de recepción: 20 de enero de 2025 Fecha de aceptación: 30 de abril de 2025 Received: January 20, 2025 Accepted: April 30, 2025
DOI: https://doi.org/10.18601/16923960.v24n2.07
RESUMEN
Los sistemas de Inteligencia Artificial (IA), en especial los generativos y sin supervisión humana, plantean importantes retos jurídicos. Esto se debe a que los marcos estructurales y las teorías tradicionales en materia de responsabilidad civil no se adaptan completamente a las nuevas realidades de su funcionamiento, lo que complica tanto la identificación de los responsables como la determinación de indemnizaciones adecuadas para los afectados. Por ello, resulta imprescindible analizar los modelos de responsabilidad contractual y extracontractual vigentes hoy ante los posibles daños derivados de los sistemas de IA.
El artículo de investigación mediante un método analítico-sintético presenta de manera introductoria en qué consiste la IA, para poder analizar desde la perspectiva del derecho colombiano el régimen de responsabilidad civil aplicable.
Palabras clave: Responsabilidad civil, Inteligencia artificial, Daños, Contractual, Extracontractual.
ABSTRACT
Artificial Intelligence (AI) systems, particularly generative models and without human supervision, pose significant legal challenges. This situation arises from structural frameworks, and traditional theories of civil liability do not fully align with the new realities of how these systems operate. Consequently, identifying the responsible parties and determining appropriate compensation for affected individuals become more complex. Therefore, examining the current contractual and non-contractual liability models in the context of potential damage caused by AI systems is essential.
The paper uses an analytical-synthetic method to introduce AI and analyze, under Colombian law the applicable civil liability regime.
Keywords: Liability Civil Liability, Artificial Intelligence, Tort, Contractual, NOn-contractual.
INTRODUCCIÓN
Los grandes avances en Inteligencia Artificial (IA) y su aplicación en diversos sectores han permitido la optimización de procesos y la satisfacción de nuevas necesidades sociales y empresariales2. Se destaca que la IA ha tenido avances significativos y su aplicación en diversos sectores ha sido beneficioso3, pero también plantea riesgos y vulneraciones de derechos civiles4, por lo que a nivel global se ha reconocido la importancia de contar con una pronta regulación5.
En materia de responsabilidad, la IA genera nuevos desafíos por enfrentar, ya que dentro de sus principales riesgos se identifican las alucinaciones o la producción de información falsa, la toma de decisiones sin supervisión humana, sesgos, falta de transparencia, explicabilidad, previsibilidad limitada, entre otros. Lo anterior conlleva que se generen dificultades probatorias y que las garantías existentes para los ciudadanos que hacen uso de estas tecnologías se tengan que reevaluar por los posibles daños que estas ocasionen.
Ante los nuevos retos que genera la IA6, la Comisión Europea propuso una Directiva para adaptar las normas de responsabilidad civil extracontractual a la IA, con el objetivo de modernizar el régimen y proporcionar el mismo nivel de protección a las personas perjudicadas por sistemas de IA respecto de otras tecnologías7.
En Estados Unidos, por su parte, en el año 2021, a partir de la directriz sobre IA expedida por The Federal Trade Commission, varios Estados han aprobado leyes específicas para abordar las responsabilidades asociadas a los vehículos autónomos8. A nivel global, en noviembre de 2023, fue firmada la Declaración Bletchley por 29 países para asegurar el desarrollo seguro y responsable de los sistemas de IA, entre los países firmantes se destaca Reino Unido, China y EE.UU.9.
Ahora bien, los avances regulatorios son aún muy incipientes, por lo que hay propuestas que propenden por regímenes objetivos de responsabilidad, sistemas mixtos en atención al riesgo, creación de espacios controlados de pruebas para la IA, creación de seguros de daños y de fondos de compensación, entre otros10. Realmente, las alternativas en materia regulatoria son bastante diversas, para lo cual se hace necesario entender muy bien cómo operan estos sistemas de IA, para poder identificar sus riesgos y las problemáticas que en materia de responsabilidad no quedarían cubiertas con los regímenes de responsabilidad actuales.
Nótese que no es entrar a regular cada nueva tecnología que salga al mercado; de ahí que en nuestro ordenamiento sea reconocido el principio de neutralidad tecnológica11, referido a las actividades y riesgos que ameritan ser regulados.
En Colombia, en materia de responsabilidad civil asociada a los sistemas de IA no existe un régimen especial aplicable, por lo que existen varios interrogantes aún sin respuesta, que ameritan ser tratados como parte de la cuarta revolución industrial que es nuestro presente.
Se destaca que desde el año 2020, se han presentado proyectos legislativos que crean un Régimen de Responsabilidad extracontractual y contractual objetivo para los responsables del uso, desarrollo e implementación de IA, sin importar el nivel de riesgo. En ese caso, al tratarse de un régimen objetivo de responsabilidad, se deben reparar los daños causados sin importar si se trata de un actuar culposo o doloso del responsable, por lo que la prueba de la diligencia y cuidado no es admisible como causal de exoneración de responsabilidad, como se verá más adelante12.
Teniendo en cuenta lo anterior, presentaré de manera introductoria en qué consiste la IA (I), para poder analizar en una primera parte (II) el régimen de responsabilidad civil aplicable, y en una segunda parte (III) si el régimen de responsabilidad de la IA debería ser o no objetivo desde la perspectiva del Derecho colombiano.
I. ¿QUÉ ES LA INTELIGENCIA ARTIFICIAL?
La tecnología va evolucionando rápidamente, por lo que a nivel global se han realizado grandes esfuerzos para tratar de definir la IA de manera flexible13. De manera general, se puede entender a la IA como la capacidad de las máquinas o sistemas informáticos para imitar o simular el comportamiento inteligente humano14.
La IA también se puede definir como (i) disciplina científica15 o como (ii) sistema tecnológico en sí mismo16. En efecto, es una disciplina que se centra en el desarrollo de algoritmos y sistemas que pueden realizar tareas que normalmente requerirían la inteligencia humana, por lo que la IA se ha conceptuado de manera general como cualquier cosa que haga que las máquinas actúen de forma más inteligente17.
Por otro lado, los sistemas de IA permiten generar información de salida, como contenidos, predicciones, recomendaciones o decisiones que permiten el reconocimiento de voz, la toma de decisiones, la resolución de problemas, el aprendizaje y la comprensión del lenguaje natural, por lo que como principales características de la IA se destacan: la capacidad de recibir datos que el entorno le pueda brindar e influir en un entorno operativo18.
En nuestro ordenamiento jurídico podemos encontrar la definición de los softwares de IA en el Artículo 2.2.16.2. del Decreto 1078 de 2015, Sector de Tecnologías de la Información y las Comunicaciones, en los siguientes términos: "Software de inteligencia artificial: Diseñado para realizar determinadas operaciones que se consideran propias de la inteligencia humana, como el autoaprendizaje, resolución de problemas, autocorrección, entre otros".
Y como disciplina en el CONPES N°4144 de 2025, el cual acoge la definición de la OCDE: "La IA es reconocida como un campo de desarrollo tecnológico con implicaciones generalizadas, de alcance amplio y global, que está transformando las sociedades, los sectores económicos y el mundo del trabajo, sumado a eso es muy probable que esta transformación se acelere y se profundice en el futuro"19-20.
En relación con las clasificaciones, se distinguen las siguientes:
Es importante señalar que, así como distinguimos daño emergente y lucro cesante, no resulta procedente denominar cualquier clase de nueva tecnología como sinónimo de IA, por lo que no es procedente catalogar blockchain, robots, metaverso, redes digitales, entornos virtuales como si se trataran de IA.
De igual forma, hay que ser cuidadosos con el uso del lenguaje, en la medida en que la IA tiene varios significados y es utilizada en diferentes contextos, como en el campo de las ciencias, en lo político y social22. No todos los desarrollos de IA funcionan de la misma manera y tampoco representan los mismos riesgos, por lo que no siempre denota la misma idea y, en ese sentido, resulta importante establecer a priori qué estamos entendiendo por IA cuando nos referimos a ella. Por ejemplo, si se quiere regular el primer paso es definir ¿Qué vamos a regular?, ¿la IA como disciplina, como sistema o como producto?
Los nuevos desarrollos tecnológicos plantean varios retos, como lo es poder trabajar de la mano de equipos multidisciplinarios para lograr tener una visión holística y que corresponda a las realidades del mercado actual, por lo que se hace necesario formarnos para participar en debates técnicamente informados23.
Teniendo en cuenta lo anterior, la presente investigación se limitará a los daños ocasionados por los sistemas propios de IA, definida como sistema y no como disciplina.
II. RÉGIMEN DE RESPONSABILIDAD CIVIL COLOMBIANO
En el sistema legal colombiano existen diferentes regímenes de responsabilidad: civil, contravencional, penal, disciplinaria, y especiales. En este caso particular, analizaremos exclusivamente la responsabilidad civil, entendida como la obligación de reparar un daño ocasionado a un tercero, con el fin de restablecer el equilibrio quebrantado24.
A la fecha, en Colombia, no existe un régimen de responsabilidad especial derivado de los daños ocasionados por los sistemas de IA, pero eso no significa que el daño que se derive de una IA se encuentre exento de reparación. El régimen general de la responsabilidad civil25 contempla la obligación de indemnizar los daños causados, con independencia de la causa o tecnología que haya generado el daño26.
Recordemos que a partir de la Ley 527 de 1999, el principio de neutralidad tecnológica es reconocido en nuestro ordenamiento jurídico, en la medida en que la tecnología va evolucionando rápidamente, por lo que la tecnología en sí misma no se debe regular y, por el contrario, se debe propender por leyes que perduren en el tiempo. Es tendencia que ante esta clase de nuevos desarrollos tecnológicos se busquen regulaciones neutrales que tengan por objeto regular los riesgos, efectos o situaciones perjudiciales que estas puedan desencadenar27.
En los sistemas de responsabilidad de Civil Law como lo es el colombiano se identifican como elementos de la responsabilidad civil el daño, el nexo causal, la imputación y la culpa por regla general28. En relación con el daño29, se destaca que el Código Civil hace referencia a "daño" y el Código de Comercio menciona "perjuicio", pero para efectos de la presente investigación no se hará distinción respecto de ambas expresiones, a pesar de que en Colombia ha existido el debate sobre la posible diferencia desde el punto de vista legal para ambas acepciones30.
El nexo causal hace referencia a que los daños causados sean consecuencia de la conducta u omisión del agente imputable, al existir una relación directa de causa y efecto. Por otro lado, la imputación recae sobre el causante del daño, aunque existan ciertos casos en los cuales identificar al sujeto imputable jurídicamente no resulte ser tan fácil, ya que en algunos casos puede o no coincidir la imputación física con la jurídica; en especial, en los sistemas de IA en los que los operadores dejan de tener control sobre los mismos.
El sistema legal y la doctrina colombiana han determinado que el agente responsable se puede exonerar de la obligación de reparar los daños ocasionados a un tercero, si media una causa extraña: fuerza mayor, hecho de un tercero o culpa de la víctima, bajo la existencia de los siguientes tres elementos: inimputabilidad, imprevisibilidad e irresistibilidad31.
Es importante tener en cuenta que en materia de responsabilidad de IA también se debe analizar si estamos ante un escenario de responsabilidad contractual o extracontractual.
A. Responsabilidad contractual
Para el caso de la responsabilidad contractual, se deberá determinar si estamos ante obligaciones de medio o de resultado derivadas del contrato objeto de incumplimiento, para establecer a qué régimen jurídico de responsabilidad pertenecen las obligaciones incumplidas, si es objetivo o subjetivo.
La jurisprudencia francesa32 y la colombiana33 han aplicado criterios distintos para identificar si una obligación es de medio o de resultado, dado que no existe un criterio único. En el contexto de la IA esto se hace más visible cuando el alcance y los riesgos de estos sistemas no son iguales. Por ejemplo, un caso real fue una aplicación que integraba IA para la planificación de comidas, la cual por error sugirió una receta de gas cloro no apto para el consumo humano34. En el caso hipotético en que una persona haya contratado con el proveedor de la aplicación y por desconocimiento haya resultado afectada en su salud por haber ingerido una comida preparada por una receta entregada por la IA, ¿el proveedor responde por obligaciones de medio o de resultado? ¿Qué ocurre si el proveedor no es el desarrollador del sistema de IA? ¿Quién debe asumir la responsabilidad por los daños causados?
Ahora bien, la responsabilidad contractual debe ser entendida desde un carácter dispositivo, lo cual implica que los contratantes puedan agravarla o disminuirla en virtud del principio de la autonomía de la voluntad35, como ocurre en la práctica con las cláusulas limitativas de responsabilidad36. Bajo este ámbito, se protegen los intereses privados mas no los públicos37, aunque dicha autonomía se encuentra provista de algunos limitantes establecidos por la ley, siendo reiterados por la jurisprudencia38.
En esa medida, surgen varios interrogantes: ¿es necesario que exista un régimen especial?, ¿es viable apostar por la autonomía de la voluntad y esperar que sea el mercado el que determine si es o no necesario regularlo?, ¿se hace necesario que el régimen especial vaya dirigido solamente a las relaciones de consumo?, ¿solamente será necesario definir los desarrollos de IA prohibidos o será necesario crear restricciones para su aplicación en ciertos sectores? Son algunos de los interrogantes que pueden surgir para las relaciones contractuales.
Pensar en la responsabilidad contractual asociada a los sistemas de IA no solo significa cuando el objeto principal del contrato es el desarrollo, uso o comercialización de un sistema de IA. También es necesario pensar en otros escenarios que ya están ocurriendo en nuestro día a día y que no necesariamente corresponden a contratos tecnológicos. Veamos: qué pasa si en el contrato se prohibió el uso de IA generativa (IAG), por ejemplo, cuando se contrata un servicio y se pacta dicha restricción, cuando se pacta una cláusula de exoneración de responsabilidad por los resultados que arroje el sistema de IA y que sean utilizados en el contrato, ya que los resultados pueden ser falsos o incorrectos; filtrar información confidencial o secretos empresariales en sistemas de IA como ChatGPT, Gemini o Bing; utilizar información, imágenes, diseños, voces obtenidas por IAG, sin declarar su origen, etc., son nuevos riesgos por identificar.
Así las cosas, los riesgos asociados con esta clase de desarrollos pueden ser clasificarlos en tres categorías39: (i) riesgos principales o directos: derivados del sistema de IA cuando opera como un fin en sí mismo; (ii) riesgos secundarios o colaterales: derivados de la utilización de sistemas de IA operados como medio, y (iii) riesgos no previsibles: aquellos que, como su nombre lo indica, no pueden preverse, en especial, al tratarse de una tecnología en constante evolución.
Los riesgos directos son aquellos que se derivan de la funcionalidad misma del sistema de IA, es decir, si presenta fallas en su calidad o es defectuoso, lo cual impediría su correcta utilización. Los riesgos secundarios o colaterales son aquellos que, si bien no hacen parte del objeto principal del contrato, por la utilización de sistemas de IA en una relación contractual, sí pueden ocasionar un incumplimiento contractual. Por ejemplo, que se filtre información confidencial en sistemas de IAG pública. Los riesgos secundarios a diferencia de los principales o directos, se derivan por el uso irresponsable, inseguro y no ético de estos sistemas, mas no porque los sistemas de IA no funcionen correctamente, de acuerdo con sus alcances y limitaciones.
En este punto, llamo la atención de que en nuestras manos como abogados tenemos una gran responsabilidad de velar por los intereses de nuestros clientes y en general de las personas que asesoramos, por lo que en materia contractual debemos cumplir un rol más de mitigadores de riesgos y no de apagadores de incendios, por lo que dentro de ese rol debemos estar en la capacidad de poder advertir riesgos asociados con la llegada de nuevas tecnologías, como lo es la IA.
En ese sentido, se hace evidente que las cláusulas tradicionales resultan insuficientes para los nuevos riesgos que estamos viviendo en el marco de la cuarta revolución industrial. El clausulado es tan importante que ya se han creado guías y proyectos de cláusulas como el de la Comisión Europea para la contratación de IA por parte de organismos públicos40 y las recomendaciones sobre esta materia elaboradas por The Center for Inclusive Change41
Otro aspecto para tener en cuenta son los riesgos a los que estamos expuestos como prestadores de servicios legales, cuando hacemos uso de estas tecnologías para nuestro ejercicio profesional, ya que podemos incurrir en impresiones por desconocimiento de los riesgos propios de estos sistemas de IA. Por ejemplo, los modelos lingüísticos de gran escala (Large Language Models o LLM) como ChatGPT, Gemini y Bing, tienen el riesgo de producir información errónea o falsa conocida técnicamente como "alucinaciones", por lo que ya existen estudios que demuestran que los riesgos para hacer investigación jurídica mediante el uso de LLM, son demasiado altos por sus limitaciones actuales42. En efecto, el Tribunal Superior de Estados Unidos sancionó a un abogado de Manhattan al haber presentado un memorial con citas de precedentes que no existían, lo cual también podría desencadenar responsabilidad contractual ante su cliente por la negligencia incurrida43.
B. Responsabilidad extracontractual
Desde la responsabilidad extracontractual se hace necesario analizar si la IA puede considerarse como una actividad peligrosa, es decir, que pueda causar un peligro inminente44. Para esto se hace necesario comprender ante qué clase y nivel de riesgo de sistema de IA estamos analizando, ya que los posibles peligros inminentes que pueden ocasionar estos sistemas podrían depender de varios factores, como si manejan datos sensibles de las personas o toman decisiones sin supervisión humana en áreas de interés general como lo es la salud, para lo cual también se deberá tener en consideración la demostración de negligencia o falta de deber de cuidado en su desarrollo y control por parte del operador.
En los sistemas de IA técnicamente se ha entendido como operador al que controla el riesgo y provecho de la IA, tal como ha sido definido en el proyecto regulatorio europeo45. La IA puede considerarse como una actividad peligrosa si genera un riesgo excepcional o anormal para las personas o los bienes, que no puede ser eliminado o reducido mediante el ejercicio de la debida diligencia. En ese caso, al ser un régimen objetivo, la carga de la prueba la tendría el operador de la IA, quien podría exonerarse de responsabilidad si logra demostrar la existencia de una causa extraña46.
Sin embargo, en el ordenamiento jurídico colombiano la responsabilidad extracontractual no es un tema pacífico, pues existen diferentes teorías y criterios para determinar quién es el responsable por los daños causados, por lo que la interpretación en relación con la responsabilidad extracontractual derivada de sistemas de IA se acentuaría aún más por las siguientes razones:
En esa medida, desde la responsabilidad civil y ante estos casos en los que el riesgo de explicabilidad se hace visible, se vuelve más complejo probar la causalidad, la culpa y el nexo causal. Esto claramente puede afectar la capacidad de asignar responsabilidades y compensar a las partes perjudicadas50.
"(…) ciertamente esta Corte ha señalado de forma reiterada, que en tratándose de la responsabilidad por el ejercicio de actividades peligrosas «a la víctima le basta acreditar el ejercicio de la actividad peligrosa desarrollada por su contendiente, el daño que padeció y la relación de causalidad entre aquella y este; al paso que el demandado sólo puede exonerarse demostrando que el perjuicio no fue producido por dicha operación, es decir, que obedeció al devenir de un elemento extraño y exclusivo, como la fuerza mayor o caso fortuito, la intervención de la víctima o la de un tercero, únicas circunstancias que rompen el nexo causal citado» (CSJ SC2905-2021 de 29 de jul. Rad. 2015-00230-01)
(…) con independencia de la naturaleza de la responsabilidad civil que se invoca y de si se presume la culpa en cabeza del demandado, como ocurre en las actividades peligrosas, si no se prueba que el daño fue cometido por el demandado (nexo causal), resulta innecesario abordar el examen de los demás elementos axiológicos que configuran la responsabilidad invocada», apuntando que la carga de la prueba de la responsabilidad de la enjuiciada era del demandante, porque «la presunción que en actividades peligrosas obra a su favor es en torno a la culpa y, de contera, está eximido de allegar la prueba sobre este elemento axiológico de la responsabilidad civil extracontractual, lo que implica que el demandado tiene la carga de la prueba para desvirtuarla, pero, inexorablemente, si quiere salir airoso en sus pretensiones, tiene que aportar la prueba de la relación causal y del daño"53.
El Código Civil y Comercial Argentino, en los arts. 1757 y 1758, establece un supuesto de responsabilidad objetiva por el hecho de las cosas y actividades riesgosas, en el que responden el dueño y el guardián en forma concurrente, por lo que podría ser una solución para estos casos54.
Las anteriores circunstancias plantean diversos desafíos y dificultades para la aplicación del régimen de responsabilidad extracontractual, como la prueba del daño, la causalidad, la culpa, la exoneración, la indemnización, entre otros. Por esta razón, varios países están analizando la viabilidad y necesidad de establecer un marco jurídico específico para la responsabilidad extracontractual de la IA55.
En la propuesta de Directiva de la Comisión Europea, como uno de los proyectos más avanzados sobre la materia, se plantea crear una "presunción de causalidad" que admitiría prueba en contrario, para aliviar la carga de la prueba para que las víctimas puedan demostrar los daños causados por un sistema de IA y de esta manera facilitar la atribución de la responsabilidad.
En nuestro ordenamiento, el Artículo 2353 del C.C. contempla una "presunción de causalidad" al atribuir responsabilidad a todas las personas que habitan la misma parte del edificio por una cosa que cae o se arroja de la parte superior de un edificio, para lo cual además señala lo siguiente:
Si bien esta norma no resulta aplicable al supuesto analizado, cuando se analiza su razón de existir es muy similar al problema que se presenta con las cajas negras de los desarrollos de IA, ante la dificultad de atribuir responsabilidad por un hecho dañoso (caída de un objeto desde un edificio) se hace necesario crear una excepción a la causalidad material que es la regla general de nuestro régimen de responsabilidad, por una presunción de causalidad. Sin embargo, dicha presunción debería admitir prueba en contrario56.
Es importante aclarar que el régimen de las cosas inanimadas de que tratan los artículos 2353 y 2354 del C.C. no resulta aplicable a los daños generados por un desarrollo de IA, en la medida en que regula los daños producidos por animales fieros y no fieros.
C. Daños ocasionados en las relaciones de consumo
A las relaciones de consumo con sistemas de IA les resulta aplicable el Estatuto del Consumidor57, en la medida en que dentro de la definición de producto también se encuentran incluidos los bienes y servicios, por lo que los sistemas de IA comercializados como Software as a Service (SaaS) también se encuentran cubiertos por el Estatuto.
Ahora bien, como se ha explicado en los anteriores acápites, por el gran avance tecnológico que representa la IA, han surgido varios interrogantes en cuanto a sus posibles efectos adversos para los derechos de los ciudadanos58. Por lo anterior, se hace necesario analizar si las garantías para los consumidores se ven afectadas desfavorablemente en función a la dificultad que puede implicar demostrar: (i) el defecto del sistema, (ii) la existencia del daño y el (iii) nexo causal entre este y aquel59.
Otro aspecto destacable por daños por producto defectuoso es la causal de exoneración en la cual por el estado de los conocimientos científicos y técnicos no es posible descubrir la existencia del defecto60. Con los sistemas de IA, es común que por el funcionamiento interno de los algoritmos y por la complejidad de los datos procesados no sea posible entender la forma como se llega al resultado, conocido también como "cajas negras" y riesgo de explicabilidad. Lo anterior, dificultaría atribuir responsabilidad al productor al no tener control sobre el mismo y desconocer la existencia del defecto, por lo que es un aspecto prioritario a tener en cuenta para garantizar la protección de los derechos de los consumidores ante estos sistemas.
D. Algunos casos de responsabilidad civil en sistemas de IA
Actualmente, los casos más comunes asociados a desarrollos de IA que derivan en responsabilidad civil son los daños ocasionados por los accidentes con carros eléctricos operados por piloto automático. De acuerdo con los registros en EE.UU. a junio de 2023, Tesla llevaba 17 muertes y 736 accidentes, lo cual refleja los peligros asociados con el uso cada vez mayor de esta tecnología y la creciente presencia de estos automóviles61.
A partir de los anteriores casos, el ente regulador de la seguridad vial en EE.UU., National Highway Traffic Safety Administration, determinó que los controles de seguridad para detectar usos indebidos son "insuficientes", por lo que a comienzos del año 2024 Tesla anunció el retiro de más de dos millones de vehículos por fallos de seguridad en su piloto automático62.
Otros casos que ya se han presentado son cuando los sistemas de reconocimiento de IA no logran distinguir circunstancias particulares que se pueden presentar durante su ejecución, por ejemplo, en San Francisco los taxis sin conductor bloquearon una ambulancia en un accidente mortal, lo cual dificultó que los bomberos pudieran llegar a atender la emergencia63.
La responsabilidad que representa esta clase de desarrollos es de alto riesgo, por lo que desde el año 2021, en EE.UU., a partir de la directriz sobre IA expedida por The Federal Trade Commission, varios Estados han aprobado leyes específicas para abordar las responsabilidades asociadas a los vehículos autónomos64.
Pero no son los únicos casos: en Corea del Sur, un hombre murió aplastado por un robot que le confundió con una caja de verduras65. De igual forma, se han presentado varias demandas por lesiones relacionadas con IA aplicada al sector salud en EE.UU., por lo que un algoritmo puede ocasionar daños de toda índole, desde materiales a inmateriales en los que también está involucrada la integridad física de las personas66.
También se ha identificado que estos sistemas presentan sesgos que pueden incrementar la adopción de medidas discriminatorias, inequitativas e injustas para poblaciones en condiciones desfavorables. Por ejemplo, un sistema de reconocimiento facial de farmacias británicas identificó incorrectamente a personas negras, latinas y asiáticas como ladrones "probables"67 y la mayor institución de crédito de EE.UU. rechazó a más de 50% de sus solicitantes hipotecarios de raza negra68.
Lo anterior evidencia que no estamos tan lejos del aumento de casos de responsabilidad civil por daños ocasionados con sistemas de IA en sus diferentes ámbitos, por lo que cada vez se hace más necesario analizar las implicaciones que estos sistemas pueden alcanzar y las diferentes respuestas que el Derecho puede ofrecer a estos recientes eventos.
III. RÉGIMEN OBJETIVO O SUBJETIVO DE LOS DAÑOS DERIVADOS DE LA IA
Como se mencionó en los anteriores acápites, no todos los desarrollos y usos de sistemas de IA implican para la sociedad los mismos niveles de riesgo; no es lo mismo un sistema de IA que tiene por objeto autocompletar o corregir textos, que una IA que determine si una persona tiene cáncer o si tiene derecho o no a acceder a un crédito hipotecario.
De esta manera, los riesgos de la IA principalmente están asociados a que (i) presenten sesgos y sean discriminatorios, (ii) la inexplicabilidad por las cajas negras, (iii) violaciones de derechos fundamentales, (iv) uso indebido de los datos personales, entre otros.
Ante los anteriores riesgos, los Estados han estado evaluando la mejor forma de regular los efectos derivados de los sistemas de IA. En la actualidad, el avance más importante en materia regulatoria es la "Ley de Inteligencia Artificial" aprobada por el Parlamento Europeo69, que técnicamente corresponde a un Reglamento y no a una Ley70, mediante el cual se busca la adopción de un instrumento horizontal basado en riesgos que identifica los sistemas de IA inaceptables (prohibidos)71, de alto riesgo72, y los sistemas de IA de riesgo mínimo y limitado73-74.
Estos sistemas a su vez son clasificados en dos categorías: (i) los que se rigen por la regulación de la UE sobre seguridad de los productos75 y (ii) los que hacen parte de las ocho categorías objeto de registro76. Todos estos sistemas de alto riesgo serían susceptibles de ser evaluados antes de su comercialización y a lo largo de su ciclo de vida.
Por otro lado, la Comisión Europea publicó una propuesta de Directiva sobre la adaptación de las normas de responsabilidad civil extracontractual a la IA, en la cual propone complementar y modernizar el marco de responsabilidad de la UE para introducir nuevas normas específicas a los daños causados por los sistemas de IA. Lo anterior, con el fin de garantizar que las personas afectadas por sistemas de IA gocen del mismo nivel de protección respecto de otras tecnologías existentes77.
Estas propuestas regulatorias crean una especie de "presunción de causalidad" para los sistemas de IA de alto riesgo bajo un régimen objetivo de responsabilidad y, por otro lado, las IA restantes bajo el régimen tradicional en el que se requiere probar el daño, la culpa y la causalidad. Se destaca que la propuesta de directiva de responsabilidad de IA de la UE ha tratado de ser un sistema equilibrado para lograr controlar y subsanar los riesgos derivados de la IA, pero sin obstaculizar su desarrollo o significar un incremento sustancial en los costos para la innovación en IA78.
Sin embargo, la industria de IA ha reconocido que dichas medidas pueden incrementar los costes de transacción al crear obligaciones innecesarias, lo cual puede generar una evidente desventaja competitiva respecto de otras regiones79.
De igual forma, uno de los aspectos transversales de la propuesta regulatoria consiste en que las medidas dispuestas puedan perdurar a lo largo del tiempo y a medida que evolucione la tecnología, es decir, que pueda adaptarse según los riesgos y problemas que vayan surgiendo, como aspecto crítico para lograr una óptima regulación legal.
Países como España80 y Brasil81 han optado por la creación de espacios controlados de pruebas para la IA, para entender muy bien los alcances y riesgos que se pueden derivar de estos desarrollos. En efecto, previo a cualquier planteamiento de regulación en necesario entender a priori cómo operan estos sistemas para identificar sus riesgos y problemáticas que ameriten de una regulación especial.
Por su parte, en Colombia desde el año 2020, se ha presentado en cuatro oportunidades un proyecto regulatorio de IA82, el cual ha contemplado un régimen extracontractual y contractual objetivo para los responsables del uso, desarrollo e implementación de IA, sin importar el tipo y nivel de riesgo.
Dicha propuesta puede limitar y convertirse en un obstáculo directo para la innovación, desarrollo y adopción de la IA, en la medida en que, al tratarse de un régimen objetivo de responsabilidad sin distinguir la clase de sistema de IA, se deben reparar los daños causados sin importar si se trata de un actuar culposo o doloso del responsable, por lo que la prueba de la diligencia y cuidado no es admisible como causal de exoneración de responsabilidad.
Por otro lado, existe la propuesta que incluye la clasificación por nivel de riesgo, pero señala una causal genérica de los sistemas de IA considerados como excluidos o "prohibidos": "Cualquier otra actividad que suponga un daño significativo para la vida, la salud, la seguridad, los derechos humanos y fundamentales o el medio ambiente, así como dividir y enfrentar entre sí a las personas y los grupos y amenazar la coexistencia armoniosa entre los seres humanos"83.
El problema de la anterior propuesta es lograr definir qué se entiende por daño significativo. Como lo vimos anteriormente, los sistemas de IA de alto riesgo, como lo son los vehículos eléctricos que operan de manera autónoma, pueden llegar a ocasionar daños significativos para la integridad humana y eso no significa que automáticamente hagan parte de la categoría de sistemas prohibidos o excluidos. Además, el proyecto regulatorio no contempla las sanciones que se generan por el desarrollo de los sistemas de IA excluidos, así como tampoco las consecuencias jurídicas de desarrollar sistemas de alto riesgo, limitado y nulo.
Se hace ostensible que en materia de responsabilidad civil no resulta conveniente incluir en una misma bolsa todos los sistemas de IA y aplicarles un mismo régimen objetivo de responsabilidad, cuando en la práctica estos sistemas no tienen los mismos alcances y tampoco generan los mismos efectos y riesgos.
En esa medida, no resulta razonable que, en todos los casos, sin importar el nivel de riesgo asociado al sistema de IA siempre sea objetivo, por lo que considero que es conveniente tener en consideración el nivel de riesgo que conlleve el sistema de IA respectivo.
Cada vez se hará más frecuente el trámite de proyectos regulatorios sobre los desarrollos de IA. Sin embargo, es prioritario evitar caer en regulaciones que admitan infinidad de interpretaciones, que vulneren el principio de neutralidad tecnológica y, por el contrario, conlleven que haya inseguridad jurídica.
Por ejemplo, si van a crear "presunciones de causalidad" para que todos los actores de la cadena de valor sean responsables, como ocurre con el artículo 2355 del Código Civil, debería resultar admisible poder demostrar la no intervención o injerencia en la causación del daño como causal de exoneración84. Por ejemplo, si para el momento en que fue desarrollado el sistema el productor y operador era un mismo sujeto, y con posterioridad fue cedida la posición de operador a un tercero, el cual no pudo bajo ninguna circunstancia tener participación o injerencia en la producción del daño objeto de imputación.
Nótese que en ciertos casos será posible determinar al responsable directo de los daños derivados del sistema de IA, por lo que se aplicaría lo dispuesto en el Art. 2341 del Código Civil; en otros casos, habrá sujetos que por la presunción jurídica serían responsables pero que al demostrar su no participación quedarían exentos si no lo prohíbe la norma85, y en otros casos, ante la falta de certeza operaría la presunción de causalidad como una modalidad de responsabilidad objetiva, ya que la prueba de haber obrado con dolo o culpa no resultaría admisible.
Como alternativas paralelas para la reparación de los daños, se ha planteado la creación de seguros de riesgos asociados a los sistemas de IA86, así como fondos de compensación para cubrir los daños que no estén asegurados87 y que a su vez permita que los fabricantes, productores, operadores, propietarios y usuarios puedan beneficiarse de un régimen de responsabilidad limitada si suscriben conjuntamente un seguro que garantice la compensación de daños o perjuicios causados88.
CONCLUSIONES
Si bien en Colombia aún no existe un régimen especial de responsabilidad civil aplicable a los daños ocasionados por los sistemas de IA, esto no significa que el daño que se derive de un sistema de IA se encuentre exento de reparación. El régimen general de la responsabilidad civil actual le resultaría aplicable89.
En casos de responsabilidad civil, la falta de transparencia y explicabilidad en los sistemas de IA puede dificultar la identificación de la causa de los daños, así como la capacidad de asignar responsabilidades y compensar a las partes perjudicadas.
Se hace necesario entender muy bien cómo operan estos sistemas de IA, para poder identificar sus riesgos y las problemáticas que en materia de responsabilidad civil no quedarían cubiertas con los regímenes de responsabilidad actuales, para poder establecer propuestas regulatorias sobre la materia.
El régimen de responsabilidad civil aplicable a los desarrollos de IA no debería ser en todos los casos objetivo, en atención a que no todos los sistemas de IA presentan los mismos niveles de riesgo para la sociedad. En consecuencia, este debería determinarse a partir del nivel de riesgo asociado al sistema de IA, por lo que para determinados desarrollos sería objetivo y en otros casos subjetivo, de acuerdo con su nivel de riesgo.
Es prioritario evitar caer en regulaciones que no sean técnicas, que desconozcan la realidad de cómo operan estos sistemas, y que en materia de responsabilidad deriven en inseguridad jurídica.
NOTAS
2 Al respecto, el Banco Interamericano de Desarrollo (BID) mediante la publicación de Algoritmolandia, pone de presente los riesgos y oportunidades para la región para el desarrollo e implementación de la IA. BID, INTAL. "Algoritmolandia: inteligencia artificial para una integración predictiva e inclusiva de América Latina". Revista Integración & Comercio. Año 22: No. 44: Julio, 2018.
3 Ibídem.
4 "Recomendación sobre la ética de la inteligencia artificial" UNESCO, Francia 2022, consultado el 11 mayo 2023, https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa.locale=es
Kate Crawford, Atlas de inteligencia artificial: poder, política y costos planetarios, (Argentina: Fondo de Cultura Económica, 2022).
5 "Council Recommendation on Artificial Intelligence". OECD/LEGAL/0449, Paris 2019, Consultado el 11 de mayo de 2023, https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449. Scherer Matthew, "Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies". Harvard Journal of Law & Technology. Septiembre, 2016, pp. 353-400.
6 "Liability artificial intelligence and other emerging technologies". Comisión Europea, Bélgica 2019, consultado el 22 noviembre 2022, https://www.europarl.europa.eu/meetdocs/2014_2019/plmrep/COMMITTEES/JURI/DV/2020/01-09/AI-report_EN.pdf
7 Véase "Proposal for a Directive on adapting non contractual civil liability rules to artificial intelligence". Comisión Europea, Bruselas 2022, consultado el 22 noviembre 2022, https://commission.europa.eu/system/files/2022-09/1_1_197605_prop_dir_ai_en.pdf
8 "Autonomous Vehicles. Self-Driving Vehicles Enacted Legislation" NCSL, EE.UU 2021, consultado el 22 noviembre 2022, https://www.ncsl.org/research/transportation/autonomous-vehicles-self-driving-vehicles-enacted-legislation.aspx
9 "Policy paper The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023". Gov. Uk. Reino Unido 2023, consultado el 22 noviembre 2023 https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023
10 "AI Policy Observatory. EC/OECD, Database of National AI Policies" OCDE, consultado el 22 noviembre 2022, https://oecd.ai.
11 Ley 527 de 1999. Por medio de la cual se define y reglamenta el acceso y uso de los mensajes de datos, del comercio electrónico y de las firmas digitales, y se establecen las entidades de certificación y se dictan otras disposiciones. Promulgada el 18 de agosto de 1999. Diario Oficial No. 43.673, 21 de agosto de 1999. (Colom).
12 Proyectos de Ley: N° 021-2020C, N° 354-2021C, N° 253/2022 y N° 059/23. "Por medio de la cual se establecen los lineamientos de política pública para el desarrollo, uso e implementación de inteligencia artificial y se dictan otras disposiciones".
13 Véase "AI Policy Observatory. Database of national AI policies". OECD. 2021, consultado el 21 de marzo 2023, https://oecd.ai.
14 Thomas Siebel, Digital Transformation: Survive and Thrive in an Era of Mass Extinction (C. Rice, Colaborador). (Nueva York: RosettaBooks, 2019), p. 40.
"What is Artificial Intelligence?". IBM, consultado el 11 de septiembre 2020 https://www.ibm.com/topics/artificial-intelligence#:~:text=At%20its%20simplest%20form%2C%20artificial,in%20conjunction%20with%20artificial%20intelligence.
"Key Terms for AI Governance". IAPP, consultado el 11 de febrero 2023, https://iapp.org/resources/article/key-terms-for-ai-governance/?utm_source=&utm_medium=&utm_campaign=Social
15 "Diccionario de la lengua española", Real Academia Española, consultado el 21 de marzo 2023, https://dle.rae.es/inteligencia?m=form#2DxmhCT
16 "ISO/IEC 22989. Information technology. Artificial intelligence concepts and terminology" International Standard, consultado el 11 de febrero de 2023, https://www.iso.org/standard/74296.html Parlamento Europeo [European Parliament], Artificial Intelligence Act. (Eur).
17 "What is Artificial Intelligence?". IBM, consultado el 11 de septiembre 2020, https://www.ibm.com/topics/artificial-intelligence#:~:text=At%20its%20simplest%20form%2C%20artificial,in%20conjunction%20with%20artificial%20intelligence.
18 "Artificial Intelligence Act" Parlamento Europeo, Bruselas 2023, consultado el 15 de junio 2023, https://data.consilium.europa.eu/doc/document/ST-8115-2021-INIT/es/pdf
19 "Política Nacional de Inteligencia Artificial N.° 4144", CONPES, consultado el 18 de febrero de 2025, https://colaboracion.dnp.gov.co/CDT/Conpes/Econ%C3%B3micos/4144.pdf
20 En el CONPES N.° 3975 de 2019 sobre la Política Nacional de Transformación Digital e Inteligencia Artificial fue definida en los siguientes términos: "es un campo de la informática dedicado a resolver problemas cognitivos comúnmente asociados con la inteligencia humana o seres inteligentes, entendidos como aquellos que pueden adaptarse a situaciones cambiantes. Su base es el desarrollo de sistemas informáticos, la disponibilidad de datos y los algoritmos". Política Nacional de Transformación Digital e Inteligencia Artificial N.° 3975", CONPES, consultado el 15 de junio 2023, https://mintic.gov.co/portal/715/articles-107147_recurso_1.pdf. p.20.
21 "ISO/IEC 22989. Information technology. Artificial intelligence concepts and terminology" International Standard, consultado el 11 de febrero de 2023, https://www.iso.org/standard/74296.html
22 Kate Crawford, Atlas de inteligencia artificial: poder, política y costos planetarios. Argentina: Fondo de Cultura Económica, 2022.
23 "MIT experts recommend policies for safe, effective use of AI". MIT, consultado el 11 de enero 2024, https://mitsloan.mit.edu/ideas-made-to-matter/mit-experts-recommend-policies-safe-effective-use-ai?utm_source=instagram&utm_medium=social&utm_campaign=AIpolicybriefs
24 Phillipe Le Tourneau, La Responsabilidad Civil. Traducción: Javier Tamayo Jaramillo. Bogotá, Legis Editores S.A., 2004, p. 21.
Javier Tamayo, Tratado de Responsabilidad Civil, Tomo I. Bogotá, Legis Editores S.A., 2007, p. 6. Obdulio Velásquez, Responsabilidad Civil Extracontractual. Bogotá, Temis S.A., 2013, p. 13.
25 Código Civil [C.C.]. Ley 84 de 1873. Art. 2341. 26 de mayo de 1873. (Colom.).
26 Código Civil [C.C.]. Ley 84 de 1873. Artículos 2341 y 2344. 26 de mayo de 1873. (Colom.).
27 Por ejemplo, el proyecto de "Ley de Inteligencia Artificial" de la Unión Europea, el Reino Unido mediante el Libro Blanco propone criterios de regulación de la IA; Rusia y China a través de las directrices expedidas para tal efecto. Véase en "AI Policy Observatory. Database of national AI policies" OECD. 2021 [fecha de consulta 21 de marzo 2023, https://oecd.ai.
28 Véase Fabricio Mantilla, "El principio general de responsabilidad por culpa del derecho privado colombiano," Opinión Jurídica 6, no. 11 (2007), pp. 129-150.
29 Juan Carlos Henao, El daño, Bogotá, Universidad Externado de Colombia, 1998.
30 Javier Tamayo et al., Nuevas reflexiones sobre el daño. Bogotá, Legis, 2017.
31 Corte Suprema de Justicia [C.S.J.] [Supreme Court], Sala. Civil. noviembre 20 de 1989, M.P: Alberto Ospina Botero, Expediente GJ CXCVI. (Colom.)
32 Christian Larroumet, Teoría General del contrato. Volumen II. Bogotá, Temis, 1999, pp. 20 y 21.
33 Corte Suprema de Justicia [C.S.J.] [Supreme Court], Sala de Casación Civil, noviembre 5 de 2013, M.P: Arturo Solarte Rodríguez, Expediente S2000131030052005-00025-01. (Colom.).
34 "Supermarket AI meal planner app suggests recipe that would create chlorine gas". The Guardian Journal, consultado el 11 de enero 2024, https://t.ly/pflVS
35 V.gr. El artículo 1616 del Código Civil prevé en su inciso final: "Las estipulaciones de los contratantes podrán modificar estas reglas".
36 Véase Indira Díaz, "Límites a las cláusulas modificativas de la responsabilidad en el derecho moderno de los contratos", Revista de Derecho Privado no. 23 (julio-diciembre de 2012), pp. 139-190.
37 Corte Constitucional [C.C.] [Constitutional Court], diciembre 9, 2020, M.P.: Luís Ernesto Vargas Silva, Sentencia C-1008/10. Expediente N°D-8146 (Colom.).
38 Corte Suprema de Justicia [C.S.J.] [Supreme Court], Sala de Casación Civil, septiembre 8, 2011, Ref: 2000-04366-1, M.P. William Namén Vargas. (Colom.).
39 Es una clasificación sugerida para efectos de darle mayor claridad al presente artículo. Lo anterior no obsta para que existan otras clasificaciones, lo importante es que las mismas provean alguna utilidad.
40 "Proposal for standard contractual clauses for the procurement of artificial intelligence by public organisations version" Comisión Europea, Bruselas, 2023, consultado el 11 de enero 2024, https://public-buyers-community.ec.europa.eu/communities/procurement-ai/resources/proposal-standard-contractual-clauses-procurement-artificial
41 "AI Procurement: Essential Considerations in Contracting". The Center for Inclusive Change, consultado el 11 de enero 2024, https://www.InclusiveChange.org/
42 "Hallucinating Law: Legal Mistakes with Large Language Models are Pervasive" Stanford University, consultado el 29 de enero 2024, https://hai.stanford.edu/news/hallucinating-law-legal-mistakes-large-language-models-are-pervasive?utm_source=Stanford+HAI&utm_campaign=cb45a035d7-EMAIL_CAMPAIGN_2024_01_28_GENERAL&utm_medium=email&utm_term=0_aaf04f4a4b-f0e42e97e6-%5BLIST_EMAIL_ID%5D&mc_cid=cb45a035d7&mc_eid=b70636cb86 "Popular AI Chatbots Found to Give Error-Ridden Legal Answers" Bloomberglaw, consultado el 29 de enero 2024, https://news.bloomberglaw.com/business-and-practice/legal-errors-by-top-ai-models-alarmingly-prevalent-study-says?utm_source=Stanford%20HAI&utm_campaign=cb45a035d7-EMAIL_CAMPAIGN_2024_01_28_GENERAL&utm_medium=email&utm_term=0_aaf04f4a4b-f0e42e97e6-%5BLIST_EMAIL_ID%5D&mc_cid=cb45a035d7&mc_eid=b70636cb86
43 Ibídem.
44 Dentro de esas actividades se encuentran: la conducción de vehículos automotores terrestres, la aviación, la construcción de un edificio, la utilización de elevadores de carga, fumigaciones aéreas, utilización de explosivos, entre otras. Colombia. Corte Suprema de Justicia [C.S.J.] [Supreme Court], Sala de Casación Civil, octubre 25, 1999, M.P.: José Fernando Ramírez Gómez, Expediente 5012. (Colom.) Consejo de Estado [C.E.] [Highest Court on Administrative Law], Sala de lo Contencioso Administrativo, Sección Tercera, septiembre 13, 2001, C.P: Jesús María Carrillo Ballesteros, Expediente 12487. (Colom.).
45 "Liability artificial intelligence and other emerging technologies". Comisión Europea, Bélgica, 2019, consultado el 22 noviembre 2022, https://www.europarl.europa.eu/meetdocs/2014_2019/plmrep/COMMITTEES/JURI/DV/2020/01-09/AI-report_EN.pdf
46 Corte Suprema de Justicia [C.S.J.] [Supreme Court], Sala de Casación Civil, octubre 25, 1999, M.P. José Fernando Ramírez, Expediente 5012. (Colom.) Corte Suprema de Justicia [C.S.J.] [Supreme Court], Sala de Casación Civil, septiembre 20, 2019, M.P. Luis Armando Tolosa Villabona, Expediente SC3862-2019. (Colom.)
47 "Es destacable entonces que, en este tipo de responsabilidad civil extracontractual, que el sistema colombiano ha denominado por actividades peligrosas, el débito pueda generarse a partir del uso de cosas no obstante que el énfasis recaiga en la actividad y su connotación riesgosa. Y de allí que desde bien temprano la Corte haya tomado de la jurisprudencia francesa la noción del guardián de la cosa (peligrosa), luego extendida a la actividad deben tener parte activa en la acusación del perjuicio (…)" Corte Suprema de Justicia [C.S.J.] [Supreme Court], Sala de Casación Civil, octubre 31, 2018, M.P.: Margarita Cabello Blanco, Expediente SC4750. (Colom.). Corte Suprema de Justicia [C.S.J.] [Supreme Court], Sala de Casación Civil, diciembre 12, 2018, M.P.: Margarita Cabello Blanco, Expediente SC5686-2018. (Colom.) Corte Suprema de Justicia [C.S.J.] [Supreme Court], Sala de Casación Civil, noviembre 18, 2019, M.P.: Luis Alonso Rico Puerta, Expediente SC4966-2019. (Colom.) Corte Suprema de Justicia [C.S.J.] [Supreme Court], Sala de Casación Civil, diciembre 18, 2020, M.P.: Luis Alonso Rico Puerta, Expediente SC5176-20 20. (Colom.)
48 "AIs mysterious 'black box' problem, explained" University Michigan Deanborn, consultado el 11 de enero 2024, https://umdearborn.edu/news/ais-mysterious-black-box-problem-explained "Why Are We Using Black Box Models in AI When We Don't Need To? A Lesson From an Explainable AI Competition" MIT, consultado el 11 de enero 2024, https://hdsr.mitpress.mit.edu/pub/f9kuryi8
49 "IBM's Watson supercomputer recommended 'unsafe and incorrect' cancer treatments, internal documents show" StatNews, consultado el 11 de enero 2024, https://www.statnews.com/wp-content/uploads/2018/09/IBMs-Watson-recommended-unsafe-and-incorrect-cancer-treatments-STAT.pdf
50 "Understanding Liability Risk from Healthcare AI "Stanford HAI, consultado el 9 de febrero 2024, https://hai.stanford.edu/policy-brief-understanding-liability-risk-healthcare-ai?mc_cid=1426f42ab2&mc_eid=b70636cb86&utm_source=Stanford+HAI&utm_campaign=1426f42ab2-EMAIL_CAMPAIGN_2023_09_14_10_07_COPY_01&utm_medium=email&utm_term=0_-7b0c2ed008-%5BLIST_EMAIL_ID%5D.
51 Código Civil [C.C.]. Ley 84 de 1873. Art. 2347. 26 de mayo de 1873. (Colom).
52 Corte Suprema de Justicia [C.S.J.] [Supreme Court], Sala de Casación Civil, diciembre 12, 2018, M.P.: Margarita Cabello Blanco, Expediente SC5686-2018. (Colom.).
53 Corte Suprema de Justicia [C.S.J.] [Supreme Court], Sala de Casación Civil, marzo 27, 2023, M.P.: Hilda González Neira, Expediente SC065-2023. (Colom.).
54 Cecilia Danesi, "Inteligencia artificial y responsabilidad civil: un enfoque en materia de vehículos autónomos". Suplemento Especial LegalTech 39 (2018, noviembre): AR/DOC/2374/2018
55 Véase "AI Policy Observatory. Database of National AI Policies" OCDE, consultado el 22 noviembre 2022, https://oecd.ai.
56 Fabricio Mantilla, "La causa muy extraña". En "Instituciones de responsabilidad civil: homenaje al maestro Jorge Santos Ballesteros", ed. por Alejandro Gaviria y Saul Uribe, Bogotá, Grupo Editorial Ibañez, Ediciones Unaula, 2022, p.18.
57 Ley 1480 de 2011. Por medio de la cual se expide el Estatuto del Consumidor y se dictan otras disposiciones. Octubre 12 de 2011, [D.O] 48.220. Art. 2.
58 UNESCO, Recomendación sobre la ética de la inteligencia artificial [en línea]. Francia 2022 [fecha de consulta 11 mayo 2023]. Disponible en: https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa.locale=es
59 Ley 1480 de 2011. Por medio de la cual se expide el Estatuto del Consumidor y se dictan otras disposiciones. Octubre 12 de 2011, [D.O] 48.220. Art. 21.
60 Ibídem. Artículo 22.
61 "17 fatalities, 736 crashes: The shocking toll of Tesla's Autopilot". The Washington Post, consultado el 11 noviembre 2023, https://www.washingtonpost.com/technology/2023/06/10/tesla-autopilot-crashes-elon-musk/
62 "Tesla recalls 120,000 vehicles over doors that could unlock in crash" Thomson Reuters, consultado el 15 enero 2024, https://www.reuters.com/business/autos-transportation/tesla-recall-over-120000-vehicles-us-nhtsa-2023-12-22/#:~:text=Last%20week%20Tesla%20recalled%20all,after%20NHTSA%20cited%20safety%20concerns.
63 "Driverless Taxis Blocked Ambulance in Fatal Accident, San Franciso Fire Dept. Says" The New York Times, consultado el 15 enero 2024, https://www.nytimes.com/2023/09/02/technology/driverless-cars-cruise-san-francisco.html
64 "Autonomous Vehicles. Self-Driving Vehicles Enacted Legislation". NCSL, consultado el 22 noviembre 2022, https://www.ncsl.org/research/transportation/autonomous-vehicles-self-driving-vehicles-enacted-legislation.aspx
65 "Man crushed to death by robot that mistook him for a box of vegetables". The Telegraph, consultado el 15 enero 2024, https://www.telegraph.co.uk/world-news/2023/11/08/man-crushed-to-death-south-korea-industrial-robot/
66 "Understanding Liability Risk from Healthcare AI". Stanford HAI, consultado el 9 de febrero 2024, https://hai.stanford.edu/policy-brief-understanding-liability-risk-healthcare-ai?mc_cid=1426f42ab2&mc_eid=b70636cb86&utm_source=Stanford+HAI&utm_campaign=1426f42ab2-EMAIL_CAMPAIGN_2023_09_14_10_07_COPY_01&utm_medium=email&utm_term=0_-7b0c2ed008-%5BLIST_EMAIL_ID%5D.
67 "Rite Aid facial recognition misidentified Black, Latino and Asian people as 'likely' shoplifters vegetables" The Guardian, consultado el 15 enero 2024, https://www.theguardian.com/technology/2023/dec/20/rite-aid-shoplifting-facial-recognition-ftc-settlement
68 "Driverless cars cruise San Francisco" The New York Times, consultado el 15 enero 2024, https://www.nytimes.com/2023/09/02/technology/driverless-cars-cruise-san-francisco.html
69 Aprobado el 13 de marzo de 2024 y se implementará de manera gradual a partir del año 2026.
70 Parlamento Europeo [PE] [European Parliament], Artificial Intelligence Act, Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo. 13 de junio de 2024. (Unión Europea).
71 Véase Parlamento Europeo [European Parliament], Título II, Artículo 5, Artificial Intelligence Act. (Eur).
72 Ibídem. Título III. Artículos 6 a 51.
73 Ibídem. Título IV. Artículo 52.
74 Ibídem.
75 Incluye juguetes, aviación, automóviles, dispositivos médicos y ascensores.
76 (i) identificación biométrica y categorización de personas físicas; (ii) gestión y explotación de infraestructuras críticas; (iii) educación y formación profesional, (iv) empleo, gestión de trabajadores y acceso al autoempleo; (v) acceso y disfrute de servicios privados esenciales y servicios y prestaciones públicas; (vi) aplicación de la ley; (vii) gestión de la migración, el asilo y el control de fronteras, y (viii) asistencia en la interpretación jurídica y aplicación de la ley.
77 Véase "Proposal for a Directive on adapting non contractual civil liability rules to artificial Intelligence". Comisión Europea, consultado el 15 de junio 2023, https://commission.europa.eu/business-economy-euro/doing-business-eu/contract-rules/digital-contracts/liability-rules-artificial-intelligence_en
78 Ibídem.
79 "The Proposed New EU Regulatory Regime for Artificial Intelligence (AI)" The National Law Review, consultado el 15 de junio 2023, https://www-natlawreview-com.cdn.ampproject.org/c/s/www.natlawreview.com/article/proposed-new-eu-regulatory-regime-artificial-intelligence-ai?amp.
80 "Sandbox Regulatorio de IA". España Digital, consultado el 18 de enero 2024, http://espanadigital.gob.es/lineas-de-actuacion/sandbox-regulatorio-de-ia.
81 "Consulta pública para el sandbox regulatorio de inteligencia artificial y protección de datos en Brasil" IAPP, consultado el 18 de enero 2024, https://iapp.org/news/a/consulta-publica-para-el-sandbox-regulatorio-de-inteligencia-artificial-y-proteccion-de-datos-en-brasil/
82 Proyectos de Ley: N° 021-2020C, N° 354-2021C, N° 253/2022 y N° 059/23. "Por medio de la cual se establecen los lineamientos de politica pública para el desarrollo, uso e implementación de inteligencia artificial y se dictan otras disposiciones".
83 Véase Proyecto de Ley 200/2023C. Artículo 13. (Colom).
84 Fabricio Mantilla, "La causa muy extraña". En "Instituciones de responsabilidad civil: homenaje al maestro Jorge Santos Ballesteros", ed. por Alejandro Gaviria y Saúl Uribe, Bogotá, Grupo Editorial Ibañez, Ediciones Unaula, 2022, p. 18.
85 Ibídem.
86 Véase Alberto Tapia, "La responsabilidad civil derivada del uso de la inteligencia artificial y su aseguramiento," Revista Ibero-Latinoamericana de Seguros 54 (2021), pp. 107-146, consultado el 15 de junio de 2023, disponible en: https://doi.org/10.11144/Javeriana.ris54.rcdu.
Henrique Sousa Antunes, "Non-Contractual Liability Applicable to Artificial Intelligence: Towards a Corrective Reading of the European Intervention," en The Making of European Private Law: Changes and Challenges, editado por Luisa Antoniolli y Paola Iamiceli, Universidad de Trento (2023, próximo a publicarse), consultado el 8 de febrero de 2023, disponible en SSRN: https://ssrn.com/abstract=4351910 o http://dx.doi.org/10.2139/ssrn.4351910.
87 Véase Henrique Sousa Antunes, "Non-Contractual Liability Applicable to Artificial Intelligence: Towards a Corrective Reading of the European Intervention," en The Making of European Private Law: Changes and Challenges, editado por Luisa Antoniolli y Paola Iamiceli, Universidad de Trento (2023, próximo a publicarse), consultado el 8 de febrero de 2023, disponible en SSRN: https://ssrn.com/abstract=4351910 o http://dx.doi.org/10.2139/ssrn.4351910.
88 Parlamento Europeo [European Parliament], Resolución sobre normas de Derecho Civil sobre Robótica, P8_TA (2017) 0051, febrero 16, 2017, (Eur).
89 Código Civil [C.C.]. Ley 84 de 1873. Artículos 2341 y 2344. 26 de mayo de 1873. (Colom). com/business-and-practice/legal-errors-by-top-ai-models-alarmingly-prevalent-study-says
BIBLIOGRAFÍA
Bloomberglaw. "Popular AI Chatbots Found to Give Error-Ridden Legal Answers", consultado el 29 de enero de 2024, https://news.bloomberglaw.
Castañeda, Paola. "La distinción entre obligaciones de medios y obligaciones de resultado: Análisis de los criterios adoptados por la Corte Suprema de Justicia". Tesis de pregrado de Derecho. Bogotá, Universidad del Rosario, 2003.
Castro, Marcela. Derecho de las obligaciones. Tomo I. Bogotá, Universidad de los Andes y Temis, 2015.
Chénedé, François. "Las Conmutaciones en el Derecho Privado. Constitución a la Teoría General de las Obligaciones", Revista Chilena de Derecho Privado no. 18 (julio, 2012), pp. 123-148.
Comisión Europea, "Liability Artificial Intelligence and Other Emerging Technologies", consultado el 22 de noviembre de 2022, https://www.europarl.europa.eu/meetdocs/2014_2019/plmrep/COMMITTEES/JURI/DV/2020/01-09/AI-report_EN.pdf
Comisión Europea, "Proposal for a Directive on Adapting Non-Contractual Civil Liability Rules to Artificial Intelligence", consultado el 22 de noviembre de 2022, https://commission.europa.eu/system/files/2022-09/1_1_197605_prop_dir_ai_en.pdf.
Comisión Europea, "Proposal for Standard Contractual Clauses for the Procurement of Artificial Intelligence by Public Organisations Version", consultado el 11 de enero de 2024, https://public-buyers-community.ec.europa.eu/communities/procurement-ai/resources/proposal-standard-contractual-clauses-procurement-artificial
CONPES, "Política Nacional de Inteligencia Artificial N.° 4144", consultado el 18 de febrero de 2025, https://colaboracion.dnp.gov.co/CDT/Conpes/Econ%C3%B3micos/4144.pdf.
CONPES, Política Nacional de Transformación Digital e Inteligencia Artificial N.° 3975, 2019, consultado el 22 de noviembre de 2022, https://mintic.gov.co/portal/715/articles-107147_recurso_1.pdf.
Crawford, Kate. Atlas de inteligencia artificial: poder, política y costos planetarios. Argentina, Fondo de Cultura Económica de Argentina, 2022.
Danesi, Cecilia. "Inteligencia artificial y responsabilidad civil: un enfoque en materia de vehículos autónomos", Sup. Esp. LegalTech 39 (2018): noviembre, AR/DOC/2374/2018.
Demogue, Réné. Traité des obligations en général. V° 1237, T.V. París, Rousseau.
España Digital, "Sandbox Regulatorio de IA", consultado el 18 de enero de 2024, http://espanadigital.gob.es/lineas-de-actuacion/sandbox-regulatorio-de-ia.
GOV.UK. "Policy Paper: The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023", consultado el 22 de noviembre de 2023, https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/the-bletchley-declaration-by-countries-attending-the-ai-safety-summit-1-2-november-2023
Henao, Juan Carlos. El daño. Bogotá, Universidad Externado de Colombia, 1998.
Hinestrosa, Fernando. Tratado de las obligaciones. Tomo I. Bogotá, Universidad Externado de Colombia, 2007.
IAPP. "Consulta pública para el sandbox regulatorio de inteligencia artificial y protección de datos en Brasil", consultado el 18 de enero de 2024, https://iapp.org/news/a/consulta-publica-para-el-sandbox-regulatorio-de-inteligencia-artificial-y-proteccion-de-datos-en-brasil/
IAPP. "Key Terms for AI Governance", consultado el 11 de febrero de 2023, https://iapp.org/resources/article/key-terms-for-ai-governance/.
IBM. "AI vs. Machine Learning vs. Deep Learning vs. Neural Networks: What's the difference?", consultado el 19 de septiembre de 2023, https://www.ibm.com/cloud/blog/ai-vs-machine-learning-vs-deep-learning-vs-neural-networks.
IBM. "What is Artificial Intelligence?", consultado el 11 de septiembre de 2020, https://www.ibm.com/topics/artificial-intelligence.
INTAL. "Algoritmolandia: inteligencia artificial para una integración predictiva e inclusiva de América Latina", Revista Integración & Comercio 22, no. 44 (2018), pp. 1-349.
International Standard. "ISO/IEC 22989. Information technology. Artificial intelligence concepts and terminology" International Standard, consultado el 11 de febrero de 2023, https://www.iso.org/standard/74296.html
Larroumet, Christian. Teoría General del contrato. Volumen II. Bogotá, Temis, 1999.
Le Tourneau, Phillipe. La Responsabilidad Civil. Traducción: Javier Tamayo Jaramillo. Bogotá, Legis Editores S.A., 2004.
Mantilla, Fabricio. "El principio general de responsabilidad por culpa del derecho privado colombiano", Opinión Jurídica, Vol. 6, N.° 11 (enero-junio 2007), Medellín, Colombia.
Mantilla, Fabricio. "La causa muy extraña." En: Alejandro Gaviria y Saúl Uribe, Instituciones de responsabilidad civil: homenaje al maestro Jorge Santos Ballesteros. Bogotá, Grupo Editorial Ibañez, Ediciones Unaula, 2022.
MIT. "MIT Experts Recommend Policies for Safe, Effective Use of AI", consultado el 11 de enero de 2024, https://mitsloan.mit.edu/ideas-made-to-matter/mit-experts-recommend-policies-safe-effective-use-ai.
MIT. "Why Are We Using Black Box Models in AI When We Don't Need To? A Lesson From an Explainable AI Competition", consultado en 2019, https://hdsr..mitpress.mit.edu/pub/f9kuryi8.
NCSL. "Autonomous Vehicles. Self-Driving Vehicles Enacted Legislation", consultado el 22 de noviembre de 2022, https://www.ncsl.org/research/transportation/autonomous-vehicles-self-driving-vehicles-enacted-legislation.aspx.
OCDE. "AI Policy Observatory. Database of National AI Policies", consultado el 21 de marzo de 2023, https://oecd.ai.
OCDE. "AI Policy Observatory. EC/OECD, Database of National AI Policies", consultado el 22 de noviembre de 2022, https://oecd.ai.
OCDE. "Council Recommendation on Artificial Intelligence", consultado el 11 de mayo de 2023, https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449.
Parlamento Europeo [European Parliament]. Resolución sobre normas de Derecho Civil sobre Robótica, P8_TA (2017) 0051, febrero 16, 2017, (Eur.).
Parlamento Europeo [European Parliament]. Artificial Intelligence Act, Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo. 13 de junio de 2024. (Unión Europea).
Real Academia Española. "Diccionario de la lengua española, 23.ª ed., [versión 23.6 en línea]", consultado el 21 de marzo de 2023, https://dle.rae.es/inteligencia?m=form#2DxmhCT.
Scherer, Matthew. "Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies", Harvard Journal of Law & Technology (septiembre, 2016): 353-400.
Siebel, Thomas. Digital Transformation: Survive and Thrive in an Era of Mass Extinction (C. Rice, Colaborador). Nueva York: RosettaBooks, 2019.
Sousa Antunes, Henrique. "Non-Contractual Liability Applicable to Artificial Intelligence: Towards a Corrective Reading of the European Intervention", The Making of European Private Law: Changes and Challenges (próximo a publicarse), Universidad de Trento, 2023, consultado el 8 de febrero de 2023, https://ssrn.com/abstract=4351910.
Stanford HAI. "Understanding Liability Risk from Healthcare AI", consultado el 9 de febrero de 2024, https://hai.stanford.edu/policy-brief-understanding-liability-risk-healthcare-ai.
Stanford University. "Hallucinating Law: Legal Mistakes with Large Language Models Are Pervasive", consultado el 29 de enero de 2024, https://hai.stanford.edu/news/hallucinating-law-legal-mistakes-large-language-models-are-pervasive.
StatNews. "IBM's Watson Supercomputer Recommended 'Unsafe and Incorrect' Cancer Treatments, Internal Documents Show", consultado el 11 de enero de 2024, https://www.statnews.com/wp-content/uploads/2018/09/IBMs-Watson-recommended-unsafe-and-incorrect-cancer-treatments-STAT.pdf
Tamayo, Javier, Luis Botero, Nicolás Polanía y Sergio Rojas. Nuevas reflexiones sobre el daño. Bogotá, Legis, 2017.
Tamayo, Javier. Tratado de Responsabilidad Civil. Relaciones entre la responsabilidad contractual y extracontractual. Tomo I. Bogotá, Legis, 2013.
Tapia, Alberto. "La responsabilidad civil derivada del uso de la inteligencia artificial y su aseguramiento", Revista Ibero-Latinoamericana de Seguros 54 (2021), pp. 107-146, https://doi.org/10.11144/Javeriana.ris54.rcdu.
Ternera, Luís y Francisco Ternera. "Breves comentarios sobre el daño y su indemnización." Revista Opinión Jurídica, 7(13), 2008.
The Center for Inclusive Change. "AI Procurement: Essential Considerations in Contracting", consultado el 11 de enero de 2024, https://www.InclusiveChange.org/.
The Guardian. "Rite Aid Facial Recognition Misidentified Black, Latino and Asian People as 'Likely' Shoplifters", consultado el 15 de enero de 2024, https://www.theguardian.com/technology/2023/dec/20/rite-aid-shoplifting-facial-recognition-ftc-settlement.
The Guardian. "Supermarket AI Meal Planner App Suggests Recipe That Would Create Chlorine Gas", consultado el 11 de enero de 2024, https://t.ly/pflVS.
The National Law Review. "The Proposed New EU Regulatory Regime for Artificial Intelligence (AI)", consultado el 15 de junio de 2023, https://www-natlawreview-com.cdn.ampproject.org/c/s/www.natlawreview.com/article/proposed-new-eu-regulatory-regime-artificial-intelligence-ai?amp
The New York Times. "Driverless Cars Cruise San Francisco", consultado el 15 de enero de 2024, https://www.nytimes.com/2023/09/02/technology/driverless-cars-cruise-san-francisco.html
The New York Times. "Driverless Taxis Blocked Ambulance in Fatal Accident, San Francisco Fire Dept. Says", consultado el 15 de enero de 2024, https://www.nytimes.com/2023/09/02/technology/driverless-cars-cruise-san-francisco.html.
The Telegraph. "Man Crushed to Death by Robot That Mistook Him for a Box of Vegetables", consultado el 15 de enero de 2024, https://www.telegraph.co.uk/world-news/2023/11/08/man-crushed-to-death-south-korea-industrial-robot/.
The Washington Post. "17 Fatalities, 736 Crashes: The Shocking Toll of Tesla's Autopilot", consultado el 11 de noviembre de 2023, https://www.washington-post.com/technology/2023/06/10/tesla-autopilot-crashes-elon-musk/
Thomson Reuters. "Tesla Recalls 120,000 Vehicles Over Doors That Could Unlock in Crash", consultado el 15 de enero de 2024, https://www.reuters.com/business/autos-transportation/tesla-recall-over-120000-vehicles-us-nhtsa-2023-12-.
UNESCO. "Recomendación sobre la ética de la inteligencia artificial", consultado el 11 de mayo de 2023, https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa.locale=es.
University Michigan Dearborn. "AI's Mysterious 'Black Box' Problem, Explained", consultado el 11 de enero de 2024, https://umdearborn.edu/news/ais-mysterious-black-box-problem-explained.
Velásquez, Obdulio. Responsabilidad Civil Extracontractual. Bogotá, Temis S.A., 2013.
Jurisprudencia
Corte Suprema de Justicia [CSJ] [Supreme Court of Justice], Sala de Casación Civil. 20 de noviembre de 1989. M.P.: Alberto Ospina Botero. GJ CXCVI. (Colom.).
Corte Suprema de Justicia [CSJ] [Supreme Court of Justice], Sala de Casación Civil. 25 de octubre de 1999. M.P.: José Fernando Ramírez Gómez. Exp. 5012. (Colom.).
Corte Suprema de Justicia [CSJ] [Supreme Court of Justice], Sala de Casación Civil. 5 de noviembre de 2013. M.P.: Arturo Solarte Rodríguez. Exp. S2000131030052005-00025-01. (Colom.).
Corte Suprema de Justicia [CSJ] [Supreme Court of Justice], Sala de Casación Civil. 31 de octubre de 2018. M.P.: Margarita Cabello Blanco. Exp. SC4750. (Colom.).
Corte Suprema de Justicia [CSJ] [Supreme Court of Justice], Sala de Casación Civil. 12 de diciembre de 2018. M.P.: Margarita Cabello Blanco. Exp. SC5686-2018. (Colom.).
Corte Suprema de Justicia [CSJ] [Supreme Court of Justice], Sala de Casación Civil. 18 de noviembre de 2019. M.P.: Luis Alonso Rico Puerta. Exp. SC4966-2019. (Colom.).
Corte Suprema de Justicia [CSJ] [Supreme Court of Justice], Sala de Casación Civil. 20 de septiembre de 2019. M.P.: Luis Armando Tolosa Villabona. Exp. SC3862-2019. (Colom.).
Corte Suprema de Justicia [CSJ] [Supreme Court of Justice], Sala de Casación Civil. 18 de diciembre de 2020. M.P.: Luis Alonso Rico Puerta. Exp. SC5176-2020. (Colom.).
Corte Suprema de Justicia [CSJ] [Supreme Court of Justice], Sala de Casación Civil. 27 de marzo de 2023. M.P.: Hilda González Neira. Exp. SC065-2023. (Colom.).
Consejo de Estado [CE] [Council of State], Sala de lo Contencioso Administrativo, Sección Tercera. 13 de septiembre de 2001. C.P.: Jesús María Carrillo Ballesteros. Exp. 12487. (Colom.).